韓國生成式人工智能治理新規(guī)則
文 | 蘇州大學王健法學院 尹文平 樊祜璽
2025年8月6日,韓國個人信息保護委員會在首爾召開“生成式人工智能與隱私”公開研討會,并正式發(fā)布《生成式人工智能開發(fā)和使用的個人信息處理指南》(以下簡稱《指南》)。這是韓國首次針對生成式人工智能全生命周期個人信息處理進行的系統(tǒng)性規(guī)范,為生成式人工智能開發(fā)和使用過程中的個人信息安全處理提供了指引。
《指南》展現(xiàn)了韓國在生成式人工智能個人信息保護監(jiān)管領域的政策前瞻性,其內容與歐洲數(shù)據(jù)保護委員會發(fā)布的《人工智能隱私風險與緩解措施—大型語言模型》、美國國家標準與技術研究院發(fā)布的《隱私框架》以及英國政府發(fā)布的《人工智能手冊》中的隱私治理內容相呼應,反映出韓國與全球人工智能治理的聯(lián)系和一致性。
發(fā)布背景
生成式人工智能技術的高速發(fā)展,為全球科技創(chuàng)新與經濟增長提供了強大動力。生成式人工智能發(fā)展的根基在于對海量數(shù)據(jù)的收集和處理。隨著生成式人工智能應用領域和范圍的擴大,其帶來的個人信息處理風險愈發(fā)突出。特別是個人信息的未授權采集、濫用和泄露等問題屢現(xiàn),這可能使公眾暴露于數(shù)據(jù)監(jiān)視之下,使個體的人格、隱私與主體性遭受嚴重威脅。因此,如何通過明確的規(guī)則實現(xiàn)技術進步與個人信息保護之間的平衡,已成為各國人工智能監(jiān)管部門共同面臨的重要課題。
韓國作為數(shù)據(jù)資源大國,其醫(yī)療、公共、金融等領域的數(shù)據(jù)已成為驅動生成式人工智能發(fā)展的關鍵材料。隨著生成式人工智能帶來的侵犯個人信息風險加劇,韓國公眾和業(yè)界對生成式人工智能開發(fā)和使用過程中的個人信息保護需求愈發(fā)迫切。在此背景下,韓國制定了《指南》,旨在回應個人信息可以合法用于人工智能訓練的標準、如何在生成式人工智能開發(fā)利用階段建立個人信息安全管理體系等問題。
主要內容
《指南》以生成式人工智能開發(fā)和使用的全生命周期管理思路,將生成式人工智能開發(fā)和使用劃分為目的設定、戰(zhàn)略制定、人工智能的訓練與開發(fā)以及系統(tǒng)應用與管理四個階段,并在各階段分環(huán)節(jié)明確了個人信息保護法規(guī)政策要求和具體保護措施建議,為平衡技術發(fā)展與隱私保護提供了基本框架。這對于各國解決生成式人工智能開發(fā)和使用全過程中個人信息保護法規(guī)政策適用的模糊性問題,提高不同類型生成式人工智能服務提供企業(yè)或其他組織機構的自主守法能力等具有重要作用。
《指南》還詳細列舉了主要的法規(guī)政策和典型案例,并以附件形式提供了按人工智能開發(fā)和使用階段分類的隱私注意事項示例表。但《指南》旨在提高與生成式人工智能開發(fā)、使用相關的個人信息保護合規(guī)性,并不涉及其他法律法規(guī)規(guī)定的義務。
·
規(guī)范人工智能收集和處理個人信息的目的
·
《指南》提出生成式人工智能在開發(fā)和使用過程中收集和處理個人信息的目的必須明確、具體以及行為必須合法。
在目的明確和具體方面,《指南》以案例指出開發(fā)和使用單純以統(tǒng)計目的或基于未來人工智能的學習分析目的長時間存儲學生的學習時間、成績水平、進度率等信息的生成式人工智能,違反了《個人信息保護法》第3條第1款確立的個人信息處理者必須明確個人信息處理目的的個人信息保護原則。
在行為合法方面,《指南》建議基于明確和具體目的的個人信息處理活動應有相應法律依據(jù)。《指南》將生成式人工智能開發(fā)和使用的個人信息處理類型分為已經公開的個人信息、已經收集的用戶個人信息兩類。針對已經公開的個人信息,在難以獲取信息主體同意的前提下,可根據(jù)《個人信息保護法》第15條第1款第6項“正當利益”條款,從個人信息處理目的正當性、處理必要性以及處理者與被處理者利益衡量三個方面審查生成式人工智能技術對已公開個人信息處理的合法性。針對已經收集的用戶個人信息,若企業(yè)或其他組織機構計劃將這類個人信息重新用于人工智能訓練,需結合個人信息的原始收集目的和人工智能服務的相關性進行自我評估,并判斷新的個人信息處理目的是否屬于目的內使用、追加使用或獨立目的使用。根據(jù)不同的目的類型,在《個人信息保護法》中選擇對應的條款依據(jù)。此外,針對個人敏感信息或唯一識別信息,信息處理者需要獲得信息主體的單獨同意或明確的法律授權。
·
制定人工智能開發(fā)和使用的隱私戰(zhàn)略
·
《指南》建議生成式人工智能開發(fā)和使用的戰(zhàn)略制定必須充分考慮常見的隱私策略,將隱私設計、隱私影響評估融入生成式人工智能開發(fā)和使用的戰(zhàn)略制定中。
《指南》明確了企業(yè)或其他組織機構選擇不同類型大語言模型開發(fā)和使用的隱私風險識別和行動要求。對于提供基于服務型大語言模型的人工智能服務企業(yè)或其他組織機構,需要通過許可協(xié)議、使用條款等來明確個人信息處理的目的、方式和范圍。同時,《指南》建議優(yōu)先選擇企業(yè)API許可證,以避免個人API服務默認輸入數(shù)據(jù)的可訓練性。企業(yè)或其他組織機構還要注重審查數(shù)據(jù)跨境流動是否符合法律要求。此外,以開源大語言模型為主要對象進行模型二次開發(fā)的個人信息處理者,要特別注意初始訓練數(shù)據(jù)集可能存在的個人信息侵權風險,并在后續(xù)模型的開發(fā)和使用過程中對個人信息風險進行識別、處置和預防;自主開發(fā)大語言模型的企業(yè)或其他組織機構,需要在人工智能開發(fā)和使用的全生命周期(包括但不限于數(shù)據(jù)的預訓練、微調、部署和運營、后期管理等階段)識別個人信息風險因素,并采取相關措施降低風險。
·
強化模型訓練和開發(fā)的隱私保障
·
生成式人工智能具有將訓練數(shù)據(jù)集中包含的信息以一種永久記憶的形式內化的技術特性,這可能導致原始信息直接暴露在輸出結果中,或被用于敏感信息的推理等場景,直接增加個人信息主體權益受到侵害的風險。《指南》建議從生成式人工智能訓練和開發(fā)階段的數(shù)據(jù)、模型和系統(tǒng)三個層面考慮技術性及管理性的隱私安全措施。
在數(shù)據(jù)層面,《指南》建議從系統(tǒng)應對數(shù)據(jù)破壞活動、排除明確表示拒絕抓取的內容、數(shù)據(jù)集的假名或匿名化處理、強制刪除個人身份識別信息以及使用隱私增強技術等方面來保障個人信息安全。在模型層面,《指南》建議通過模型微調、對齊等技術以及防御隱私攻擊來降低個人信息風險。在系統(tǒng)層面,《指南》建議通過嚴格控制訪問權限、應用敏感信息過濾器和檢索增強技術以及使用人工智能代理來減少個人信息風險。
由于生成式人工智能訓練和部署具有反復性,《指南》還建議企業(yè)或其他組織機構在生成式人工智能訓練與開發(fā)過程中建立一個持續(xù)的隱私評估體系。
·
防范系統(tǒng)應用與管理的個人信息風險
·
系統(tǒng)應用與管理是生成式人工智能系統(tǒng)在完成訓練和開發(fā)后,部署、應用于實際場景并正式提供服務的最后階段。針對這一階段,《指南》將風險管理制度細化為部署前與部署后兩部分。
在部署前階段,《指南》建議:一方面,重點核驗人工智能輸出結果的準確性,測試其抵御各類繞過安全措施行為的能力,同時評估學習數(shù)據(jù)存在泄露風險的可能性。所有檢查過程及結果均需形成規(guī)范文檔,為后續(xù)部署提供測試依據(jù)。另一方面,依據(jù)測試識別的風險制定并公開可接受使用政策,明確服務的使用目的與禁止行為。
進入部署后階段,《指南》建議企業(yè)或其他組織機構在實施常態(tài)化個人信息風險監(jiān)測的基礎上,著重構建信息主體的權利保障機制。受當前技術發(fā)展水平所限,信息主體依《個人信息保護法》享有的查閱、更正、刪除等傳統(tǒng)權利的實現(xiàn)可能面臨一定限制。即便如此,生成式人工智能服務提供者仍需向信息主體清晰說明限制原因,并通過輸出過濾等替代性技術手段,切實回應并滿足信息主體的合理訴求?!吨改稀愤€建議企業(yè)或其他組織機構保障信息主體對生成式人工智能系統(tǒng)自動化決策的拒絕權、解釋請求權及審查請求權;在相關文件中清晰公開人工智能訓練數(shù)據(jù)的收集、來源、處理目的及過程以確保透明度;對人工智能代理則要明確告知對話歷史等訓練數(shù)據(jù)的利用、向第三方提供、保管銷毀及過濾標準等情況,并預留充足時間供用戶選擇是否退出。
·
構建人工智能隱私治理體系
·
隨著生成式人工智能數(shù)據(jù)處理流程日趨復雜,風險管理的重要性愈發(fā)凸顯。除四階段需要考慮的個人信息保護事項外,《指南》還明確指出,建立企業(yè)和組織內部的人工智能隱私治理體系至關重要,尤其是需要以個人信息保護負責人為核心,構建形成內部管理體系。同時建議通過個人信息影響評估、紅線管理等方式,對隱私風險開展持續(xù)評估。
《指南》提出,個人信息保護負責人應從人工智能的規(guī)劃、開發(fā)初期就主動介入,全面掌握個人信息處理的相關情況,并及時向相關部門反饋,進而建立起能將個人信息保護原則內化為生成式人工智能服務的隱私治理體系。
(來源:人民法院報)
