您是中國企業(yè),但是您屬于通用AI模型,那么您針對歐盟市場的部署的許可協(xié)議(License Agreement)是否應該調(diào)整呢?是否要區(qū)分終端用戶許可協(xié)議End-User License Agreement呢?
您是中國玩具制造企業(yè),我的產(chǎn)品中AI的結果將會被用在歐盟市場中,那么使用我自己的商標和僅做OEM,歐盟AI法案會對我產(chǎn)生影響嗎?我屬不屬于GPAI對我會產(chǎn)生影響嗎?
一、歐盟AI法案:
1.歐盟AI法案的重要地位
歐盟AI法案(EU AI Act)是全球首個全面監(jiān)管人工智能的法律,雖然該法案僅適用于歐盟法律范圍內(nèi)的領域,并提供豁免,例如專門用于軍事和國防以及研究目的的系統(tǒng),但它具有重要的里程碑意義,在全球范圍內(nèi)提供了指引和標準。其核心目標是通過基于風險的方法,確保人工智能技術在歐盟范圍內(nèi)安全、可信賴地發(fā)展,同時保護歐盟公民的基本權利。該法案不僅為AI系統(tǒng)設立了詳細的分類和監(jiān)管要求,還強調(diào)透明度和問責制,旨在為全球AI監(jiān)管樹立標準。
2.法案時間軸:
(1) 起草與提議:
- 歐盟委員會在2021年首次提出了AI法案的草案,經(jīng)過廣泛的討論,草案結合了對AI技術的潛在風險和機遇的評估。
(2) 審議與協(xié)商:
- 草案發(fā)布后,歐盟成員國、歐盟理事會和歐洲議會進行了多輪討論和修訂。各方在法案的細節(jié)上進行了激烈的商討,特別是在風險分類、基本權利保護和創(chuàng)新促進等方面。
(3) 正式通過:
- 經(jīng)過兩年的審議,歐盟AI法案于2024年5月正式獲得歐洲理事會的批準。該法案的通過標志著歐盟在全球AI監(jiān)管領域邁出了關鍵一步,并為其他國家和地區(qū)提供了參考和借鑒。
3.后續(xù)時間節(jié)點:
(1) 2024年6月-7月——《人工智能法案》將公布在《歐洲聯(lián)盟官方期刊》上。這標志著新法律的正式發(fā)布。
(2) 20天后——《人工智能法案》將在公布于《官方期刊》后的20天內(nèi)“生效”。自此日起,根據(jù)第113條,將有以下里程碑:
? 6個月后——第一章和第二章(禁止的AI實踐行為)將開始適用。
? 12個月后——第三章第四節(jié)(通知當局)、第五章(通用人工智能模型)、第七章(治理)、第十二章(保密性和處罰)以及第78條(保密性)將開始適用,除了第101條(對GPAI提供者的罰款)之外。
? 24個月后——《人工智能法案》的其余部分將適用,除了以下:
? 36個月后——第6條第1款及本法規(guī)中的相應義務將適用。
(3) 根據(jù)第56條,實踐規(guī)范指引必須在生效后9個月內(nèi)準備就緒。
二、歐盟AI法案概要及影響:
1.AI法案內(nèi)容概要
(1) 基于風險的分類:
- AI系統(tǒng)被分為低風險、中等風險、高風險和不可接受風險類別。高風險系統(tǒng)必須經(jīng)過嚴格的審查和批準,而不可接受風險系統(tǒng)則被完全禁止。
(2) 透明度和問責制:
- 所有高風險AI系統(tǒng)必須進行基本權利影響評估,并在公共數(shù)據(jù)庫中注冊。法案還設立了多個監(jiān)管機構,以確保法律的實施和遵守。
(3) 創(chuàng)新促進:
- 法案通過設立AI監(jiān)管沙盒,鼓勵創(chuàng)新技術的開發(fā)和測試,同時確保這些創(chuàng)新在安全和可控的環(huán)境中進行。
2.哪些人受到AI法案影響:
Provider提供者:開發(fā)人工智能系統(tǒng)或通用人工智能模型(或已開發(fā)人工智能系統(tǒng)或通用人工智能模型)并將其投放市場或以其自己的名稱或商標投入使用的自然人或法人、公共當局、機構或其他機構,無論是付費還是免費;
Deployer部署者:在其權力范圍內(nèi)使用人工智能系統(tǒng)的任何自然人或法人、公共當局、機構或其他機構,但用于個人非專業(yè)活動的人工智能系統(tǒng)除外;
Distributor分發(fā)者:供應鏈中除提供者或進口者以外的任何將人工智能系統(tǒng)投放到聯(lián)盟市場的自然人或法人;
Importer進口者:位于或設立在聯(lián)盟內(nèi)的任何自然人或法人,將帶有在聯(lián)盟以外設立的自然人或法人的名稱或商標的人工智能系統(tǒng)投放市場;
Authorised representative授權代表:位于或設立在聯(lián)盟內(nèi)的任何自然人或法人,已收到并接受人工智能系統(tǒng)或通用人工智能模型提供者的書面授權,分別代表其履行和執(zhí)行本法規(guī)規(guī)定的義務和程序。
Product manufacturer產(chǎn)品制造商:將人工智能系統(tǒng)與其產(chǎn)品一起以自己的名稱或商標投放市場或投入使用;
特別值得注意的是,并非所有這些角色都有相同的義務,同樣值得注意的是AI法案具有域外效力。它適用于任何在歐盟內(nèi)部運營人工智能系統(tǒng)的公司以及位于歐盟以外的公司。
例如您是歐盟域外Provider提供者,但您的系統(tǒng)根據(jù)AI法案第5條屬于被禁止的類型,但由位于歐盟的下游部署人員使用,如果您屬于通用AI模型GPAI,那么根據(jù)第53條您仍負有義務如下:
創(chuàng)建并保存 AI 模型的技術文檔,并根據(jù)要求將其提供給 AI 監(jiān)督辦公室。
為集成 AI 模型的提供者創(chuàng)建并保存文檔,平衡透明度和 IP 保護。
制定尊重聯(lián)盟版權法的政策。
根據(jù) AI 辦公室提供的模板發(fā)布 AI 模型訓練數(shù)據(jù)的公開摘要。
所以,即便您是中國的企業(yè),如果您是做GPAI即通用AI模型,且屬于被禁止的類型,那么一旦被部署到歐盟要注意:
1. 自己的合規(guī)義務
2. 與部署者的協(xié)議條款以及合規(guī)要求
但以下不適用AI法案
專為軍事目的而開發(fā)和使用的人工智能系統(tǒng);
第三國公共當局或國際組織用于執(zhí)法和司法合作的人工智能系統(tǒng);
人工智能研究和開發(fā)活動;
將人工智能系統(tǒng)用于純個人、非專業(yè)活動的人。
三、歐盟AI法案的風險分級
1.AI法案的風險分級:
(1) 禁止的AI實踐:例如“實時”遠程生物特征識別系統(tǒng)。
(2) 高風險AI系統(tǒng):包括關鍵基礎設施、教育、就業(yè)、人類資源管理、執(zhí)法、司法等領域的應用。此類系統(tǒng)需滿足嚴格的合規(guī)要求。
(3) 有限風險AI系統(tǒng):如聊天機器人,需滿足特定的披露義務。
(4) 最低風險AI系統(tǒng):例如視頻游戲中的AI,無需額外監(jiān)管,但若您是提供者或者屬于通用AI模型,則仍需滿足特定的披露義務。
2.完全禁止的AI實踐行為:
您的系統(tǒng)是否執(zhí)行其中任何一項功能?
? 超出個人意識的潛意識技術,或有目的地操縱或欺騙技術;
? 利用自然人或特定群體弱點;
? 生物特征分類;
? 社交評分;
? 預測警務;
? 擴大面部識別數(shù)據(jù)庫;
? 情緒識別;
? 實時遠程生物特征識別;
若是,則屬于完全禁止的AI實踐行為。
3.哪些屬于高風險AI系統(tǒng)?:
(1) 關鍵基礎設施的管理(如運輸、電力供應等)使用的AI系統(tǒng)。
(2) 教育和職業(yè)培訓中的AI系統(tǒng)(如用于評估考試或考核的系統(tǒng))。
(3) 就業(yè)、工人管理和自營職業(yè)中的AI系統(tǒng)(如用于招聘或績效評估的系統(tǒng))。
(4) 公共和私人服務的獲取權益中的AI系統(tǒng)(如信用評分系統(tǒng))。
(5) 執(zhí)法中的AI系統(tǒng)(如用于預測犯罪的系統(tǒng))。
(6) 移民、庇護和邊境控制中的AI系統(tǒng)(如用于簽證和庇護決定的系統(tǒng))。
(7) 司法系統(tǒng)中的AI系統(tǒng)(如用于法律研究或判決建議的系統(tǒng))。
4.視為高風險的情況:
如果您的AI系統(tǒng)或嵌入式AI系統(tǒng)屬于以下歐盟協(xié)調(diào)立法約束范疇,且根據(jù)要求需要接受第三方合規(guī)評估,系統(tǒng)將被視為高風險:
? 機械
? 玩具
? 娛樂船艇和個人水上交通工具
? 升降機和升降機安全部件
? 用于潛在爆炸性環(huán)境的設備和防護系統(tǒng)
? 無線電設備
? 壓力設備
? 索道設施
? 個人防護設備
? 燃燒氣體燃料的器具
? 醫(yī)療設備
? 體外診斷醫(yī)療設備
但如果您屬于以下歐盟協(xié)調(diào)立法約束范疇
? 民航安全
? 兩輪或三輪汽車和四輪車
? 農(nóng)林車輛
? 船舶設備
? 鐵路系統(tǒng)互操作性
? 機動車及其拖車
? 民航
那您的系統(tǒng)屬于AIA除外規(guī)定,僅有112號條文義務適用,但仍需:
? 遵守歐盟協(xié)調(diào)立法法規(guī);
? 密切關注歐盟的新發(fā)展并遵守任何新法規(guī)。
四、合規(guī)義務:
1.高風險AI系統(tǒng)的合規(guī)義務
根據(jù)第 9 條建立和實施風險管理流程。
根據(jù)第 10 條,使用高質(zhì)量的訓練、驗證和測試數(shù)據(jù)。
根據(jù)第 11 條和第 12 條,建立文檔并設計日志記錄功能。
根據(jù)第 13 條,確保適當?shù)耐该鞫炔⑾蛴脩籼峁┬畔ⅰ?/span>
根據(jù)第 14 條,確保人工監(jiān)督措施已內(nèi)置于系統(tǒng)中或由用戶實施。
根據(jù)第 15 條,確保穩(wěn)健性、準確性和網(wǎng)絡安全。
此外,根據(jù)身份不同,還有不同合規(guī)義務。如對于Provider提供者,需要確保高風險人工智能系統(tǒng)在投放市場或投入使用之前經(jīng)過第 43 條所述的相關合規(guī)評審,并出具歐盟合規(guī)聲明(10年保存義務),并加貼CE標志等。而作為Distributor分發(fā)者,在分發(fā)前必須要驗證其是否具有所需的 CE 符合性標記、文檔和使用說明,以及提供者和進口者是否已履行其義務,若發(fā)現(xiàn)不合規(guī),還負有報告義務。
2.通用 AI 模型合規(guī)義務:
通用人工智能模型是指包括使用大規(guī)模自我監(jiān)督訓練大量數(shù)據(jù)后的人工智能模型,F(xiàn)LOPs大于10的25次方,該模型表現(xiàn)出顯著的通用性,無論模型以何種方式投放市場,都能夠勝任各種不同的任務,并可集成到各種下游系統(tǒng)或應用程序中。
則需要遵守通用人工智能模型合規(guī)義務:
? 創(chuàng)建并保存 AI 模型的技術文檔,并根據(jù)要求將其提供給 AI 監(jiān)管辦公室。
? 為集成 AI 模型的提供者創(chuàng)建并保存文檔,平衡好披露義務和知識產(chǎn)權保護。
? 制定尊重聯(lián)盟版權的法律法規(guī)。
? 根據(jù) AI 監(jiān)管辦公室提供的模板發(fā)布 AI 模型訓練數(shù)據(jù)的公開摘要。
此外,仍需要考慮 通用AI模型 是否用作 AI 系統(tǒng)或作為 AI 系統(tǒng)的組成部分。如果是,則根據(jù)第 85 條附注,高風險 AI 系統(tǒng)的義務可能直接或間接適用,也就是說企業(yè)要隨時關注自己的GPAI模型是否被嵌入到其他高風險AI系統(tǒng)中。
3.開源人工智能系統(tǒng)需注意:
歐盟AI法案不適用于根據(jù)免費和開源許可發(fā)布的人工智能系統(tǒng),但若其作為高風險AI系統(tǒng)或包含完全禁止的AI實踐行為或帶有與自然人互動的人工智能系統(tǒng)投放市場或投入使用,則仍需要遵守AI法案。
五、處罰措施:
(1) 違反禁止的AI實踐規(guī)定,將被處以最高 35,000,000 歐元的行政罰款,如果違法者是企業(yè),則最高罰款金額為其上一財年全球年營業(yè)額的 7%,以較高者為準。
(2) 對違反相關規(guī)定的提供者、分發(fā)者等,將被處以最高 15,000,000 歐元的行政罰款,如果違法者是企業(yè),則最高罰款金額為其上一財年全球年營業(yè)額的 3%,以較高者為準。特別要注意的是,如違反披露義務也會被進行處罰。
(3) 對于在回復監(jiān)管機構時,提供虛假、不完整或誤導性信息的,可處以將被處以最高 7,500,000 歐元的行政罰款,如果違法者是企業(yè),則最高罰款金額為其上一財年全球年營業(yè)額的 1%,以較高者為準。
(4) 對于中小企業(yè),以上以較低者為準。
(5) 對于通用AI模型的提供者,若存在故意或過失導致未能遵守相關義務,或未能提供所要求的文件或信息,或提供虛假、不完整或誤導性信息,可處以最高達其上一財年全球總營業(yè)額的3%或15,000,000歐元(以較高者為準)的罰款。
六、促進創(chuàng)新:
看似AI法案的監(jiān)管以及處罰力度非常大,但實際上其也提供了促進創(chuàng)新的制度安排。
監(jiān)管沙盒(Regulatory Sandbox)是一種創(chuàng)新的監(jiān)管框架,允許企業(yè)在受控和監(jiān)督的環(huán)境下測試和試驗新技術或新產(chǎn)品。這種機制通常由監(jiān)管機構提供和管理,旨在在不完全適用現(xiàn)行法規(guī)的情況下,讓創(chuàng)新技術能夠在有限的范圍內(nèi)進行實際測試,從而在確保安全和合規(guī)的前提下,促進創(chuàng)新和技術發(fā)展。
1.監(jiān)管沙盒的特點
(1)受控環(huán)境:
- 企業(yè)在監(jiān)管沙盒中進行測試時,受到嚴格的監(jiān)督和控制,以確保新技術在測試過程中不會對公眾和市場造成重大風險。
(2)有限時間和范圍:
- 監(jiān)管沙盒的測試通常在特定的時間和范圍內(nèi)進行,明確規(guī)定了測試的期限和應用場景。
(3)靈活的監(jiān)管措施:
- 參與沙盒的企業(yè)可以在不完全符合現(xiàn)行法規(guī)的情況下,進行創(chuàng)新技術的測試和試驗。監(jiān)管機構可能會根據(jù)測試的具體情況,提供靈活的監(jiān)管措施和指導。
(4)反饋機制:
- 企業(yè)在沙盒中進行測試后,需要向監(jiān)管機構提供詳細的測試結果和反饋,幫助監(jiān)管機構更好地理解新技術的風險和潛力,從而制定更合理的監(jiān)管政策。
2.全球參考沙盒實例:
英國的藥品和醫(yī)療產(chǎn)品監(jiān)管機構(MHRA)推出了AI-Airlock項目,這是一種專門為AI醫(yī)療設備開發(fā)的監(jiān)管沙盒。該項目為開發(fā)者提供了一個監(jiān)管監(jiān)控下的虛擬環(huán)境,用于生成先進技術的可靠證據(jù),從而加速創(chuàng)新技術的安全部署,并確保這些技術在進入市場前得到充分測試。
英國金融行為監(jiān)管局(FCA)沙盒專注于金融科技,同時承認金融領域應用的人工智能相關解決方案。
法國數(shù)據(jù)保護局(CNIL)推出了首個“個人數(shù)據(jù)沙盒”。沙盒針對的是面臨與個人數(shù)據(jù)監(jiān)管相關的新問題的組織,該監(jiān)管沙盒不會免除參與者的GDPR等法規(guī)義務,但是它將幫助組織從設計階段就實施隱私保護。
七、對中國企業(yè)的影響和啟示:
歐盟AI法案不僅在全球AI監(jiān)管領域樹立了標準,還為其他國家提供了寶貴的經(jīng)驗和借鑒,所以作為中國跨國企業(yè)應該持續(xù)關注AI法案下的合規(guī)問題,并可積極參與和關注標準制定以及監(jiān)管沙盒的應用。
以上歐盟AI法案法條為2024年4月19日的人工智能法案版本。