一级无码免费啪啪|少妇人妻无码专区毛片|一本久久知道综合久久|精品无人区一区二区三区a|国产欧美日韩在线视频一区|久久精品国产日本一区二区|2021亚洲va在线va国产|91精品欧美一区二区综合在线

歡迎來到北京京師(成都)律師事務所!
官方咨詢熱線:028-85316633
了解律所 專業(yè)人員 新聞資訊 更多
返回頂部
新聞資訊
專業(yè)講座
全球首個AI法案--歐盟AIA:中國跨國企業(yè)如何在合規(guī)中贏得先機?
來源:原創(chuàng) 閱讀次數(shù):222 時間:2024/07/03 10:37:23


您是中國企業(yè),但是您屬于通用AI模型,那么您針對歐盟市場的部署的許可協(xié)議(License Agreement)是否應該調(diào)整呢?是否要區(qū)分終端用戶許可協(xié)議End-User License Agreement呢?

您是中國玩具制造企業(yè),我的產(chǎn)品中AI的結果將會被用在歐盟市場中,那么使用我自己的商標和僅做OEM,歐盟AI法案會對我產(chǎn)生影響嗎?我屬不屬于GPAI對我會產(chǎn)生影響嗎?

一、歐盟AI法案:

1.歐盟AI法案的重要地位

歐盟AI法案(EU AI Act)是全球首個全面監(jiān)管人工智能的法律,雖然該法案僅適用于歐盟法律范圍內(nèi)的領域,并提供豁免,例如專門用于軍事和國防以及研究目的的系統(tǒng),但它具有重要的里程碑意義,在全球范圍內(nèi)提供了指引和標準。其核心目標是通過基于風險的方法,確保人工智能技術在歐盟范圍內(nèi)安全、可信賴地發(fā)展,同時保護歐盟公民的基本權利。該法案不僅為AI系統(tǒng)設立了詳細的分類和監(jiān)管要求,還強調(diào)透明度和問責制,旨在為全球AI監(jiān)管樹立標準。

2.法案時間軸:

(1) 起草與提議:

- 歐盟委員會在2021年首次提出了AI法案的草案,經(jīng)過廣泛的討論,草案結合了對AI技術的潛在風險和機遇的評估。

(2) 審議與協(xié)商:

- 草案發(fā)布后,歐盟成員國、歐盟理事會和歐洲議會進行了多輪討論和修訂。各方在法案的細節(jié)上進行了激烈的商討,特別是在風險分類、基本權利保護和創(chuàng)新促進等方面。

(3) 正式通過:

- 經(jīng)過兩年的審議,歐盟AI法案于2024年5月正式獲得歐洲理事會的批準。該法案的通過標志著歐盟在全球AI監(jiān)管領域邁出了關鍵一步,并為其他國家和地區(qū)提供了參考和借鑒。

3.后續(xù)時間節(jié)點:

(1) 2024年6月-7月——《人工智能法案》將公布在《歐洲聯(lián)盟官方期刊》上。這標志著新法律的正式發(fā)布。

(2) 20天后——《人工智能法案》將在公布于《官方期刊》后的20天內(nèi)“生效”。自此日起,根據(jù)第113條,將有以下里程碑:

? 6個月后——第一章和第二章(禁止的AI實踐行為)將開始適用。

? 12個月后——第三章第四節(jié)(通知當局)、第五章(通用人工智能模型)、第七章(治理)、第十二章(保密性和處罰)以及第78條(保密性)將開始適用,除了第101條(對GPAI提供者的罰款)之外。

? 24個月后——《人工智能法案》的其余部分將適用,除了以下:

? 36個月后——第6條第1款及本法規(guī)中的相應義務將適用。

(3) 根據(jù)第56條,實踐規(guī)范指引必須在生效后9個月內(nèi)準備就緒。

二、歐盟AI法案概要及影響:

1.AI法案內(nèi)容概要

(1) 基于風險的分類:

- AI系統(tǒng)被分為低風險、中等風險、高風險和不可接受風險類別。高風險系統(tǒng)必須經(jīng)過嚴格的審查和批準,而不可接受風險系統(tǒng)則被完全禁止。

(2) 透明度和問責制:

- 所有高風險AI系統(tǒng)必須進行基本權利影響評估,并在公共數(shù)據(jù)庫中注冊。法案還設立了多個監(jiān)管機構,以確保法律的實施和遵守。

(3) 創(chuàng)新促進:

- 法案通過設立AI監(jiān)管沙盒,鼓勵創(chuàng)新技術的開發(fā)和測試,同時確保這些創(chuàng)新在安全和可控的環(huán)境中進行。

2.哪些人受到AI法案影響:

Provider提供者:開發(fā)人工智能系統(tǒng)或通用人工智能模型(或已開發(fā)人工智能系統(tǒng)或通用人工智能模型)并將其投放市場或以其自己的名稱或商標投入使用的自然人或法人、公共當局、機構或其他機構,無論是付費還是免費;

Deployer部署者:在其權力范圍內(nèi)使用人工智能系統(tǒng)的任何自然人或法人、公共當局、機構或其他機構,但用于個人非專業(yè)活動的人工智能系統(tǒng)除外;

Distributor分發(fā)者:供應鏈中除提供者或進口者以外的任何將人工智能系統(tǒng)投放到聯(lián)盟市場的自然人或法人;

Importer進口者:位于或設立在聯(lián)盟內(nèi)的任何自然人或法人,將帶有在聯(lián)盟以外設立的自然人或法人的名稱或商標的人工智能系統(tǒng)投放市場;

Authorised representative授權代表:位于或設立在聯(lián)盟內(nèi)的任何自然人或法人,已收到并接受人工智能系統(tǒng)或通用人工智能模型提供者的書面授權,分別代表其履行和執(zhí)行本法規(guī)規(guī)定的義務和程序。

Product manufacturer產(chǎn)品制造商:將人工智能系統(tǒng)與其產(chǎn)品一起以自己的名稱或商標投放市場或投入使用;

特別值得注意的是,并非所有這些角色都有相同的義務,同樣值得注意的是AI法案具有域外效力。它適用于任何在歐盟內(nèi)部運營人工智能系統(tǒng)的公司以及位于歐盟以外的公司。

例如您是歐盟域外Provider提供者,但您的系統(tǒng)根據(jù)AI法案第5條屬于被禁止的類型,但由位于歐盟的下游部署人員使用,如果您屬于通用AI模型GPAI,那么根據(jù)第53條您仍負有義務如下:

創(chuàng)建并保存 AI 模型的技術文檔,并根據(jù)要求將其提供給 AI 監(jiān)督辦公室。

為集成 AI 模型的提供者創(chuàng)建并保存文檔,平衡透明度和 IP 保護。

制定尊重聯(lián)盟版權法的政策。

根據(jù) AI 辦公室提供的模板發(fā)布 AI 模型訓練數(shù)據(jù)的公開摘要。

所以,即便您是中國的企業(yè),如果您是做GPAI即通用AI模型,且屬于被禁止的類型,那么一旦被部署到歐盟要注意:

1. 自己的合規(guī)義務

2. 與部署者的協(xié)議條款以及合規(guī)要求

但以下不適用AI法案

專為軍事目的而開發(fā)和使用的人工智能系統(tǒng);

第三國公共當局或國際組織用于執(zhí)法和司法合作的人工智能系統(tǒng);

人工智能研究和開發(fā)活動;

將人工智能系統(tǒng)用于純個人、非專業(yè)活動的人。

三、歐盟AI法案的風險分級

1.AI法案的風險分級:

(1) 禁止的AI實踐:例如“實時”遠程生物特征識別系統(tǒng)。

(2) 高風險AI系統(tǒng):包括關鍵基礎設施、教育、就業(yè)、人類資源管理、執(zhí)法、司法等領域的應用。此類系統(tǒng)需滿足嚴格的合規(guī)要求。

(3) 有限風險AI系統(tǒng):如聊天機器人,需滿足特定的披露義務。

(4) 最低風險AI系統(tǒng):例如視頻游戲中的AI,無需額外監(jiān)管,但若您是提供者或者屬于通用AI模型,則仍需滿足特定的披露義務。

2.完全禁止的AI實踐行為:

您的系統(tǒng)是否執(zhí)行其中任何一項功能?

? 超出個人意識的潛意識技術,或有目的地操縱或欺騙技術;

? 利用自然人或特定群體弱點;

? 生物特征分類;

? 社交評分;

? 預測警務;

? 擴大面部識別數(shù)據(jù)庫;

? 情緒識別;

? 實時遠程生物特征識別;

若是,則屬于完全禁止的AI實踐行為。

3.哪些屬于高風險AI系統(tǒng)?:

(1) 關鍵基礎設施的管理(如運輸、電力供應等)使用的AI系統(tǒng)。

(2) 教育和職業(yè)培訓中的AI系統(tǒng)(如用于評估考試或考核的系統(tǒng))。

(3) 就業(yè)、工人管理和自營職業(yè)中的AI系統(tǒng)(如用于招聘或績效評估的系統(tǒng))。

(4) 公共和私人服務的獲取權益中的AI系統(tǒng)(如信用評分系統(tǒng))。

(5) 執(zhí)法中的AI系統(tǒng)(如用于預測犯罪的系統(tǒng))。

(6) 移民、庇護和邊境控制中的AI系統(tǒng)(如用于簽證和庇護決定的系統(tǒng))。

(7) 司法系統(tǒng)中的AI系統(tǒng)(如用于法律研究或判決建議的系統(tǒng))。

4.視為高風險的情況:

如果您的AI系統(tǒng)或嵌入式AI系統(tǒng)屬于以下歐盟協(xié)調(diào)立法約束范疇,且根據(jù)要求需要接受第三方合規(guī)評估,系統(tǒng)將被視為高風險:

? 機械

? 玩具

? 娛樂船艇和個人水上交通工具

? 升降機和升降機安全部件

? 用于潛在爆炸性環(huán)境的設備和防護系統(tǒng)

? 無線電設備

? 壓力設備

? 索道設施

? 個人防護設備

? 燃燒氣體燃料的器具

? 醫(yī)療設備

? 體外診斷醫(yī)療設備

但如果您屬于以下歐盟協(xié)調(diào)立法約束范疇

? 民航安全

? 兩輪或三輪汽車和四輪車

? 農(nóng)林車輛

? 船舶設備

? 鐵路系統(tǒng)互操作性

? 機動車及其拖車

? 民航

那您的系統(tǒng)屬于AIA除外規(guī)定,僅有112號條文義務適用,但仍需:

? 遵守歐盟協(xié)調(diào)立法法規(guī);

? 密切關注歐盟的新發(fā)展并遵守任何新法規(guī)。

四、合規(guī)義務:

1.高風險AI系統(tǒng)的合規(guī)義務

根據(jù)第 9 條建立和實施風險管理流程。

根據(jù)第 10 條,使用高質(zhì)量的訓練、驗證和測試數(shù)據(jù)。

根據(jù)第 11 條和第 12 條,建立文檔并設計日志記錄功能。

根據(jù)第 13 條,確保適當?shù)耐该鞫炔⑾蛴脩籼峁┬畔ⅰ?/span>

根據(jù)第 14 條,確保人工監(jiān)督措施已內(nèi)置于系統(tǒng)中或由用戶實施。

根據(jù)第 15 條,確保穩(wěn)健性、準確性和網(wǎng)絡安全。

此外,根據(jù)身份不同,還有不同合規(guī)義務。如對于Provider提供者,需要確保高風險人工智能系統(tǒng)在投放市場或投入使用之前經(jīng)過第 43 條所述的相關合規(guī)評審,并出具歐盟合規(guī)聲明(10年保存義務),并加貼CE標志等。而作為Distributor分發(fā)者,在分發(fā)前必須要驗證其是否具有所需的 CE 符合性標記、文檔和使用說明,以及提供者和進口者是否已履行其義務,若發(fā)現(xiàn)不合規(guī),還負有報告義務。

2.通用 AI 模型合規(guī)義務:

通用人工智能模型是指包括使用大規(guī)模自我監(jiān)督訓練大量數(shù)據(jù)后的人工智能模型,F(xiàn)LOPs大于10的25次方,該模型表現(xiàn)出顯著的通用性,無論模型以何種方式投放市場,都能夠勝任各種不同的任務,并可集成到各種下游系統(tǒng)或應用程序中。

則需要遵守通用人工智能模型合規(guī)義務:

? 創(chuàng)建并保存 AI 模型的技術文檔,并根據(jù)要求將其提供給 AI 監(jiān)管辦公室。

? 為集成 AI 模型的提供者創(chuàng)建并保存文檔,平衡好披露義務和知識產(chǎn)權保護。

? 制定尊重聯(lián)盟版權的法律法規(guī)。

? 根據(jù) AI 監(jiān)管辦公室提供的模板發(fā)布 AI 模型訓練數(shù)據(jù)的公開摘要。

此外,仍需要考慮 通用AI模型 是否用作 AI 系統(tǒng)或作為 AI 系統(tǒng)的組成部分。如果是,則根據(jù)第 85 條附注,高風險 AI 系統(tǒng)的義務可能直接或間接適用,也就是說企業(yè)要隨時關注自己的GPAI模型是否被嵌入到其他高風險AI系統(tǒng)中。

3.開源人工智能系統(tǒng)需注意:

歐盟AI法案不適用于根據(jù)免費和開源許可發(fā)布的人工智能系統(tǒng),但若其作為高風險AI系統(tǒng)或包含完全禁止的AI實踐行為或帶有與自然人互動的人工智能系統(tǒng)投放市場或投入使用,則仍需要遵守AI法案。

五、處罰措施:

(1) 違反禁止的AI實踐規(guī)定,將被處以最高 35,000,000 歐元的行政罰款,如果違法者是企業(yè),則最高罰款金額為其上一財年全球年營業(yè)額的 7%,以較高者為準。

(2) 對違反相關規(guī)定的提供者、分發(fā)者等,將被處以最高 15,000,000 歐元的行政罰款,如果違法者是企業(yè),則最高罰款金額為其上一財年全球年營業(yè)額的 3%,以較高者為準。特別要注意的是,如違反披露義務也會被進行處罰。

(3) 對于在回復監(jiān)管機構時,提供虛假、不完整或誤導性信息的,可處以將被處以最高 7,500,000 歐元的行政罰款,如果違法者是企業(yè),則最高罰款金額為其上一財年全球年營業(yè)額的 1%,以較高者為準。

(4) 對于中小企業(yè),以上以較低者為準。

(5) 對于通用AI模型的提供者,若存在故意或過失導致未能遵守相關義務,或未能提供所要求的文件或信息,或提供虛假、不完整或誤導性信息,可處以最高達其上一財年全球總營業(yè)額的3%或15,000,000歐元(以較高者為準)的罰款。

六、促進創(chuàng)新:

看似AI法案的監(jiān)管以及處罰力度非常大,但實際上其也提供了促進創(chuàng)新的制度安排。

監(jiān)管沙盒(Regulatory Sandbox)是一種創(chuàng)新的監(jiān)管框架,允許企業(yè)在受控和監(jiān)督的環(huán)境下測試和試驗新技術或新產(chǎn)品。這種機制通常由監(jiān)管機構提供和管理,旨在在不完全適用現(xiàn)行法規(guī)的情況下,讓創(chuàng)新技術能夠在有限的范圍內(nèi)進行實際測試,從而在確保安全和合規(guī)的前提下,促進創(chuàng)新和技術發(fā)展。

1.監(jiān)管沙盒的特點

(1)受控環(huán)境:

- 企業(yè)在監(jiān)管沙盒中進行測試時,受到嚴格的監(jiān)督和控制,以確保新技術在測試過程中不會對公眾和市場造成重大風險。

(2)有限時間和范圍:

- 監(jiān)管沙盒的測試通常在特定的時間和范圍內(nèi)進行,明確規(guī)定了測試的期限和應用場景。

(3)靈活的監(jiān)管措施:

- 參與沙盒的企業(yè)可以在不完全符合現(xiàn)行法規(guī)的情況下,進行創(chuàng)新技術的測試和試驗。監(jiān)管機構可能會根據(jù)測試的具體情況,提供靈活的監(jiān)管措施和指導。

(4)反饋機制:

- 企業(yè)在沙盒中進行測試后,需要向監(jiān)管機構提供詳細的測試結果和反饋,幫助監(jiān)管機構更好地理解新技術的風險和潛力,從而制定更合理的監(jiān)管政策。

2.全球參考沙盒實例:

英國的藥品和醫(yī)療產(chǎn)品監(jiān)管機構(MHRA)推出了AI-Airlock項目,這是一種專門為AI醫(yī)療設備開發(fā)的監(jiān)管沙盒。該項目為開發(fā)者提供了一個監(jiān)管監(jiān)控下的虛擬環(huán)境,用于生成先進技術的可靠證據(jù),從而加速創(chuàng)新技術的安全部署,并確保這些技術在進入市場前得到充分測試。

英國金融行為監(jiān)管局(FCA)沙盒專注于金融科技,同時承認金融領域應用的人工智能相關解決方案。

法國數(shù)據(jù)保護局(CNIL)推出了首個“個人數(shù)據(jù)沙盒”。沙盒針對的是面臨與個人數(shù)據(jù)監(jiān)管相關的新問題的組織,該監(jiān)管沙盒不會免除參與者的GDPR等法規(guī)義務,但是它將幫助組織從設計階段就實施隱私保護。

七、對中國企業(yè)的影響和啟示:

歐盟AI法案不僅在全球AI監(jiān)管領域樹立了標準,還為其他國家提供了寶貴的經(jīng)驗和借鑒,所以作為中國跨國企業(yè)應該持續(xù)關注AI法案下的合規(guī)問題,并可積極參與和關注標準制定以及監(jiān)管沙盒的應用。

以上歐盟AI法案法條為2024年4月19日的人工智能法案版本。

返回列表