據美國《科學》雜志網站19日報道,歐盟委員會發布新計劃稱,將制定法律嚴格監管高風險人工智能(AI)技術,更新歐盟2018年AI發展戰略,未來在AI研發領域投資數十億美元等,以進一步促進歐盟AI產業發展。
該委員會將起草新法律,管理AI技術的高風險應用,例如在醫療設備、自動駕駛汽車內的應用等。盡管這些法律將比歐盟以往發布的任何法律都更廣泛且更嚴格,但歐洲委員會主席烏爾蘇拉·馮·德·萊恩表示,這些法律的目的是促進“信任,而非恐懼”。
與美國相比,歐洲對AI采取的態度更為謹慎,歐盟官員希望通過監管贏得消費者的信任,從而推動AI技術的廣泛采用,幫助歐洲在國際AI技術競爭中脫穎而出。
歐盟委員會指出,確定某些應用是否是“高風險”應用有一套準則。例如,是否會導致人受傷、或者會導致人對機器人決定(如AI用于招聘或警務活動)沒有任何發言權。歐盟委員會希望,高風險應用需要人工監督。
法律還將確定誰為AI系統的行為負責:使用AI系統的公司還是設計AI系統的公司。高風險應用程序必須被證明遵守法規,才能在歐盟內廣泛使用。
此外,這些法律還將管理用于訓練AI系統的大型數據集,以確保它們合法采購、來源合法。歐盟委員會反壟斷專員瑪格麗特·維斯塔格說:“AI系統可靠的基礎是技術強大且準確。”
歐盟委員會表示,將就“面部識別AI系統在歐洲范圍內開展一場廣泛的討論”。盡管德國等歐盟國家已宣布部署這些系統的計劃,但官員們表示,這些系統經常違反歐盟隱私法,包括有關警察工作的特別規定。
新AI計劃不僅涉及法規,歐盟委員會還將提出一項“行動計劃”,將人工智能整合到交通和醫療等公共服務中,并將更新歐盟2018年人工智能發展戰略,該戰略擬投入15億歐元用于AI研究。此外,歐盟委員會呼吁開展更多研發,包括創立AI“卓越和測試中心”,投資數十億美元建立新型AI產業合作伙伴關系等。
在接下來12周內,專家、游說團體和公眾可對此發表意見,隨后歐盟委員會開始草擬具體法律法規,最終法規需要得到歐洲議會和成員國政府批準,預計今年不太可能完成。(記者劉霞)