自GPT-4上線之后,各國對于AI帶來的安全問題愈發重視,紛紛進行調查或出臺政策。或為緩解外界擔憂,4月6日,ChatGPT的開發公司OpenAI在其官網發布《Our approach to AI safety》(《我們保障AI安全的方法》)一文,表示未來將通過多種方式確保AI的安全使用。
該文涵蓋了保障AI安全的六個舉措,包括構建日益安全的系統、根據實踐經驗改善AI、保護兒童、尊重隱私、提高事實準確性及持續地研究與參與。
文章在“保護兒童”一項中提到,OpenAI的用戶必須“年滿18周歲”或者“年滿13周歲且在父母同意的情況下”才能使用公司的AI工具,具體的驗證方式正在研究中。
(相關資料圖)
OpenAI不允許其技術被用于生成仇恨、騷擾、暴力或成人內容,相比GPT-3.5,GPT-4響應禁止內容請求的可能性降低了82%。同時,OpenAI將做出最大努力,減少有害兒童內容的生成:如當用戶試圖將兒童性虐待材料上傳到圖像工具時,OpenAI會阻止并向美國國家失蹤與受虐兒童援助中心報告。
隱私方面,OpenAI承諾將不會使用數據來銷售服務、投放廣告或建立用戶數據庫,并致力于在可行情況下從訓練數據集中刪除個人信息,微調模型以拒絕對私人信息的請求,響應用戶從OpenAI系統中刪除個人信息的請求。
在“提高事實準確性”方面,OpenAI表示,通過用戶的錯誤報告反饋,GPT-4的事實內容準確性較GPT-3.5提高40%。OpenAI將盡可能做到透明,讓公眾知道ChatGPT給出的答案不是百分百準確的,了解AI工具的局限性。
自ChatGPT發布以來,在全世界范圍內引發了一場人工智能狂熱,全球科技巨頭爭相布局。而僅僅四個月后,功能更強大的GPT-4就宣布問世,其迭代速度之快令人咋舌,對技術安全問題的擔憂也隨之出現。
事實上,ChatGPT帶來的數據泄露問題已經開始顯現。此前有用戶反映,自己的聊天歷史欄中出現了別人的聊天歷史;據媒體報道,三星半導體業務部門在引入ChatGPT后的20天內出現3起機密文件外泄事故。
3月31日,意大利成為第一個“封殺”ChatGPT的國家,該國將全面禁止使用ChatGPT并開始立案調查。意大利方面指出,ChatGPT沒有就收集處理用戶信息進行告知,沒有任何年齡核實系統,可能導致未成年人接觸到非法信息。
隨后,德國聯邦數據保護專員發言人也表示,暫時禁止在德國使用ChatGPT原則上是可能的。加拿大隱私專員辦公室官網也宣布開始調查有關“OpenAI未經同意收集、使用和披露個人信息”的指控。
除了信息泄露、非法信息等問題,AI發展是否會對人類發展構成威脅的爭論也已開始。
3月29日,特斯拉CEO馬斯克、蘋果聯合創始人史蒂夫·沃茲尼亞克在內的上千名各界知名人士簽署聯名信,呼吁全球所有機構暫停訓練比GPT-4更強大的AI至少六個月。他們認為近幾個月AI的數字思維開發得越來越強大,競爭逐漸失序,但管理和規劃仍然缺位,包括創造者在內,沒有人可以理解、預測或控制它們。
公開信建議稱,AI實驗室和獨立學者應針對高級AI的設計和開發共同制定實施一套共享安全協議,確保AI的安全性。與此同時,AI開發人員必須與決策者合作,大力推進強有力的AI治理系統的發展。
不過亦有人工智能領域專家指責聯名信把AI的威脅夸大了,“將想象中的‘世界末日’情景強加于人工智能”。360創始人周鴻祎也聲稱,“GPT將引領一場新的工業革命,帶來生產力的大幅提升,現在擔心風險為時尚早。”
(責任編輯:冀文超 )關鍵詞: