圖/IC
ChatGPT(生成式預訓練轉換器)正遭遇“圍剿”。
4月3日,德國聯邦數據保護專員發言人稱,出于數據保護方面的考慮,暫時禁止在德國使用ChatGPT原則上是可能的。而3月底,意大利個人數據保護局宣布,從即日起禁止使用聊天機器人ChatGPT,并限制開發這一平臺的OpenAI公司處理意大利用戶信息。
(資料圖片僅供參考)
意大利這一舉動,被視作打響了人類保衛戰的第一槍,但“封殺”ChatGPT,在意大利高層也引發了激烈討論。
五天用戶破百萬,2個月用戶上億,ChatGPT爆火,將生成式AI推上了風口。用戶追捧從側面說明這絕非一次概念炒作,而是實實在在的技術改善,而機器學習算法締造的生成式AI,具備在橫向領域應用的能力——ChatGPT可以是聊天AI(人工智能),也可以應用在編程以及搜索上。針對這種能力有一句口號:萬物皆可GPT。
譽滿后必然是毀滿。早在2022年6月,谷歌一位工程師交上了21頁調查報告,認為谷歌AI模型LaMDA已經擁有人格,再訓練下去會導致不可預見的后果。如今,ChatGPT同樣面臨這樣的挑戰。
擔憂AIGC(人工智能生成內容)具備人格并引發災難的人不在少數。近期,OpenAI創始投資人馬斯克聯名千人要求“暫停巨型AI實驗”,將ChatGPT停留在GPT4.0階段。連OpenAI的CEO奧特曼都認為,開源GPT算法是非常危險的行為,因為如果被壞人使用將危害無窮。
大家到底在擔心什么?第一個層面是ChatGPT可能取代人類,甚至會出現科幻片中清洗人類的危險。這部分擔憂實際上源自于科幻,也源自于哲學范疇,對人格和AI人格區別化界定。最早的小說可能是《佛蘭肯斯坦》。
第二個層面是ChatGPT可能破壞數據安全。諸如AIGC有爬取數據的功能,這會讓數據隱私在互聯網時代更加無所遁形。
第三個層面是信息繭房。由ChatGPT引導的信息搜索結果,可能導致新的信息繭房,也就是我們只能獲得ChatGPT給予的信息。相比于搜索推薦和內容算法推薦,ChatGPT推送信息更加精準,我們這一代還會手動找一找信息來源,“后浪們”會不會產生依賴?
第四個層面是GPT遭遇濫用危害無窮。萬物皆可GPT,GPT會應用到任何領域。如果這項功能被別有用心的人掌握,勢必會產生惡劣影響,不亞于恐怖分子掌握了核武器。
實際上,對于取代人類之說,無需憂慮。機器學習下,AI的確是技術黑箱,但說到底還是數學、統計學、計算機學的融合體,是一堆函數和數學模型的最終產物。這種擔憂本身來自于科幻,也來自于人類獨特的想象力。如果AI是提升人類認知水平和科技水平的一種工具,我們應該用AI來提高認知,應對其他潛在風險,而不是去猜測可能性。
不過,ChatGPT帶來的數據安全和信息繭房問題,要給與重視。AIGC說到底是一種工具,而且是一種強大的工具,爬取數據,建立信息繭房和被別有用心的人掌控,造成的破壞不容小覷。直白點說,它會成為收割金錢和利益的工具。
懼怕被收割,就不發展AIGC嗎?并非如此,一方面人類從未成功阻止過一項有用技術的發展,技術的進步只會降低工具門檻,最終讓技術更加不可控。另一方面,人類應對技術帶來的負外部性,一般是靠技術本身。比如,應對核武器的手段就是核武器本身,我們稱之為“黑暗森林”。因此,監管AI的方式,在規則層面很難找到突破口,因為AI本身太復雜,只有AI才能監管AI。所以,應鼓勵人們早日掌握這些關鍵技術,應用到關鍵領域。
對于AIGC的監管有必要,監管目標不應該是AI的人格,而是用AI的人,了解他們想要達到的目的。一定程度上來說,我們不能被封殺AIGC的口號影響,但生成式AI技術的出現不僅帶來了巨大機遇,同時也帶來了風險。
近年來,隨著技術進步,生成式AI在文化創意產業、新聞媒體、金融、醫療等領域得到廣泛應用。其一大風險是可能被用于惡意目的,因此,政府、企業和其他相關組織應該加強監管,盡可能地預防生成式AI濫用,要預見風險,提早筑起一道防護墻。
文/盤和林(浙江大學國際聯合商學院數字經濟與金融創新研究中心聯席主任、研究員,工信部信息通信經濟專家委員會委員)
編輯 王進雨
校對 柳寶慶
(責任編輯:賀翀 )關鍵詞: