首頁 > 互聯網 > > 正文

              AI前哨|超級智能該如何監管?全球最紅AI公司OpenAI這么說-天天關注

              2023-05-23 10:34:16    來源:鳳凰網

              鳳凰網科技訊 《AI前哨》北京時間5月23日消息,ChatGPT開發商OpenAI CEO薩姆·阿爾特曼(Sam Altman)上周在美國國會作證時坦言,人工智能(AI)會對世界造成重大傷害,并呼吁加強AI監管。


              (資料圖片僅供參考)

              OpenAI CEO阿爾特曼

              美國當地時間周一,阿爾特曼聯合OpenAI總裁格雷格·布羅克曼(Greg Brockman)、首席科學家伊爾亞·蘇茨克維(Ilya Sutskever)在OpenAI官方博客上發布了《超級智能的治理》的文章,詳細闡述了他們的監管提議。

              以下是文章全文:

              鑒于我們現在所看到的情況,可以想象的是,未來十年內,AI系統將在大多數領域超過專家的技能水平,并能夠開展與當今最大公司之一一樣多的生產活動。

              OpenAI博文《超級智能的治理》

              就潛在的優勢和劣勢而言,超級智能將比人類過去不得不與之抗衡的其他技術更強大。我們可以擁有一個明顯繁榮得多的未來,但我們必須控制風險才能實現這一目標。鑒于我們面臨潛在生存風險,我們不能只是被動應對。核能是一個常用的歷史例子,它具有這種特性。合成生物學是另一個例子。

              我們也必須減輕當今AI技術的風險,但超級智能將需要特殊的對待和協調。

              三個理念

              對于我們來說,有許多重要理念能夠幫助我們更好地把握這一發展方向。在這里,我們列出了我們對其中三個理念的初步想法。

              首先,我們需要在領先的開發項目之間進行一定程度的協調,以確保超級智能的發展以一種既能維護安全又能幫助這些系統與社會順利整合的方式進行。有很多方法可以實現這一點:世界各地的主要政府可以建立一個項目,讓許多當前努力成為其中的一部分,或者我們可以集體商定(在一個新組織的支持下,就像下面建議的那樣),將前沿AI能力的增長速度限制在每年一定比例上。

              當然,個別公司應該被要求以極高負責任的標準行事。

              其次,我們很可能最終需要像國際原子能機構(IAEA)這樣的機構來開展超級智能工作。任何超過一定能力(或算力等資源)閾值的工作都需要服從于國際權威機構,該機構可以檢查系統,要求審計,測試以確定項目是否符合安全標準,對部署程度和安全級別進行限制等等。跟蹤計算和能源使用可能會有很長的路要走,但它給了我們一些希望,相信這個想法實際上是可以執行的。作為第一步,企業可以自愿同意開始實施該機構某一天可能要求的要素;第二步,個別國家可以實施。重要的是,這樣一個機構應該把重點放在降低生存風險上,而不是那些留給各個國家的問題上,比如定義AI應該被允許說什么。

              第三,我們需要讓超級智能安全的技術能力。這是一個開放的研究問題,我們和其他人都投入了大量的精力。

              一般AI不應受監管

              在這個范圍之外,我們認為允許企業和開源項目開發低于重大能力閾值的模型是很重要的,它不需要像我們在這里描述的那種監管(包括像許可證或審計這樣繁重的機制)。

              如今的系統在世界上創造了巨大的價值,雖然它們確實存在風險,但這些風險的程度與其他互聯網技術和社會上可能采取的方法相當。

              相比之下,我們所關注的是超級智能系統,它擁有比目前所創造的任何技術都強大的能力。我們應該小心,不要把類似的標準應用到遠遠低于這個標準的技術上,從而淡化對超級智能的關注。

              公眾意見及潛力

              但是,對于最強大系統的治理,以及關于其部署的決策,必須有強有力的公眾監督。我們相信,世界各地的人們應該民主地決定AI系統的界限和默認設置。我們還不知道如何設計這樣一個機制,但我們計劃對這一發展進行試驗。我們仍然認為,在這些廣泛的界限內,個人用戶應該對他們所使用AI的行為有很大的控制權。

              考慮到這些風險和困難,我們有必要考慮一下為什么要開發這項技術。

              在OpenAI,我們有兩個基本原因。首先,我們相信它會帶來一個比我們今天所能想象的更好的世界(我們已經在教育、創造性工作和個人生產力等領域看到了早期的例子)。世界面臨著許多問題,我們需要更多的幫助來解決這些問題。這項技術可以改善我們的社會,每個人使用這些新工具的創造能力肯定會讓我們大吃一驚。經濟增長和生活質量的提高將是驚人的。

              其次,我們相信,阻止超級智能的創造具有令人難以置信的風險,也是困難的。因為好處是如此巨大,構建它的成本每年都在下降,構建它的參與者的數量正在迅速增加,這是我們所走的技術道路的固有組成部分。阻止它的發展,需要類似全球監督制度這樣的體制,但即使如此也不能保證成功。因此,我們必須確保正確處理這一問題。鳳凰網科技《AI前哨》對此將持續關注。(作者/簫雨)

              (責任編輯:王治強 HF013)

              關鍵詞:

              上一篇:天天快看:蘋果公司加大對生成式人工智能專家招聘力度
              下一篇:最后一頁

              熱點話題

              熱點推薦

              頭條

              ? 亚洲精品卡2卡3卡4卡5卡区| 亚洲国产韩国一区二区| 亚洲最新永久在线观看| 亚洲午夜无码AV毛片久久| 国产成人亚洲综合a∨| 亚洲AV成人无码久久WWW| 亚洲无人区码一二三码区别图片| 亚洲精品中文字幕乱码| 亚洲男人的天堂在线| 亚洲女人影院想要爱| 亚洲人成影院77777| www.亚洲日本| 一区二区亚洲精品精华液 | 亚洲偷自拍拍综合网| 亚洲一区无码精品色| 亚洲熟妇av一区二区三区| 亚洲美女又黄又爽在线观看| 久久亚洲综合色一区二区三区 | 丁香五月亚洲综合深深爱| 亚洲综合网站色欲色欲| 国产亚洲人成无码网在线观看| 亚洲成AV人片在WWW色猫咪| 久久91亚洲精品中文字幕| 亚洲电影一区二区| 亚洲欧洲日产韩国在线| 中文字幕亚洲综合小综合在线| 亚洲色无码国产精品网站可下载| 亚洲精品精华液一区二区 | 亚洲Av无码精品色午夜| 内射干少妇亚洲69XXX| 亚洲天堂中文字幕在线观看| 色婷五月综激情亚洲综合| 亚洲精品乱码久久久久久蜜桃图片| 国产精品亚洲小说专区| 亚洲视频在线免费| 亚洲AV人无码激艳猛片| 亚洲日本视频在线观看| 香蕉大伊亚洲人在线观看| 亚洲1区2区3区精华液| 亚洲中文字幕无码爆乳av中文| 亚洲精品狼友在线播放|