美媒:科技行業領袖警告AI可能給人類帶來“滅絕風險”

發佈日期:2023 年 06 月 01 日 15:28
  • 分享至:

據美國《紐約時報》報道,5月30日,超過350名人工智能領域的行業高管、研究人員和工程師簽署了一封公開信,他們在信中警告稱,AI可能給人類帶來“滅絕風險”。

這封公開信只有一句話的聲明:“減輕人工智能帶來的滅絕風險,應該成為全球的優先事項,就像應對其他社會規模的風險——如大流行病和核戰爭一樣。”

該公開信由非營利組織人工智能安全中心(Center for AI Safety)發表,350多名簽署者中包括三家領先人工智能公司的高管:OpenAI首席執行官山姆·阿爾特曼,谷歌DeepMind首席執行官傑米斯·哈薩比斯,以及Anthropic首席執行官達里奧·阿莫代伊。

《紐約時報》稱,最近,大型語言模型,即ChatGPT和其他聊天機器人使用的人工智能係統所取得的進展,引發了人們的擔憂。人們擔心,人工智能有可能很快就會被大規模用於傳播錯誤信息和宣傳,或者可能消除數百萬白領的工作。

5月,阿爾特曼、哈薩比斯和阿莫代伊曾與美國總統拜登和副總統哈里斯碰面,討論人工智能的監管問題。在會後的參議院證詞中,阿爾特曼警告,先進人工智能係統的風險已經嚴重到需要政府乾預的程度,同時,他呼籲對人工智能的潛在危害進行監管。

此前,阿爾特曼和OpenAI的另外兩名高管提出了幾種負責任地管理強大人工智能係統的方法。他們呼籲領先的人工智能製造商進行合作,對大型語言模型進行更多技術研究,並成立一個類似於國際原子能機構的國際人工智能安全組織。

阿爾特曼還表示,支持制定規則,要求大型尖端人工智能模型的製造者,註冊政府頒發的許可證。

“我認為如果這項技術出了問題,它可能會大錯特錯。”阿爾特曼告訴參議院小組委員會。 “我們希望與政府合作,防止這種情況發生。”

據報道,今年3月,包括埃隆·馬斯克在內的1000多名科技領袖、技術人員和研究人員簽署了另一封公開信,呼籲暫停開發最大的人工智能模型六個月,理由是擔心“開發和部署更強大數字思維的競賽失控”。



瀏覽次數:45


蓮花時報



 

100期-up-UP01-03.jpg

100期-07.jpg



回最頂