科技公司陷入「AI競賽失控」?

麻省理工學院(MIT)的物理學家Max Tegmark教授發出警告,指出人工智慧(AI)科技公司正處於一場「失控競賽」,使得他們無法停下來考慮潛在的AI風險。他是未來生命研究所的共同創始人,於2023年3月組織了一封開放信,呼籲將巨大AI系統的開發暫停六個月。儘管這封信得到了超過3萬名簽署者的支持,包括埃隆·馬斯克和蘋果聯合創始人史蒂夫·沃茲尼亞克,但未能實現對最有抱負的系統的暫停開發。

Tegmark教授表示,他並沒有指望這封信能夠阻止科技公司繼續努力開發比GPT-4更強大的AI模型,因為競爭變得如此激烈。他說道:「私下裡,我與許多企業領導人交談時,他們想要(暫停),但他們陷入了相互之間的這場失控競賽之中,因此沒有公司可以單獨暫停」。

這封信警告了一場「失控競賽」,該競賽旨在開發無人能夠「理解、預測或可靠控制」的思維,敦促政府干預,如果不能在領先的AI公司之間達成暫停開發比GPT-4更強大系統的禁令,例如谷歌、ChatGPT的所有者OpenAI和微軟。

信中提出了以下問題:「我們是否應該開發可能最終數量超過、智勝、使我們過時並取代我們的非人類思維?我們是否應該冒失去對我們文明的控制的風險?」

Tegmark還敦促政府在全球達成安全標準之前暫停開發。他補充說:「在滿足約定的安全標準之前,不應該使模型更加強大,這必須暫停。」他補充說:「就安全標準達成一致意見將自然導致暫停。」

此外,Tegmark還敦促政府採取行動,對可以被公眾訪問和適應的開源AI模型採取行動。馬克·扎克伯格的Meta最近發布了一個名為Llama2的開源大型語言模型,並受到一位英國專家的警告,認為這種舉動類似於「向人們提供了建造核彈的模板」。

「危險的技術不應該是開源的,無論是生物武器還是軟體,」Tegmark表示。

這一問題引發了對AI發展的擔憂,從能夠生成深度偽造視訊和批量製造虛假資訊等即時問題,到由超級智能AI引發的對人類控制的威脅或做出不可逆轉和高度重大決策的潛在威脅。不過,Tegmark警告稱,描述數字「上帝般的通用智能」的發展為長期威脅可能不恰當,他援引了一些AI從業者認為這可能在幾年內發生。