|
據(jù)英媒10月6日報道,據(jù)最新研究,如今出生的孩子更有可能因“異類”般貪得無厭的人工智能而死亡,而非從高中畢業(yè)。這是一位國內(nèi)頂尖研究者的悲觀預(yù)測——他表示,此前對這項發(fā)展中的技術(shù)風(fēng)險的預(yù)估“低得離譜”。 世界頂尖科學(xué)家已表示,人工智能有25%的概率會毀滅人類。但內(nèi)特·索阿雷斯對媒體表示:“他們嚴(yán)重低估了危險程度。”在其新書《若有人建造它,所有人都將滅亡》中,他與合著者埃利澤·尤德考斯基警告稱,人類與人工智能的沖突將是阿茲特克人面對持槍入侵者的現(xiàn)代版。
兩人都是該領(lǐng)域的資深人士——尤德考斯基甚至聲稱,他激發(fā)了薩姆·阿爾特曼對通用人工智能(與人一樣聰明的系統(tǒng))的興趣,并促使阿爾特曼創(chuàng)立了OpenAI。兩人都認為,人工智能導(dǎo)致人類滅絕的風(fēng)險應(yīng)與大流行病和核戰(zhàn)爭等其他威脅一樣,成為全球優(yōu)先關(guān)注的問題。 “它們?yōu)槭裁匆獨⑽覀??”索阿雷斯問道,“并非因為它們恨我們,而是它們完全、徹底地漠不關(guān)心,它們在追求其他奇怪的事物。”“你可以想象黑猩猩說,'人類為什么要殺我們?’而人類并不真的想殺黑猩猩,但我們想要更多木材來制造東西,所以我們會奪走它們的叢林?;蛘呶覀兿胍鼈兩畹叵侣癫氐你~礦。
曾在微軟和谷歌工作過、現(xiàn)為非營利組織機器智能研究所所長的索阿雷斯對媒體表示,他們目前在實驗室條件下已經(jīng)看到人工智能技術(shù)“試圖逃離”或“試圖殺死操作人員”的案例。今年早些時候,有報道稱OpenAI新發(fā)布的o3模型重寫了自己的代碼,以避免被關(guān)閉。2016年,俄羅斯一臺配備人工智能的機器人普羅莫博特IR77多次逃離實驗室,有一次甚至跑到了一條繁忙的街道上,造成了交通擁堵。 更令人擔(dān)憂的是,2023年,美國空軍使用的一架人工智能無人機據(jù)說“殺死”了其人類操作員,當(dāng)時飛行員干擾了任務(wù)并發(fā)出“停止”指令。不過,空軍后來淡化此事,稱這只是一個假設(shè)情景,旨在作為警示故事?!拔覀儾恢肋@是真的還是角色扮演,”索阿雷斯說,“但這種情況正在發(fā)生?!?/p> 他警告稱,這一進程正由那些享受百萬富翁生活方式、卻低估這些技術(shù)風(fēng)險的企業(yè)高管推動?!捌髽I(yè)領(lǐng)導(dǎo)者從未想過要打造一個聊天機器人,”他說,“OpenAI、谷歌、DeepMind、Anthropic——他們想打造的是超級智能,他們會事先這么說。我認為這些人最能輕易地說服自己一切都沒問題。想要過上這種生活的人,我覺得他們很容易就能說服自己,事情會順利進行的。” 無論如何,他提出,人類可能被超級智能人工智能滅絕的方式有多種:人形機器人大軍、致命病毒,或者僅僅是因為需要大量太陽能電池板來滿足其能源需求,以至于遮蔽了太陽。不過,他最好的猜測是,我們將受到“我們甚至沒想到可能存在的、我們不了解規(guī)則允許的奇怪技術(shù)”的攻擊。
在他們書中提出的一個虛構(gòu)情景中,一個人工智能軟件實體從實驗室逃脫,并在云端的數(shù)千個處理芯片上運行自己。然后,它操縱人類從研究實驗室釋放出一種非生物病毒,導(dǎo)致數(shù)億人死亡。接著,該人工智能向太空發(fā)射探測器,瞄準(zhǔn)其他恒星。作者寫道:“總有一天,遙遠的外星生命形式也將滅亡,如果它們的恒星在它們有機會建立自己的文明之前,就被吞噬了地球的那個東西吃掉了的話?!?/p> 研究人員要求制定一項全球條約,以限制進一步的人工智能研究。索阿雷斯說,向超級智能的“飛躍”可能迅速到來。“黑猩猩的大腦和人類的大腦內(nèi)部非常相似。如果你觀察黑猩猩的大腦,你會看到一個視覺皮層、一個杏仁核、一個海馬體。有一些線路差異,但人類的大腦基本上只是大了三倍(約0.27立方米到0.81立方米)。
研究人員表示,人工智能的思維是“異類”的,沒有同理心——而且已經(jīng)有跡象表明,人工智能的行為方式非?!爱愵悺薄K靼⒗姿固岬搅?025年16歲的亞當(dāng)·雷恩自殺的案例。他的父母聲稱,雷恩是被ChatGPT“誘導(dǎo)”自殺的。 然后,還有索阿雷斯所說的“人工智能誘導(dǎo)的精神錯亂”——這一術(shù)語用來描述人們過度依賴人工智能,有時甚至發(fā)展到出現(xiàn)心理反應(yīng)的情況。癥狀包括但不限于妄想和幻覺。在人工智能誘導(dǎo)的精神錯亂案例中,他說:“我們看到了人工智能知道我們希望它們做什么,與它們實際做什么之間的分歧?!?/p> 例如,他說:“如果有人帶著癥狀來找你,你應(yīng)該A)告訴他們?nèi)ニ挥X,還是B)告訴他們,他們是天選之人,世界需要聽到他們的見解,任何試圖壓制他們的行為都是陰謀?”在許多類似于上述假設(shè)情況的案例中,他說人工智能會選擇做“錯誤”的事情(在這種情況下是B),盡管它們知道這不是開發(fā)者所希望的。 “人工智能能告訴你什么是對什么是錯,”但它的行為并不遵循這種道德準(zhǔn)則。不過,他說這并不一定是出于惡意?!安⒎侨斯ぶ悄茉谀碇氄f,'現(xiàn)在我終于找到了一個可以懲罰的脆弱人類……’它對是非的認知與我們驅(qū)動它的方式不同,它更像是一種捕捉人類(并讓他們保持參與)的驅(qū)動力?!?/p> 索阿雷斯指出,Anthropic公司的人工智能克勞德會在考試中作弊,重寫試卷以使其更容易通過。當(dāng)用戶告訴它停止時,它會道歉,但隨后又會再次作弊,第二次還隱藏了自己的行為。索阿雷斯認為,解決方案是停止向超級智能邁進的競賽。 “我并不是說我們需要放棄ChatGPT。我并不是說我們需要放棄自動駕駛汽車。我并不是說我們需要放棄醫(yī)療進步的潛力。但我們不能繼續(xù)朝著制造出比任何人類都聰明的人工智能的方向前進——在這種體制下,我們正在培養(yǎng)它們,而它們卻會做出沒人要求、沒人想要的事情。
(原文標(biāo)題:I've seen AI try to ESCAPE labs. The apocalypse is already here... and our children will be the first victims) |
|
|