展會(huì)信息港展會(huì)大全

諾貝爾獎(jiǎng)得主杰弗里·辛頓是人工智能先鋒,也是危險(xiǎn)預(yù)言者
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-10-14 09:12:08   瀏覽:1554次  

導(dǎo)讀:圖片來源:Mert Alper DervisAnadolu/Getty Images 杰弗里辛頓本身就是一個(gè)行走的悖論他是某類杰出科學(xué)家的典型代表。周二,辛頓的聲譽(yù)更上一層樓。他和美國科學(xué)家約翰霍普菲爾德因?yàn)榘l(fā)現(xiàn)了實(shí)現(xiàn)現(xiàn)代人工智能突破的神經(jīng)網(wǎng)絡(luò)和計(jì)算機(jī)路徑,共同獲得了諾貝爾物...

圖片來源:Mert Alper DervisAnadolu/Getty Images

杰弗里辛頓本身就是一個(gè)行走的悖論他是某類杰出科學(xué)家的典型代表。周二,辛頓的聲譽(yù)更上一層樓。他和美國科學(xué)家約翰霍普菲爾德因?yàn)榘l(fā)現(xiàn)了實(shí)現(xiàn)現(xiàn)代人工智能突破的神經(jīng)網(wǎng)絡(luò)和計(jì)算機(jī)路徑,共同獲得了諾貝爾物理學(xué)獎(jiǎng)。然而,最近幾年,辛頓卻陷入了矛盾的境地:這個(gè)讓他贏得贊譽(yù)的發(fā)現(xiàn),現(xiàn)在卻成為無盡擔(dān)憂的來源。在過去的一年里,被譽(yù)為“人工智能教父”的辛頓,一再強(qiáng)烈警告他的發(fā)現(xiàn)所帶來的技術(shù)可能導(dǎo)致的危險(xiǎn)。辛頓既像是神話里的普羅米修斯,又像是先知卡珊德拉,他與許多傳奇科學(xué)家一樣,一方面是人類對(duì)功成名就的愿望,另一方面是反思行動(dòng)后果的人文沖動(dòng)。J羅伯特奧本海默和艾伯特愛因斯坦都曾因?yàn)樗麄兊脑友芯克斐傻臍缍萑胪纯唷Uㄋ幍陌l(fā)明者阿爾弗雷德諾貝爾對(duì)他的遺產(chǎn)可能造成的影響深感不安,因此他創(chuàng)立了一個(gè)基金會(huì),用于頒發(fā)以他的名字命名的獎(jiǎng)項(xiàng),也就是辛頓獲得的諾貝爾獎(jiǎng)。辛頓在2023年接受《60分鐘》(60 Minutes)采訪時(shí)表示:“我看不到一條保證安全的路徑。我們正在進(jìn)入一個(gè)充滿不確定性的時(shí)期。我們要面對(duì)的是以前從未處理過的事情。”辛頓認(rèn)為,人類對(duì)人工智能知之甚少,這非?膳,而且機(jī)器可能比人類更聰明,他的擔(dān)憂大多源于此。他在接受NPR采訪時(shí)表示:“機(jī)器可能變得比人類更聰明,并且可能決定接管這個(gè)世界,現(xiàn)在我們需要擔(dān)心的是如何阻止這種情況發(fā)生。”辛頓原籍英格蘭,他的大部分職業(yè)生涯都在美國和加拿大度過。在多倫多大學(xué)(University of Toronto),他取得了一項(xiàng)重大突破,后來這成為當(dāng)代人工智能許多應(yīng)用的智能基矗2012年,辛頓和兩名研究生(其中之一是OpenAI前首席科學(xué)家伊利亞蘇特斯威夫)建立了一個(gè)可從圖片中識(shí)別出基本物體的神經(jīng)網(wǎng)絡(luò)。最終,谷歌(Google)以4,400萬美元,收購了辛頓基于這項(xiàng)技術(shù)創(chuàng)建的一家公司。之后,辛頓為谷歌工作了10年,2023年退休后,他擺脫了任何公司約束,從而可以公開警告人工智能的風(fēng)險(xiǎn)。(辛頓并未回應(yīng)置評(píng)請(qǐng)求。)辛頓對(duì)人工智能的進(jìn)步速度感到擔(dān)憂。他在去年接受《紐約時(shí)報(bào)》采訪時(shí)表示:“看看五年前的情況,再看看現(xiàn)在。對(duì)比一下前后差異,并請(qǐng)對(duì)外宣傳。這太可怕了。”辛頓表示,人工智能模型有可能相互傳播只有一個(gè)模型可能已經(jīng)學(xué)會(huì)的新信息,而且效率遠(yuǎn)高于人類,這令他深感擔(dān)憂。他在2023年表示:“只要有一個(gè)[模型]學(xué)到了任何信息,其他模型就會(huì)知道。這是人類所做不到的。如果我學(xué)到許多關(guān)于量子力學(xué)的知識(shí),我希望讓你也學(xué)會(huì)這些知識(shí),我要經(jīng)過一個(gè)漫長(zhǎng)痛苦的過程才能讓你理解它。”辛頓的一些觀點(diǎn)頗具爭(zhēng)議,例如他認(rèn)為人工智能實(shí)際上可以“理解”自己的言行。如果這是真的,這可能會(huì)顛覆人們對(duì)于人工智能的許多傳統(tǒng)認(rèn)識(shí)。目前人們的共識(shí)是,人工智能系統(tǒng)不一定知道它們?yōu)槭裁磿?huì)做它們正在做的事情,而是經(jīng)過編程,根據(jù)給出的提示輸出特定的結(jié)果。辛頓在一份公開聲明中謹(jǐn)慎地表示,人工智能并不像人類那樣具有自主意識(shí)。相反,人工智能系統(tǒng)學(xué)習(xí)、改進(jìn)和最終生成特定結(jié)果的機(jī)制,意味著它們必須理解正在學(xué)習(xí)的內(nèi)容。據(jù)《連線》雜志報(bào)道,辛頓之所以發(fā)出警告,是因?yàn)樗笠粋(gè)聊天機(jī)器人準(zhǔn)確地解釋為什么他杜撰的一個(gè)笑話是好笑的。這個(gè)聊天機(jī)器人能夠理解幽默的微妙之處,然后用自己的語言清楚地表達(dá)出來,這讓辛頓深受啟發(fā)。隨著人類朝著幾乎無人理解的終點(diǎn)線沖刺,辛頓擔(dān)心,人類可能無法掌控人工智能。他設(shè)想了一種情況,即人工智能系統(tǒng)能夠編寫代碼修改自己的學(xué)習(xí)協(xié)議,并躲過人類的監(jiān)控。就像莎士比亞戲劇里跌宕起伏的情節(jié)一樣,它們將從人類自身的弱點(diǎn)中,學(xué)會(huì)如何這樣做。辛頓在2023年10月接受《60分鐘》采訪時(shí)表示:“它們將能夠操縱人類。它們將變得非常善于說服人類,因?yàn)樗鼈儗娜祟悓懙乃行≌f、馬基雅維利的所有書籍和各種政治陰謀中學(xué)習(xí),它們將變得無所不通。”(財(cái)富中文網(wǎng))譯者:劉進(jìn)龍審校:汪皓在財(cái)富Plus,網(wǎng)友們對(duì)這篇文章發(fā)表了許多有深度和思想的觀點(diǎn)。一起來看看吧。也歡迎你加入我們,談?wù)勀愕南敕。今日其他熱議話題:

推薦閱讀


贊助本站

相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港