(關(guān)注公眾號并設(shè)為標(biāo),獲取最新人工智能資訊和產(chǎn)品)
"我不信任OpenAI,我不信任Sam Altman。"
馬斯克的這句公開宣言,讓這場原本就引人注目的硅谷AI爭端更添戲劇性。然而,在這場表面的信任危機(jī)背后,是兩位AI領(lǐng)軍人物對技術(shù)未來的根本分歧。
回溯到2015年,當(dāng)AI還停留在能玩電子游戲和控制機(jī)械手的基礎(chǔ)研究階段,Sam Altman和馬斯克懷著共同的理想創(chuàng)立了OpenAI。彼時(shí),他們認(rèn)為10億美元的資金足以支持這個(gè)非營利組織探索AI的未來。但科技的演進(jìn)往往超出人們的想象。隨著語言模型的突破,尤其是ChatGPT的橫空出世(每天處理超過10億條查詢),原有的預(yù)算規(guī)劃被徹底打破。"我們需要超過1000億美元的資金,"Altman坦言,這個(gè)驚人的數(shù)字直接推動了OpenAI向混合模式的轉(zhuǎn)變。
最近,著名媒體機(jī)構(gòu)《Free Press》和Sam Altman的深度對話,我們得以一窺這場博弈背后的深層思考...
一、技術(shù)新范式轉(zhuǎn)變在這場深度對話中,Sam Altman提供了一個(gè)觀察AI發(fā)展的獨(dú)特視角。他認(rèn)為超級智能的到來將以科學(xué)進(jìn)步速度的質(zhì)變?yōu)闃?biāo)志:"如果全球科學(xué)進(jìn)步的速度能夠成倍甚至十倍地增長,比如原本需要10年才能取得的發(fā)現(xiàn)和技術(shù)進(jìn)步,現(xiàn)在每年都能完成一次,而且接下來每年都會繼續(xù)加速,那么這就是超級智能的到來。"這種思維框架為決策者提供了重要啟示。當(dāng)技術(shù)發(fā)展進(jìn)入指數(shù)增長階段,傳統(tǒng)的線性思維方式將不再適用。
正如Altman所說:"回顧2023年4月我們興奮討論的人工智能技術(shù),現(xiàn)在看來是如此原始。過去20個(gè)月的技術(shù)提升非常驚人。"
二、組織的AI智能化OpenAI的轉(zhuǎn)型經(jīng)驗(yàn)為企業(yè)家提供了寶貴借鑒。從非營利到混合模式,再到可能的公共利益公司結(jié)構(gòu),每一步轉(zhuǎn)變都涉及對組織使命和商業(yè)現(xiàn)實(shí)的平衡。Altman的反思特別值得關(guān)注:"如果可以回到過去,我會做出不同的選擇。但重要的是保持使命的一致性,同時(shí)適應(yīng)現(xiàn)實(shí)需求。"這種平衡藝術(shù)啟示我們,組織轉(zhuǎn)型不僅是商業(yè)模式的改變,更是價(jià)值觀與現(xiàn)實(shí)需求的協(xié)調(diào)。特別是在AI這樣革命性的技術(shù)領(lǐng)域,如何在保持創(chuàng)新活力的同時(shí)承擔(dān)社會責(zé)任,是每個(gè)決策者都需要思考的課題。
三、產(chǎn)業(yè)生態(tài)的重構(gòu)AI技術(shù)正在重塑整個(gè)產(chǎn)業(yè)生態(tài)。Altman描繪的愿景是讓AI像晶體管一樣成為基礎(chǔ)設(shè)施。這種思維方式提示決策者需要重新思考自己在產(chǎn)業(yè)鏈中的定位。不是所有企業(yè)都需要成為AI技術(shù)的領(lǐng)導(dǎo)者,但每個(gè)企業(yè)都需要思考如何利用AI提升競爭力。
特別值得注意的是Altman對基礎(chǔ)設(shè)施建設(shè)的強(qiáng)調(diào):"我們需要在美國本土生產(chǎn)自己的芯片,建立足夠的能源基礎(chǔ)設(shè)施來支持?jǐn)?shù)據(jù)中心的運(yùn)行,改變目前建設(shè)數(shù)據(jù)中心的方式。"這提醒決策者要關(guān)注產(chǎn)業(yè)鏈的完整性和安全性。
四、責(zé)任的新維度在AI時(shí)代,企業(yè)面臨的風(fēng)險(xiǎn)與責(zé)任也在發(fā)生變化。Altman特別強(qiáng)調(diào)了技術(shù)倫理的重要性,包括如何處理系統(tǒng)偏見、用戶隱私等問題。他提出的解決方案是保持透明度:"當(dāng)我們對模型的行為規(guī)范進(jìn)行任何更改時(shí),我們都明確告訴用戶,并解釋為什么做出這些更改。"
這種思路為決策者提供了重要啟示:在AI時(shí)代,企業(yè)的社會責(zé)任不僅包括傳統(tǒng)意義上的商業(yè)道德,還包括對技術(shù)倫理的考量。如何在創(chuàng)新過程中平衡效率與公平,成為新的挑戰(zhàn)。
五、對決策者的啟示基于Altman的洞察,我們可以總結(jié)出幾點(diǎn)關(guān)鍵啟示:
長期視野:在技術(shù)快速發(fā)展的環(huán)境下,決策者需要建立更長遠(yuǎn)的戰(zhàn)略視野,預(yù)判技術(shù)發(fā)展趨勢及其影響。
靈活適應(yīng):商業(yè)模式需要根據(jù)環(huán)境變化而調(diào)整,但核心價(jià)值觀要保持穩(wěn)定。
責(zé)任擔(dān)當(dāng):在追求商業(yè)成功的同時(shí),需要考慮技術(shù)應(yīng)用的社會影響和倫理問題。
生態(tài)思維:不是單打獨(dú)斗,而是要思考如何在AI生態(tài)系統(tǒng)中找到自己的位置。
AI中的機(jī)遇OpenAI與馬斯克的爭議,折射出AI時(shí)代的根本性挑戰(zhàn):如何在激烈的商業(yè)競爭中保持對人類福祉的關(guān)注,如何在技術(shù)創(chuàng)新中平衡效率與公平,如何在全球競爭中維護(hù)產(chǎn)業(yè)安全。這些問題沒有標(biāo)準(zhǔn)答案,需要每個(gè)決策者根據(jù)自身情況做出判斷。正如Altman所說:"這將極大地改變社會和經(jīng)濟(jì)的運(yùn)行方式。但需要指出的是,這不會改變?nèi)祟惖纳顚哟悟?qū)動力。"在這場變革中,機(jī)遇與挑戰(zhàn)并存。決策者需要以開放的心態(tài)擁抱變化,以負(fù)責(zé)任的態(tài)度推動創(chuàng)新,以長遠(yuǎn)的眼光布局未來。
這不僅是OpenAI和馬斯克的選擇題,更是每個(gè)企業(yè)家必須思考的命題:在AI時(shí)代,如何找到屬于自己的位置,如何在變革中把握方向,如何在競爭中創(chuàng)造真正的價(jià)值。答案或許不盡相同,但思考的過程本身,就是走向未來的重要一步。
文稿整理主持人Barry Weiss: 大家好,這里是 Barry。今天我們有一場非常廣泛且引人入勝的對話,嘉賓是 OpenAI 的 Sam Altman。如果我們再過18個(gè)月回來討論它能做什么,我認(rèn)為這種差距會像從2023年4月到2024年12月一樣大,甚至可能更大。您怎么看待這一點(diǎn)?
1、AI的飛速發(fā)展嘉賓Sam Altman: 是的,技術(shù)的確有顯著進(jìn)步;仡2023年4月我們興奮討論的人工智能技術(shù),現(xiàn)在看來是如此原始。過去20個(gè)月的技術(shù)提升非常驚人。另一個(gè)變化是,AI技術(shù)已經(jīng)深入融入社會生活。之前,它還只是人們好奇的東西,但現(xiàn)在,它已經(jīng)成為許多人工作、生活中不可或缺的一部分。我從未見過一項(xiàng)技術(shù)能以如此快的速度被廣泛采用,并且成為人們真正使用的工具。我在許多方面都使用它,但最讓我驚艷的是幾個(gè)月前我們發(fā)布的搜索功能,F(xiàn)在,ChatGPT 能實(shí)時(shí)搜索互聯(lián)網(wǎng)的信息。這是我們推出過的所有功能中對我影響最大的一個(gè)。自從那以后,我可能還用過 Google,但我已經(jīng)記不起來是什么時(shí)候了。我把 ChatGPT 設(shè)置成了 Chrome 的默認(rèn)搜索引擎,從那以后我就沒再回頭。
Barry Weiss: 您現(xiàn)在稱之為“搜索”嗎?還是有一個(gè)類似“Google”作為動詞的專屬用詞?
Sam Altman: 我還是叫它“搜索”,但其他人會說“我聊天了”或類似的表達(dá)。我注意到大家更傾向于直接叫它“聊天”。
Barry Weiss: 在九月,也就是幾個(gè)月前,您在個(gè)人網(wǎng)站上發(fā)布了一篇預(yù)測未來幾年超級智能將出現(xiàn)的宣言,您將這一時(shí)間框定為“未來幾千天內(nèi)”。能否解釋一下什么是超級智能,以及我們?nèi)绾沃浪欠裾嬲絹砹?它將如何在未來幾十年中改變(nèi)藗兊纳睿?br/>
Sam Altman: 我的一種思維框架是看科學(xué)進(jìn)步的速度。如果全球科學(xué)進(jìn)步的速度能夠成倍甚至十倍地增長,比如原本需要10年才能取得的發(fā)現(xiàn)和技術(shù)進(jìn)步,現(xiàn)在每年都能完成一次,而且接下來每年都會繼續(xù)加速,那么這對我來說就是超級智能的到來。這將極大地改變社會和經(jīng)濟(jì)的運(yùn)行方式。但需要指出的是,這不會改變?nèi)祟惖纳顚哟悟?qū)動力。這些驅(qū)動力在人類經(jīng)歷過的許多技術(shù)革命中幾乎沒有變化。但我們所處的世界將會發(fā)生巨大變化。
2、和馬斯克之間的矛盾Barry Weiss: Sam,今天邀請您來不僅是想了解人工智能如何改變我們的生活和工作,更重要的是,您目前正與您的聯(lián)合創(chuàng)始人埃隆馬斯克公開對抗。我想,大部分聽眾可能模糊地知道您和馬斯克之間有矛盾,但不一定了解其中的細(xì)節(jié)。我試著用盡可能公正的方式總結(jié)一下,然后您可以指出我是否遺漏了什么。
Sam Altman: OpenAI 成立于2015年,當(dāng)時(shí)是一個(gè)非盈利機(jī)構(gòu)。在同年12月的一篇博客文章中,您寫道:“OpenAI 是一家非盈利人工智能研究公司。我們的目標(biāo)是以最有可能造福全人類的方式推動數(shù)字智能的發(fā)展,不受盈利需求的限制。由于我們的研究不受財(cái)務(wù)義務(wù)的約束,我們可以更好地專注于對人類的積極影響。”這一愿景是 OpenAI 品牌的核心部分。然而,時(shí)間快進(jìn)到2019年,OpenAI 轉(zhuǎn)變?yōu)樗^的“混合模式”,并推出了一個(gè)盈利部門,當(dāng)年從微軟獲得了10億美元的投資。從那以后,微軟繼續(xù)向公司注資,可能總額已經(jīng)超過130億美元。而埃隆馬斯克則是公司的聯(lián)合創(chuàng)始人之一。正如我提到的,埃隆從一開始就對 OpenAI 很支持,但隨著時(shí)間的推移,他與公司的關(guān)系變得緊張,因?yàn)樗徽J(rèn)同公司從非盈利模式轉(zhuǎn)變?yōu)榛旌夏J。他最終離開公司,并辭去了董事會職務(wù)。
Barry Weiss: 接下來到了今年,埃隆多次起訴您和 OpenAI,指控您違反合同,將利潤置于公眾利益之上,特別是在推動人工智能發(fā)展的過程中。上個(gè)月,埃隆要求加州地方法官阻止 OpenAI 轉(zhuǎn)變?yōu)橛Y(jié)構(gòu)。這是最新的進(jìn)展。您覺得我的總結(jié)是否準(zhǔn)確?是否遺漏了什么重要的內(nèi)容?
Sam Altman: 您的總結(jié)基本準(zhǔn)確。不過,我想補(bǔ)充一點(diǎn):其實(shí)在某個(gè)階段,埃隆是最支持 OpenAI 轉(zhuǎn)變?yōu)橛J降娜。他曾提出許多建議,包括將 OpenAI 納入特斯拉的一部分,或者創(chuàng)建一個(gè)新的盈利實(shí)體,由他掌控。除了這些,我認(rèn)為您的概述總體上是正確的。坦率地說,我不可能完全了解埃隆的內(nèi)心世界,所以這只是我的一些推測。埃隆確實(shí)在 OpenAI 早期階段做了很多貢獻(xiàn),我對此深表感激。我認(rèn)為他是一個(gè)傳奇的企業(yè)家。但他顯然也是一個(gè)愛爭斗的人,他喜歡與人對抗。從我,到貝索斯、蓋茨,再到扎克伯格,他都與他們發(fā)生過爭執(zhí)。從根本上說,這次沖突主要是因?yàn)?OpenAI 發(fā)展得非常好,而埃隆也希望自己的項(xiàng)目能同樣成功。他現(xiàn)在運(yùn)營著一個(gè)非常直接的競爭對手,這個(gè)項(xiàng)目試圖做和 OpenAI 一樣的事情。值得注意的是,這個(gè)競爭對手是一個(gè)公共利益公司(Public Benefit Corporation),而埃隆在其中擁有多數(shù)控制權(quán)。很多媒體的報(bào)道有誤。即便我們轉(zhuǎn)變結(jié)構(gòu),比如將現(xiàn)有的 LLC(有限責(zé)任公司)轉(zhuǎn)變?yōu)?PBC(公共利益公司),我們的非盈利部門仍然會繼續(xù)存在,并且會更好地服務(wù)于我們的目標(biāo)。我們的使命沒有改變:開發(fā)最先進(jìn)的人工智能技術(shù),以最有利于人類的方式推動其發(fā)展,并將其帶到世界各地。
Barry Weiss: 為什么 OpenAI 必須擁有一個(gè)盈利部門,或者像您提到的那樣完成結(jié)構(gòu)轉(zhuǎn)變?為什么這是您成長的關(guān)鍵?
Sam Altman: 回到2015年,當(dāng)時(shí)很難想象現(xiàn)在的情況。那時(shí)沒有語言模型,也沒有聊天機(jī)器人,更不用說 ChatGPT。我們當(dāng)時(shí)在做一些基礎(chǔ)研究,比如開發(fā)能玩電子游戲的人工智能,或者能控制機(jī)械手的技術(shù)。我們原計(jì)劃籌集 10 億美元,但實(shí)際沒有達(dá)成。當(dāng)時(shí)我們認(rèn)為 10 億美元足夠推動我們的目標(biāo)。但隨著技術(shù)的發(fā)展,尤其是在語言模型規(guī)模擴(kuò)大的過程中,我們意識到成本遠(yuǎn)不止 10 億,甚至不是 100 億,而是 1000 億美元以上。我們無法以非盈利的形式籌集到這么多資金,所以這就是我們轉(zhuǎn)變結(jié)構(gòu)的根本原因。
Barry Weiss: 埃隆最近幾天接受了許多采訪,您也在《DealBook》的一次采訪中提到,您對這種沖突感到“難過”。您還說您認(rèn)為埃隆的公司很棒。但您也提到埃隆是個(gè)“惡霸”。那么,您如何解釋自己相信他會“做正確的事”這一說法?
Sam Altman: 我認(rèn)為兩者并不矛盾。盡管埃隆是個(gè)愛爭斗的人,但我仍然希望并相信他最終會選擇做正確的事。即便我們之間有沖突,我也承認(rèn)他是一個(gè)非凡的企業(yè)家。我認(rèn)為,人們在 Twitter 上可能會表現(xiàn)得很刻薄,但這并不代表他們會濫用手中的政治權(quán)力。對我來說,這完全是兩碼事。到目前為止,這場爭論對我們這些經(jīng)常在線、頻繁使用 Twitter 的人來說,大多是通過推文、影射推文等形式呈現(xiàn)出來的,仿佛是在實(shí)時(shí)上演的戲劇。而 OpenAI 的反應(yīng)似乎一直是忽略或被動回應(yīng)。這基本準(zhǔn)確。我們確實(shí)不會在 Twitter 上互相“扔番茄”。這次的特殊情況是因?yàn)槲覀冃枰峤环晌募,同時(shí)希望提供一些背景信息。我們之前也做過類似的發(fā)布,但那也是為了回應(yīng)法律訴訟。我已經(jīng)記不清埃隆起訴了我們多少次了,可能有四次吧,其中包括撤回訴訟、更改訴訟以及提出初步禁令等。我們的任務(wù)是以有益于人類的方式構(gòu)建 AGI(通用人工智能),并找到一種安全且廣泛分發(fā)的方法,而不是在 Twitter 上與埃隆爭吵。不過,當(dāng)我們需要回應(yīng)法律訴訟時(shí),我們會回應(yīng),并提供相關(guān)背景。
Barry Weiss: 在 OpenAI 的早期,透明和非盈利是其品牌的核心價(jià)值觀。這也是為什么您當(dāng)時(shí)選擇不拿股權(quán),并只領(lǐng)取微薄薪水,因?yàn)槟M麑W⒂趯θ祟愖钣欣氖虑椤?015 年 12 月 OpenAI 發(fā)布后的第二天,您在接受《名利場》的采訪時(shí)曾將 OpenAI 描述為一個(gè)“拯救世界免于反烏托邦未來的非盈利公司”。您還提到,將 OpenAI 轉(zhuǎn)變?yōu)橛麢C(jī)構(gòu)會導(dǎo)致“與世界整體利益不一致的激勵(lì)機(jī)制”,對世界是不利的,F(xiàn)在,我想問的是,您是否仍然同意這些觀點(diǎn),只是因?yàn)楝F(xiàn)實(shí)需求,比如開發(fā)這些模型需要巨額資金,您不得不適應(yīng)?
Sam Altman: 有兩點(diǎn):第一,我認(rèn)為我當(dāng)時(shí)的看法有點(diǎn)錯(cuò)誤。盡管我確實(shí)對激勵(lì)問題有擔(dān)憂,但我對我們自己以及其他 AI 實(shí)驗(yàn)室的表現(xiàn)感到印象深刻。即便存在強(qiáng)烈的市場或經(jīng)濟(jì)激勵(lì),這些實(shí)驗(yàn)室依然致力于開發(fā)安全的模型。這其中有很多因素的作用,我們在技術(shù)方向上也有一些運(yùn)氣成分。但我相信,如果以對人類有害的方式部署這些模型,很快就會失去運(yùn)營許可。當(dāng)然,也有可能發(fā)生一些隱性的問題,比如社交媒體可能就是一個(gè)例子:它的危害在初期并不明顯,但在大規(guī)模應(yīng)用后顯現(xiàn)出來。我承認(rèn),當(dāng)時(shí)我對世界的運(yùn)行方式有點(diǎn)天真,但現(xiàn)在我感覺好多了。我低估了社會對大公司的壓力,以及研究人員推動公司做正確事情的能力。即便有巨大的利潤驅(qū)動,這些因素也發(fā)揮了很好的作用。但有一件事,我當(dāng)時(shí)就覺得不太對,現(xiàn)在仍然覺得如此:我認(rèn)為將這樣重要的技術(shù)掌握在少數(shù)幾家私人公司手中是令人擔(dān)憂的。這讓我聯(lián)想到曼哈頓計(jì)劃或阿波羅計(jì)劃,而這些項(xiàng)目不是由私人公司完成的。我認(rèn)為,如果一個(gè)社會運(yùn)行良好,這種事情應(yīng)該由公共部門主導(dǎo)。
3、OpenAI轉(zhuǎn)型盈利公司Barry Weiss: 您認(rèn)為我們需要一個(gè)類似曼哈頓計(jì)劃的國家項(xiàng)目來應(yīng)對 AI 的發(fā)展嗎?
Sam Altman: 我認(rèn)為公司會做正確的事情,一切會發(fā)展得很好。我不認(rèn)為在當(dāng)前世界中政府的努力會奏效,即便奏效了,也未必是好事。我希望我們處在一個(gè)這種模式可以實(shí)現(xiàn)的世界,但現(xiàn)在顯然不是。
Barry Weiss: 幾天前,Meta 表態(tài)支持埃隆,要求加州總檢察長阻止 OpenAI 轉(zhuǎn)為盈利公司。他們在信中寫道,OpenAI 的行為可能會對硅谷產(chǎn)生深遠(yuǎn)影響。如果 OpenAI 的新商業(yè)模式被認(rèn)可,非盈利投資者也可以獲得與盈利模式相同的回報(bào)。這種立場對您們的計(jì)劃有何影響?
Sam Altman: 這確實(shí)是一個(gè)有趣的挑戰(zhàn),我們需要確保我們的行動與原本的使命一致,同時(shí)也適應(yīng)現(xiàn)實(shí)需求。
Barry Weiss: 埃隆去年曾說:“我不明白一個(gè)非盈利組織,我曾捐款支持它,卻成為一家市值巨大的盈利公司!睋Q句話說,如果這是合法的,那為什么不是所有人都這么做呢?Meta 最近的信中也提到了類似的觀點(diǎn),稱非盈利投資者可以從政府的稅收減免中受益,同時(shí)享有類似于盈利公司的回報(bào)。這是否符合事實(shí)?
Sam Altman: 我知道這封信的部分內(nèi)容是出于不誠實(shí)的立場。如果是在任何一種情況中,我們的非盈利部分都會繼續(xù)存在,并且那些投資非盈利的人并不會從中獲得與盈利公司股權(quán)類似的利益。當(dāng)然,他們自己也知道這一點(diǎn)。
Barry Weiss: 那您認(rèn)為 Meta 為什么會發(fā)這封信呢?
Sam Altman: 我可以想象有很多原因。他們可能是想討好埃隆,也可能是認(rèn)為這能幫助他們與我們競爭,或者是因?yàn)樗麄儗ξ覀儽徽J(rèn)為的“反開源立場”感到不滿雖然我不認(rèn)為這種說法準(zhǔn)確。具體原因,您可能需要去問他們。
Barry Weiss: 對于普通人來說,非盈利組織怎么能變成盈利公司呢?答案是什么?
Sam Altman: 這并不會發(fā)生。非盈利組織仍然是非盈利組織。我相信 OpenAI 的非盈利部分正在走向一個(gè)希望成為史上最大、最具影響力的非盈利組織的軌跡。這個(gè)非盈利部分不會變成其他東西。我們的生態(tài)系統(tǒng)中可以有一個(gè)盈利的業(yè)務(wù)部分,但這并不意味著非盈利部分會消失或停止履行非盈利的使命。最終,每個(gè)人會從 OpenAI 的成功中獲益最大。我希望這次技術(shù)革命能像晶體管的發(fā)明一樣。晶體管是一個(gè)基礎(chǔ)性的科學(xué)發(fā)現(xiàn),滲透到經(jīng)濟(jì)、產(chǎn)品和各個(gè)方面。今天,我們用的設(shè)備中都包含晶體管,但我們并不會特別去想晶體管公司。我的希望是,人工智能也能像這樣成為一種無處不在的技術(shù),所有人都能從中受益。
Barry Weiss: 您是否擁有 OpenAI 的股份?未來您會有股份嗎?
Sam Altman: 目前我們還沒有成立新的實(shí)體,但我們正在考慮,也許是將現(xiàn)有的 LLC 轉(zhuǎn)變?yōu)橐粋(gè)新的結(jié)構(gòu)。我個(gè)人有一小部分股份,是來自一個(gè)老的 YC 基金。我之前通過 Sequoia Fund 持有一些股份,但后來更方便出售了。所以,我現(xiàn)在擁有的股份非常少,幾乎可以忽略不計(jì)。未來是否會有任何股份,目前沒有具體計(jì)劃或承諾。
Barry Weiss: 您能理解人們?yōu)槭裁磳@個(gè)問題如此關(guān)注嗎?
Sam Altman: 完全理解。我多次表示,如果可以回到過去,我會選擇持有股份。我對過去的一些顧慮是錯(cuò)誤的,但我也明白,現(xiàn)在選擇股份會顯得很奇怪。然而,我希望這能成為一個(gè)“正!钡墓疚夜芾硭泄煞,投資者也不需要擔(dān)心我與他們的利益不一致。這是我對 OpenAI 結(jié)構(gòu)上的決策中最遺憾的一點(diǎn)之一。
4、融資超1000億美元Barry Weiss: 如果可以回到2015年,您會怎么做?
Sam Altman: 如果當(dāng)時(shí)有一個(gè)預(yù)言家告訴我三件事:第一,我們需要超過1000億美元的資金;第二,我們最終會成為一家有商業(yè)模式的公司,而不僅僅是一個(gè)研究實(shí)驗(yàn)室;第三,這項(xiàng)技術(shù)會像晶體管一樣滲透到各個(gè)領(lǐng)域,從而實(shí)現(xiàn)更好的平衡動態(tài)。如果我知道這些,我會選擇成為一個(gè)公共利益公司(PBC)。
Barry Weiss: 埃隆對 OpenAI 的啟動有多重要?如果預(yù)言家告訴您,您未來會與他發(fā)生爭執(zhí),您會說“我不需要他”嗎?
Sam Altman: 不會。他對我們非常有幫助,我對此非常感激。
Barry Weiss: 您和埃隆曾經(jīng)是朋友,他對您說過很多尖銳的話。他把您比作《權(quán)力的游戲》中的“小指頭”,并且最致命的一點(diǎn)是,他說他不信任您,不希望世界上最強(qiáng)大的人工智能被一個(gè)他不信任的人掌控。為什么他會這么說?
Sam Altman: 我認(rèn)為,這可能是他個(gè)人的一些看法,也與我們之間的競爭關(guān)系有關(guān)。我覺得他之所以這樣做,是因?yàn)樗M顝?qiáng)大的人工智能由他掌控。我也看到過埃隆對其他許多人的攻擊,包括一些我的朋友。每個(gè)人似乎都會在某個(gè)時(shí)間段成為他關(guān)注的對象。這似乎是他的典型行為模式。
Barry Weiss: 作為曾經(jīng)的朋友和聯(lián)合創(chuàng)始人,聽到他說這些關(guān)于您的話,您似乎表現(xiàn)得相對冷靜。這是因?yàn)槟呀?jīng)習(xí)慣了嗎?
Sam Altman: 不,我對此感到難過。最近,我和一位我認(rèn)為很親近的人聊過,他們說:“埃隆沒有朋友,他也不做平等的伙伴或朋友!睂ξ襾碚f,這是一個(gè)令人難過的時(shí)刻,因?yàn)槲掖_實(shí)把他當(dāng)作朋友。但我試圖更客觀地看待這件事。我記得他曾說過“OpenAI 有 0% 的成功可能性,你們就是一群白癡”,然后他決定做自己的事情。自那以后,有些時(shí)候他似乎想要和解,尋找合作的方式;而其他時(shí)候,他只是在 Twitter 上做他的事情。如果他的攻擊只是針對我,那可能會更痛苦一些。但考慮到他在 Twitter 上的表現(xiàn),我可以把這看作是他的問題,而不是我的問題。這仍然讓人難過,但我有足夠的時(shí)間去習(xí)慣它。
Barry Weiss: 最近 OpenAI 網(wǎng)站上的一篇博文中提到,埃隆“應(yīng)該在市場上競爭,而不是在法庭上”。有人認(rèn)為,埃隆現(xiàn)在擁有一個(gè)名為 xAI 的 OpenAI 競爭對手,他的起訴并不是出于對 AI 安全的擔(dān)憂,而是為了競爭。對此,您怎么看?
Sam Altman: 您應(yīng)該問他。我也希望您能邀請他來分享他的想法。
5、AI 監(jiān)管的目的Barry Weiss: 您不僅是全球最重要的 AI 領(lǐng)導(dǎo)者之一,也是 AI 監(jiān)管的堅(jiān)定支持者。但也有人認(rèn)為,您推動 AI 監(jiān)管的目的,是為了通過“監(jiān)管俘獲”抑制競爭并使您的公司受益。對此,您如何回應(yīng)?
Sam Altman: 我確實(shí)聽過這種說法。毫無疑問,過度監(jiān)管會對社會產(chǎn)生巨大的負(fù)面影響,F(xiàn)在,許多地方的監(jiān)管確實(shí)過多了。埃隆也呼吁過 AI 監(jiān)管,其他主要的 AI 機(jī)構(gòu)領(lǐng)導(dǎo)人也有類似的呼吁。一些基本的安全監(jiān)管是必要的,就像我們坐飛機(jī)時(shí)認(rèn)為它是安全的,或者在美國吃飯時(shí)不用太擔(dān)心食品安全。但如果監(jiān)管措施過度,尤其是對小型企業(yè)不利,那確實(shí)是個(gè)問題。我認(rèn)為,我們需要對最前沿的、最強(qiáng)大的系統(tǒng)設(shè)立安全護(hù)欄,而這主要只會影響像 OpenAI 這樣的小部分公司。
Barry Weiss: 但一些小型 AI 初創(chuàng)公司,比如 Hugging Face 和 Stability AI 的創(chuàng)始人,認(rèn)為像您這樣的公司推動的監(jiān)管是在為自己建立護(hù)城河,通過監(jiān)管排斥競爭。您怎么看待這種說法?
Sam Altman: 如果他們的論點(diǎn)是“我們落后于 OpenAI”,并且我們呼吁的只是針對最前沿技術(shù)的監(jiān)管,而不是對其他開源模型的限制,我認(rèn)為這種說法不合理。
Barry Weiss: 假設(shè) OpenAI 成功開發(fā)了超級智能一個(gè)可能比整個(gè)人類更聰明、更有能力的計(jì)算機(jī)程序您認(rèn)為應(yīng)該對它進(jìn)行監(jiān)管嗎?
Sam Altman: 當(dāng)然應(yīng)該。我首先不確定“超級智能”具體指什么,或者它的影響到底有多大。我相信,如果它像您和埃隆這樣的人描述的那樣強(qiáng)大,它顯然需要某種形式的監(jiān)管,但關(guān)鍵是如何監(jiān)管和何時(shí)監(jiān)管。如何監(jiān)管和何時(shí)監(jiān)管確實(shí)很重要。我認(rèn)為適當(dāng)?shù)谋O(jiān)管對于確保這種技術(shù)的安全應(yīng)用至關(guān)重要。
6、政府干預(yù)AI技術(shù)Barry Weiss: 馬克安德森最近在節(jié)目中提到,他認(rèn)為拜登政府試圖通過對 AI 技術(shù)的嚴(yán)格監(jiān)管,保護(hù)少數(shù)幾家大公司免受競爭。他說政府最終想與兩三家大公司合作,您怎么看?
Sam Altman: 我不知道他具體指的是什么,但我可以非常明確地說,任何減少 AI 競爭的監(jiān)管都是一件壞事。而且 OpenAI 并不是他說的那些公司之一。
Barry Weiss: 關(guān)于馬克安德森提到的拜登政府試圖通過嚴(yán)格監(jiān)管來保護(hù)少數(shù)幾家大公司免受競爭的說法,您怎么看?您是否知道 OpenAI 是否是其中的一家公司?
Sam Altman: 我不知道他具體指的是什么。但可以明確地說,我認(rèn)為減少 AI 競爭的監(jiān)管是一個(gè)壞事。而且,OpenAI 絕不是他說的那些公司之一。
Barry Weiss: 您是否參與過與拜登政府和其他 AI 公司一起討論類似的策略?
Sam Altman: 沒有。從我的角度來看,我們從未參與過類似的討論,也沒有所謂的“陰謀計(jì)劃”,比如讓只有少數(shù)幾家公司能夠開發(fā) AI,然后服從政府的指令之類的事情。
Barry Weiss: 那您對拜登政府在 AI 和技術(shù)發(fā)展方面的態(tài)度總體上怎么看?
Sam Altman: 總體而言,我認(rèn)為這個(gè)政府的效率并不高。但我對一些個(gè)人,比如Gina Raimondo,印象非常好。她在我們討論中表現(xiàn)得很有理解力。不過,我認(rèn)為政府的優(yōu)先事項(xiàng)應(yīng)該是建設(shè)美國的大規(guī)模 AI 基礎(chǔ)設(shè)施,以及確保供應(yīng)鏈在美國本土化。我希望下一屆政府能夠更加重視這些問題。
Barry Weiss: 馬克提到,將 AI 比作曼哈頓計(jì)劃或核武器開發(fā),您覺得這樣的類比是否準(zhǔn)確?
Sam Altman: 類比有些地方是有意義的,比如兩者都需要巨大的資源和精力。但在使用方式和地緣政治影響上,它們有很大不同。如果說它們相似,是因?yàn)?AI 和核武器一樣,帶來了極大的地緣政治后果,但我們還不完全了解這些后果。
Barry Weiss: 如果 AI 真像核武器一樣重要,為什么不由聯(lián)邦政府而不是像 OpenAI 這樣的私人公司來主導(dǎo)開發(fā)?
Sam Altman: 我能想象在歷史上的某些時(shí)期,由政府主導(dǎo)是很好的結(jié)果。但我認(rèn)為目前讓美國政府負(fù)責(zé)開發(fā) AGI 并超過競爭對手,可能效果不佳。美國的國家能力在下降,這不是新觀察,而是令人痛惜的現(xiàn)實(shí)。
Barry Weiss: 您覺得現(xiàn)在美國是否有類似于核武器時(shí)代Vannevar Bush那樣的人,可以擔(dān)任“首席科學(xué)官”的角色,指導(dǎo) AI 技術(shù)的發(fā)展?
Sam Altman: 我認(rèn)為現(xiàn)在缺少那種社會對科學(xué)技術(shù)未來發(fā)展的興奮感。核武器時(shí)代可能標(biāo)志著科學(xué)技術(shù)的高峰期,而隨著時(shí)間的推移,這種信任和興奮感逐漸消失了。
技術(shù)和科學(xué)的態(tài)度Barry Weiss: 最近文化上的“氣氛轉(zhuǎn)變”對技術(shù)和科學(xué)的態(tài)度有影響嗎?
Sam Altman: 我確實(shí)感覺到一些積極的變化,比如對經(jīng)濟(jì)增長和技術(shù)進(jìn)步的重視重新出現(xiàn)。但關(guān)于科學(xué)將如何拯救我們、解決所有問題的態(tài)度,我認(rèn)為這部分的轉(zhuǎn)變?nèi)匀挥邢蕖2贿^,和以往相比,對科學(xué)的熱情確實(shí)有所回升。當(dāng)我們談?wù)撃切┛茖W(xué)領(lǐng)域的“國家大使”時(shí),那些人能激勵(lì)公眾,對科學(xué)充滿激情,我仍然不確定我們是否有那種人物存在。我覺得現(xiàn)在人們對商業(yè)的熱情大于對科學(xué)的熱情。
Barry Weiss: 不過,有一個(gè)公司讓我感到興奮;蛟S這么說有點(diǎn)爭議,但我認(rèn)為它的創(chuàng)始人是美國最有意思的人之一,那就是 Paul Merlucky 和他的公司 Anduril Industries。最近,OpenAI 與 Anduril 達(dá)成了一項(xiàng)合作協(xié)議,開發(fā)軍事用途的 AI 應(yīng)用。之前,OpenAI 一直禁止將其技術(shù)用于武器。那么,是什么讓您改變了主意,決定將公司的技術(shù)融入哪怕是防御性的武器系統(tǒng)中呢?
Sam Altman: 我們制定了一套原則,經(jīng)過批準(zhǔn)后,允許某些用例符合這些原則。我認(rèn)為,如果美國的領(lǐng)先技術(shù)不能幫助我們防御國家和盟友免受對手的攻擊,我們將處于非常不利的局面。所以,我們需要找到一種方法來實(shí)現(xiàn)這一目標(biāo)。
Barry Weiss: 如果特朗普明天給您打電話說:“嘿,Sam,我想讓你擔(dān)任AI監(jiān)管負(fù)責(zé)人,你可以在這個(gè)職位上做任何事情!痹谶@種情況下,您首先會做什么?在這個(gè)職位上最重要的事情是什么?
Sam Altman: 我會專注于美國的基礎(chǔ)設(shè)施和供應(yīng)鏈。這意味著我們需要在美國本土生產(chǎn)自己的芯片,建立足夠的能源基礎(chǔ)設(shè)施來支持?jǐn)?shù)據(jù)中心的運(yùn)行,改變目前建設(shè)數(shù)據(jù)中心的方式?傊覀冃枰軌蛟诿绹鴥(nèi)部構(gòu)建非常昂貴且復(fù)雜的供應(yīng)鏈和基礎(chǔ)設(shè)施。
Barry Weiss: 關(guān)于AI中的偏見和審查,這是一個(gè)非常重要的話題。最近的一些例子,比如 Gemini 生成的“黑人版喬治華盛頓”或“跨性別納粹”這樣的圖像,雖然看起來很荒謬,但其實(shí)反映了更深層次的問題。這種問題可能來源于編程這些技術(shù)的人,也可能來源于在線數(shù)據(jù)的采集方式。您如何在 ChatGPT 中應(yīng)對這種偏見問題?
Sam Altman: 我們主要關(guān)注兩件事。第一是用戶的靈活性,也就是用戶能否讓系統(tǒng)按照他們的期望運(yùn)行。我們認(rèn)為,只要在社會公認(rèn)的廣泛范圍內(nèi),系統(tǒng)應(yīng)該能夠滿足用戶的要求。比如,我們可以一致同意系統(tǒng)不應(yīng)該教你如何制造核武器,但如果用戶希望系統(tǒng)以某種具有冒犯性的方式運(yùn)行,那這也是對齊的一部分。第二是默認(rèn)設(shè)置的行為。大多數(shù)用戶不會修改默認(rèn)設(shè)置,但會提出一些有爭議的問題。系統(tǒng)應(yīng)該如何響應(yīng)?我們投入了大量工作來解決這個(gè)問題,并試圖通過“模型規(guī)范”來明確模型的行為。這樣,如果用戶發(fā)現(xiàn)問題,他們可以判斷這是“錯(cuò)誤”還是與我們的設(shè)計(jì)目標(biāo)存在分歧。
Barry Weiss: 是否可能構(gòu)建一個(gè)像 ChatGPT 這樣的技術(shù),其行為完全沒有政治傾向?這是否注定不可避免?
Sam Altman: 不可能完全做到。即使你試圖讓系統(tǒng)保持中立,它也可能因?yàn)闊o法回答涉及政治的問題而變得無用。或者它會不可避免地帶有某種觀點(diǎn)。因此,我們的目標(biāo)是明確記錄我們設(shè)定的默認(rèn)行為,并接受公眾的討論。如果發(fā)現(xiàn)問題或需要修改定義,我們可以調(diào)整并重新訓(xùn)練系統(tǒng)。
Barry Weiss: 您是否認(rèn)為 AI 或 ChatGPT 有責(zé)任去“對抗有害的觀點(diǎn)”?比如,如果稍微傾斜一下算法,可以減少種族主義、反猶太主義或性別歧視,您會這么做嗎?
Sam Altman: 這是一個(gè)非常復(fù)雜的問題。我最近也在思考一個(gè)原則性的想法這不是 OpenAI 的官方立場,只是一個(gè)正在探索的想法。如果我們發(fā)現(xiàn)某種新的方式,比如使用蘇格拉底式提問可以顯著提高學(xué)生的學(xué)習(xí)效果,但用戶的偏好卻是直接得到答案,那么我們應(yīng)該如何決定系統(tǒng)的默認(rèn)行為?我的一個(gè)想法是,我們可以始終保持透明。當(dāng)我們對模型的行為規(guī)范進(jìn)行任何更改時(shí),我們都明確告訴用戶,并解釋為什么做出這些更改。這樣,用戶就不會覺得我們在“算法的遮掩”下暗中操控什么。這種透明度對建立信任至關(guān)重要。
Barry Weiss: 如果我們確實(shí)發(fā)現(xiàn)了類似您剛才提到的例子,比如在教育中使用蘇格拉底式提問可以顯著提高學(xué)習(xí)效果,并且我們決定將其作為默認(rèn)模式,同時(shí)公開討論并解釋原因,用戶也可以在偏好設(shè)置中自由更改。那么,問題就不在于我們做出了這個(gè)改變,而在于如果我們更改了卻沒有反映在規(guī)范中,也沒有告知用戶,這才是錯(cuò)誤的。
Sam Altman: 是的,這種“黑箱”操作,比如 Twitter 的算法,就讓我感覺很不好。
Barry Weiss: Sam Altman,謝謝您參加我們的節(jié)目。
Sam Altman: 謝謝。