人工智能的飛速發(fā)展,正在引發(fā)越來越多的擔憂,當通用人工智能到來的那一刻,人類自身將向何處去?和這種看似遙遠的遠慮相比,人們在很多領域正在面臨迫切的“近憂”,例如人工智能應用對就業(yè)市場的影響、生成式內(nèi)容的版權爭議,數(shù)據(jù)安全與隱私保護等問題。當然,任何問題的討論,都不能僅僅局限于技術本身,任何技術的應用和發(fā)展,都離不開相應的社會環(huán)境、治理規(guī)制的約束。在人工智能與人類社會適應融合過程中,我們能否做到揚長避短,形成與人工智能的協(xié)同共生?為此,我們發(fā)起了“AI&Society百人百問”活動,廣泛邀請AI技術大咖、AI獨角獸創(chuàng)始人、AI投資人,以及社會學家、心理學家、國際關系專家、科幻作家等,用多元視角,深入研討人工智能技術引發(fā)的廣泛影響,發(fā)掘AI時代的共識和非共識,共同推動人工智能始終朝著“助人發(fā)展,與人為善”的方向可持續(xù)發(fā)展。本期嘉賓
梁正清華大學公共管理學院教授,清華大學人工智能國際治理研究院副院長訪談主持
劉金松 王強騰訊研究院資深專家
黃瑾楠騰訊研究院助理研究員
核心觀點:
1.AI對社會的影響,短期來看放大了原有的社會問題;長期來看是怎么定位人類跟工具的關系,AI的設計一定是替代人類嗎?
2.從普通人的角度來講,人的群體構成是非常復雜的,如果你不能接觸不一樣的人,而事事都是依靠一個所謂的完美AI助手,那么整個人類社會的多樣性都得不到保障。3.現(xiàn)在AI治理最難的部分,可能就是如何平衡治理與發(fā)展的關系,我們需要明確區(qū)分哪些問題是由發(fā)展不足導致的,哪些問題是由發(fā)展過度導致的。4.當某個領域形成了一致性認知的時候,你再去做溝通就很難了。AI的發(fā)展也有點類似。如果出現(xiàn)重大的誤區(qū),可能會很難糾正。5.未來的科學家可能不再是傳統(tǒng)意義上的科學家,因為有一個比你聰明一萬倍的東西在那里,你必須基于自身獨特的體驗和經(jīng)歷,能提出AI想不到的問題。
AI的設計思路一定是替代人類嗎?AI&Society百人百問:人工智能這兩年的發(fā)展非常迅速,如果說過去一段大家更多關注技術的突破,那么到了目前這樣一個應用廣度和深度的時候,AI正在深刻影響我們的工作和生活,甚至會在未來重新定義我們的社會關系和人類角色。你如何看待AI對當下和未來社會的影響?
梁正:說到AI的社會影響,我之前關注AI治理領域比較多,現(xiàn)在也很關注AI和社會的關系,我們的基本觀點是什么?我們最早關注人工智能治理時,可能更多關注怎么去推動產(chǎn)業(yè)發(fā)展、社會進步,后來更多的是想怎么在推動發(fā)展的過程中也注重風險防范,注重防范可能出現(xiàn)的各種各樣的社會問題。
我們認為AI的社會影響包括了兩大類:第一,從短期來看,AI放大了原有的社會問題,包括隱私保護問題、公平問題、歧視問題。這并不是說AI這個工具本身天然地具有這樣的問題,而是說AI把原有的一些社會問題放大了,包括我們說AI有傾向性,實際上這是我們輸入時的問題所導致的,是把我們的價值觀帶給了AI,并不能通過價值對齊就從根本上解決這些問題。
我之前參加南洋理工大學的論壇,有一位投資人說,全球范圍內(nèi)的人類對齊問題都是解決不了的,AI怎么跟人類對齊呢?所以我們現(xiàn)在需要重新思考人工智能跟我們?nèi)祟惖年P系。從2017年開始,我們就開始關注“主動治理”,或者叫“戰(zhàn)略性治理”這個概念,就是說你對技術發(fā)展的方向不是持一個放任自流的態(tài)度,而是通過有意識的引導,賦予其相應的價值取向。
這個問題不能泛泛地稱之為價值觀對齊,所謂泛泛的價值觀對齊,比如說在語料的訓練過程中,你把所有的多樣性的東西都讓AI包括進去,就像真實社會中有陰暗面的部分,也有光明面的部分,但我們反而認為,應該從設計的角度就去避免這樣的問題,它不是在事后才進行,而是應該在前期有明確的規(guī)則的要求下去進行訓練和設計,這是我們想說的最基本的一個理念。
第二,從長期來看,這也涉及我最近比較感興趣的一個話題,就是人機的關系問題。最近我們開了一個有關AI for Science的會,我們認為這個事的影響更大,相比短期看到的AI放大原有的社會問題之外,AI將來還會產(chǎn)生新的問題,也就是人機關系的問題。人機關系這個問題也帶來一個思考:從現(xiàn)在開始,AI的設計思路一定是AI替代人類嗎?
其實不是這樣,而是從一開始就應該是從人機合作的角度,去恰當?shù)匾龑,讓AI去做的事情,實際上是我們?nèi)祟惒簧瞄L、不能做、做不好的事情。在過去機器替代人的過程當中正是這樣,比如AI的能力,包括信息獲取能力、整理能力、推理能力、分析能力、預測能力,能給人極大的助力;但另外一方面,AI替代不了人類。
清華化學系主任劉磊老師講過一個觀點,他說在科學研究中,AI替代不了人類的一點是,我們科學研究里的很多突破,取決于我們通過多樣化的、不同的路線進行探索。而你用工具的最大問題是,大家做的事可能會越來越一樣,而且很多科學發(fā)現(xiàn)是跨學科的,很多東西它是靈光一現(xiàn),并不是在本學科領域里面涌現(xiàn)的靈感,所以說未來的AI工具會很強大,但不發(fā)展到把科學家都替代掉的程度。
以后在每一個領域,可能都要去解決人機關系的問題,把工作交給AI,會產(chǎn)生很多意料之外的影響,這種影響對于整個領域的發(fā)展也不見得是最優(yōu)的,我們需要考慮好怎么去劃定人機合作的界限。這不只是單純從我們看到的能力替代的角度來思考,而是當你過于依賴一個強大的工具,可能反而喪失了人類創(chuàng)作、探索、發(fā)現(xiàn)過程中的其他可能性的產(chǎn)生。
AI未來邏輯推理的能力可能會持續(xù)增強,但跨系統(tǒng)的遷移和聯(lián)想,也就是我們所說的叫作類比和隱喻,才是人類思維過程的重要機制,它是很復雜的。這種思維機制在科學研究里非常重要,而從普通人的角度來講,人的群體構成是非常復雜的,有各種各樣形形色色的人,如果你不能夠接觸不一樣的人,而事事都是依靠一個所謂的完美助手,那么整個人類社會的多樣性都得不到保障。這跟生物進化的是一樣的,大自然受到很多因素的影響,共同保持物種的多樣性。所以說,從長遠來看,我們怎么定位人類跟工具的關系,是很重要也很有意思的問題。
AI&Society百人百問:在人工智能發(fā)展的早期階段,大家都充滿了樂觀預期。效率的提升、創(chuàng)意的拓展,包括提供各種場景下的陪伴。但最近美國也出現(xiàn)了一個案例,就是聊天機器人創(chuàng)業(yè)公司Character.AI,因一位青少年對自殺而被起訴。你怎么看待這個案例,AI是真的消除了孤獨,還是說把用戶帶向了一個更深的困境?
梁正:這其實是加大了信息繭房的困境,過去可能也有這樣的問題,但是過去可能沒有AI工具時,他可能求助于伙伴,求助于外在,求助于家人,但現(xiàn)在有所謂的聊天機器人,也帶來了一個問題,就是人自己的豐富性、自主性會受到很大的影響,所以這些聊天工具不僅涉及簡單的聊天問題。那么基于這樣的理念,我們就需要在一些場景限制AI的能力,AI不是什么都能聊的,也不是在什么領域都去用AI,我們需要設定一個比較明確的界限。就像最近爆出的一些社會問題,有些老人不信兒女,但信短視頻,這其實跟我們說的信息繭房效應是很類似的,它其實對我們正常的信任機制產(chǎn)生了非常大的影響,這時候就需要對這些應用場景采取一些干預措施。
設立不能突破的底線但也要分場景動態(tài)調(diào)整
AI&Society百人百問:談到AI治理,現(xiàn)在是全球共同面臨的復雜難題。我們能從其他類似復雜問題的治理中,得到什么啟發(fā)?
梁正:AI治理的幾個關鍵問題,一個是它的非同步性,這在新技術的治理當中一定會碰到,技術永遠是比治理或者監(jiān)管要走得快,技術本身有它發(fā)展的一個路徑,所以我們在這個時點上對它進行的管理未必適用于它之后的發(fā)展變化,我們一直強調(diào)的是靈活的“敏捷治理”方式。我們常?梢钥吹竭@樣的情況。比如說你現(xiàn)在特別關注的是數(shù)據(jù)、算法等等隱私問題,但也許隨著技術的發(fā)展,這些問題在未來可能并不突出,你原來所規(guī)定的一些問題可能成為它后來發(fā)展的一個阻礙。
第二類是分散,AI所產(chǎn)生的一些風險并不是來自技術自身,而是來自于人類怎么去應用它,人類在不同的領域里應用AI,那么我們也很難有一個水平的監(jiān)管,很難覆蓋所有的問題。這正是AI治理所面臨的分散化、差異化特點,舉個例子,同樣的一個技術,或者同樣的一個問題,在不同的場景下,大家面臨的治理要求可能完全不一樣,有些個人的敏感數(shù)據(jù),可能在一般的場景中是大家不太關心的信息,但是可能到了醫(yī)療、金融場景中,就變成了非常有價值的信息。
AI&Society百人百問:數(shù)據(jù)是AI產(chǎn)業(yè)發(fā)展的重要基礎,在過去互聯(lián)網(wǎng)產(chǎn)業(yè)的發(fā)展中,也出臺過一些相關的規(guī)制措施,未來面對AI的應用場景,會是一個什么樣的協(xié)同機制?
梁正:我們一直提的一個概念,一方面是說針對AI所產(chǎn)生的新型治理的問題,需要保持靈活的態(tài)度,根據(jù)發(fā)展變化,進行調(diào)整和規(guī)范,當然提前是必須設立一些不能突破的底線;另一方面是分場景治理,我們更多是說借助已有的規(guī)制手段和工具,例如在數(shù)據(jù)管理上,我們已有數(shù)據(jù)安全保護辦法,在這種情況下就不需要提出額外的關于數(shù)據(jù)和隱私的保護要求,因為這是一個基礎,先滿足這個基礎,才能去考慮新的應用問題。
現(xiàn)在可能爭議比較大的是,AI是不是在某些特定的條件下會突破現(xiàn)有的一些要求?就像我們現(xiàn)在說的數(shù)據(jù)可用,但是不可見。其實這也是新的問題,但如果回到其本身的要求來看,是沒有變化的。個人的信息也好或其他信息資源,只要通過技術手段處理,沒有辦法識別或者是還原出來,就可以利用原來的手段去使用它,不應該再去建設新的規(guī)制。這也是一個我們所說的跟過去可能會有所差異的治理,叫分場景治理,利用已有的治理工具,一方面在水平層面上設定底線原則,另一方面則根據(jù)不同場景進行靈活調(diào)整。
AI&Society百人百問:在AI的治理上,目前來看不同國家的差異性也比較大,包括歐盟、美國都有不同的傾向,對不同的治理措施進行橫向比較的話,會有哪些啟發(fā)?
梁正:美國今年比較大的爭論是加州法案,到底要不要加強限制,最后加州州長加文紐森為什么否決這個法案,我覺得他的理由也是跟我們一致的。第一,是否通過閾值的限制,就能真正避免誤用和濫用風險?其實是避免不了的,他認為這樣帶來的是成本,但其實沒有真正解決大家現(xiàn)在所關心的問題。
李飛飛的觀點是,如果你要是用加州法案去做責任追溯,它的研發(fā)者就會投鼠忌器,畢竟研發(fā)者需要承擔連帶責任。如果產(chǎn)品在其他地方?jīng)]有按照設計初衷使用而出現(xiàn)問題,設計者、研發(fā)者仍需要承擔責任,這可能會導致研發(fā)者因為害怕風險而不敢去嘗試。
所以從整體上來看,美國并沒有給AI直接施加一個非常嚴格的限制。相反,他們正在推動一些領域的標準建設,比如安全評測、數(shù)據(jù)訓練標準等。這些舉措更像是在建立一個QA體系(質(zhì)量保障體系),旨在提高AI技術的整體質(zhì)量。因為AI現(xiàn)在面臨的一些問題,很大程度上是由于質(zhì)量參差不齊所造成的,比如使用數(shù)據(jù)的問題、大家能力的差異等等。在這種條件下,我們?nèi)绾翁岣逜I技術的質(zhì)量呢?
我認為關鍵是要解決一致性問題,提高整體質(zhì)量。同時,我們還需要關注風險。應用階段的風險取決于具體的應用場景。比如,在to B端的應用中,很多AI技術因為無法解決可能出現(xiàn)的錯誤而難以落地。我舉一個最近的例子,我們?nèi)ツ车卣⻊諗?shù)據(jù)局調(diào)研時,發(fā)現(xiàn)他們開發(fā)的一個政務問答大模型系統(tǒng),雖然花了一年半時間去開發(fā),但只能對內(nèi)服務,不能對外服務。因為一旦對外服務,如果出現(xiàn)錯誤,由誰來承擔這個責任就變成一個難題。
我們需要思考在現(xiàn)有的條件下如何提升AI的質(zhì)量和準確性,這是國內(nèi)目前在管理上所面臨的挑戰(zhàn),即確保內(nèi)容的安全,不能出錯。但真正將AI應用到具體行業(yè)領域后,每個領域的需求都可能不同。因此,我們正在逐個場景進行梳理,F(xiàn)在,我們采用分散的方式,在不同場景下探索并建立相應的規(guī)范,這種方式可能更適合AI的應用和發(fā)展。
歐洲則試圖推行水平式的監(jiān)管,但也不可能窮盡技術上的所有要求。他們采取了分類分級的方法,識別出高風險的場景,并針對這些場景提出了一系列要求,如披露、登記和評估。評估方面最早主要關注的是算法可能帶來的影響,而不是算法技術本身的先進性或性能。歐洲更多是基于人權進行考慮,即AI的一切應用都不能侵犯人的基本權利。因此,他們識別出的一些高風險場景可能與我們的理解有所不同。例如,他們認為工作中的評價系統(tǒng)、錄音審查系統(tǒng)等都是高風險場景,還有教育場景也被視為高風險。
AI技術的應用實際上都會對人的發(fā)展產(chǎn)生影響。一旦將技術應用到實際中,可能影響人的認知,導致單一化傾向,甚至可能讓人產(chǎn)生依賴性,進影響到人的多元化發(fā)展。換句話說,這些問題都涉及到人的福利或權益,因此大家關注的問題角度自然會有所不同。我們強調(diào)的是權力的行為規(guī)范性、標準性,即在大的原則上比如價值觀上不能產(chǎn)生偏差。然而,當涉及到個人層面的影響時,我們該如何保障人類的權益呢?在現(xiàn)有的管理體系中,包括救濟制度和賠償?shù)确矫妫鋵嵅⒉煌晟啤?br/>
因此,大家在這些角度上關注的問題并不一致。關于下一步的發(fā)展,我認為我們需要同時關注三個方面:首先是個人的權利。今天中午我參加一個會議時,新加坡一個研究機構分享了他們正在研究的AI與兒童權利的問題。這讓我意識到,我們過去在關注AI時,很少考慮到它對兒童成長可能帶來的問題,不僅僅是教育問題,還包括兒童的發(fā)展權和個性成長等方面。我們目前看到的更多的是AI對于兒童知識、技能上的幫助,或者是技術可能帶來的新的不平等和鴻溝,但對兒童基本權利的維護考慮比較少。
從國際視角來看,目前各國在這些問題上尚未達成共識。當出現(xiàn)問題時,大家更愿意在安全風險和犯罪領域進行討論,比如失控性風險、非法使用AI、恐怖主義、合成化學毒品和化學武器、深度偽造造成的詐騙等,這些都是國際上共同關注的,國際上都在探討能通過什么樣的方式解決這些問題。
不能因為有反對聲音,就阻止技術發(fā)展
AI&Society百人百問:目前來看,其實各國都有自己的關切點。未來隨著時間的推移,是否會在類似教育問題、兒童發(fā)展問題上逐漸達成共識,形成被普遍接受的類似國際公約這樣的內(nèi)容?
梁正:關于兒童數(shù)字權利,我們可以去看看現(xiàn)有的公約或倡議,在更一般的層面上,比如聯(lián)合國正在推動的數(shù)字契約,它試圖建立數(shù)字權利體系,除了日內(nèi)瓦的人權公約外,還有很多其他公約和法規(guī)可能與AI的使用相關。我認為,這些公約和法規(guī)的要求應該能夠涵蓋AI的使用場景。此外,如果技術不能得到妥善使用,可能會影響到人的發(fā)展權、生存權、平等權和自由權。因此,我們需要在國際層面上建立起一個類似于國際公約的框架,來規(guī)范AI的使用,保護人類的權益。
AI&Society百人百問:當我們談到AI治理時,面臨著一個較大的分歧,就是大家對同一個問題有不同的理解,比如有的強調(diào)安全,有的強調(diào)發(fā)展,可能在不同國家之間、行業(yè)內(nèi)不同企業(yè)之間,都會有不同看法。在AI快速發(fā)展的背景下,我們應該如何找到一個好的平衡策略?
梁正:現(xiàn)在最難的部分可能就是如何平衡發(fā)展與治理。我們在7月份的上海WAIC大會上強調(diào)了發(fā)展與治理并重的重要性。我的基本觀點是,我們需要明確區(qū)分哪些問題是由發(fā)展不足導致的,哪些問題是由發(fā)展過度導致的。
我們需要對技術的發(fā)展、產(chǎn)業(yè)的應用有充分的了解,不能僅僅基于社會反應就對技術進行限制,因為這樣做可能會誤傷那些仍在發(fā)展初期的技術,畢竟技術的問題有可能會隨著大規(guī)模的應用和迭代自然得到解決。
以自動駕駛出租車為例,它在武漢上線后,第一,實際上投入的車輛數(shù)量很少,第二,它們對交通的影響并非源于不遵守交通規(guī)則,反而是因為它們過于遵守規(guī)則,導致與人類駕駛的交通方式不兼容,從而產(chǎn)生了秩序上的沖突。
這并不是說它們發(fā)生了撞人等安全事故,實際上是一個小規(guī)模應用與舊有系統(tǒng)不兼容所帶來的問題。當你真正與乘客交流時,你會發(fā)現(xiàn)他們首先關注的是成本問題。乘客們不會過多關心最終會替代誰,他們更關心的是價格和安全。從這一點來看,自動駕駛技術替代人工駕駛的趨勢是不可逆轉的。
因此,當有反對聲音出現(xiàn)時,我們不能因此就阻止技術的發(fā)展。在武漢自動駕駛出租車引發(fā)爭議后,我曾表達過兩個觀點:第一,從技術發(fā)展的角度來看,自動駕駛出租車替代傳統(tǒng)出租車是大勢所趨,這是因為它在便利性、安全性和經(jīng)濟性方面都具有明顯的優(yōu)勢。第二,我有一個比較尖銳的觀點,替代的這部分崗位究竟是不是應該被保留的崗位?
當下網(wǎng)約車司機工作很辛苦,工作時間越來越長,收入越來越低,這些崗位本身可能并不具備長期性。隨著技術的發(fā)展,無人駕駛的優(yōu)勢會越來越明顯,優(yōu)于有人駕駛,甚至在某些情況下,更遠的將來有司機的車輛可能會被視為異常情況。
技術本身的發(fā)展有一個大的趨勢。那么在這種背景下,我們該如何判斷呢?如果你的政策出臺只是為了應對當前社會的情緒反響,那可能就等于叫停了這項技術,或者阻止了它規(guī);膽,這樣反而可能阻礙它的發(fā)展。
但換個思路,如果我們承認這是大勢所趨,那么我們就可以思考如何通過交通管理和規(guī)劃,比如車路協(xié)同、專用車道建設等方式,來避免它與現(xiàn)有交通系統(tǒng)的沖突。同時,這種方式也能促進技術的快速迭代和成本降低,使技術能發(fā)展得更好。在這種條件下,我們就能實現(xiàn)一個相對平穩(wěn)的過渡。
這兩種態(tài)度其實是有本質(zhì)區(qū)別的。就像我們看到的自動駕駛,之前可能還因為能力不夠、事故頻發(fā)而帶來較大的社會沖突;但現(xiàn)在,其實我們已經(jīng)可以處理好它與現(xiàn)有系統(tǒng)的匹配問題了,在應用上已經(jīng)到了“臨門一腳”的階段。
過去幾年,從企業(yè)到政府前面做了大量的工作,才使得自動駕駛能夠上路,甚至能在全域實現(xiàn)無人駕駛。這背后是巨大的投入,而且這項技術一直都在迭代中,我們現(xiàn)在是以一個非常小心謹慎的方式去測試它。所以,當出現(xiàn)問題時,我們要準確判斷問題的性質(zhì)。如果你還認為這是因為技術不成熟就貿(mào)然推向應用帶來的混亂和風險,那問題的性質(zhì)就完全變了。
其實,綜合各方面的反饋來看,對自動駕駛這件事,大家形成的一個共同認識是:這個問題其實是因為發(fā)展還不夠,應用范圍還不夠大,所帶來的階段性沖突。這并不是說它的能力不成熟,技術不成熟造成的。
AI&Society百人百問:自動駕駛技術在國外的推進也很快,這代表了未來的一個發(fā)展趨勢。但從大眾的角度來看,大家之所以比較擔心,還有一個特殊的因素就是,最近幾年在面對就業(yè)變動、收入波動的時候,很多人會把開網(wǎng)約車作為一個過渡性就業(yè)措施,成為了一個就業(yè)緩沖的蓄水池,所以這種情緒可能也影響到了人們對這項技術的看法和接受過程,在新技術的應用過程中,如何與社會的接受度相平衡?
梁正:就像當年外賣小哥被陷在算法里的新聞一樣,一下子就引爆了社會輿論,包括你剛才提到的就業(yè)過渡的問題都很現(xiàn)實。我覺得對于AI以及這種技術的應用,社會的認知和接受,也是一個很重要的因素。但我們也可以換個角度考慮這個問題,為什么會有這么大的網(wǎng)約車群體存在呢?是因為很多人沒有找到好的、高質(zhì)量的就業(yè)崗位,只能依賴這些所謂的過渡崗位。
所以問題的實質(zhì)是,不僅要考慮如何滿足大家的過渡性就業(yè)需求,更重要的是如何通過技術創(chuàng)新,創(chuàng)造更多高質(zhì)量就業(yè)崗位。我們現(xiàn)在的問題是在這方面做得還不夠,導致社會上對新技術的接納產(chǎn)生一些抵制情緒。這其實是一個需要整體上調(diào)整的問題。我們現(xiàn)在提新質(zhì)生產(chǎn)力,不僅是要靠解放生產(chǎn)力,更要靠調(diào)整生產(chǎn)關系。在對新經(jīng)濟的治理中,大家可能注意到最近政策面開始再次強調(diào)包容審慎,就是要激活新經(jīng)濟在創(chuàng)造增量就業(yè)上的潛力。
當對技術形成一致性認知,再去做溝通就很難
AI&Society百人百問:AI向善其實是行業(yè)里一直在倡導的一個理念,剛才梁老師也提到,有些理念、規(guī)則需要前置在產(chǎn)品設計環(huán)節(jié),而不是說出了問題之后再去糾正。對于推動科技行業(yè)的AI向善創(chuàng)新,你有哪些建議?
梁正:我覺得行業(yè)其實可以做很多事情。首先,行業(yè)需要對技術發(fā)展的真實情況有一個客觀、真實的反映。比如大模型這波技術,如果行業(yè)不能實事求是地宣傳其能做什么、不能做什么,以及哪些方面可能還有欠缺,那么就會給整個社會一種行業(yè)已經(jīng)發(fā)展過頭的感覺。在這方面,行業(yè)其實相對欠缺實事求是的態(tài)度。當然,行業(yè)也不能完全不去講,畢竟面對當下的科技發(fā)展環(huán)境,公眾也需要你去給大家解釋清楚你到底做到什么程度了。但目前來看,行業(yè)里這種深度、真實、客觀的反映比較少,容易被輿論傾向帶著走。
其次是我們常講的倫理問題,即優(yōu)先性的問題。從研究的角度來講,什么叫做負責任的創(chuàng)新?我們需要在價值引導下進行。比如蘋果為什么讓用戶選擇否關閉cookie,這里面是有它對倫理的認識在里面。新技術的負責任創(chuàng)新上,我們或許可以參考公司治理的發(fā)展歷程。公司治理中早期主要是強調(diào)股東利益最大化,后面慢慢考慮到用戶、消費者和社會,考慮到企業(yè)社會責任、ESG。當我們把這樣一個過程應用到科技行業(yè)的時候,其實也是一樣,從你最開始滿足用戶需求,到考慮到行業(yè)伙伴,再到主動承擔社會責任,它也是一個不斷進化的過程。
第三個其實是說,你要解決這些問題靠誰?最重要的還是靠企業(yè)自己,企業(yè)要不斷地基于倫理或基于社會責任的視角下去完善技術。現(xiàn)在我們看Anthropic可能估值上沒有OpenAI那么高,但大家可能覺得它口碑越來越好。現(xiàn)在你會覺得OpenAI在商業(yè)化上是一騎絕塵,越走越遠。但隨著一些問題的出現(xiàn),大家可能會越來越傾向于選擇慢一點的發(fā)展方式。Anthropic正在走出一條不一樣的發(fā)展路徑,但這條路可能要難一點,因為你在安全上面可能要做很多的限定工作,并進行相關投資。但不管是哪條路徑的選擇,這都是業(yè)界才能做的事情,不是靠其他外部力量給你解決。當然,這里面涉及很多能力的培育,可能需要和學界一起共同尋找,但總體來說業(yè)界還是掌握著決定權。
AI&Society百人百問:今年在中法簽署的 AI 治理聯(lián)合聲明中,也特別提到了“智能向善”的宗旨,后續(xù)會以什么樣的形式推進這樣的理念落地?
梁正:這種倡議是相對理念性的,它是價值觀引領。AI向善其實有一些很具體的內(nèi)容,主要有兩個方面,一個是Good AI。Good AI應該是安全的、普惠的,就像我們之前說的數(shù)字技術要普惠,比如對老年人等群體,國內(nèi)企業(yè)也做了很多工作,這就是Good AI。
再一個是AI for Good的范圍,F(xiàn)在大家普遍認為,AI在商業(yè)上的應用是重中之重,但在解決社會問題方面,這方面的作用發(fā)揮其實不夠。就像我們研究員有一年主辦的國際論壇上就專門討論過AI for SDG的應用,如何通過AI去應對氣候變化、應對能源短缺、解決社會不平等問題等等。今年我們也在和UNDP合作一個報告,討論AI怎么去賦能減貧等問題。整體來講就是AI怎么去助力發(fā)展問題。
換句話講,AI for Good在某種程度上就是AI用于發(fā)展。發(fā)展的概念不是說我們只要增長,而是有更豐富的內(nèi)涵。我們現(xiàn)在提高質(zhì)量發(fā)展,之前有五大發(fā)展理念,而且最終要落實到人的發(fā)展上。如果說AI for Good,就需要最終落實到AI for Human(人工智能為人類服務),這就涉及社會的各個方面,所以這些是要更多探索的,怎么去用它解決發(fā)展問題。
我們做的很多工作,之前的一些倡導都已經(jīng)看到一些效果,比如通過人臉識別技術在“寶貝回家”等公益項目中的應用,還有一些環(huán)保項目比如蔚藍地球,這些都是企業(yè)社會責任的體現(xiàn)。但從更宏觀的視角來看,如何解決未來的勞動替代問題,國外也有公司推進基本收入實驗,這是一個非常前瞻性的視角,我們的企業(yè)也應該從這個角度去做一些工作。
特別是當人在使用AI工具時,它會對個人、群體和家庭產(chǎn)生哪些影響?這些實驗是很有價值的。有些人獲得激勵后,可能會去尋找更好的機會,對不同層面的人來說,影響是不同的,這些是我們國內(nèi)的企業(yè)也可以更多去思考的。
再比如,我正在正在帶博士生做的研究是關注智能政務工具的推廣對基層公務員的影響,以及將來是否會對他們的工作產(chǎn)生大的變革。已經(jīng)有研究發(fā)現(xiàn),像執(zhí)法記錄儀、智能攝像頭等街頭管理工具,對城管等執(zhí)法人員有很大的影響,過去他們有較大的自由裁量權,但現(xiàn)在基本上所有的行為都要在監(jiān)控和嚴格操作程序下進行。此外,從社會層面來看,公眾會怎么感知這些變化?是因為普遍的感覺都改善了,認為自己得到了更好的服務體驗,還是從他們的角度來看,并沒有明顯的差異?這兩個角度都有研究者在做。
以上這些研究關注的是AI應用帶來的實際影響。另外一方面,歐洲的一些學者很早就開始做科技倫理的研究。他們認為,所謂的Ethical AI實際上一定是一個社會互動的結果,需要把使用者的體驗納入進來。而不是從一開始設計時,只從商業(yè)利益的角度去考慮。比如英國曼徹斯特大學在做合成生物學領域的負責任研究,會與科學家、社會科學家、社會公眾等有興趣的人一起討論,并隨著項目進行不斷迭代,這樣一個小組也會一直一起工作,這種工作方式我們過去考慮得比較少。
但如果我們不關注這個問題,將來可能會面臨很大的風險,比如投入巨大的資源后開發(fā)的產(chǎn)品和技術,可能會因為社會可接受度或監(jiān)管上的風險而無法實現(xiàn)商業(yè)化。過去我們有過這樣的例子,比如轉基因技術,雖然我們當時在國家中長期規(guī)劃里投資了這些重大項目,但相當一批技術實際上沒有辦法真正實現(xiàn)商業(yè)化,因為公眾對這項技術的接受度很低,只要有人做這個事情,就會被釘在恥辱柱上。
當某個領域形成了一致性認知的時候,你再去做正常溝通就很難了。AI的發(fā)展也有點類似。如果出現(xiàn)重大的誤區(qū),可能會很難糾正。所以我們也一直在講這個問題。比如自動駕駛,如果你不去證明它的安全性,那現(xiàn)在可能就會被冷處理。還有一些生成式技術,自媒體在宣傳時更多地強調(diào)了它的能力,夸大了它的效果,但在夸大它的能力同時我們也夸大了它的風險。一旦有風險事件,我們就會把它放大到整體,而不去講它產(chǎn)生的前提,從而導致公眾恐慌和不信任。
未來科學家要能提出AI想不到的問題
AI&Society百人百問:關于AI發(fā)展還存在一個問題,就是大家現(xiàn)在提到的文化多樣性問題。梁老師剛才也提到,隨著AI工具的使用,大家的思考會不會越來越一致?包括一些小語種文化,會不會加劇消失?
梁正:這是非常值得討論的議題。特別是語言模型,如果一家獨大,小語種可能就沒有生存的空間。就像科學家考慮的文化多樣性的喪失,可能影響很長遠,就像整個生態(tài)圈一樣,多樣性的維持有很多偶然因素在里邊,有些事可能并不先進,但它不同,這種不同是很重要的。就像每個科學家都有自己的喜好和路線,這種不同會帶來很多新的、新奇的想法和跨界交流,放到社會層面也是一樣。
所以我們在使用機器的時候,首先要強調(diào)機器要在人的視野下,我們可以去探索怎么和它很好地共存,但并不是說是一個替代的關系。我們一定要去探索怎么跟技術共存,引導它向哪里發(fā)展。我其實本行是做創(chuàng)新理論研究,很大程度上是借鑒演化理論的一些思想,關于物種的多樣性等等,這些概念里有一個基本的判斷:演化這個方向既是自然冒險、突發(fā)變化的結果,同時也有我們有意選擇的影響。所以我們現(xiàn)在認為技術的發(fā)展,其實是可以施加影響的。我們并不是說對技術沒有任何辦法,實際上我們在很大程度上是可以去對它施加影響的,這個影響我們希望是理性的、平衡的,既不是過于神話也不是黑化,而是說我們在使用當中,怎么讓它服務于我們,形成我們想要的樣子。
學術上專門有個詞叫“塑造”,英語叫mold,它就像拿泥捏成一個人一樣,你要造成一個什么樣的形狀,這個過程是一個“形塑”的過程,技術是塑造出來的,人可以主動引導、主動設計。這方面就與教育特別相關。在工程師教育方面,國內(nèi)目前有很大的欠缺。昨天我參加一個論壇,有投資人提到,說在中國投資時,首先想到的是賺錢,因為缺乏其他評價標準;而在美國,有些風險投資者并不只看重賺錢,而是更看重項目的有趣性和創(chuàng)新性。這就反映出創(chuàng)新生態(tài)的差異、東西方文化的差異,中國在投資生態(tài)上缺乏多樣性,連續(xù)創(chuàng)業(yè)者和投資人的多樣性都較少,導致在很多領域出現(xiàn)一窩蜂的現(xiàn)象,這對技術發(fā)展有一定影響。
AI&Society百人百問:您對AI對教育的影響怎么看?
梁正:我所在的北京市人文中心也做AI和教育相關的研究,但不限于教育。我們更關注AI對人的影響。我現(xiàn)在正承擔的一個國家科技創(chuàng)新2030重大項目,就是研究人工智能在重點應用場景領域的影響和應對,其中也包括教育。我們近期會出一本關于“人工智能+教育”的白皮書。我也專門寫過關于AI對教育影響的文章。我們認為,AI會改變學生學習的內(nèi)容和方式,例如,學習科學課可能更適合用AI來講解數(shù)學知識,而老師則更多地負責教學生做人,學習的地點也可能發(fā)生變化,學生可能不需要每天都在學校,而是可以更多到社會上去實踐。
丹麥在這方面做得很好,他們很早就讓孩子們了解社會的真實運作,比如去警察局、醫(yī)院等地方了解社會運作。我們很多孩子到了很大年齡才第一次接觸這些真實的場景和實踐。我們現(xiàn)在所說的勞動教育,其實強調(diào)的就是最真實的場景和實踐,以及和同齡人的相處,這些都可能成為學習的內(nèi)容,而學習的方式也不再是僅限于教室,比如在企業(yè)里參加項目,像一些天才少年直接寫代碼都是可能的。
應該看到,現(xiàn)有的教育方法,是工業(yè)化時代的模式,已經(jīng)落伍了,我們需要更個性化和多樣化的學生培養(yǎng)方式。目前清華也在推進大學的人工智能教育應用,比如用AI助手輔助學生學習和老師的教學活動,但這也帶來了基礎教育的問題,很多東西其實沒有必要在課堂上講,因為AI完全可以解答,那么老師的角色也會發(fā)生變化。
從教學方式來看,現(xiàn)在已經(jīng)在用大模型和AI助手來支撐教學活動了,但最大的變化還是誰來教、教什么、怎么學、學什么的問題。而最終我們還是要通過教育讓大家認識到我們和機器的差異,學會如何和機器共處,這是AI教育的一個重要環(huán)節(jié)。我們不僅要教大家如何使用AI,更要讓大家充分認識到我們怎么和AI相處,這可能是未來AI發(fā)展到一定階段后必須要面對的問題。
未來的人文和藝術教育,以及我們的人生體驗經(jīng)歷,可能都是非常重要的。甚至可以說,在有限的生命里,有更豐富的體驗才是最重要的,這可能是我們與AI不同的地方,AI可能永遠不可能有這樣的組合和獨特的體驗。而人類如果沒有這樣的多樣性,其長遠發(fā)展可能會受到無形的約束。
雖然AI在科學研究和發(fā)現(xiàn)方面可能比我們能力強得多,但我們還是要看到人類是如何拯救自己的,比如《三體》中展現(xiàn)的“思想鋼印”就是一個典型的例子,我認為劉慈欣的這種思想并非他獨有,而是源遠流長,如果科技發(fā)展到機器烏托邦的程度,那將是一件非常危險的事情,無論是黑客帝國還是其他科幻作品,它們都強調(diào)了人的獨立性、獨立思考和自主性的重要性。
然而,我覺得在這些方面的教育上,我們還存在欠缺。我們不久之前剛剛討論過AI在科學研究中的應用,那次討論非常熱烈。有老師提到,未來的科學家可能不再是傳統(tǒng)意義上的科學家,因為有一個比你聰明一萬倍的東西在那里,但未來的科學家可能是那種能提出AI想不到的問題的人,你可能基于獨特的體驗和經(jīng)歷,對人類社會和物理世界的認識有著獨特的見解。
我最近重新閱讀的一些關于智能的書籍,這些書籍在描述人類未來時,都強調(diào)了人之所以為人,是因為人能在頭腦中憑空想象出不存在的東西,即使AI的能力強大一萬倍,它也不一定具有這種無中生有的能力,而我們確定的是,人類具有這種能力,而且只有那些所謂的“偏執(zhí)狂”才可能基于這種能力去做一些最初看似不可能的事情。他們相信這些事情能夠成功,而我們很難想象AI能夠做到這一點,這也許才是人和AI最大的不同之處。
以上梁正老師的回答,對你是否有啟發(fā)?彩蛋:歡迎一起來微信問一問,參與AI & Society 百人百問,這里還有大眾關心的100個問題,期待你的參與和回答。這里你將看到百位專家的回答,也會有千萬大眾的感受分享和真知灼見,可能還會有各類神秘大咖來跟你互動。歡迎積極回答,并分享到你的朋友圈和微信群,讓大家一起探討AI時代的真問題。
未來已來,而你我也正在塑造未來,你的關注和回答,或將改變你我,改變世界!