東西問丨加州理工學(xué)院教授:AI永遠是人類的附屬品

分享到:
分享到:

東西問丨加州理工學(xué)院教授:AI永遠是人類的附屬品

2023年07月19日 20:47 來源:中國新聞網(wǎng)
大字體
小字體
分享到:

  中新社北京7月19日電 題:AI永遠是人類的附屬品

  ——專訪美國加州理工學(xué)院電氣工程和計算機科學(xué)教授亞瑟·阿布-穆斯塔法

  《中國新聞周刊》記者 霍思伊

  由ChatGPT和GPT-4引發(fā)的“人工智能狂潮”遠比人們預(yù)想的持續(xù)更久,伴隨而來的爭議與憂慮也在不斷發(fā)酵?;貧w科學(xué),反思以GPT-4為代表的AI能力的邊界:它能做什么?不能做什么?最重要的是,人類現(xiàn)在必須采取什么行動來實現(xiàn)“有益的AI”?《中國新聞周刊》近日就以上問題專訪美國加州理工學(xué)院電氣工程和計算機科學(xué)教授亞瑟·阿布-穆斯塔法(Yaser S. Abu-Mostafa)。他是人工智能領(lǐng)域的知名專家,同時也是IEEE神經(jīng)網(wǎng)絡(luò)委員會的創(chuàng)始人之一,曾在多家科技公司擔任機器學(xué)習(xí)顧問。

  現(xiàn)將訪談實錄摘要如下:

  AI的應(yīng)用遠比設(shè)計更復(fù)雜和危險

  記者:此前,埃隆·馬斯克等人簽署了聯(lián)名公開信,業(yè)內(nèi)形成了對人工智能發(fā)展的兩種截然不同的看法,你更認同哪方?

  阿布-穆斯塔法:聯(lián)名公開信意圖是好的,但無法起到任何實質(zhì)效果,因為不會真的有公司遵守并暫停六個月的AI研發(fā)。我認為這是對人工智能“過于快速發(fā)展”的下意識反應(yīng),是沒有經(jīng)過深思熟慮的行為。我個人不贊同暫停更強大AI模型的研發(fā)?,F(xiàn)在要做的不是暫停,而是如何更好阻止其“不良使用”。所以我沒有簽署公開信。

  如何推動更強有力的人工智能監(jiān)督?政府需要通過立法對如何“合理地使用”AI進行約束或限制,歐盟《人工智能法案》是一個開始。立法必須經(jīng)過謹慎考量,而不是短期內(nèi)出于對人工智能的恐懼或為了應(yīng)對想象中的風險而匆忙制定。目前為止,我還沒有看到任何提議或法案經(jīng)過了深思熟慮,并可以得到有效執(zhí)行。

2023年7月6日,上海,2023世界人工智能大會上,特斯拉“擎天柱”Tesla Bot人形機器人。陳玉宇攝

  記者:如何使AI真正符合人類的價值觀和道德準則?

  阿布-穆斯塔法:這完全取決于AI系統(tǒng)的開發(fā)者和使用者。人工智能沒有內(nèi)在的道德或惡意,它只是服從命令,做人類訓(xùn)練它去做的事情。如果人類給它的是充滿偏見的數(shù)據(jù),就會誕生一個充滿偏見的AI。因此OpenAI需要不斷調(diào)整,選擇一些好的數(shù)據(jù)或讓ChatGPT不回答惡意問題。但復(fù)雜之處在于,即使開發(fā)者把整個AI系統(tǒng)設(shè)計得很“符合人類價值觀”,仍會有用戶從不同角度使用它,這是開發(fā)者控制不了的。因此,AI應(yīng)用遠比設(shè)計更復(fù)雜和危險。

  人類社會中,好壞標準是不明確的。訓(xùn)練一個AI下棋,如AlphaGo,規(guī)則是明確的,AI經(jīng)過訓(xùn)練后很清楚如何界定“好的行為”——只要能贏就是一步好棋。但更多時候,要訓(xùn)練AI去完成一些缺乏客觀好壞規(guī)則的任務(wù),讓系統(tǒng)自身去理解什么是“好的行為”非常困難。

韓國當?shù)貢r間2016年3月9日,韓國職業(yè)9段李世石與谷歌人工智能系統(tǒng)“阿爾法圍棋”(AlphaGo)進行了一場“人機大戰(zhàn)”。李世石在五番棋首戰(zhàn)中執(zhí)黑186手中盤告負。圖為媒體觀看區(qū)。吳旭攝

  記者:聯(lián)名公開信指出,最近幾個月,人工智能實驗室正陷入一場失控的競賽(out-of-control race),這是否真的在發(fā)生?

  阿布-穆斯塔法:這是一種非常情緒化的表述。不過可以預(yù)料到,在短期未來AI產(chǎn)業(yè)格局中,世界范圍內(nèi)很可能只有兩到三個非常強大的類似ChatGPT的人工智能工具占領(lǐng)整個全球市場,因為開發(fā)這樣的大模型成本巨大,需要數(shù)千個GPU(圖形處理器)核心運行2個月,以及海量的數(shù)據(jù)和算力。這也是為什么目前所有最新的大模型進展都來自科技公司,而不是大學(xué)。

  五年后是否可能誕生一種能節(jié)省大量計算資源的新模型,還未可知。如果以后真的出現(xiàn)一種完全不同的模型,可以讓成本從10億美元降至1000萬美元,這就改變了游戲規(guī)則,屆時將會有大量玩家出現(xiàn)。

  記者:大模型時代的到來,也和基于“預(yù)訓(xùn)練+微調(diào)”這種自然語言處理(NLP)的主流范式有關(guān)。2018年后,這種模式幾乎重塑了人工智能的商業(yè)形態(tài),你如何看待這種趨勢?

  阿布-穆斯塔法:“預(yù)訓(xùn)練+微調(diào)”是一種分而治之的巧妙方式,一次訓(xùn)練AI專注于一個問題并完善它。這使人們能在目前成就基礎(chǔ)上再接再厲,而非從頭開始。

  OpenAI將其對公眾開放的這個主意很聰明,現(xiàn)在他們獲得了大量的數(shù)據(jù)和反饋,可用來訓(xùn)練新一代系統(tǒng),而且這些資源是獨家的,因為公眾不會對下一個類似產(chǎn)品產(chǎn)生同樣多的興趣。

2023世界人工智能大會在上海舉辦,展會上微創(chuàng)機器人展示5G遠程手術(shù)技術(shù)。陳玉宇攝

  AI只是在復(fù)制人類的“外觀”

  記者:如何理性客觀認知當下的人工智能水平和ChatGPT的能力邊界?

  阿布-穆斯塔法:我有個朋友問ChatGPT:“關(guān)于阿布-穆斯塔法,你知道什么?”ChatGPT列出了關(guān)于我的一份詳細履歷和人物小傳,首段看起來非常專業(yè),但接下來就有不少錯誤,比如搞錯了我的大學(xué)。這充分說明了ChatGPT的本質(zhì):某種意義上,它只是把所有信息以一種非常特殊的彼此相關(guān)的方式放在一起。

  人工智能使用了一種類似人類大腦的結(jié)構(gòu),這種結(jié)構(gòu)以一種高效方式存儲信息,看到新情況后推理判斷什么是“最接近它的東西”。這就是深度神經(jīng)網(wǎng)絡(luò)所做的,已持續(xù)幾十年。

  目前,人工智能整體發(fā)展水平令人振奮。但即使在業(yè)內(nèi),真正了解所有技術(shù)細節(jié)的人很少,只有OpenAI、Google這些參與了大模型訓(xùn)練的人才能說清楚,但他們對外分享信息有限。我推測,下一步最重要的突破可能集中在AI系統(tǒng)如何用更少資源達到相同的性能水平。

  記者:沿這條路繼續(xù)走,AI是否能進化到理解“概念”和“常識”?有專家認為GPT-4已初具“自我反思”能力,你怎么看?

  阿布-穆斯塔法:如果說人工智能已發(fā)展出自我反思能力,那一定是數(shù)量巨大的任務(wù)訓(xùn)練帶來的,是通過合并足夠數(shù)量的“分散而零碎的智能任務(wù)”實現(xiàn)的。比如說做1000個ChatGPT,其中一個對語言感興趣,一個處理數(shù)學(xué)問題,一個負責視覺識別……直到其“能力”覆蓋幾乎人類所有領(lǐng)域,再合并為一,它一定能表現(xiàn)出一種“通用的智能”,這就是“多模態(tài)機器學(xué)習(xí)”的本質(zhì)。

  但這只是表象,只是看起來具備自我反思能力和通用智能。某種意義上,這個巨大系統(tǒng)只是試圖復(fù)制人類的“外觀”。

2022世界人工智能大會在上海拉開帷幕。中新社記者湯彥俊攝

  記者:怎么理解微軟研究人員稱,GPT-4已經(jīng)顯示出接近人類智能或通用人工智能的“火花”?

  阿布-穆斯塔法:問題的關(guān)鍵是,“通用人工智能”(Artificial General Intelligence,AGI)到底是什么?對于通用人工智能,人類想追求的是:AI突然之間學(xué)會了以上所有,能舉一反三,而不是一次次學(xué)會某個特定任務(wù)。但這是一個非常模糊的描述。

  現(xiàn)在迫切需要就“通用人工智能”概念達成共識,用精確的計算機語言界定它,制定明確的檢驗規(guī)則。遵照這些規(guī)則,人類才能知道AGI是否已經(jīng)實現(xiàn)、潛在的危險是什么。

  人類為什么這么關(guān)心“通用人工智能”,因為它觸及了人性中最根本的東西,侵犯了人類的自我(Ego),即人類是不是最獨一無二的存在。對如何實現(xiàn)AGI,目前所有想法都只是推測,人們只能針對已看到的技術(shù)范式進行突破;但真實情況是,我們根本難以想象會走上一條怎樣的路徑。

  當人們談?wù)摗巴ㄓ萌斯ぶ悄堋睍r,承載了太多情感,有時甚至是不切實際的期望和恐懼,但這種恐懼把智能和“自我”混為一談。人們必須冷靜下來,理性地把AGI視作一個科學(xué)目標。

  記者:人工智能是否能產(chǎn)生“自我意識”?

  阿布-穆斯塔法:我認為AI領(lǐng)域的任何技術(shù)進步都不可能產(chǎn)生一個“有意識的實體”。意識和情緒的“顯現(xiàn)”很容易做到,AI未來能“看起來像擁有了情感或意識”,就像電影里有一個演員表達出了某種強烈的情緒,但這只是表演,是純粹的行為表象。

  對人類意識的定義在科學(xué)上都是不確定的,客觀上也不可測量。我知道我有意識,你有意識,你知道愛是什么,情感是什么,悲傷是什么,因為你能感覺到,你能與它們聯(lián)系起來。但這些都是人類經(jīng)驗。為什么會這樣?我們不知道。

  我認為AI始終是一個無生命的機器,背后有嚴密的齒輪在驅(qū)動它,這些齒輪就是參數(shù)。復(fù)雜的輸出可能會給我們留下“那里有一個與眾不同的人”的印象,但這種輸出不是來自意識,而是算法。為什么我們認為有人在那里?因為當人們看到這個輸出后,把它在腦海中與過去的記憶、情感,與人類自身聯(lián)系在一起。

2023年6月26日,江蘇蘇州國際博覽中心,觀眾在“2023全球人工智能產(chǎn)品應(yīng)用博覽會”上參觀。王建康攝

  常規(guī)工作或在更短時間內(nèi)被AI替代

  記者:未來哪些行業(yè)會從AI發(fā)展中受益,哪些可能被顛覆?

  阿布-穆斯塔法:所有行業(yè)都會從人工智能的發(fā)展中受益,甚至以無法預(yù)料到的方式。

  五年前有人問我:人工智能下一個20年如何發(fā)展?我說,AI將在20年內(nèi)取代人類幾乎所有常規(guī)智能工作(routine intelligence tasks),也就是“完成復(fù)雜任務(wù)但不需要創(chuàng)新的智能”,自動駕駛是一個典型例子。這是一個必須要積極解決的社會問題,否則很多人將面臨失業(yè)。

  ChatGPT誕生后,我修正了我的預(yù)期,我現(xiàn)在認為,可能不需要20年,這些常規(guī)工作在更短時間內(nèi)就可能被AI替代,不管我們?nèi)绾谓缍ā巴ㄓ萌斯ぶ悄堋?,常?guī)智能是通向它的第一步。

  記者:在常規(guī)智能工作之外,AI未來是否也會取代一些更具有創(chuàng)造力的工作?

  阿布-穆斯塔法:以AlphaGo為例,你會發(fā)現(xiàn)AI在某種意義上也在進行“創(chuàng)造性的防御”:為贏得比賽,它發(fā)現(xiàn)了人類沒想到的防御策略。我不知道這是不是創(chuàng)新或只是自動化的產(chǎn)物,因為這背后是AI對海量策略的嘗試?!癆I的創(chuàng)造力”目前也沒有很可靠的定義。

2022年4月9日,在寧夏銀川鼓樓步行街,一名小朋友與機器人“鐵蛋”互動。袁宏彥攝

  記者:人類應(yīng)如何與AI共存?

  阿布-穆斯塔法:我們沒有與AI共存的壓力,AI永遠是人類的附屬品。(完)

  受訪者簡介:

  亞瑟•阿布-穆斯塔法(Yaser S. Abu-Mostafa),埃及裔美國計算機科學(xué)家,加利福尼亞理工學(xué)院電氣工程和計算機科學(xué)教授。研究涵蓋人工智能、機器學(xué)習(xí)、模式識別和數(shù)據(jù)科學(xué)等多個領(lǐng)域,在人工智能教育和科普方面做出重要貢獻。

【編輯:于曉】
發(fā)表評論 文明上網(wǎng)理性發(fā)言,請遵守新聞評論服務(wù)協(xié)議
本網(wǎng)站所刊載信息,不代表中新社和中新網(wǎng)觀點。 刊用本網(wǎng)站稿件,務(wù)經(jīng)書面授權(quán)。
未經(jīng)授權(quán)禁止轉(zhuǎn)載、摘編、復(fù)制及建立鏡像,違者將依法追究法律責任。
Copyright ©1999-2024 chinanews.com. All Rights Reserved

評論

頂部