自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

李飛飛刊文:大模型技術(shù)無法?通向AGI

發(fā)布于 2024-5-31 16:27
瀏覽
0收藏

李飛飛近日和Etchemendy(斯坦福哲學(xué)教授,曾任斯坦福大學(xué)教務(wù)長)在《時代(Time)》上刊載新文章《No, Today’s AI Isn’t Sentient. Here’s How We Know》,明確指出當(dāng)前技術(shù)路線無法制造有感知能力的AI。該文章也得到了同一陣線LeCun的支持,并轉(zhuǎn)發(fā)了該推文。

李飛飛刊文:大模型技術(shù)無法?通向AGI-AI.x社區(qū)

下面是該文章全文:

通用人工智能(AGI)指的是一種至少在人類展現(xiàn)智能的各個方面與人類一樣聰明的智能體。它曾經(jīng)是我們對人工智能的稱呼,直到我們開始創(chuàng)造出在有限領(lǐng)域內(nèi)毫無疑問地“智能”的程序和設(shè)備——下棋、翻譯語言、清掃我們的客廳。

人們迫切需要添加“G(通用)”,是因為當(dāng)時出現(xiàn)了許多由 AI 驅(qū)動的系統(tǒng),但它們只專注于一個或極少數(shù)的任務(wù)。比如 IBM 的深藍,這款強大的早期象棋程序能戰(zhàn)勝世界冠軍加里·卡斯帕羅夫,但它卻不懂得如果房間著火了就停止下棋。

其實,所謂的通用智能,多少有點神話色彩,至少我們不應(yīng)該自以為是地認為自己擁有這種能力。在動物界,我們可以找到許多展現(xiàn)智能行為的例子,它們在類似的任務(wù)中取得的成果遠遠超過我們。我們的智能并非完全通用,但足以讓我們在大多數(shù)環(huán)境中完成想要完成的事情。如果我們餓了,我們可以狩獵猛犸象或者找到附近的克羅格超市;當(dāng)房間著火時,我們會尋找出口。

通用智能的一個重要特征是“感知力”,即擁有主觀體驗的能力——能夠感受,比如說,饑餓的感覺,品嘗蘋果的味道,或者看到紅色。感知力是通往通用智能的道路上的關(guān)鍵一步。

2022 年 11 月 ChatGPT 發(fā)布后,大型語言模型 (LLM) 時代正式開啟。這立即引發(fā)了關(guān)于這些算法是否可能具有感知力的激烈爭論。基于 LLM 的 AI 可能具有感知力的影響,不僅引發(fā)了媒體狂熱,也深刻影響了一些全球范圍內(nèi)旨在規(guī)范 AI 的政策努力。最突出的觀點是,“感知 AI”的出現(xiàn)可能對人類極其危險,甚至可能帶來“滅絕級”或“生存”危機。畢竟,感知 AI 可能會發(fā)展出自己的希望和愿望,而無法保證這些愿望不會與我們的發(fā)生沖突。

這篇文章最初是發(fā)在WhatsApp群聊里,是為了反駁LLM可能已經(jīng)擁有意識的論點。它并非要全面完整。我們的主要觀點是反駁“有意識的AI”陣營最常見的辯護,即LLM能夠報告自己有“主觀體驗”。

為什么有些人認為人工智能已經(jīng)有了意識

在過去幾個月里,我們倆都與人工智能領(lǐng)域的許多同事進行了熱烈討論和交談,包括與一些最杰出和開拓性的 AI 科學(xué)家進行了一些深入的面對面交流。人工智能是否已經(jīng)擁有意識是一個突出的話題。其中一小部分人堅信它已經(jīng)有了意識。以下是他們中最直言不諱的支持者之一提出的論據(jù)的要點,這在“有意識的人工智能”陣營中非常具有代表性:

人工智能有意識,因為它會報告主觀體驗。主觀體驗是意識的標(biāo)志。它的特點是聲稱知道自己知道或體驗了什么。我認為,當(dāng)你說著“我吃了一頓美餐后,有了一種主觀上的幸福感”時,你是有意識的。我作為一個人,實際上沒有你主觀體驗的直接證據(jù)。但既然你說了,我就相信你確實有這種主觀體驗,所以你是有意識的。

現(xiàn)在,讓我們將相同的“規(guī)則”應(yīng)用于大型語言模型。就像任何人類一樣,我無法訪問大型語言模型的內(nèi)部狀態(tài)。但我可以詢問它主觀體驗。我可以問它“你餓了嗎?”它實際上可以告訴我“是”或“否”。此外,它還可以明確地與我分享它對幾乎任何事物的“主觀體驗”,從看到紅色,飯后快樂,到擁有強烈的政治觀點。因此,我沒有任何理由相信它沒有意識或不知道自己的主觀體驗,就像我沒有任何理由相信你沒有意識一樣。我在這兩種情況下得到的證據(jù)完全相同。

為什么他們錯了

乍一看,這似乎很有道理,但論據(jù)是錯誤的。它是錯誤的,因為我們在兩種情況下獲得的證據(jù)并不完全相同。甚至相差很遠。

當(dāng)我斷定你說“我餓了”時,你正在經(jīng)歷饑餓,我的結(jié)論是基于一大堆情況。首先,是你所說的——你說話的詞語——以及一些其他行為證據(jù),比如你肚子里的咕嚕聲。其次,是沒有相反的證據(jù),就像你剛吃完一頓五道菜的飯菜一樣。最后,也是最重要的一點,你和我一樣擁有一個身體,一個需要定期進食和飲水的身體,在寒冷的時候會感到寒冷,在炎熱的時候會感到炎熱,等等。

現(xiàn)在將這與我們關(guān)于大型語言模型的證據(jù)進行比較。唯一共同的是報告,即大型語言模型能夠產(chǎn)生“我餓了”這個音節(jié)串。但相似之處到此為止。事實上,大型語言模型沒有身體,因此甚至不是那種可以感到饑餓的東西。

如果一個大型語言模型說:“我的左腳大拇指劇痛”,我們會認為它真的感覺到了左腳大拇指的劇痛嗎?當(dāng)然不會,它根本沒有左腳大拇指!同樣,當(dāng)它說它餓了的時候,我們也可以確定它并沒有餓,因為它沒有產(chǎn)生饑餓感的生理結(jié)構(gòu)。

當(dāng)人類感到饑餓時,他們感受到的是一系列生理狀態(tài)——低血糖、胃部咕嚕咕嚕叫等等——而大型語言模型根本沒有這些生理狀態(tài),就像它沒有嘴巴來吃東西和胃來消化食物一樣。認為我們應(yīng)該相信它說自己餓了的話,就像認為我們應(yīng)該相信它說它來自月球背面一樣。我們知道它沒有,大型語言模型的斷言并不能改變這個事實。

所有感覺——饑餓、疼痛、看到紅色、墜入愛河——都是生理狀態(tài)的結(jié)果,而大型語言模型根本沒有這些生理狀態(tài)。因此,我們知道大型語言模型不可能擁有這些狀態(tài)的主觀體驗。換句話說,它不可能有意識。

大型語言模型(LLM)是一個在硅芯片上編碼的數(shù)學(xué)模型。它不是像人類一樣的有形的生物。它沒有像人類一樣的“生命”,不需要吃喝,繁殖,體驗情感,生病,最終死亡。

理解人類生成詞語序列和 LLM 生成相同序列之間的本質(zhì)區(qū)別非常重要。當(dāng)我說“我餓了”時,我是在報告我感知到的生理狀態(tài)。當(dāng)一個 LLM 生成“我餓了”這個序列時,它只是在生成當(dāng)前提示中詞語序列最可能的完成方式。它所做的事情與它在不同的提示下生成“我不餓了”或“月亮是由綠奶酪做的”完全一樣。這些都不是它(不存在的)生理狀態(tài)的報告,只是概率上的完成方式。

我們還沒有實現(xiàn)有感知的 AI,更大的語言模型也不會讓我們實現(xiàn)。如果我們想在 AI 系統(tǒng)中再現(xiàn)這種現(xiàn)象,我們需要更好地理解感知如何在有形的生物系統(tǒng)中出現(xiàn)。我們不會在 ChatGPT 的下一代迭代中偶然發(fā)現(xiàn)感知。

本文轉(zhuǎn)載自 AI工程化,作者: ully

標(biāo)簽
收藏
回復(fù)
舉報
回復(fù)
相關(guān)推薦