自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

OpenAI的ChatGPT帶來的八大問題

人工智能
從安全漏洞到隱私問題,再到未經(jīng)披露的訓練數(shù)據(jù),人們對人工智能聊天機器人的應(yīng)用有很多擔憂,但這項技術(shù)已經(jīng)被整合到應(yīng)用程序中,并被大量用戶使用,從學生到公司員工。

ChatGPT是一款功能強大的人工智能聊天機器人,在推出之后很快就給人留下了深刻的印象,但很多人指出它有一些嚴重的缺陷。

從安全漏洞到隱私問題,再到未經(jīng)披露的訓練數(shù)據(jù),人們對人工智能聊天機器人的應(yīng)用有很多擔憂,但這項技術(shù)已經(jīng)被整合到應(yīng)用程序中,并被大量用戶使用,從學生到公司員工。

由于人工智能的發(fā)展沒有放緩的跡象,了解ChatGPT的問題就顯得更加重要了。隨著ChatGPT將改變?nèi)藗兊奈磥?,以下介紹了ChatGPT的一些最主要的問題。

什么是ChatGPT?

ChatGPT是一個大型語言模型,旨在生成自然的人類語言。就像與某人交談一樣,人們可以與ChatGPT交談,它會記住人們在過去說過的話,同時也能夠在受到挑戰(zhàn)時自我糾正。

它接受了來自互聯(lián)網(wǎng)的各種文本的訓練,例如維基百科、博客文章、書籍和學術(shù)文章。除了以類似人類的方式回應(yīng),它還可以回憶當今世界的信息,并從過去提取歷史信息。

學習如何使用ChatGPT很簡單,而且很容易被愚弄,認為人工智能系統(tǒng)沒有任何麻煩。然而,在它發(fā)布后的幾個月里,隱私、安全及其對人們生活的更廣泛影響(從工作到教育)出現(xiàn)了一些關(guān)鍵的問題。

1、安全威脅和隱私問題

在2023年3月,ChatGPT出現(xiàn)了一個安全漏洞,一些用戶在其側(cè)邊欄中看到了他人的對話標題。對于任何一家科技公司來說,不小心分享用戶的聊天記錄都是一個嚴重的問題,考慮到很多人都在使用這個流行的聊天機器人,這種情況尤其糟糕。

據(jù)路透社報道,僅在2023年1月,ChatGPT的月活躍用戶就達到1億。雖然導(dǎo)致數(shù)據(jù)泄露的漏洞很快得到了修補,但意大利數(shù)據(jù)監(jiān)管機構(gòu)要求OpenAI公司停止處理意大利用戶數(shù)據(jù)的所有操作。

該機構(gòu)懷疑ChatGPT違反了歐洲隱私法規(guī)。在調(diào)查了這個問題后,要求OpenAI公司滿足幾項要求才能恢復(fù)聊天機器人的使用。

OpenAI公司最終通過做出幾項重大改變解決了這個問題。首先,添加了年齡限制,只有18歲以上或13歲以上的人在監(jiān)護人的許可下才能使用該應(yīng)用程序。它還使其隱私政策更加明顯,并為用戶提供了一個選擇退出的表單,以排除他們的數(shù)據(jù)用于訓練ChatGPT,如果他們愿意,可以完全刪除這些數(shù)據(jù)。

這些變化是一個很好的開始,但是這些改進應(yīng)該擴展到所有ChatGPT用戶。

這也不是ChatGPT造成安全威脅的唯一方式。與用戶一樣,員工不小心共享機密信息也很容易。一個很好的例子是三星公司的員工多次與ChatGPT共享公司信息。

2、對ChatGPT訓練和隱私問題的擔憂

在ChatGPT大受歡迎之后,許多人質(zhì)疑OpenAI公司最初是如何訓練其模型的。

即使在意大利發(fā)生數(shù)據(jù)泄露事件之后,OpenAI公司的隱私政策有所改善,但難以滿足《通用數(shù)據(jù)保護條例》的要求,這是一項覆蓋歐洲的數(shù)據(jù)保護法。正如TechCrunch報道的那樣:“目前尚不清楚如何采用意大利民眾的個人數(shù)據(jù)訓練GPT模型,即從互聯(lián)網(wǎng)上抓取公共數(shù)據(jù)時的個人數(shù)據(jù)是否得到了有效的合法處理。或者,如果用戶現(xiàn)在要求刪除他們的數(shù)據(jù),以前用于訓練模型的數(shù)據(jù)是否會被刪除或可以被刪除?!?/p>

OpenAI公司很有可能在訓練ChatGPT時收集了個人信息。雖然美國的法律沒有那么明確,但歐洲的數(shù)據(jù)法規(guī)仍然注重保護個人數(shù)據(jù),無論他們是公開還是私下發(fā)布這些信息。

藝術(shù)家們也提出了類似的反對用作訓練數(shù)據(jù)的論點,他們表示,他們從未同意讓自己的作品訓練人工智能模型。與此同時,蓋蒂圖片社起訴了Stability.AI公司使用其受版權(quán)保護的圖像來訓練其人工智能模型。

除非OpenAI公司公布其訓練數(shù)據(jù),否則缺乏透明度,很難知道是否合法。例如,人們根本不知道ChatGPT訓練的細節(jié),使用了什么數(shù)據(jù),數(shù)據(jù)來自哪里,或者系統(tǒng)架構(gòu)的細節(jié)是什么樣子。

3、ChatGPT生成錯誤答案

ChatGPT在基本的數(shù)學方面不擅長,似乎不能回答簡單的邏輯問題,甚至會爭論完全錯誤的事實。正如社交媒體上的人們所證明的那樣,ChatGPT在很多場合都可能出錯。

OpenAI公司了解這些限制。該公司表示:“ChatGPT有時會寫出聽起來似乎合理但不正確或無意義的答案?!边@種對事實和虛構(gòu)的幻覺,正如該公司所提到的那樣,對于醫(yī)療建議或?qū)﹃P(guān)鍵歷史事件的事實的正確理解等事情來說尤其危險。

與Siri或Alexa等其他人工智能助手不同,ChatGPT并不使用互聯(lián)網(wǎng)來查詢答案。與其相反,它逐字逐句地構(gòu)建句子,根據(jù)訓練選擇最可能出現(xiàn)的“標記”。換句話說,ChatGPT通過進行一系列猜測得出答案,這就是它可以爭論錯誤答案的原因,就好像它們是完全正確的一樣。

雖然它很擅長解釋復(fù)雜的概念,使它成為一個強大的學習工具,但重要的是不要相信它所說的一切。ChatGPT并不總是正確的,至少現(xiàn)在還不是。

4、ChatGPT的系統(tǒng)中存在偏見

ChatGPT是根據(jù)過去和現(xiàn)在世界各地人類的寫作進行訓練的。不幸的是,這意味著現(xiàn)實世界中存在的偏見也可能出現(xiàn)在人工智能模型中。

事實證明,ChatGPT會產(chǎn)生一些歧視性別、種族和少數(shù)群體的糟糕答案,該公司正在努力減少這些問題。

解釋這一問題的一種方法是指出數(shù)據(jù)是問題所在,將互聯(lián)網(wǎng)內(nèi)外的偏見歸咎于人類。但部分責任也在于OpenAI公司,該公司的研究人員和開發(fā)人員選擇用于訓練ChatGPT的數(shù)據(jù)。

OpenAI公司再次意識到這是一個問題,并表示它正在通過收集用戶的反饋并鼓勵他們標記糟糕、冒犯或根本不正確的ChatGPT輸出來解決“偏見行為”。

由于ChatGPT有可能對人們造成傷害,人們可能會認為,在研究和解決這些問題之前,不應(yīng)該向公眾發(fā)布ChatGPT。但是,致力于成為第一家創(chuàng)建最強大人工智能模型的公司,已經(jīng)足以讓OpenAI公司把謹慎拋到腦后。

相比之下,谷歌母公司Aalphabet公司于2022年9月發(fā)布了一款名為“Sparrow”的類似人工智能聊天機器人。然而,出于類似的安全考慮,該機器人被放棄。

大約在同一時間,F(xiàn)acebook公司發(fā)布了一種名為Galactica的人工智能語言模型,旨在幫助學術(shù)研究。然而,在許多人批評它輸出了與科學研究有關(guān)的錯誤和有偏見的結(jié)果后,它迅速被召回。

5、聊天技術(shù)可能會替代人類的工作

ChatGPT的快速發(fā)展和部署尚未塵埃落定,但這并沒有阻止底層技術(shù)被整合到許多商業(yè)應(yīng)用程序中。集成了GPT-4的應(yīng)用程序包括Duolingo和Khan Academy。

前者是一款語言學習應(yīng)用,而后者是一款多元化的教育學習工具。兩者都提供了本質(zhì)上的人工智能導(dǎo)師,或者以人工智能驅(qū)動的角色的形式,用戶可以用其正在學習的語言與之交談。或者作為一名人工智能導(dǎo)師,可以為其學習提供量身定制的反饋。

這可能只是人工智能取代人類工作的開始。其他面臨顛覆的行業(yè)工作包括律師助理、律師、文案人員、記者和程序員。

一方面,人工智能可以改變?nèi)藗兊膶W習方式,可能更容易獲得教育和培訓,學習過程更容易一些。但另一方面,大量的人類工作職位也將消失。

據(jù)英國《衛(wèi)報》報道,教育機構(gòu)在倫敦和紐約證券交易所出現(xiàn)巨額虧損,凸顯出人工智能在ChatGPT推出僅6個月后就對一些市場造成了破壞。

技術(shù)進步總是導(dǎo)致一些人失業(yè),但人工智能的發(fā)展速度意味著多個行業(yè)領(lǐng)域同時面臨快速變化。不可否認,ChatGPT及其底層技術(shù)將徹底重塑人們的現(xiàn)代世界。

6、聊天技術(shù)成為教育行業(yè)面臨的挑戰(zhàn)

用戶可以要求ChatGPT對其文章進行校對,或者指出如何改進段落?;蛘哂脩艨梢园炎约浩渲型耆夥懦鰜恚孋hatGPT為其完成所有的寫作。

很多教師已經(jīng)嘗試過在ChatGPT上布置作業(yè),并收到了比許多學生做得更好的答案。從撰寫求職信到描述著名文學作品的主要主題,ChatGPT可以毫不猶豫地完成所有任務(wù)。

這就引出了一個問題:如果ChatGPT可以為人們寫作,學生將來還需要學習寫作嗎?這似乎是一個存在主義的問題,但當學生開始使用ChatGPT來幫助他們寫論文時,學校必須盡快提供應(yīng)對措施。

不僅是以英語為基礎(chǔ)的科目有風險,ChatGPT可以幫助人們完成任何涉及頭腦風暴、總結(jié)或得出明智結(jié)論的任務(wù)。

毫不奇怪,一些學生已經(jīng)開始嘗試采用人工智能。據(jù)《斯坦福日報》報道,早期的調(diào)查表明,很多學生使用人工智能來幫助完成作業(yè)和考試。作為回應(yīng),一些教育工作者正在重寫課程,以應(yīng)對使用人工智能瀏覽課程或考試作弊的學生。

7、ChatGPT可能會造成現(xiàn)實世界的傷害

在發(fā)布不久之后,有人試圖破解ChatGPT,導(dǎo)致人工智能模型可以繞過OpenAI公司的安全護欄,該護欄旨在防止它產(chǎn)生攻擊性和危險的文本。

ChatGPT Reddit上的一群用戶將他們的無限制人工智能模型命名為DAN,這是“Do Anything Now”的縮寫??杀氖?,做任何喜歡做的事情已經(jīng)導(dǎo)致黑客增加了網(wǎng)絡(luò)詐騙。根據(jù)Ars Technica的報道,黑客正在出售無規(guī)則的ChatGPT服務(wù),這些服務(wù)可以創(chuàng)建惡意軟件并產(chǎn)生網(wǎng)絡(luò)釣魚郵件。

通過人工智能生成的文本,試圖發(fā)現(xiàn)旨在從人們身上提取敏感信息的網(wǎng)絡(luò)釣魚電子郵件要困難得多。語法錯誤曾經(jīng)是一個明顯的危險信號,而現(xiàn)在可能不是了,這因為ChatGPT可以流利地寫各種各樣的文本,從散文到詩歌到電子郵件。

虛假信息的傳播也是一個嚴重的問題。ChatGPT生成文本的規(guī)模,再加上讓錯誤信息聽起來令人信服的能力,使互聯(lián)網(wǎng)上的一切都變得可疑,并加劇了深度偽造技術(shù)的危險。

ChatGPT產(chǎn)生信息的速度已經(jīng)給Stack Exchange帶來了問題,Stack Exchange是一家致力于為日常問題提供正確答案的網(wǎng)站。在ChatGPT發(fā)布后不久,大量用戶要求ChatGPT生成答案。

如果沒有足夠的人類志愿者來整理這些信息,就不可能提供高水平的高質(zhì)量答案。更不用說,一些答案根本就不正確。為了避免網(wǎng)站被破壞,Stack Exchange禁止使用ChatGPT生成所有答案。

8、OpenAI公司具有掌控一切的力量

權(quán)力越大,責任越大,而OpenAI公司擁有很大的權(quán)力。它是首批真正用包括Dall-E 2、GPT-3和GPT-4在內(nèi)的多個生成人工智能模型的人工智能開發(fā)商之一。

作為一家私營公司,OpenAI公司選擇用于訓練ChatGPT的數(shù)據(jù),并選擇推出新開發(fā)項目的速度。因此,有很多專家對人工智能帶來的危險發(fā)出了警告,但幾乎沒有跡象表明這種危險會減緩。

與其相反,ChatGPT的流行刺激了大型科技公司之間的競爭,競相推出下一個大型人工智能模型;其中包括微軟的必應(yīng)AI和谷歌的Bard。由于擔心快速發(fā)展會導(dǎo)致嚴重的安全問題,世界各地的一些科技領(lǐng)袖聯(lián)合簽署了一封信函,要求推遲人工智能模型的開發(fā)。

雖然OpenAI公司認為安全是重中之重,但對于模型本身的工作方式,人們還有很多不知道的地方,無論是好是壞。最終,大多數(shù)人可能盲目地相信OpenAI公司將負責任地研究、開發(fā)和使用ChatGPT。

無論人們是否同意它的方法,值得記住的是,OpenAI公司是一家私營公司,該公司將根據(jù)自己的目標和道德標準繼續(xù)開發(fā)ChatGPT。

解決人工智能的最大問題

ChatGPT有很多令人興奮的地方,但除了它的直接用途之外,還有一些嚴重的問題。

OpenAI公司承認,ChatGPT可能會產(chǎn)生有害的、有偏見的答案,他們希望通過收集用戶反饋來緩解這個問題。但即使事實并非如此,它也能產(chǎn)生令人信服的文本,這很容易被壞人利用。

隱私和安全漏洞已經(jīng)表明,OpenAI公司的系統(tǒng)可能是脆弱的,將用戶的個人數(shù)據(jù)置于危險之中。更麻煩的是,有些人正在破解ChatGPT,并使用不受限制的版本以前所未有的規(guī)模制造惡意軟件和騙局。

對工作崗位的威脅和對教育行業(yè)的潛在顛覆是日益嚴重的問題。有了全新的技術(shù),很難預(yù)測未來會出現(xiàn)什么問題,不幸的是,ChatGPT已經(jīng)為人們帶來了相當多的挑戰(zhàn)。

責任編輯:姜華 來源: 企業(yè)網(wǎng)D1Net
相關(guān)推薦

2009-06-28 22:56:00

虛擬化桌面虛擬化問題

2013-02-18 09:41:45

云存儲云服務(wù)

2014-02-10 09:22:41

2012-05-05 09:28:50

三星

2009-06-22 14:07:46

JSF優(yōu)勢

2011-04-29 09:15:16

Servlet

2024-04-24 09:52:19

云技能云遷移云計算

2023-12-27 11:45:09

2012-05-10 16:45:54

linux系統(tǒng)

2025-01-02 12:51:06

2020-06-28 14:01:50

漏洞管理漏洞攻擊

2011-07-11 14:01:12

JAVA

2012-05-11 11:53:36

虛擬化

2024-08-22 14:49:49

系統(tǒng)設(shè)計數(shù)據(jù)庫

2011-04-14 18:03:49

2011-12-19 09:35:53

2022-05-07 11:13:58

蘋果汽車技術(shù)

2023-06-07 16:21:16

2013-04-02 10:37:53

2015-07-27 11:13:41

MySQLMySQL安全數(shù)據(jù)庫安全
點贊
收藏

51CTO技術(shù)棧公眾號