自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

ChatGPT和生成式AI時代的五大AI風險

人工智能
改變會帶來風險。對于尚未制定AI風險管理計劃的企業(yè)和管理團隊而言,ChatGPT應該是一個令人震驚的警鐘。本文將探討廣泛實施人工智能所帶來的風險。

多年來,我們一直在通過語音助手、社交媒體、搜索算法、手機面部識別等方式悄悄地與人工智能互動。但隨著ChatGPT等生成式人工智能的出現(xiàn),人工智能占據(jù)了前沿和中心位置。

突然間,我們開始發(fā)自內心地見證人工智能,對所見所聞感到驚訝。人工智能不再讓人感覺像是“某一天會出現(xiàn)的東西”。它現(xiàn)在是“存在于此,并準備好改變世界”。

改變會帶來風險。對于尚未制定AI風險管理計劃的企業(yè)和管理團隊而言,ChatGPT應該是一個令人震驚的警鐘。本文將探討廣泛實施人工智能所帶來的風險。

以下是企業(yè)領導者應注意的5大人工智能風險:

1、中斷風險

人工智能將以前所未有的技術顛覆現(xiàn)有的商業(yè)模式和市場。最明顯的例子就是ChatGPT本身。誰會想到Google作為無可爭議的搜索冠軍的地位會受到如此突然和不穩(wěn)定的挑戰(zhàn)?

似乎就在一兩年前,大多數(shù)人都設想人工智能會顛覆依賴相對低技能勞動力的行業(yè),如卡車運輸和客戶服務,或者在最壞的情況下,顛覆高度有條不紊的工作,比如金融交易和放射學。現(xiàn)在我們了解到,媒體和廣告等創(chuàng)意產業(yè),以及教學和財務咨詢等個性化服務行業(yè),甚至是醫(yī)藥研發(fā)和計算機科學等精英技能領域,都面臨著風險。

根據(jù)Goldman Sachs 2023年3月的一份報告,像ChatGPT這樣的生成式人工智能可能會在全球范圍內淘汰多達3億個工作崗位,其中包括美國現(xiàn)有工作崗位的19%。無論從事何種行業(yè)或職業(yè),幾乎可以肯定是,企業(yè)將在未來幾年內面臨巨大變化。與以往的技術顛覆不同,這次的賭注真的可能是“生死攸關”。

2、網絡安全風險

保護組織數(shù)據(jù)、系統(tǒng)和人員免受黑客和其他破壞者的侵害,已經成為企業(yè)領導者面臨的一個日益嚴重的問題。2022年,攻擊次數(shù)增加了38%,平均每個組織每周攻擊超過1,000次,每次數(shù)據(jù)泄露的平均成本激增至超過400萬美元。

人工智能將成倍加劇這一挑戰(zhàn)。想象一下,當像ChatGPT這樣復雜的AI向員工發(fā)送電子郵件時,這些電子郵件看似來自老板,使用的信息通常只有老板才知道,甚至還使用了老板的寫作風格,這樣的網絡釣魚攻擊將有多大。

至少自2019年開始,就有報道稱在網絡詐騙中使用語音克隆等深度偽造技術。隨著人工智能每天都在改進和多樣化,網絡風險管理的問題只會越來越嚴重。

如果認為防火墻和其他當今的網絡防御技術可以拯救,請三思。AI將幫助壞人找到防御中最薄弱的環(huán)節(jié),然后全天候工作,直到找到突破口。

3、聲譽風險

當ChatGPT首次出現(xiàn)在公眾視野時,Google高管最初以“聲譽風險”為理由,表示不會立即推出與之競爭的人工智能。但幾天后就撤回了聲明,并宣布推出Bard。Bing和其他生成AI領域出現(xiàn)的錯誤和尷尬,證明了Google最初的擔憂是有根據(jù)的。

公眾正在觀望。當AI以不符合價值觀的方式行事時,可能會導致公關災難。新興形式的人工智能已經表現(xiàn)得像一個種族主義者、厭惡女性的怪物,導致了錯誤的逮捕,并放大了員工招聘中的偏見。

有時,人工智能會破壞人員關系。根據(jù)Forrester的數(shù)據(jù),75%的消費者對客戶服務聊天機器人感到失望,30%的消費者在人工智能驅動的客戶服務互動不佳后將業(yè)務轉移到別處。人工智能還很年輕,容易出錯。然而,盡管風險很高,但我們希望許多商業(yè)組織在部署人工智能時,會完全了解所涉及的聲譽風險。

4、法律風險

聯(lián)邦政府正準備應對人工智能崛起帶來的社會挑戰(zhàn)。2022年,拜登政府公布了《人工智能權利法案》藍圖,以保護隱私和公民自由。2023年,美國國家標準技術研究院發(fā)布了人工智能風險管理框架,以幫助企業(yè)董事會和其他組織領導應對人工智能風險?!?022年的算法問責法》仍然只是一項法案,旨在在廣泛的自動化決策機制中建立透明度。這只是聯(lián)邦立法。僅在2022年,就有不少于17個州提出了管理人工智能的立法,目標是面部識別、招聘偏見、上癮算法和其他人工智能用例。對于跨國企業(yè),歐盟擬議的《人工智能法案》旨在禁止或適度使用生物識別、心理操縱、剝削弱勢群體以及社會信用評分。

新法規(guī)即將出臺,可能會在2023年內出臺。企業(yè)面臨的風險不僅僅是合規(guī)性。如果使用AI的產品或服務出現(xiàn)問題,誰將承擔責任:產品或服務提供商?人工智能開發(fā)者?數(shù)據(jù)供應商?還是企業(yè)法人?至少,這需要為AI的決策方式提供透明度,以遵守新法律中的透明度規(guī)定。

5、操作風險

人工智能風險的最后一個領域可能是最明顯的,但在某些方面也是最危險的。如果員工不小心誤用了ChatGPT,導致商業(yè)機密泄露,會發(fā)生什么?當AI沒有按預期工作時會發(fā)生什么?過快采用人工智能的負面影響可能是巨大的。

ChatGPT是當今進人工智能最著名的例子,全世界都在測試它,且每天都在報告其缺點。但企業(yè)使用的人工智能可能無法享受這種好處。當AI告知在特定供應商、材料或產品上加倍下注時,但卻做錯了——如何知道會發(fā)生什么?

IBM的Watson曾為癌癥患者提出不正確且危險的治療方法。英國Tyndaris Investments在其對沖基金AI每天損失高達2000萬美元后,被香港大亨李健勤起訴。還有,失控的特斯拉撞死了行人?這是企業(yè)領導者的職責——意識到這種操作風險,并加以管理。

責任編輯:姜華 來源: 千家網
相關推薦

2024-08-02 08:52:51

2022-10-31 13:26:12

機器學習人工智能算法

2023-02-28 11:19:35

CHATGPT人工智能

2024-09-14 15:25:48

2023-11-20 15:26:18

人工智能GenAI模型

2025-04-10 08:33:05

2023-03-01 16:29:51

ChatGPT人工智能

2023-05-26 11:14:04

人工智能安全性

2025-01-02 13:10:56

2023-12-01 15:34:34

人工智能

2024-02-06 08:00:00

JavaScriptAI大語言模型

2022-01-13 19:07:09

人工智能AI深度學習

2024-10-30 14:52:39

2023-11-07 16:03:46

人工智能

2023-07-17 16:07:51

人工智能監(jiān)管部門

2022-11-25 08:00:00

人工智能工具Grammarly

2025-03-17 07:00:00

自主式ACIO人工智能

2023-02-13 09:42:10

人工智能ChatGPT

2024-10-10 13:20:35

2017-02-23 10:10:32

PythonAIPyWren
點贊
收藏

51CTO技術棧公眾號