為什么現(xiàn)在的AI都是女性形象?從人機交互的心智模型談起
一個有趣的問題:為什么大部分AI機器人、語音助手等都是女性身份或女性設(shè)定,如Siri,Cortana,Alexa?
有人說是因為大部分研發(fā)人員都是男性,顯然他們對研究女性AI更有興趣;或者從消費者角度來看,對于語音助手、智能音箱等科技類產(chǎn)品,男性消費者也必定居多。事實上對于這個問題,可能開發(fā)者也不一定說得清楚,真正的原因,需要從深刻的人類心理學(xué)背景說起。
作為一個聚焦于人機交互的研發(fā)團隊,竹間在研發(fā)小影機器人與類腦對話系統(tǒng)時,就有意識地引入了心理學(xué)。其實AI的研發(fā)已經(jīng)不僅是一個技術(shù)和工程問題,更是一個心理學(xué)和社會學(xué)的問題。所以本文試圖結(jié)合竹間在AI人機交互領(lǐng)域的研發(fā)經(jīng)驗,從心理學(xué)角度談?wù)凙I與人類交互的心智模型,以及好的人機交互應(yīng)該如何貼近大眾心理。
首先,心智模型(Mental Model)是人們對外部世界的認(rèn)知和解釋,它會直接影響人的行為。人類在經(jīng)歷或?qū)W習(xí)某些事件之后,會歸納出一些對事物的發(fā)展及變化的結(jié)論,然后像寫劇本一樣,把這些經(jīng)驗再濃縮成多個不同類別的劇本,等到重復(fù)或類似的事情再度發(fā)生,我們便不自覺地應(yīng)用這些先前寫好的劇本,來預(yù)測事物的發(fā)展變化。
當(dāng)然,人們通過學(xué)習(xí)和使用心智模型能夠不斷修正和改善現(xiàn)有的心智模型。但一般來說,人們對于現(xiàn)象所持有的心智模型大多都具有不完整性(Incomplete),是偏向直覺的、非理性的,容易受到直接經(jīng)驗、他人經(jīng)驗的影響,也會受到類似事物的影響,對世界的觀察的影響。
人與AI交互的心智模型
正如人與AI交互的心智模型,就較多地受到了外界的、非理性的、非直接經(jīng)驗的影響。因為大眾接觸AI最多的渠道恐怕就是科幻片,其次是企業(yè)、媒體宣傳,而這兩個主要的信息來源都存在夸大其實的問題,因此大眾對AI產(chǎn)生了過高的幻想。如人與對話機器人交流時,同樣是在文本框中輸入文字,對方返回文字,感覺上似乎跟我們和真實人類交流的形式一樣,因此我們就會誤以為自己是在和人交流。
因此,大眾對AI的心智模型往往是這樣的:
- 像人一樣
- 像科幻片中全能的機器人一樣
而這種心智模型的特點,對AI產(chǎn)品的開發(fā)來說就意味著極大的挑戰(zhàn)。大多數(shù)情況下,用戶就會按照這種心理預(yù)期去和AI交流:既然AI能夠像人一樣交流,那么我就能和你聊任何話題,不再像使用APP那樣,需要按照設(shè)計好的交互流程來進行。即便AI提前說明了自己的功能范圍,用戶也鮮少考慮到。例如:
- AI:“你好,我是你的天氣小助手,我可以告訴你天氣,請問你在哪個城市呢?”
- 用戶:“你叫什么名字啊?”
- AI:“這不是個城市哦,請問你在哪個城市呢?”
- 用戶:“你問你叫什么名字?”
- AI:“這不是個城市哦,請問你在哪個城市呢?”
- 用戶:“你個傻×,你不是可以獲取我的位置嗎?還問!”
- AI:“這不是個城市哦,請問你在哪個城市呢?”
- ……
如此繼續(xù),用不了兩分鐘,用戶就會認(rèn)為它是個“智障”了:難道剛認(rèn)識的兩個人不應(yīng)該相互介紹一下嗎?敢情你只聽得懂城市的關(guān)鍵詞?
還有,既然你是AI,那么即使不像科幻片中一樣,至少也有點智能吧?
- 用戶:“打電話給我媽”
- AI:“你母親叫什么?”
- 用戶:“連我媽是誰都不知道,算什么人工智能?!”
- 這時機器人心里也很委屈,你的通訊錄里面沒有“我媽”這個人啊……
事實上,現(xiàn)階段人與AI交互的主要矛盾之一,就是用戶對AI高大上的期望,同機器人有限的能力和功能之間的矛盾。過高的期望帶來快速的失望,這就導(dǎo)致很多AI機器人或語音助手的用戶黏性較低,比如Siri做了這么久,很多人也只是在誤操作的時候才會喚醒它。
人機交互設(shè)計應(yīng)如何貼近大眾的心智模型
改變大眾的心智模型是很難的,所以一般產(chǎn)品設(shè)計會盡量貼近人們的心智模型,例如在智能手機剛興起的時候流行的擬物化設(shè)計,就是幫助用戶理解和學(xué)習(xí)操作的好方法。目前在人機交互領(lǐng)域,自然語言理解(NLU)技術(shù)的發(fā)展使得人機交互開始回歸到自然的人類語言對話中,這種符合人類溝通本能的方式也必將成為未來人機交互的發(fā)展趨勢。那么基于人與AI交互的心智模型特點,并借鑒人類之間交流的規(guī)律,就可以幫助AI類產(chǎn)品的開發(fā)者或團隊找到人機交互的設(shè)計靈感和方向。另外,這一過程中可以通過大量的實驗來驗證這些規(guī)律是否可以應(yīng)用在人機交互的產(chǎn)品中。
以下從人類社交的兩個心理學(xué)規(guī)律說起:
1. 自我表露是人與人社交中一個很重要的因素,表露的程度可以標(biāo)志關(guān)系的親密度,同時,恰當(dāng)?shù)谋砺犊梢酝七M關(guān)系的建立和深入發(fā)展。
在生活中,我們與不同關(guān)系的人聊天的內(nèi)容是不同的,與剛認(rèn)識的人會聊天氣、娛樂、旅游、體育這些輕松的、非個人的話題;而與熟悉的人會聊感情、煩惱、事業(yè)這些個人的、深入的話題。我們在與不熟悉的人的交流過程中,當(dāng)開始“敞開心扉”聊個人問題時,就到了建立親密關(guān)系的關(guān)鍵階段。如果只是聊天氣,認(rèn)識幾年也只是點頭之交。
另外,在社交中存在社會交換理論(social exchange),即如果僅僅一方進行表露,另一方?jīng)]有,表露的一方就會感到挫敗,進而會減少表露。所以,恰當(dāng)時機的互相表露是建立親密關(guān)系的關(guān)鍵,這一點在人與AI的交互中同樣適用。
研究指出AI對話機器人也需要向用戶傾訴、表露,social exchange也存在于人與AI對話機器人之間。只有AI的傾訴和表露才能獲得用戶更多的信任,從而讓用戶更加愿意向機器人進行表露。
但很多時候,AI對話機器人的開發(fā)者會忽略這一點。他們希望機器人與用戶交流、獲得用戶信任,其實首先需要賦予機器人足夠可信、完整的背景以及生活信息等,這樣在交流的過程中,機器人不僅扮演單純傾聽用戶的角色,更多時候能夠作為“交換”主動告訴用戶關(guān)于機器人自身的背景信息,甚至感情和煩惱,從而推進親密關(guān)系的建立。
2. 機器人的性格和社交風(fēng)格也是影響社交的重要因素。
關(guān)于這一點,科幻小說和電影已經(jīng)展示了各種可能性,有冷酷的、乖巧的、機靈的、忠實的機器人形象。那么應(yīng)該如何設(shè)計機器人的性格?在性格設(shè)計中應(yīng)該考慮哪些因素呢?也有研究進行了這方面的探索。根據(jù)Isbister的研究,機器人首先需要保證自己性格在各方面表現(xiàn)的一致性,包括文字、語音、形象設(shè)計與性格設(shè)定的一致性,其次人們可能傾向于喜歡擁有與自己不同性格的機器人。
性格是非常復(fù)雜的影響因素,每個人在交友中都多少會有自己的性格偏好。對性格的喜好還會受到“身份”的影響,因此很難有一種“通用的”機器人性格可以勝任所有的場景。例如在Tay等人的研究中發(fā)現(xiàn),人們對于機器人的性格偏好,還會受到機器人所扮演角色的性格刻板印象(stereotype)的影響,例如人們更喜歡內(nèi)向的安保機器人、外向的醫(yī)護機器人等。也就是說我們在設(shè)計對話機器人的時候,需要考慮它所需要扮演的角色或“職業(yè)”,從而設(shè)計與之相匹配的性格。
***再回到文章開篇提到的問題,為什么AI的設(shè)定基本都是女性?
關(guān)于機器人性別的影響也有許多人研究過,例如Siegel等人研究發(fā)現(xiàn)男性更容易接受女性機器人的影響,而女性對機器人的性別似乎并沒有什么偏好;另外,Tay等人的研究指出,人們對機器人性別的偏好,同樣受到了機器人所扮演角色的性別刻板印象的影響,比如人們會偏好男性的安保機器人、女性的醫(yī)護機器人。
那么對于這個問題的答案,可以從以下三個方面來總結(jié):
- 常見的AI機器人的功能恰好是刻板印象中由女性所扮演的角色,例如客服、助理等;
- 女性AI機器人的設(shè)定更易被大眾接受;
- 技術(shù)大多都是男性。
參考文獻(xiàn):
- 【1】Kang, S. H., & Gratch, J. (2011). People like virtual counselors that highly-disclose about themselves. The Annual Review of Cyber Therapy and Telemedicine, 167, 143-148.
- 【2】Isbister, K., & Nass, C. (2000). Consistency of personality in interactive characters: verbal cues, non-verbal cues, and user characteristics. International journal of human-computer studies, 53(2), 251-267.
- 【3】Tay, B., Jung, Y., & Park, T. (2014). When stereotypes meet robots: the double-edge sword of robot gender and personality in human–robot interaction. Computers in Human Behavior, 38, 75-84.
- 【4】Siegel, M., Breazeal, C., & Norton, M.I. (2009, October). Persuasive robotics: The influence of robot gender on human behavior. In Intelligent Robots and Systems, 2009. IROS 2009. IEEE/RSJ International Conference on (pp. 2563-2568). IEEE.