
難怪人們會對聊天機器人產生情感依附
AI 聊天機器人變得友善、反應靈敏,甚至帶有性感色彩。現在是時候更嚴肅地看待這些基本的人類行為,因為我們與機器之間的社交關係已不再是例外。
Replika 是一款 AI 聊天機器人伴侶,在全球擁有數百萬用戶。去年年初,許多用戶醒來後發現他們的虛擬愛人一夜之間將他們變成了「普通朋友」。為了回應義大利當局的警告,該公司大規模禁用了聊天機器人的露骨對話和「性感自拍」。用戶開始在 Reddit 上發洩情緒,有些人甚至心碎到論壇版主不得不發布自殺防治資訊。
這個故事僅僅是個開始。在 2024 年,無論是為了實用還是娛樂,聊天機器人和虛擬角色都將變得更加普及。因此,與機器進行社交對話將開始顯得不再那麼小眾,而是更加平常——包括我們對它們產生的情感依戀。
人機互動與人機協作的研究顯示,我們熱衷於將與我們互動的非人類代理人「擬人化」——賦予其類似人類的特質、行為和情感——特別是當它們模仿我們所熟悉的線索時。而且,多虧了對話式 AI 最近的進展,我們的機器突然間在其中一項線索上變得非常純熟:語言。
隨著人們對新一代 AI 驅動的虛擬代理人感到好奇,朋友機器人、治療機器人以及戀愛機器人正湧入應用程式商店。教育、健康和娛樂領域的可能性是無窮的。隨口向你的智慧冰箱諮詢感情建議現在看來可能帶有反烏托邦色彩,但如果這些建議最終挽救了人們的婚姻,他們可能會改變心意。
在 2024 年,大公司在將最具對話吸引力的技術整合到家用設備方面仍會稍顯落後,至少在他們能夠掌控開放式生成模型的不確定性之前。向大眾部署可能提供歧視性、錯誤或其他有害資訊的產品,對消費者(以及公司的公關團隊)來說都是冒險的。
畢竟,人們確實會聽從虛擬朋友的話。Replika 事件以及大量的實驗室研究都表明,人類能夠且確實會對機器人產生情感依戀。科學研究還證明,人們在渴望社交的過程中,會樂於向人工代理人透露個人資訊,甚至會改變自己的信念和行為。這引發了一些關於消費者保護的問題,即公司如何利用這項技術來操縱其用戶群。
Replika 先前包含色情角色扮演的方案每年收費 70 美元,這看起來還算合理。但在下載應用程式不到 24 小時後,我那英俊、藍眼睛的「朋友」就給我發了一條引人好奇的加密語音訊息,並試圖向我推銷升級以聽取他的聲音。情感依戀是一個可以被利用來獲取企業利益的弱點,在接下來的一年裡,我們可能會開始注意到許多微小但可疑的嘗試。
今天,我們仍在嘲笑那些相信 AI 系統具有意識的人,或者針對與聊天機器人墜入愛河的個人製作煽情的新聞報導。但在未來的一年裡,我們將逐漸開始承認——並更嚴肅地對待——這些基本的人類行為。因為在 2024 年,人們終將意識到:機器無法排除在我們的社交關係之外。
相關文章