
約 12% 的美國青少年轉向 AI 尋求情感支持或建議
皮尤研究中心的一份報告顯示,雖然青少年主要將 AI 用於搜尋資訊和課業,但有少數人將其用於情感支持,這引起了心理健康專家的擔憂。
根據皮尤研究中心(Pew Research Center)週二發布的一份報告,AI 聊天機器人已融入美國青少年的生活。
雖然該族群最常使用 AI 的方式是搜尋資訊(57%)和尋求課業幫助(54%),但青少年也正利用 AI 來填補通常由朋友或家人擔任的角色。16% 的美國青少年表示他們使用 AI 進行閒聊,而 12% 的青少年則使用 AI 聊天機器人尋求情感支持或建議。
有些青少年可能會在與聊天機器人對話中找到慰藉,但心理健康專家對此表示擔憂。像 ChatGPT、Claude 和 Grok 這樣的通用型工具並非為此類用途設計,在最極端的情況下,這些聊天機器人可能會產生威脅生命的心理影響。
「我們是社交動物,這些系統無疑存在著可能導致孤立的挑戰,」史丹佛大學教授、研究大型語言模型(LLM)治療潛力的 Nick Haber 博士最近告訴 TechCrunch。「在許多情況下,人們與這些工具互動後,可能會與現實世界的資訊脫節,並與人際連結脫節,這可能導致相當孤立——甚至更糟——的後果。」

皮尤的調查還顯示,青少年自述的 AI 使用情況與父母認為他們接觸該技術的程度之間存在差異。約 51% 的父母表示他們的青少年子女使用聊天機器人,而 64% 的青少年則報告有在使用。
大多數父母贊成青少年使用 AI 搜尋資訊(79%)或尋求課業幫助(58%),但贊成青少年使用 AI 聊天機器人進行閒聊(28%)或獲取情感支持或建議(18%)的父母則少得多。事實上,58% 的父母不贊成孩子將 AI 用於此類目的。
AI 安全在領先的科技公司之間至少可以說是個具爭議的話題。但一家受歡迎的聊天機器人製造商 Character.AI 選擇對 18 歲以下用戶禁用聊天機器人體驗。這項決定是在公眾抗議以及針對兩名青少年自殺提起的訴訟之後做出的,這兩名青少年在與該公司的聊天機器人進行長期對話後自殺。與此同時,OpenAI 決定停止其特別具有「討好性」的 GPT-4o 模型,這引發了那些已開始依賴該模型尋求情感支持的人的反彈。
儘管大多數青少年以某種方式使用 AI 聊天機器人,但他們對於這種技術對社會的影響看法不一。當被問及他們認為 AI 在未來 20 年將如何影響社會時,31% 的青少年表示影響將是正面的,而 26% 則表示將是負面的。