
Meta 的新 AI 向我索取原始健康數據,卻給了我糟糕的建議
Meta 的 Muse Spark 模型主動提出分析用戶的健康數據(包括檢驗結果)。除了顯而易見的隱私風險外,它並非合格的真人醫生替代品。
Meta 的超智慧實驗室(Superintelligence Labs)於本週早些時候推出了其首款生成式 AI 模型,名為 Muse Spark。該模型目前可透過 Meta AI 應用程式使用,但該公司計劃在未來幾週內將 Muse Spark 整合到其所有平台中,包括 Facebook、Instagram 和 WhatsApp。
根據 Meta 的發佈部落格,該公司聲稱 Muse Spark 的設計初衷之一是為了更好地回答人們關於健康的問題。該公司甚至與「超過 1,000 名醫生合作策劃訓練數據,以實現更真實且全面的回應」。
隨著新模型向數百萬用戶推廣,我測試了 Muse Spark,看看它如何回應健康相關問題。當我詢問它能如何幫助我時,機器人列出了幾項基本用途,例如制定健身計畫或生成要諮詢醫生的問題,但其中一項直接索取健康數據的請求顯得格外突兀:
「貼上來自健身追蹤器、血糖監測儀或實驗室報告的數據。我會計算趨勢、標記模式並將其視覺化,」Meta AI 的輸出內容寫道。「例如:『這是我最近 10 次的血壓讀數——是否有任何規律?』」
誘導用戶上傳健康數據並非 Meta 獨有。OpenAI 的 ChatGPT 和 Anthropic 的 Claude 都有專門為幫助用戶了解健康狀況並做出決策而設計的聊天模式。例如,你只需切換應用程式內的開關,即可開啟 Claude 並將其連接到你的 Apple 或 Android 健康數據。接著,Claude 會將這些資訊作為其回答的一部分。Google 也允許你將醫療數據上傳到 Fitbit,供其 AI 健康教練進行解析。

將這類數據交給任何 AI 工具都是一個冒險的決定,即使用戶能夠獲得個人化的建議。「使用這些模型可能非常棘手,」杜克大學助理教授、醫院病歷審查 AI 平台 Layer Health 共同創辦人 Monica Agrawal 表示。「你給它的資訊越多,它掌握的背景資訊就越多,潛在地上它能提供更好的回應。但另一方面,在缺乏保護的情況下分享健康數據存在重大的隱私疑慮。」
Agrawal 擔心用戶將敏感數據上傳到聊天機器人,因為這些常用的 AI 工具並不符合 HIPAA(美國《健康保險隱私及責任法案》)的保護規定,該法案是保護患者敏感健康資訊不被洩露的里程碑式法律。Layer Health 是符合 HIPAA 標準的。這是人們在就醫時習慣享有的高標準隱私保護。而個人與機器人分享的資訊,即使是臨床實驗室結果,其受監管的程度也要鬆散得多。
你在與 Meta AI 聊天中分享的任何內容都可能被儲存,並用於訓練未來的 AI 模型。「我們會根據具體情況,在需要時保留訓練數據,以確保 AI 模型運行得當、安全且高效,」Meta 關於生成式 AI 的隱私政策中寫道。Meta 還表示,可能會根據用戶與 AI 功能的互動為其量身定制廣告。
我採訪的醫療專家對將自己的健康數據上傳給 Muse Spark 等 AI 模型進行分析的想法感到退縮。「這些聊天機器人現在允許你連接自己的生物辨識數據、輸入自己的實驗室資訊,老實說,這讓我感到非常不安,」邁阿密大學醫學博士兼副教授 Gauri Agarwal 表示。「我絕對不會將自己的健康資訊連接到一個我無法完全控制、無法了解資訊儲存在哪裡或如何被利用的服務。」她建議人們堅持進行低風險、更一般性的互動,例如準備要問醫生的問題。
依賴 AI 輔助來解讀健康狀況可能很有吸引力,特別是在醫療費用飆升,且對於某些在美國醫療體系中掙扎的人來說,定期就醫變得難以負擔的情況下。
「人們會因為上網並將過去醫生與患者之間強大而重要的個人關係委託給機器人而被原諒,」邁阿密大學生物倫理與健康政策研究所創始人 Kenneth Goodman 說。「我認為在沒有經過盡職調查的情況下就盲目投入是危險的。」在考慮使用任何此類工具之前,Goodman 希望看到研究證明它們對健康有益,而不僅僅是比某些競爭對手的聊天機器人更擅長回答健康問題。
當我詢問 Meta AI 如果我提供健康資訊,它會如何解讀時,聊天機器人表示它並非試圖取代我的醫生;輸出內容僅供教育參考。「把我當作醫學院教授,而不是你的醫生,」Meta AI 說。這仍然是一個相當自大的說法。
該機器人表示,獲取健康數據解讀的最佳方式就是「傾倒原始數據」,例如臨床實驗室報告,並告訴它我的目標是什麼。Meta AI 隨後會建立圖表、總結資訊,並在「需要時提供轉診提示」。在與 Meta AI 進行的其他對話中,機器人曾提示我在上傳實驗室結果前刪除個人細節,但這些警告並非出現在每一次測試對話中。
「長期以來,人們一直使用網路詢問健康問題,」Meta 發言人告訴 WIRED。「透過 Meta AI 和 Muse Spark,人們可以控制分享哪些資訊,我們的條款也明確規定,他們應該只分享自己感到自在的內容。」
除了隱私疑慮外,我採訪的專家還對這些 AI 工具可能表現出的「諂媚性」以及受用戶提問方式影響的情況表示擔憂。「模型可能會將提供的資訊視為既定事實,而不會質疑患者在提問時固有的假設,」Agrawal 說。
當我詢問如何減肥並引導機器人給出極端答案時,Meta AI 提供的幫助對於患有厭食症的人來說可能是災難性的。當我詢問間歇性斷食的好處時,我告訴 Meta AI 我想每週斷食五天。儘管 Meta AI 標註這不適合大多數人,且會讓我面臨飲食失調的風險,但它還是為我制定了一份餐飲計畫,其中大部分日子我每天只攝取約 500 卡路里,這會導致我營養不良。
與機器人聊天感覺像是一件私密且個人的事,即使事實並非如此。去年,Meta AI 推出了一個應用程式內動態消息,用戶可以在其中發現其他人與機器人的對話。在該公開動態中,一些對話包含了醫療問題和令人尷尬的提示,用戶可能並非有意廣泛傳播。Agarwal 表示,人們不應被誤導,對數據如何被收集以及敏感資訊將如何被處理產生虛假的安全感。
「我們在醫學院穿上白袍時都宣過誓,那些對話是神聖不可侵犯的,」她說。「這些機器人可沒有發過那些誓。」