紐西蘭衛生局要求員工停止使用 ChatGPT 撰寫臨床筆記
紐西蘭衛生局已禁止員工使用 ChatGPT 等免費 AI 工具編寫臨床筆記,理由是存在數據安全、隱私和問責風險,並警告可能面臨紀律處分。雖然局方強調數據責任,但工會認為員工是因為承受巨大工作壓力且缺乏官方數位支援才轉向使用這些工具。
背景
紐西蘭衛生局(Health NZ)近期向員工發出警告,嚴禁使用 ChatGPT、Gemini 或 Claude 等免費 AI 工具撰寫臨床病歷,並威脅將對違規者採取紀律處分。儘管當局正逐步推廣經核准的 AI 抄錄工具,但一線醫護人員在巨大的工作壓力下,往往轉向未經授權的免費工具以節省行政負擔,引發了數據安全、隱私保護與醫療責任歸屬的廣泛討論。
社群觀點
Hacker News 的討論呈現出技術便利與醫療安全之間的強烈拉鋸。部分留言者指出,臨床人員之所以鋌而走險使用 AI,核心原因在於醫療體系長期的人力短缺與行政壓力。工會代表與社群成員皆認為,單純威脅處分而不解決根本的數位工具匱乏,只會讓員工轉向更隱蔽的操作,反而增加風險。然而,技術層面的隱憂不容忽視,有使用者分享其醫師使用的 AI 工具曾嚴重誤植生理數據,必須在診間即時更正,這反映出 AI 雖然能產出看似流暢且專業的文字,卻極易發生「幻覺」現象,將錯誤資訊包裝得極具說服力。
針對隱私與數據主權,社群展開了激烈的辯論。有觀點認為紐西蘭在保護醫療數據方面顯得力不從心,特別是當數據被傳輸至澳洲的 Azure OpenAI 伺服器處理時,當地的法律保障可能不足。儘管微軟等供應商聲稱提供符合隱私協議的託管服務,但技術細節中仍存在漏洞,例如特定區域的處理流程可能不涵蓋文件檔案的零數據保留(ZDR)協議。此外,醫護人員對數據隱私的認知落差也令人擔憂,部分從業人員可能誤以為患者不在意數據外流,或認為醫療資訊早已在網路流通而放鬆警惕。
從臨床實務來看,AI 生成的病歷往往過於冗長且充斥無用細節,反而增加後續接手醫師的閱讀負擔。一位醫療從業者提到,他無法信任同事由 AI 生成的圖表紀錄,因為這些紀錄雖然「讀起來很順」,卻可能遺漏關鍵的諮詢細節或藥物調整資訊。這種「為了節省兩分鐘思考而打破規則」的行為,可能導致醫療品質的系統性下降。社群共識傾向於認為,若要在醫療領域安全使用 AI,必須建立嚴格的審核機制,例如將原始音檔與時間戳記後的逐字稿並列儲存,以便隨時核對,而非盲目追求自動化生成的便利。
延伸閱讀
在討論中,留言者提到了幾項與醫療 AI 相關的技術背景與工具。首先是 Heidi,這是一款目前正在紐西蘭急診室推廣的 AI 抄錄工具,旨在縮短醫師撰寫病歷的時間。此外,討論也涉及了 Azure OpenAI 的數據處理政策,特別是關於區域處理限制與零數據保留協議的技術細節。針對數據基礎設施,有成員質疑衛生局選擇 Snowflake 而非 Apache Spark 等開源方案的決策,認為這涉及了技術鎖定與成本考量。最後,關於 AI 幻覺的檢測,有留言者分享了建立「盲測評分系統」的經驗,強調必須在不提供原始提示詞的情況下讓 AI 互相稽核,才能有效揪出看似合理實則錯誤的內容。