隨著人工智慧(AI)聊天機器人如ChatGPT日益普及,已成為許多人傾訴各種疑難雜症的對象。不過,有專家就示警,別告訴ChatGPT以下五件事,否則會面臨個資外洩的情形。

史丹佛大學「人本人工智慧研究中心」(HAI)研究員珍妮佛·金(Jennifer King)向《華爾街日報》指出:「當你把信息輸入聊天機器人後,你就失去了對這些資料的掌控。」
珍妮佛列出了「5大禁區」如下:
一、企業資訊
若在工作中使用ChatGPT等AI工具撰寫電子郵件、編輯文件等,可能會無意中暴露客戶資料、內部文件或尚未公開的業務計劃。即便目前有些企業已使用安全性較高的企業版AI或自家客製化AI系統,但仍必須防範資訊外洩風險。
二、醫療檢測結果
儘管醫療業對於病患隱私相當重視,並會嚴格保護,但AI平台並不在法規保護範圍內,若你想讓AI解釋醫療檢查結果,建議在上傳資料之前,先移除姓名、身分證等個人資料,僅保留必要的檢測數值。

三、帳號與密碼
有些人可能認為,隨著AI執行任務能力有所提高,因此將各平台的帳密資訊交由AI管理,但專家示警,AI並非密碼管理工具,也無法保障你帳號的安全,應該選擇使用「密碼管理工具」來儲存這類資訊。
四、身分資訊
別向ChatGPT揭露任何身分資訊,像是身分證、護照號碼、地址、出生日期、電話號碼等,這些皆屬高度敏感的個人識別資料,雖然一些聊天機器人會對這些敏感資訊屏蔽,但最安全的做法就是不要上傳。
五、金融帳戶資訊
絕對不要向ChatGPT提供何銀行帳戶、信用卡資料、投資帳戶等,這些資訊一旦被駭客竊取,你可能就會遇到被監控或盜刷的情形。
事實上,OpenAI在官網上明確提醒使用者,請勿在對話中分享敏感資料。而Google在其AI產品Gemini頁面也呼籲使用者避免輸入「你不希望審查員看到的機密資訊」。