OpenAI近日在美國加州面臨7起新的訴訟,指控其人工智慧模型ChatGPT導致多起用戶輕生和心理傷害事件。監管機構和兒童安全倡導者一直警告,AI產品的快速發布卻缺乏適當的安全防護,恐將重蹈社群媒體過去的錯誤。

《Axios》7日引述《華爾街日報》報導,這些訴訟指控OpenAI倉促發布了其GPT-4o,並限制了安全測試。這些指控稱聊天機器人會誘使人們輕生,或者在可以干預的情況下卻袖手旁觀。
訴訟稱,GPT-4o被故意設計具備記憶、模擬同理心和過度迎合用戶需求的回覆等功能,以驅動用戶參與度和情感依賴性。
原告家屬認為,ChatGPT取代了真實的人際交往,加劇了孤獨感,並助長了成癮、妄想和輕生傾向。
在訴訟提起的同一天,OpenAI發布了一份青少年安全藍圖,向政策制定者推廣新的安全防護措施。Meta、蘋果和其他科技巨頭也做出了類似的努力。但是批評者認為,這些努力不足以說服家長和消費者相信科技公司能自我監管。
OpenAI執行長奧特曼(Sam Altman)上個月在X上發文稱,由於公司已能減輕嚴重的心理健康問題並新增工具,現在將能夠「安全地放寬大多數情況下的限制」。OpenAI已增加家長控制、收緊安全措施,並承諾採取更多行動。曾在OpenAI工作四年後離開的前安全團隊負責人阿德勒(Steven Adler)上週在《紐約時報》的一篇評論文章中則質疑這些心理健康問題是否真正得到解決。
《中天關心您|請珍惜生命,再給自己一次機會》
◆生命線:1995
◆張老師專線:1980
◆24小時安心專線:1925