要聞中心/綜合報導
美國人工智慧(AI)開發公司OpenAI今天披露一款語音複製工具,打算在落實保護措施以防範語音造假詐騙之前都實施嚴格管制。
法新社報導,根據OpenAI一篇分享小規模測試成果的部落格文章,這款名為Voice Engine的模型主要可根據15秒的聲音樣本複製一個人的聲音。
總部位於舊金山的OpenAI表示:「我們承認生成類似某人聲音的言論具有重大風險,尤其先考量到選舉年…我們與政府、媒體、娛樂、教育、公民社會等領域的美國和國際夥伴合作,確保我們在打造過程中納入他們的意見。」
造假資訊研究員擔心AI驅動的應用程式在關鍵選舉年遭大量濫用,因為語音複製工具愈來愈多,且費用低廉、使用簡單又很難追蹤。
認知到這些問題的OpenAI表示,「基於合成語音濫用的可能性」,將對更廣泛的發布採取謹慎態度且隨時掌握狀況。
數月前,美國一名民主黨總統初選候選人的政治顧問承認假冒總統拜登的聲音撥打AI生成的自動語音電話,內容聽起來像是拜登呼籲選民不要在今年1月的新罕布什爾州初選投票。
這起事件令專家警覺,他們擔心在今年11月美國總統大選和全球其他重要選舉之前出現大量AI生成的深偽假資訊。
OpenAI表示,測試Voice Engine的夥伴已同意一些規範,包括要求所有聲音被這項工具複製的人都必須明確知情同意。
OpenAI還說,也必須明確告知受眾,他們聽到的聲音是AI生成。
OpenAI表示:「我們已實施一系列安全措施,包括打上數位浮水印,以追蹤所有Voice Engine所生成音訊的源頭,並主動監控這項工具的使用方式。」(文/中央社)