柯南漫畫的情節?AI聲音詐騙成真了嗎?

知名漫畫作品《名偵探柯南》中的蝴蝶結變聲器可以讓柯南假裝成其他警官、偵探等等不同人的聲音,掩飾自己的身份來進行推理,功能之強大可說家喻戶曉,近年來隨著AI科技的演進,現實生活中竟然也出現了可以透過AI假扮成別人聲音的軟體,甚至被用來詐騙,這是怎麼一回事呢?

柯南漫畫的情節?AI聲音詐騙成真了嗎? 2

  據報導,AI憑藉著大數據的搜尋,可以從資料庫中找到與目標聲音相似的音源,進而模仿出類似的聲音,比起柯南只用這個蝴蝶結變聲器來伸張正義,許多不肖之徒卻是用這個功能來模仿別人的聲音進行詐騙。譬如說以往常見的假綁架案,是用自然人模仿被害人家屬的聲音,恐嚇被害人家屬,在AI科技出現後,只要有這種AI軟體,直接模擬家屬的聲音即可,不用再找同夥進行模仿。

  目前針對以AI模仿人類而犯罪的法律規範,如之前Deepfake事件後的「換臉條款」,即刑法第339-4條加重詐欺罪的第1項第4款:「四、以電腦合成或其他科技方法製作關於他人不實影像、聲音或電磁紀錄之方法犯之。」,詐騙集團若膽敢以此方式犯之,可以適用該條款進行處罰,然而盲點在於詐騙集團本身往往就適用該條第1項第1、2、3款的情況了,就第4款的增訂也沒加重處罰,恐怕對於詐騙集團沒甚麼嚇阻效果。

  看到這裡,柯南自變聲器於作品中登場以來,沒有濫用於私人用途,幾乎都用來推理、掩飾自己過於常人的智慧,還真是不簡單。


🎵貼心小提醒:法律條文會修正,司法實務會變更見解,每個人的案件事實也不相同,因此本文僅供參考,建議民眾對於任何法律問題作出決策以前,先向律師諮詢。

✨更多法律資訊請追蹤本所粉絲專頁 👉https://www.facebook.com/sunriselawyer

✨更多政府採購相關文章資訊請進入 👉https://www.tsaigo.com/