未成年受害者校內佔五成以上=生成AI普及導致性陷阱深偽圖像增加
Newsfrom Japan
社會 生活- English
- 日本語
- 简体字
- 繁體字
- Français
- Español
- العربية
- Русский
關於利用生成式AI(人工知能)等技術製作猥褻偽造圖像的「性深偽(Sexual Deepfake)」問題,警察廳於17日表示,今年1至9月共接獲79件來自18歲以下青少年的受害諮詢,且其中超過半數涉及同校的兒童或學生。這是官方首度公布18歲以下受害者的受害狀況。警察廳已製作宣導傳單,將透過防範非行教室等活動,呼籲大眾注意切勿輕率利用AI。
根據該廳資料,關於裸體偽造圖像被公開等諮詢件數中,以國中生最多,達41件;高中生為25件,國小生也有4件。受害者與加害者的關係中,同班同學或學長姐等「同校兒童或學生」佔了53.2%。
在這些案件中,已查明由生成式AI製作的有14件,利用影像加工軟體的有2件。雖然其餘案件無法明確特定工具,但據信絕大多數都是利用AI製作的圖片或影片。
2024年同期為76件(全年110件),雖然件數並未大幅增加,但國中小生的比例有所提高,受害年齡層呈現下降趨勢。警察廳認為,這可能是受到易於操作的生成式AI普及所影響,推測還有許多尚未掌握的受害案例。
針對加害者的查緝也接連不斷。京都府警逮捕了一名在社群媒體(SNS)上公開女高中生偽造圖像的男子,而委託製作圖像的同班同學也被函送法辦。此外,亦有國中生群體將從學校平板電腦獲取的活動照片進行加工並分享,導致整群學生遭到輔導的案例。
根據警察廳統計,今年1至9月期間,共有4人因涉嫌名譽毀損或散布猥褻電磁紀錄媒體等罪名遭到逮捕或函送法辦,另有6名青少年遭到輔導。
警察廳負責人表示:「加工或公開性影像,是會給受害者留下永不消逝傷痕的不可饒恕行為。請絕對不要誤用AI。」

警察廳製作的宣導傳單,呼籲注意利用生成AI加工的性色情偽造圖像(由該廳提供)
[Copyright The Jiji Press, Ltd.]