女子陸上選手の顔写真を裸に加工 AI技術「ディープフェイク」悪用で 男を書類送検

AI(人工知能)の技術を悪用し、女子陸上選手の顔写真と別人の裸の写真を合成し、SNSに投稿した疑いで大学生の男が書類送検された。

愛知県に住む20代の大学生の男は2023年3月、女子陸上選手の顔写真と別人の裸の写真を合成し、SNSに投稿した名誉毀損(きそん)の疑いが持たれている。

男は、面識のない女子選手のユニホーム姿の写真をネット上からダウンロードした後、AI技術のひとつで偽の画像が精巧に合成できる「ディープフェイク」のサイトを悪用したという。

男のスマートフォンからは70人ほどの女性の顔写真が見つかったほか、SNSにわいせつ画像を100枚投稿していたということで、調べに対し「自分の欲求を満たすためにやった」と容疑を認めているという。

https://news.yahoo.co.jp/articles/621fbd9dbb182077ea030de3c276474a2151df0a