韓国では、AI=人工知能を使ってきわめて精巧な偽の映像や音声を作る技術「ディープフェイク」による性的な偽動画が、深刻な社会問題となっています。

今年5月、韓国社会に衝撃が走りました。

韓国 YTNのニュース
「ソウル大学の後輩など、女性たちの写真を合成してわいせつ動画を作り、流した疑惑で容疑者が捕まりました」

AIを使って性的な偽動画を作り、通信アプリ「テレグラム」で公開したとして韓国警察が摘発したのは、韓国屈指の名門・ソウル大学出身の男ら5人でした。

男らはソウル大学の後輩など、知人女性たちがSNSに上げていた写真や卒業写真などとわいせつな動画を「ディープフェイク」を使って合成して、「テレグラム」で公開。被害を受けた女性は、およそ60人にのぼるとみられています。

韓国ではこうしたネット上の性的な偽動画について監視を行う「放送通信審議委員会」が、サイト側へ削除するよう要請しています。

その件数は2020年には500件弱でしたが、毎年2倍に近いスピードで増え、去年は7000件を超えました。

ソウルの若者たちは。

「(SNSでは)非公開のアカウントの方をよく利用しています」
「アカウントを非公開にして、親しい人だけ受け入れています」

SNSに投稿した写真が悪用されることについて、不安を感じていました。

こうしたなか、行政が取り組んでいるのが。

「デジタル性犯罪AI監視システム」

AIを活用したモニタリングです。

ソウル市は2年前、ネット上の性被害に対応する支援センターを開設。問題がある動画を探し出し、サイトの運営側に削除を要請しています。

ソウルデジタル性犯罪安心支援センター長 ムン・ギヒョンさん
「できるだけ流出しないようにすることが非常に重要です。私たちも被害の申告があった場合には、できるだけ早く支援する努力をしています」

当初は人力頼みの作業でしたが、去年からは担当者が不在の夜間にもAIで被害動画を発見できるようにしました。

さらに、先月からは被害届けが出されにくい児童や青少年の動画もAIで見つけ出すシステムを導入しました。

システム開発者 キム・ジュンチョルさん
「(児童や青少年と)関連性の高い要素を探知して、子どもが被害に遭った動画なのか探し出す技法を使いました」

ソウル市は動画の発見から削除の要請までAIによって自動で行うシステムの開発も進めていて、被害の拡大を抑え込みたいとしています。

鄭重声明:本文の著作権は原作者に帰属します。記事の転載は情報の伝達のみを目的としており、投資の助言を構成するものではありません。もし侵害行為があれば、すぐにご連絡ください。修正または削除いたします。ありがとうございます。