SNSで拾った子どもの画像をAIで「児童ポルノ化」する犯罪が急増中 米国


▼ページ最下部
001 2025/04/11(金) 11:32:55 ID:.kOilkRFHo
生成AIの進化は、奇妙で時に異様な新たなイメージの氾濫をもたらしたが、それと同時に、はるかに暗い側面をテク
ノロジー分野にもたらしている。その1つに挙げられるのが、家族の無邪気な写真から作られた子どもたちの性的な画像だ。

生成AIを用いて着衣の写真をヌードに加工するアプリが広く利用可能になったことで、児童の性的虐待コンテンツ
(CSAM)が爆発的に増加し、警察や裁判所などの法執行機関がその対応に苦慮している。

米国土安全保障省(DHS)のサイバー犯罪ユニットのマイク・プラドは、SNSに投稿された未成年の画像がAIを用いて
CSAMに改変されるケースが増加中だと述べている。人身売買と戦う非営利団体、Skull Gamesで法執行機関との連
携を担当しているジョー・スカラムッチも、SNSの投稿が子どもの性的画像に変えられるケースが爆発的に増加してい
ると指摘した。

「生成AIは、残念なことにCSAMの生成を促すテクノロジーとして、最も重大な変化の1つを引き起こしている」と彼
はフォーブスに語った。

また、プラドによれば、子どもを狙う加害者たちは街中で撮影した子どもの写真を違法なコンテンツに加工している。
フォーブスが昨年報じたケースでは、ある男がディズニーワールドや学校の外で子どもを撮影し、それらをCSAMに
加工していた。

「私たちはこのような事例が急激に増加したことを確認している」とプラドはフォーブスに語った。

昨年、有罪判決を受けたある性犯罪者は、親たちがフェイスブックに投稿した子どもの写真を盗用してメッセージ
アプリの小児性愛者グループに投稿し、他のメンバーにその写真を性的に露骨な画像に加工させていた。この男は
その後逮捕され、数千点に及ぶCSAMを所持していた罪で起訴されたが、そのうちの数百点がAIによって生成された
画像だった。

生成AIを用いたCSAMの摘発は、ますます困難になっているが、その理由としては、AIモデルの進化のスピードの速
さや、一部のモデルに対する制御の欠如が挙げられる。ユタ州司法長官事務所の広報担当を務めるマディソン・マ
クミッケンは、「顔を入れ替えるアプリや、体を入れ替えるアプリ、服を脱がすアプリなどを利用したCSAMが確認
されている。元の画像はしばしばSNSから取得され、CSAMに変換されている」と述べている。

しかし、そうした画像のオリジナル版の所有者や被写体となった人物は、永遠にその被害を知らされない可能性が
ある。フォーブスに匿名で語ったある捜査官は、「AIを用いたCSAMの皮肉な点は、被害者本人が、自分が被害者で
あることに気づかない可能があることだ」と語った。
https://news.yahoo.co.jp/articles/0a558d34431b7e0eac86f...

返信する

※省略されてます すべて表示...
004 2025/04/11(金) 21:41:19 ID:S6nwsZ3N5U
アプリの小児性愛者グループに投稿し、他のメンバーにその写真を性的に露骨な画像に加工させていた。この男は本当に気持ち悪い!全身を大根おろしで◯◯◯◯にしてやりたい!

返信する


▲ページ最上部

ログサイズ:4 KB 有効レス数:4 削除レス数:0





ニュース国際掲示板に戻る 全部 前100 次100 最新50

スレッドタイトル:SNSで拾った子どもの画像をAIで「児童ポルノ化」する犯罪が急増中

レス投稿

未ログイン (ログイン

↑画像ファイル(jpg,gif,png)