9/10
7/10
9/10
自分の写真が、知らない誰かの「AI美女インフルエンサー」を作るために使われていたとしたら? しかも、そのアカウントがアダルトコンテンツを配信していたとしたら? これはもうSFじゃない。今、アメリカで複数の女性たちが実際に訴訟を起こしている、現実の話だ。
「AI ModelForge」という問題のプラットフォーム
今回の騒動の中心にいるのが、AI ModelForgeというプラットフォーム。端的に言うと、「自分だけのAIインフルエンサーを作る方法を男性向けに教える」サービスだ。問題はその”材料”にある。ユーザーたちは実在する女性のInstagramフィードを参照し、顔・体型・雰囲気を学習させて、アダルトコンテンツを生成・販売していたとされている。
被害を受けた女性たちは、自分のアカウントが「勝手に使われた」ことを全く知らなかった。気づいたのは、見知らぬフォロワーから「これあなたですか?」とDMが届いてから、というケースもある。正直言うと、これは技術の問題というより、同意という概念が完全に無視されている問題だと私は思う。
なぜ今、これが世界中で「次の大問題」になっているのか
このニュースが爆発的に広まった背景には、ここ1〜2年でAI生成ツールが誰でも使えるレベルに到達したという現実がある。Stable DiffusionやMidjourney、LoRAモデルの個人学習が一般化したことで、「特定の人物を模倣したAI画像を作る」ハードルは恐ろしいほど下がった。
アメリカではすでに複数の州が「ディープフェイクポルノ」を規制する法律を制定しており、連邦レベルでも立法の動きがある。EUのAI Actにも関連条項が含まれる。だが法律の整備より、技術の普及速度のほうが圧倒的に速い。日本ではまだこの種の訴訟は表面化していないが、SNSで顔出しをしている全ての人が潜在的な被害者になりうるという構造は、まったく同じだ。
もし同様のプラットフォームやサービスが日本でも展開されたら——というか、すでに水面下で存在している可能性は十分ある——、個人情報保護法や不正競争防止法でどこまで対応できるか、正直かなり疑問だ。
💬 Naoより:これを調べていて、一番怖かったのは「技術が悪いのではなく、使う人間の倫理観が追いついていない」という事実。AIが作った画像は本人じゃないから名誉毀損にならない? いや、それで傷ついた人がいる時点で、もうその議論は終わりだと思う。あなたは自分のSNS、今どのくらいの範囲に公開していますか? 今日一度、設定を見直してみてほしい。

コメントを残す