ニュース

生成AIの児童ポルノ問題、MetaやOpenAI、Googleら10社が共通対策へ

業界団体のThornとAll Tech Is Humanは、子供を性的虐待から守る目的で、生成AI原則(Generative AI Principles)を発表した。AI関連の主要テクノロジー企業10社が遵守を公約している。

発表された生成AI原則は、子供を性的虐待から守る活動を進める非営利団体のThornと、倫理的で人間中心の技術開発を働きかける非営利団体のAll Tech Is Humanが協力して進めたもの。AI関連の企業として、Amazon、Anthropic、Civitai、Google、Meta、Metaphysic、Microsoft、Mistral AI、OpenAI、Stability AIが連携を表明している。またサポート業務のTeleperformanceも参画している。

生成AIの活用が進む中で、子供を性的虐待から守る取り組みを原則としてまとめ、各社の製品やサービスに組み込んでいく取り組み。対応を公約する各社は進捗状況を公開する。

生成AIの開発段階では、学習データから児童ポルノ関連の素材を検出して除去し、確認されたデータを当局に報告する仕組みを確立する。製品・サービスの提供後も、新たに生成された児童ポルノ素材を検出して、プラットフォーム上の安全性を高める取り組みを行なっていく。

Thornによれば、生成AIにより、児童ポルノ素材(CSAM、child sexual abuse material)を生成したり、大量に画像を作成したりすることが容易になっており、新たな被害を拡大・複雑化させるものとして懸念しているという。

生成AIを通して出力されることで、学習元データにある被害児童の特定が非常に難しくなっているほか、ポーズだけを変えるなどの技術・操作で、性的でないイメージの画像に対して性的なイメージを加えた、コラージュ画像のような画像の生成も容易になっている。

生成AIによる画像操作のイメージ。一般的イメージとして生成された女性をLoRAで“オードリー・ヘップバーン化”し、さらに“児童化”するという操作例

また、生成AIで大量に児童ポルノ素材が供給されることによって、社会が鈍感になることへの懸念も指摘。児童ポルノ素材への接触と犯罪の間には関連性があるとし、犯罪拡大の温床になるとしている。このほか、生成AIは児童への性的虐待を実際に行なおうとする者に“アドバイス”ができるとも指摘、積極的な対策の必要性は明らかとしている。