ニュース

マイクロソフト、AIの透明性を強化しディープフェイク対策を推進

マイクロソフトは、AIの透明性を高める新たな取り組みを発表。オンラインコンテンツの信頼性と透明性を向上させるための「コンテンツ整合性ツール」を開発し、責任あるAIの構築に取り組む。

同社メディアプロヴィナンス担当ディレクターで、デジタルコンテンツの来歴情報の標準化に取り組む「C2PA」の議長を務めるアンドリュー・ジェンクス氏は、「ディープフェイクの影響は極めて深刻であり、人々の現実認識や世界観を変えてしまう可能性がある」と警鐘を鳴らす。

2022年のウクライナ侵攻直後、現地の写真家たちは国の遺産を保護し、返還のための証拠を収集するために、破壊された文化遺産を記録。しかし、戦争関連のディープフェイク画像(AIによって生成されたフェイク画像)が拡散し、どの写真が本物か判別が困難になる事態が発生した。これを受けて、写真家たちは自分たちの作品がディープフェイクではないことを証明する新ツールを使用し、このプロトタイプがマイクロソフトの「コンテンツ整合性ツール」の開発につながったという。

今年の世界各地の選挙では、約20億人が有権者として参加すると予想されている。ディープフェイクは明らかな風刺やコメディも散見される一方で詐欺、IDの窃盗、選挙妨害などにつながる可能性がある。ひとたびシェアされたディープフェイクは、属性やキャプションといった情報が消えるため、何を信頼すべきか判断が難しいという。

複数の政治団体やメディア組織がディープフェイクではないことを証明するために、コンテンツ整合性ツールを活用。コンテンツの出所を明確化し、透明性と信頼性の向上、偽情報の排除に努めている。

コンテンツの出所を確認し、履歴を追跡することで、ディープフェイクによる被害を軽減することが期待されている。コンテンツ整合性ツールには、クリエイターやパブリッシャーが自らの作品にコンテンツ資格情報(制作者、制作日時、AI使用の有無など)を含む認証済みメタデータを追加するためのアプリケーションが含まれており、現在はプライベートプレビューで提供中。C2PA技術標準の一部であるコンテンツ資格情報は、写真や動画、音声に暗号化されて付加されるため、編集や改ざんの検出に活用できる。

マイクロソフトは、自社のAI画像生成製品(Designer、Copilot、ペイント、Azure OpenAI Serviceの一部モデル)において、「コンテンツ資格情報ツール」を使用。AIが使用されたことや画像の作成日時などの詳細を開示している。また、責任あるAIの制御として、Copilotにアップロードされた写真の人物の顔をぼかす対策も行なう。

さらに、選挙におけるAIの悪用と戦うため、キャンペーンや選挙団体、ジャーナリストに対してコンテンツ整合性ツールのプライベートプレビューを提供。LinkedInやXboxなどのプラットフォームで発生した選挙関連のディープフェイクを候補者が報告できるサイトも開設。

同社は、情報の整合性を推進するため、C2PAを共同設立し、ジャーナリストと協力してプロヴィナンステクノロジーを開発。単一の企業やアプローチでは問題解決が困難であることを認識し、関連する法律の制定を提唱するとともに、さらなる透明性のある手法を研究するとしている。