ソーシャル ネットワーク、特にメタのネットワークでは、誤った情報が急速に広まります。そこで同社は、ユーザーが特定の画像が偽物かどうかを知る新しい方法を発見した。
FacebookとInstagramの親会社であるMetaは、プラットフォーム上の人工知能 (AI) によって生成または操作されたラベル画像。この措置は、Meta の取り組みの一環です。オンラインの透明性を促進し、誤った情報の拡散を防止します、特に2024年の選挙に向けて。
Meta はすでに、人、場所、物のリアルな写真を生成できる独自の Imagine AI エンジンによって作成された画像に可視透かしを使用しています。同社は現在、この手法を OpenAI、Google、Midjourney などのサードパーティ ソースからの画像に拡大することを計画しています。ラベルは、画像が AI によって生成されたものであることを示し、ソースとプロセスに関する詳細情報を提供します。ラベルの正確なデザインはまだ最終決定中ですが、Meta は、画像の横に「AI Info」という文字を付けて、どのように見えるかのモックアップを共有しました。
こちらもお読みください–TikTokではAIのせいでフェイクニュースや陰謀論がどんどん拡散
メタはソーシャルネットワーク上の偽画像をマークしたいと考えている
Meta は、目に見えるラベルに加えて、サードパーティのジェネレーターからの画像内の目に見えないマーカーを検出するツールも開発しています。これらのマーカーは画像メタデータに埋め込まれており、編集ソフトウェアによって変更できない一意の識別子として機能します。メタ氏は、他のプラットフォームも同様の計画を立てていると述べた。このようなマーカーを使用しており、それらを認識するシステムをセットアップしたいと考えています。
では、AI によって生成されたオーディオとビデオはどうなるでしょうか?Metaは、現在この種のコンテンツを識別する技術がないことを認めた画像と同じレベルです。しかし同氏は、業界がこの能力の構築に取り組んでおり、それに応じて政策を更新するつもりであると述べた。
それまでの間、Meta はユーザーに、アップロードするオーディオまたはビデオ コンテンツが AI によって制作または編集されたものであるかどうかを示すよう要求します。そうしないと罰せられます。さらに、コンテンツが視聴者に誤解を与える可能性があるほど現実的である場合、メタは追加の詳細を記載したより目立つラベルを配置します。
メタはフェイクニュースをひっくり返す準備をしている
Meta は、Imagine AI エンジンや Large Language Models (LLM) などの独自の AI ツールも強化しています。同社の FAIR AI Research Lab は、マーカーの削除に対する耐性を高める、Stable Signature と呼ばれる新しい透かし技術の開発に取り組んでいます。 Meta はまた、LLM をコミュニティ標準に基づいてトレーニングし、ポリシーに違反するコンテンツを報告できるようにします。
«人間のコンテンツと合成コンテンツの間の境界線がますます曖昧になるにつれ、人々はその境界線がどこにあるのか知りたがるようになっています。同社の国際担当社長ニック・クレッグ氏は語った。 「AI によって生成されたコンテンツを初めて発見する人も多く、ユーザーからはこの新しいテクノロジーの透明性を高く評価していると言われています。したがって、人々が見ているフォトリアリスティックなコンテンツが AI を使用して作成されたものであるかどうかを人々が理解できるようにすることが重要です»。
Meta は、今後数か月以内に AI 生成画像のラベルを展開すると述べました。米国を含む多くの国での2024年の選挙に向けて準備を進めている。同社は、これらのラベルがユーザーが情報に基づいた意思決定を行い、プラットフォーム上での誤った情報の拡散を防ぐのに役立つことを期待している。
それにもかかわらず、メタ社の独立資金で運営されている監視委員会は最近、同社に対し「一貫性のない」操作メディアポリシーを見直すよう求めた。ジョー・バイデン大統領の編集済みビデオをフェイスブック上に残すことを許可する決定を支持した後。