- フォンアンドロイド.com
- ニュース
- ソフトウェア
- AI: もう盗作はありません。このツールはオリジナルの画像を「汚染」します
人工知能による作品の盗作からアーティストを守るために、あるツールが元の画像を汚染することでシステムの学習を妨害します。
L'生成人工知能で見つけたものチャットGPTテキストまたは旅の途中たとえば画像の場合、一般的にユーザーは 2 つに分かれます。一方では、それが可能性を広げるという点で並外れたものであると考える人たち、他方では、より直接的に問題に関心を持っている人たち。著作権の問題。明らかに: トレーニングするには、AIはインターネット上で見つけられるものすべてを掘り下げなければなりません。画像、本、歌…大部分は著作権によって保護されています。この問題を解決するには、Googleは、AIはデフォルトで何の制約もなく使用できると提案しているもちろん何も支払わずに。これは制作者の好みにまったく当てはまりません。
シカゴ大学の研究チームは、一部の人にとっては悪質と思われる手法を用いて、アーティストに力を取り戻したいと考えている。という名前のプログラムナス科元の画像を「汚染」したAIの学習を操作する。毒の形で注入されるピクセル、大量に存在するとより効果的です。以下のデモでこれをはっきりと見ることができます。 AIに犬の写真を再現するよう依頼すると、猫の写真が作成されます。ハンドバッグがトースターに、車が牛に。
プログラムが AI を操作して間違ったことを学習させる
ナイトシェイドは以下でも動作します似たようなアイデア基本的なものまで。犬の写真を毒することは、AI に子犬、オオカミ、またはハスキーを作成するように依頼した場合でも機能します。スタイルについても同様です。このプログラムに感染すると、たとえば抽象絵画の再現性が非常に低くなります。チームは次のように指定しています有害なピクセルを除去することが可能。一方で、特に人工知能が数十億枚の画像をスキャンし、1080p に含まれる画像が 1 つだけである場合、それらを識別することは非常に困難になります。200万画素。
現時点では、Nightshade の機能を次のような他の領域に拡張する計画はありません。文学。それを思い出しましょう多くの著者がすでに OpenAI (ChatGPT) に対して盗作を訴えています。。研究者らは、プログラムを本に適用するのは、静止画像に適用するよりもはるかに複雑だと説明しています。それまでの間、彼らは、自社のシステムにより、アーティストが自分たちの声を AI 企業に届けやすくなるようにしたいと考えています。
ソース :テックレーダー