アーティストは間もなく、自分の作品が機械学習の餌になるのを防ぐ新しい武器を手に入れるかもしれません。 Nightshade と呼ばれるこのツールは、デジタル アートワーク内のピクセルに小さな変更を加えて効果的に「毒」を加え、画像をトレーニングの目的で使用できなくします。AI。
MITテクノロジーレビューシカゴ大学の Ben Zhao 教授率いるチームが USENIX コンピュータ セキュリティ カンファレンスで査読のために Nightshade を提出したと報告しています。このソフトウェアは、人間の目には見えない画像に小さな編集を加えることで機能し、AI アルゴリズムが画像を完全に誤認識します。
たとえば、アーティストが猫の絵を描いても、それを検査する人間や AI によって明らかに猫であると認識される場合があります。ただし、Nightshade を適用すると、人間には同じ画像が表示されますが、AI はそれを犬だと誤って認識します。
このようなひどいトレーニング資料を十分に AI に大量に注入すると、すぐに猫の画像をリクエストすると、代わりに犬が生成されます。
マッシュ可能な光の速度
もちろん、1 つの毒された画像だけが AI 画像ジェネレーターのアルゴリズムに重大な影響を与える可能性は低いです。実際の影響が現れる前に、そのトレーニング データが何千もの変更された画像によって汚染される必要があります。
ただし、AI 画像ジェネレーターは、アルゴリズムを改良するために、インターネットから無差別に何千もの新しいサンプルを収集することが知られています。多くのアーティストがナイトシェードを適用した画像をアップロードすると、最終的にはそのような AI ツールが使用できなくなる可能性があります。
また、汚染された各画像を個別に特定してトレーニングプールから削除する必要があるため、AI 企業がこの問題を解決することは非常に困難です。これは、そのような企業にとって、インターネットを通じてトロール網を引き回したり、明示的な同意なしにアーティストの作品を使用したりする前に、よく考えるべき強力なインセンティブを生み出す可能性があります。
Zhao氏のチームが作成したAI破壊ツールはこれが初めてではない。以前リリースしたグループ釉薬、同様の方法でアーティストの個人的なスタイルを偽装するツール。 Nightshade は最終的に Glaze に統合され、他の人がアーティストを保護する作品を構築できるようにオープンソース化される予定です。