ソラは何を訓練されましたか?クリエイティブは答えを求めます。

木曜日、OpenAI は Sora と呼ばれるビデオ生成モデルで再び AI の世界に衝撃を与えました。

デモでは、単純なテキスト プロンプトに基づいて、鮮明な詳細と複雑さを備えた写真のようにリアルなビデオが表示されました。あビデオ「東京郊外を走る電車の窓に反射」というプロンプトに基づいて、電話で撮影されたように見え、カメラワークが不安定で、電車の乗客の反射も含まれ​​ていました。奇妙な歪んだ手は見当たりません。

ツイートは削除された可能性があります

プロンプトのビデオ「赤いウールのニットのオートバイのヘルメットをかぶった 30 歳の宇宙人の冒険をフィーチャーした映画の予告編、青い空、塩の砂漠、映画のようなスタイル、35mm フィルムで撮影、鮮やかな色」というものは、クリストファー・ノーランの映画のように見えました。 -ウェス・アンダーソン・ハイブリッド。

ツイートは削除された可能性があります

雪の中で遊ぶ別のゴールデンレトリバーの子犬は、柔らかな毛皮とふわふわの雪を、手を伸ばせば触れてしまいそうなほどリアルに表現しました。

7 兆ドルの問題は、OpenAI がどのようにしてこれを達成したのかということです。 OpenAI はトレーニング データについてほとんど何も共有していないため、実際のところはわかりません。しかし、これほど高度なモデルを作成するには、Sora は大量のビデオ データを必要としたため、インターネットの隅々から収集したビデオ データでトレーニングされたと考えられます。また、トレーニング データには著作権で保護された作品が含まれていたのではないかと推測する人もいます。 OpenAIはソラのトレーニングデータに関するコメント要請にすぐには応じなかった。

OpenAIでは技術論文これらの結果を達成する方法に主に焦点を当てています。Sora は、視覚データをモデルが理解できる「パッチ」またはデータの断片に変換する拡散モデルです。しかし、視覚データがどこから来たのかについてはほとんど言及されていません。

OpenAI は、「インターネット規模のデータでトレーニングすることでジェネラリスト機能を獲得する大規模な言語モデルからインスピレーションを得ている」と述べています。信じられないほど曖昧な「インスピレーションを得る」部分は、ソラのトレーニング データのソースへの唯一の回避的な言及です。 OpenAI は論文のさらに下で、「テキストからビデオへの生成システムをトレーニングするには、対応するテキスト キャプションを備えた大量のビデオが必要である」と述べています。膨大な量の視覚データの唯一の情報源はインターネット上にあり、これもソラの出自を示すヒントです。

マッシュ可能な光の速度

AI モデルのトレーニング データをどのように取得するかという法的および倫理的な問題は、OpenAI が ChatGPT を開始して以来存在しています。両方OpenAIそしてグーグル彼らは言語モデルをトレーニングするためにデータを「盗んだ」疑いで告発されている。言い換えれば、ソーシャルメディア、RedditやQuoraなどのオンラインフォーラム、Wikipedia、個人書籍のデータベース、ニュースサイトから収集したデータを使用したということだ。

これまで、トレーニング データを取得するためにインターネット全体をスクレイピングする理論的根拠は、データが一般に公開されているということでした。ただし一般公開されている常に翻訳されるわけではありませんパブリックドメインにします。好例として、ニューヨークタイムズ訴訟を起こすOpenAI と Microsoft は、OpenAI のモデルが' は一字一句正しく機能するか、ストーリーを誤って引用したものです。

OpenAI も同じことをビデオを使ってやっているようです。これが事実であれば、エンターテインメント業界の重鎮たちがそれについて何か言うだろうと予想できます。

しかし、問題は残っています。ソラの訓練データの出所がまだわかりません。 「同社は(その名前にもかかわらず)モデルを何に基づいてトレーニングしたかについて、特徴的に口を閉ざしてきた。」書きました米上院AI監視委員会の公聴会で証言したAI専門家のゲイリー・マーカス氏。 「多くの人が、おそらくアンリアルなどのゲーム エンジンから生成されたものがそこにたくさんあるのではないかと[推測]しています。また、YouTube で多くのトレーニングが行われ、さまざまな著作権で保護された素材があったとしても、私はまったく驚きません。」マーカス氏は、「おそらくアーティストたちはここで本当にひどい目に遭っているだろう」と付け加えた。

OpenAIは秘密の漏洩を拒否しているにもかかわらず、アーティストやクリエイターは最悪の事態を想定している。映画製作者であり、SAG-AFTRA 生成 AI アドバイザーでもあるジャスティン・ベイトマン氏は、言葉を切り詰めませんでした。 「このすべてのナノ秒#AIゴミは本物の芸術家によって盗まれた作品で訓練されています。」投稿されましたベイトマンはXについて「不快だ」と彼女は付け加えた。

ツイートは削除された可能性があります

クリエイティブ業界の他の人々は、Sora とビデオ生成モデルの台頭が自分たちの仕事にどのような影響を与えるかを懸念しています。 「私は映画の VFX の仕事をしていますが、私の知っているほとんどの人は絶望的で憂鬱で、これから何をすべきかパニックになっています。」投稿されました@ジミーランスワース。

OpenAI は、Sora がもたらす可能性のある爆発的な影響を完全に無視していたわけではありません。しかし、それは主にディープフェイクや誤った情報に関わる潜在的な害に焦点を当てている。現在はレッドチーム化段階にあり、不適切で有害なコンテンツがないかストレステストを受けていることになる。 OpenAIは発表の終わりに向かって、「世界中の政策立案者、教育者、アーティストに彼らの懸念を理解し、この新しいテクノロジーの前向きな使用例を特定するよう働きかける」と述べた。

しかし、それはそもそもソラを作ることですでに生じているかもしれない害には対処していません。

Leave a Reply

Your email address will not be published. Required fields are marked *

Subscribe Now & Never Miss The Latest Tech Updates!

Enter your e-mail address and click the Subscribe button to receive great content and coupon codes for amazing discounts.

Don't Miss Out. Complete the subscription Now.