理論的には、この日は OpenAI にとって次のタイトルのブログ投稿をリリースするのに理想的な日でした。スーパーインテリジェンスのガバナンス。実際、この投稿とそのタイミングは、AI 世界の最前線にいる人々がテクノロジーの規制や適切な状況の理解からどれだけ離れているかを証明したに過ぎません。
最も有名な AI 画像ジェネレーター (Dall-E) と最も有名な AI チャットボット (ChatGPT) の 1 つを開発している会社がこの投稿を公開したのは、約束と脅威の両方を受け止め、冷静な大人のグループとして見られたいと考えているためです。その技術を真剣に考えています。そして何が起こったのか見てください:AI が生成した国防総省とホワイトハウスの火災画像株式市場に短い衝撃を与えた。市場リーダーにとって、節度を示すのにこれ以上の時はないでしょうか?
と並んで一種の「信頼と安全」コンテストがあります。ChatGPT の主要な同盟国である Microsoft と Google の間の AI 軍拡競争。でGoogle IO 基調講演2 週間前、Bard の統合に関する刺激的な発表は、「責任ある AI」に関するコーナーによって和らげられました。先週、OpenAIの最高経営責任者(CEO)サム・アルトマン氏は、マーク・ザッカーバーグ氏に対する、より謙虚で人間的な答えのように見える議会証言を行った。次は、OpenAI の共同創設者である Greg Brockman 氏が、TED カンファレンスでの活動を終えたばかりで、Microsoft Build に関する責任ある大人向けロードショーを行っています。
しかし、アルトマンとブロックマンの共著『超知性の統治』は、実際のところ、それ自体で何を言いたかったのでしょうか? 1,000 語未満では、それほど多くはありません。また、具体性の欠如により、その目的が損なわれる可能性があります。
要約: AI にはリスクが伴います。原子力発電もそうだった。そうですね、国際原子力機関 (IAEA) のような世界的な AI 規制機関を設立すべきかもしれません。しかしまた、この機関には多くの公的監視が必要であり、OpenAIが現在行っているようなことは規制の「範囲内」ではない。なぜなら、それはむしろ個人を助けることにあるからだ。
その上、おそらく誰かが遅かれ早かれ超知性体を生み出すだろうし、それを阻止することは「直感的にはリスクが伴う」だろうから、「我々は正しく対処しなければならない」としている。終わり。
マッシュ可能な光の速度
OpenAI がこのように AI の脅威を増幅させるには、明確な利己的な目的があります。 [あなたの好みの悪役をここに挿入] まず、スーパーインテリジェンス (紛らわしいことに汎用人工知能 (Artificial General Intelligence) の略で AGI とも呼ばれます) に到達したいですか?それとも、名前に「オープン」が入っているほど、テクノロジーに関して透明性を保っているこの会社を支持しますか?
しかし皮肉なことに、OpenAI は 2019 年以来、チャットボットのトレーニングに使用している言語モデルについて完全にオープンではありませんでした。オープンソースモデルを準備していると伝えられている, しかし、それはGPTの薄い影である可能性が非常に高いです。 OpenAI は非営利でしたが、現在はほぼ営利となっています評価額は300億ドル。このブログ投稿がホワイトペーパーというよりもマーケティングのパブラムのように聞こえる理由は、このためかもしれません。
本当の脅威はAIではありません。 (まだ。)
「国防総省の爆発」AI 画像がインターネットに出回ったとき、それは OpenAI にとってギミーだったはずです。アルトマンとその仲間たち。本物からフェイクニュースを選別するのに役立つAIツールについて言及して、事前に作成した投稿を更新するのにさらに数時間を費やすこともできたでしょう。
しかし、これは AI を誇大宣伝しようとしている企業にとっては不都合な事実に注目してしまうかもしれません。つまり、画像の問題は AI ではなかったのです。それらは特に説得力のあるものではありませんでした。有名なランドマークの火災の偽写真は、Photoshop で自分で作成できます。地元当局はすぐに爆発は起きていないことを確認し、株式市場は正常化した。
実際、唯一の問題は、信頼性と安全性の機能がすべて削除されたプラットフォームである Twitter 上で画像が拡散したことです。最初に拡散したアカウントは「ブルームバーグ・フィード」と呼ばれた。そして、青いチェックマークに対して月額 8 ドルを支払っていましたが、これはもはやアカウントが認証されたことを意味しません。
言い換えれば、イーロン・マスクがTwitter認証を徹底的に破壊したことで、アカウントが有名通信社になりすますことが可能になったということだ。このアカウントは恐怖を誘発する写真を拡散し、それがRTのようなロシアのプロパガンダサービスによって取り上げられ、マスク氏は同サービスから「国営メディア」のラベルも外した。
IAEA と同じくらい効果的な AI に関する国際機関が今後設立されるかどうかは疑問です。このテクノロジーは規制当局にとって、あまりにも急速に進み、あまりにも理解されていない可能性があります。しかし、それが予見可能な将来にもたらす主な脅威でもある -最も著名な予言者である「AI ゴッドファーザー」ジェフリー・ヒントン氏によれば、AIが生成したニュースや画像の氾濫は、一般の人には「何が真実なのかもはや判断できなくなる」ということだ。
しかし、この特定のテストでは、マスクのおかげではなく、フェイクニュースのトリップワイヤーが機能しました。私たちがもっと緊急に必要としているのは、陰謀をまき散らす億万長者を巨大なメガホンで抑制できる国際機関だ。おそらくアルトマンは、以前、マスク氏を「野郎」と呼び、OpenAIについての愚痴を吐いた、それについて地味な大人のブログ記事を書くことができます。