としてグーグルアップグレードされた生成を位置付けますAI同社は教師、アシスタント、推薦の第一人者として、モデルを悪役の最大の敵に変えようともしている。
「AIがすでに人々を助けていることは明らかだ」とGoogleの研究・技術・社会担当上級副社長、ジェームズ・マニカ氏は同社のカンファレンス「Google I/O 2024」で聴衆に向かって語った。 「しかし、他の新興テクノロジーと同様に、依然としてリスクがあり、AI が進歩し、その用途が進化するにつれて、新たな疑問が生じるでしょう。」
マニカ氏はその後、業界標準であるレッドチーム化の最新の進化を発表した。テストプロセス生成AIの脆弱性を見つける。 Googleの新しい「AI支援レッドチーム」は、潜在的な脅威を見つけるために複数のAIエージェントが互いに競争できるように訓練する。これらのトレーニングされたモデルは、Google が「敵対的プロンプト」と呼ぶものをより正確に特定し、問題のある出力を制限できます。
マッシュ可能な光の速度
このプロセスは、より責任感があり人間らしいAIを構築するための同社の新しい計画であるが、サイバーセキュリティと誤った情報に対する懸念の高まりに対処する方法としても販売されている。
新しい安全対策には、テクノロジー、学界、市民社会の専門家チームからのフィードバックと、AI開発の7つの原則(社会的に有益であること、偏見の回避、安全性のための構築とテスト、人間の説明責任、プライバシー)が組み込まれているとGoogleは説明した。デザイン、科学的卓越性の維持、公共のアクセシビリティ。これらの新しいテストの取り組みと業界全体の取り組みを通じて、Google は製品をその言葉どおりに位置づけようとしています。