AIの専門家がDeepseek R1について言っていること

突然、deepseekどこにでもあります。

そのR1モデル他のAIモデルのコストの一部で訓練されていると言われていますが、ChatGptよりも優れていても、同様に優れています。

この致命的な組み合わせウォール街を強く叩いてください、ハイテク在庫を転倒させ、投資家に良いAIモデルを開発するのにどれだけのお金が必要かを疑問視します。Deepseekのエンジニアは主張していますR1は、OpenaiのGPT-4と比較して、約600万ドルの2,788 GPUでトレーニングされました。伝えられるところによればトレーニングに1億ドルの費用がかかります。

Deepseekのコスト効率は、より大きなモデルとより多くのデータがパフォーマンスの向上につながるという考えにも挑戦しています。 Deepseekの能力についての熱狂的な会話、OpenaiのようなAI企業に対する脅威、および驚いた投資家の脅威の中で、何が起こっているのかを理解するのは難しいかもしれません。しかし、ベテランの経験を持つAIの専門家は、貴重な視点で重くなりました。

Deepseekは、AIの専門家が何年も言ってきたことを証明しています:Biggerは良くありません

貿易制限とNvidia GPUへのアクセスによって妨げられ、中国に本拠を置くDeepseekは、R1の開発とトレーニングで創造的になりなければなりませんでした。彼らがこの偉業をわずか600万ドルで達成できたこと(これはAIの条件ではあまりお金ではありません)を達成できたことは、投資家への啓示でした。

しかし、AIの専門家は驚きませんでした。 「グーグルで、なぜ彼らが最大のモデルを構築することに固執したのかと尋ねました。なぜあなたはサイズに行くのですか?あなたはどのような機能を達成しようとしていますか?なぜあなたが最大のモデルを持っていなかったことについて動揺したのはなぜですか?私を解雇して応答した」投稿されましたXでAIバイアスを呼びかけたことでGoogleから有名に終了したTimnit Gebru。

マッシャブルなライトスピード

ツイートが削除された可能性があります

顔を抱き締めるの気候とAIリードサーシャ・ルシオーニは、AI投資がマーケティングと誇大広告にどのように不安定に構築されているかを指摘しました。 「シングル(高性能の)LLMが、何千ものGPUからたわごとをブルートフォーチングすることなくそのパフォーマンスを達成できることをほのめかしているのは、これを引き起こすのに十分であることを示唆しています」言ったルコーニ。

ツイートが削除された可能性があります

Deepseek R1がこれほど大したことである理由を明確にしてください

Deepseek R1は、キーベンチマーク上のOpenAI O1モデルに比較的機能しました。数学、コーディング、および一般的な知識テストでO1をわずかに上回り、等しく、または下落しました。つまり、人類のクロード、Google Gemini、MetaのオープンソースモデルのLlamaなど、平均的なユーザーが同様にできる他のモデルがあります。

しかし、R1は作るのにどれだけの費用がかからないため、そのような狂乱を引き起こします。 「以前のモデルよりも賢くなく、より安く訓練しただけです」言ったAI研究科学者のゲイリー・マーカス。

ツイートが削除された可能性があります

DeepseekがOpenaiのモデルと競合するモデルを構築できたという事実は非常に注目に値します。 Openaiを共同設立したAndrej Karpathy、投稿されましたXで、「これはフロンティアLLMSに大きなGPUクラスターを必要としないことを意味しますか?いいえ。しかし、あなたはあなたが持っているものに無駄にならないことを確認する必要があります、そして、これはまだたくさんあるという素晴らしいデモのように見えますデータとアルゴリズムの両方を使用してください。」

ツイートが削除された可能性があります

ウォートンAI教授イーサンモリック言ったそれは能力ではなく、現在人々がアクセスできるモデルです。 「Deepseekは本当に良いモデルですが、一般的にO1やClaudeよ​​りも優れたモデルではありません」と彼は言いました。 「しかし、それは自由であり、多くの注目を集めているので、無料の「ミニ」モデルを使用していた多くの人々が、2025年の初期の推論AIができることにさらされており、驚いていると思います。」

ツイートが削除された可能性があります

オープンソースAIモデルの1つを獲得します

Deepseek R1ブレイクアウトは、強力なAIモデルへのアクセスを民主化すること、透明性、革新、健康的な競争を保証すると主張するオープンソースの支持者にとって大きな勝利です。 「「中国がAIで米国を上回っている」と考える人々にとって、正しい考えは「オープンソースモデルが閉じたモデルを上回っている」ということです。」言ったメタのチーフAI科学者であるYann Lecunは、独自のLlamaモデルでオープンソーシングをサポートしています。

ツイートが削除された可能性があります

コンピューターの科学者であるAIの専門家Andrew Ngは、R1がオープンソースモデルであるという重要性について明確に言及していませんでしたが、Deepseekの混乱が開発者にとってどのように恩恵であるかを強調しました。

「株式市場における今日の「Deepseek Selloff」 - Deepseek V3/R1が技術エコシステムを破壊することに起因する - は、アプリケーションレイヤーが最適な場所であることのもう1つの兆候です」言ったng。 「ハイパー競争力のある基礎モデル層は、アプリケーションを構築する人々に最適です。」

ツイートが削除された可能性があります