Google AI wins 3 in a row against human Go champion in historic match

考えられないことが起こった。Google の AlphaGo コンピューター プログラムは、複数の世界チャンピオンであるイ セドルを囲碁のエキシビション マッチに簡単に派遣し、3 対 0 (5 対局のうち) で勝利した。

試合後の記者会見でセドルは、より良い結果を出せなかったことを謝罪した。 「なんだか自分が無力だと感じた」と彼は語った。

初戦ではAlphaGoの実力を見誤ったと語った。 2試合目は勝敗を握るところだったが、チャンスを逃した。第3試合に関しては、これほどプレッシャーを感じたことはないと語った。リー氏は最終的に176手で辞任した。

「私にはこれほどのプレッシャーに打ち勝つことができなかった」と彼は語った。

ディープマインドのデミス・ハサビス最高経営責任者(CEO)は「私たちは少々唖然とし、言葉も出ない」と語った。

#アルファ碁第3試合と試合に勝ちました!歴史的な瞬間。イ・セドルの驚異的な天才に完全に畏敬の念を抱き、素晴らしいAlphaGoチームを誇りに思います!

— デミス・ハサビス (@demishassabis)2016 年 3 月 12 日

この地滑り的な勝利は、人工知能にとって重要な、そしてほとんどが予期せぬマイルストーンとなる。数年前には、膨大な数の計算(Googleによると宇宙の原子の数よりも多い)が​​必要となるため、AIはチェスのように囲碁をマスターすることは決してできないと考えられていた。

そして1月には、GoogleのAI企業DeepMindのプロジェクトであるAlphaGoが、勝利した欧州チャンピオンのファン・ホイと対戦し、AIがプロ選手と対戦するのに必要な能力を備えていることを初めて証明した。

マッシュ可能な光の速度

最高のチームに勝つ

しかし、セドル戦の勝利は何かが違う。過去 10 年間で最も有力な棋士の 1 人であり、現在世界第 4 位にランクされている複数の世界チャンピオンは、簡単に勝つだろうと考えていましたが、AlphaGo が 5 つのゲームのうち 1 つに勝つ可能性はわずかしかありませんでした。

この試合についてコメントした囲碁名人ユ・チャンヒョク九段によると、セドルはAlphaGoに対して多くの戦略を試みたという。 「第1局中、イ・セドルはAlphaGoを扇動するために難しい手を打ちましたが、失敗しました。今日、彼はその逆を試みた――安全にプレーして終盤に入った」と第2試合後に語った。

結局のところ、この強力な AI に対しては何も機能せず、その勝利ではまだ世界チャンピオンにはなりませんでしたが、間違いなく最高の中の最高の AI とランク付けされました。

3連敗したとはいえ、最終スコアを決定するために全5試合が行われるため、セドルには面目を保つチャンスがまだ残されている。

この勝利がなぜそれほど重要なのでしょうか?

1990年代後半にIBMのチェス用コンピューター「ディープ・ブルー」がトッププレイヤーを定期的に破り始めて以来、私たちは人工知能が単に特定の種類の課題においては人間よりも優れているということに慣れてしまった。これは、コンピューターが数秒以内に何百万もの手を事前に計算できるようになった計算能力の向上と、チェスにおけるヒューリスティックな問題解決手法の使用によるものです。

囲碁は違います。黒側と白側のプレイヤーが互いのペグを奪い合うというルールは単純ですが、ボードはより大きく (19x19 のグリッド)、組み合わせの数は現在のコンピューターでは計算できないほど多すぎます。強引な。

AlphaGo -- 1 月の記事で詳しく説明科学雑誌に掲載自然-- ニューラル ネットワークを使用して囲碁の専門家を模倣し、自分自身と対戦するゲームから学習することができます。また、ツリー検索アルゴリズムを使用して、何千ものランダムなセルフプレイ ゲームをシミュレートします。

わかりやすい言葉で言えば、チェスはより合理化されています。毎回まったく同じ構成から開始されます。特にポーンなどの一部の駒の場合、動きは比較的制限されており、ほとんどの場合、フィギュアを失うことは悪いことです。 Go では、常にあらゆる可能性を評価する必要があります。ペグはボード上のすべての空きスペースに配置できますが、検討すべき選択肢が多すぎるため、その手が良かったのか悪かったのかを判断するのは難しいことがよくあります。

「AlphaGo には 2 つの異なるニューラル ネットワークがあります」と、DeepMind のメイン プログラマーである David Silver 氏が YouTube ビデオで説明しています。自然1月に。 「ポリシー ネットワーク」は、各プレイに対して有望な手を提案するために使用され、AlphaGo が考慮する必要がある可能性の数を大幅に減らします。次に、「価値ネットワーク」を使用して、検索の深さを減らします。 「ゲームの終わりまで、おそらく 300 の手まで調査しなければならないこの非常に深い検索の代わりに、私たちが行うのは、おそらく 20 の手程度の適度な深さまで検索し、その後私たちは試合の最後までプレイすることなく、そのポジションを評価します」とシルバーは説明する。

「検索プロセス自体は力ずくではなく、想像力に近いものに基づいています」と彼は言います。

AlphaGo の成功は現実世界に数多く応用されています。 DeepMind の Hassabis 氏は、これを「一般的な人工知能の構築に向けた布石」と呼んでいます。そしてシルバー氏は、医療の例を挙げ、AI がいつか同様の技術を使用して「どの一連の治療が最良の結果につながるか」を見つけることができるようになるだろう。

この話に何か付け加えることはありますか?コメントで共有してください。

Leave a Reply

Your email address will not be published. Required fields are marked *

Subscribe Now & Never Miss The Latest Tech Updates!

Enter your e-mail address and click the Subscribe button to receive great content and coupon codes for amazing discounts.

Don't Miss Out. Complete the subscription Now.