AIをコントロールするために、暗号資産から学べること(あるいは暗号資産業界ができること)

アメリカのIT業界の大物たちは、批判者たちから利己的なテクノ・ユートピアニスト(夢想主義者)と呼ばれる存在から、反ユートピア的なストーリーを最も声高に叫ぶ人たちへと急速に変身した。

マイクロソフト創業者のビル・ゲイツ氏、オープンAI(OpenAI)のCEOサム・アルトマン氏、元グーグルのコンピュータサイエンティストで「AIのゴッドファーザー」とも呼ばれるジェフリー・ヒントン氏をはじめとする350人以上が署名した公開書簡は、「AIによる人類滅亡のリスクを軽減することは、パンデミックや核戦争など他の社会的規模のリスクと並ぶ世界の優先課題とすべきである」という一文からなる宣言だった。

またテスラのイーロン・マスクCEOを含む3万1800人が署名した公開書簡が、AIが人類にもたらす脅威を社会が見極めるまで、6カ月間のAI開発中断を求めたことも記憶に新しい。汎用人工知能(AGI)分野の生みの親とされるエリエゼル・ユドコウスキー(Eliezer Yudkowsky)氏は、タイム誌のコラムで、書簡は十分ではないため署名しなかったと語った。その代わりに同氏は、人類を滅ぼすような意識を持ったデジタル存在が誕生しないよう、AI開発を軍の力を使ってでも停止させることを呼びかけた。

世界のリーダーたちが、これら著名な専門家たちの懸念を無視することは難しいだろう。人間の存続が脅かされる可能性が確かにあることは広く理解されるようになっている。問題は、そのリスクをどのように軽減させるかだ。

AIの行き過ぎを防ぐ社会の取り組みにおいて、私は、暗号資産業界が果たせる役割があると考えている。ブロックチェーンはデータインプットの由来や、ディープフェイクなどの偽情報を防ぐ証拠に関して有用であり、企業によるものではなく、共同的な所有権を実現することもできる。しかしこれらを脇に置いて、暗号資産コミュニティに可能な最も価値ある貢献は、その「分散化マインドセット」にあると思う。パワフルなテクノロジーの所有が集中することで生じる危険について、独自の視点を与える考え方だ。

AIリスクと分散化マインドセット

まずそもそも「分散化マインドセット」とは何か?

暗号資産の中核は「信頼せずに、検証しよう」という精神に根付いている。中央集権型トークンカジノで業界の信用を失墜させる強欲な人たちではなく、筋金入りの暗号資産開発者たちは、悪意を持った者が意図的、あるいは意図せずにダメージを生じさせる可能性のある、あらゆる脅威や障害点を検討するための思考実験を執拗に続ける。

ビットコインもサトシ・ナカモトがゲーム理論の最も有名なシナリオの1つ「ビザンチン将軍問題」を解決しようとするなかで生まれた。この問題は、知らない人からの情報をどのように信頼するかが鍵になっている。

分散化マインドセットは、分散化をこのようなリスクの対処方法として位置付けている。2者のやり取りの結果を決定できる権力を持った仲介者として単一の中央集権型存在がいなければ、そして2者がそのやり取りについての情報を信頼できれば、悪意を持った介入の脅威は無効になるという考え方だ。

それでは、冒頭で紹介したAIによる「人類絶滅の危機」についての書簡の要求に、この世界観を適用してみよう。

この書簡に署名した人たちは、各国政府が協力して、AIの脅威に対抗するための国際的な政策を立案することを求めている。それは立派なゴールだが、分散化マインドセットに言わせれば甘い。

現在から未来に至るまで、すべての政府が単独ではなく協力した方が自国の利益に適うと理解してくれることは当然であり、発言内容と実際に行うことを一致させてくれることは当然だと、どうして仮定できるだろうか?

北朝鮮の核兵器開発を監視することが困難な今、ロシアによる暗号化の壁を突き破って、機械学習の実験を覗くことがどれほど大変か想像することは難しくない。

どの国もワクチンを必要としていた時期に新型コロナウイルスのパンデミックをめぐって国際協調を期待することや、最悪の事態が誰の目にも明らかなことから、相互破壊確証(MAD)の論理によって冷戦中の敵国同士が核兵器を使用しないことに同意するのを期待することと、AIの方向性という予測不可能なものに国際協調を期待するのでは話が違う。

さらにAIの場合、非政府組織が政府から独立してAIテクノロジーを簡単に利用できてしまう。

規制を早急に求める大手AI企業に対して暗号資産コミュニティの一部が抱く懸念は、ファースト・ムーバーズ・アドバンテージを確固なものにするハードルが作られてしまうということ。規制によって、競合が後から追いつくことは一段と困難になる。なぜその点が重要なのか?

なぜなら独占を認めることで、10年以上続く暗号資産業界の思考実験が警告し続けている、中央集権化のリスクが生まれるからだ。

グーグルの「邪悪になるな」というモットーをそもそもあまり信用していなかったが、アルファベット(グーグルの親会社)、マイクロソフト、オープンAIなどが善良だとしても、そのテクノロジーがそれぞれの動機を持った企業、政府、ハッカーに将来的に取り込まれないと保証できるのだろうか?

あるいは、そのテクノロジーが侵入不可能な企業のブラックボックスの中に存在するとすれば、善意の開発が意図せずに軌道を外れてしまっていないことを確かめるために、どうやって外部の人間がチェックできるのか?

AIの中央集権化リスクを検証するための思考実験がもう1つある。

ユドコウスキー氏のような人たちが考えるように、人類を滅亡させた方が良いと結論づける可能性もある知能を持ったAGIへと向かうことがAIの定めだとしたら、そのような結論に至る構造的シナリオはどんなものなのか?

AIを「生かす」ためのデータと処理能力が、政府や懸念を持ったCEOによってAIをシャットダウンできる単独の組織に集中していたら、AIはその可能性を潰すために人類を滅亡させる可能性があると論理的に主張できるだろう。しかし、AIそのものが、シャットダウンできない分散型で検閲耐性のあるノードのネットワーク内に「生きる」とすれば、意識を持ったそのようなデジタル存在は、人類を壊滅させる必要があるほどの脅威と見なさないだろう。

もちろん、本当にこんな展開になるかどうかはまったくわからない。しかし、未来を占う水晶がない状態では、ユドコウスキー氏のAGI化の主張の論理でいくと、将来、敵になるかもしれない存在がどのように「考える」のかを検討する思考実験をしなければならない。

適切な組み合わせを見つける

ほとんどの政府はもちろん、このような主張を受け入れることに抵抗するだろう。オープンAIのアルトマン氏をはじめとする人たちが現在、積極的に広めている「どうか規制してください」というメッセージの方を好むことは当然だ。政府はコントロールを望む。CEOを召喚し、シャットダウンを命令する能力が欲しい。それが彼らの本質だ。

私たちは現実的にならなければならない。国民国家を中心にした世界に生きているのだ。好むと好まざるとに関わらず、そのようなシステムから逃れることはできない。AIによる人類絶滅のリスク軽減戦略においては、ある程度の規制を取り入れる以外に選択肢はない。

国家政府による規制と、国際的な条約、分散型で国境を越えたガバナンスモデルの適切な組み合わせを見つけることが課題となる。

インターネット規制のために政府、学術機関、民間企業、非営利組織が取ったアプローチから学べることがあるだろう。インターネットのドメイン名やIPアドレスの管理を行う非営利団体ICANN(Internet Corporation for Assigned Names)や、インターネット技術特別調査委員会(Internet Engineering Task Force:IETF)などの組織を通じて、共通規格を実現したり、裁判所ではなく仲裁で紛争を解決できるようにする複数利害関係者からなるフレームワークが整備されてきた。

ある程度のAI規制が必要なことは間違いないが、ボーダーレスでオープン、急速に変化するAIテクノロジーを政府だけでコントロールすることは不可能だ。暗号資産業界に対して現在広がる敵意はひとまず脇に置いて、分散型アプローチによってどのようにAIが提起している問題を解決できるのか、暗号資産業界にアドバイスを求めてもらえるよう願おう。

|翻訳・編集:山口晶子、増田隆幸
|画像:Shutterstock
|原文:What AI Governance Can Learn From Crypto’s Decentralization Ethos