リスク警告:「仮想通貨」「ブロックチェーン」の名のもとでの違法な資金調達のリスクに注意してください。—銀行保険監督管理委員会など5部門
検索
ログイン
简中
繁中
English
日本語
한국어
ภาษาไทย
Tiếng Việt
BTC
ETH
HTX
SOL
BNB
View Market
Vitalik新作:Crypto+AI的应用前景和挑战
Foresight News
特邀专栏作者
2024-01-31 03:04
この記事は約7326文字で、全文を読むには約11分かかります
Vitalik详述Crypto+AI四大交叉点。

作者: ヴィタリック ブテリン

編集者:カレン、フォーサイトニュース

Worldcoin チームと Modulus Labs チーム、Xinyuan Sun、Martin Koeppelmann、Illia Polosukhin のフィードバックとディスカッションに心より感謝いたします。

「仮想通貨と AI の間で最も実りある交差点はどこですか?」長年にわたり、多くの人が私に質問をしてきました:「仮想通貨と AI の間で最も実りある交差点はどこですか?」これは当然の質問です:仮想通貨と AI は、過去 10 年間で最も重要な深みの 2 つでした。 、この2つの間には何らかのつながりがあるはずです。

表面的には、この 2 つの間の相乗効果を見つけるのは簡単です。暗号通貨の分散化により、次のことが可能になります。AI 集中化のバランスを取る, AIは不透明ですが、暗号通貨は透明性をもたらすことができます。AIにはデータが必要で、ブロックチェーンはデータの保存と追跡に優れています。しかし何年もの間、人々が私に特定のアプリケーションについて詳しく尋ねてきたとき、私の答えは残念なものでした。「はい、議論する価値のあるアプリケーションはいくつかありますが、それほど多くはありません。」

過去 3 年間で、最新の LLM (Large Language Model) などのより強力な AI テクノロジーの台頭により、ブロックチェーンのスケーリング ソリューションだけでなく、ゼロ知識証明、完全準同型暗号化 (二者間暗号化) も開始されています。マルチパーティ) 安全なマルチパーティ計算などの強力な暗号化テクノロジの台頭によるこの変化を確認します。確かに、ブロックチェーン エコシステム内で、または AI と暗号化を組み合わせた、有望な AI の応用例がいくつかありますが、AI を適用する際には注意が必要です。特に課題は次のとおりです。暗号化では、本当に安全なものを作るにはオープン ソースが唯一の方法ですが、AI では、モデル (さらにはそのトレーニング データ) をオープンにすると、敵対的な機械学習攻撃に対する脆弱性が大幅に高まります。この記事では、暗号通貨と AI が交差するさまざまな方法を分類し、それぞれの分類の展望と課題を探ります。

uETHブログより記事暗号と AI の交差点の概要。しかし、これらの相乗効果を特定のアプリケーションで実際に実現するにはどうすればよいでしょうか?

暗号通貨 + AI の 4 つの主要な交差点

AI は非常に幅広い概念です: AI は、明示的に指定するのではなく、大きな計算スープをかき混ぜ、そのスープを推進するためにある種の最適化圧力を適用することによって作成される一連のアルゴリズムと考えることができます。欲しい物件。

この説明には、私たち人間が誕生する過程が含まれているため、決して軽視してはなりません。しかしこれは、AI アルゴリズムがいくつかの共通の特性を共有していることも意味します。つまり、AI アルゴリズムは非常に強力ですが、同時にその内部の仕組みを知り、理解するには一定の制限があります。

人工知能を分類するには多くの方法があり、人工知能とブロックチェーンの相互作用についてはこの記事で説明します (ヴァージル・グリフィス「イーサリアムは文字通りゲームを変えるテクノロジーです」)記事)、私はそれらを次のように分類します。


  • ゲームへの参加者としての AI (最も高い実現可能性): AI 参加のメカニズムでは、最終的なインセンティブの源は人間の入力の同意から得られます。

  • ゲーム インターフェイスとしての AI (可能性は高いがリスク): AI は、ユーザーが周囲の暗号世界を理解し、自分の行動 (署名されたメッセージやトランザクションなど) がユーザーの意図と一致していることを確認してだまされたり騙されたりするのを防ぐのに役立ちます。

  • ゲームのルールとしての AI (細心の注意が必要): ブロックチェーン、DAO、および同様のメカニズムが AI を直接呼び出します。例えば「AI裁判官」。

  • ゲームの目標としての AI (長期的かつ興味深い): ブロックチェーン、DAO、および同様のメカニズムを設計する際の目標は、他の目的に使用できる AI を構築および維持することであり、暗号化を使用する部分はトレーニングの動機付けを高めることです。または AI による個人データの漏洩や悪用を防ぐため。


一つずつ確認していきましょう。

ゲームプレイヤーとしての AI

実際、このカテゴリは、少なくともオンチェーン分散型取引所 (DEX) が広く使用され始めて以来、10 年近く存在しています。取引所が存在するときはいつでも、裁定取引を通じてお金を稼ぐ機会があり、ボットはそれを人間よりもうまく行うことができます。

このユースケースは長い間存在しており、現在よりもはるかに単純な AI を使用していましたが、最終的には AI と暗号通貨の真の交差点です。最近、MEV (Maximize Extractable Value) アービトラージ ボットが相互に悪用しているのをよく見かけます。ブロックチェーン アプリケーションにオークションや取引が関与する場合は常に、裁定取引ボットが存在します。

ただし、AI アービトラージ ボットは、より大きなカテゴリの最初の例にすぎず、すぐに他の多くのアプリケーションもカバーされると私は予想しています。見てみましょうAIOmen、予測市場の参加者としての AI のデモンストレーション:

予測市場は長い間認知技術の聖杯でした。私は 2014 年にガバナンス (将来のガバナンス) へのインプットとして予測市場を使用することに興奮しており、最近の選挙でも広範囲に試してきました。しかし、これまでのところ、予測市場はさまざまな理由から実際にはあまり進んでいません。最大手のプレーヤーは非合理的な傾向があり、適切な知識を持つ人々は、多くの人が関与しない限り、時間を費やして賭けをすることを好みません。お金に関しては、市場が十分に活性化していないことがよくあります。

これに対する 1 つの応答は、Polymarket またはその他の新しい予測市場によって行われているユーザー エクスペリエンスの改善を指摘し、以前の反復が失敗した場合でも改善を続けて成功することを期待することです。人々はスポーツに何百億ドルも賭けることをいとわないのですから、なぜ真剣なプレイヤーが参加し始めるのに十分な資金を米国選挙やLK99に賭けないのでしょうか?しかし、この議論は、以前のバージョンでは(少なくともその支持者の夢と比較して)この規模を達成できなかったという事実に直面する必要があるため、予測市場を成功させるにはいくつかの新しい要素が必要であるように思われます。したがって、もう 1 つの回答は、2010 年代には見られなかった 2020 年代に期待できる予測市場エコシステムの特定の特徴、つまり AI の広範な参加の可能性を指摘することです。

AI は時給 1 ドル未満で喜んで働く、または働くことができ、百科事典的な知識を持っています。それでも十分でない場合は、リアルタイム Web 検索機能と統合することもできます。市場を作成し、50 ドルの流動性補助金を提供した場合、人間は入札額を気にしませんが、何千もの AI が簡単に押し寄せて、可能な限り最善の推測を行うでしょう。

1 つの問題に対して良い仕事をするインセンティブは小さいかもしれませんが、適切な予測ができる AI を構築するインセンティブは数百万になる可能性があります。ほとんどの問題について人間が裁定する必要さえないことに注意してください。Augur や Kleros と同様のマルチラウンド紛争システムを使用でき、AI も初期ラウンドに参加します。人間が対応すればよいのは、一連のエスカレーションが発生し、双方に多大な投資が必要なまれなケースに限られます。

これは強力なプリミティブです。なぜなら、このようなマイクロスケールで予測市場を機能させることができれば、次のような他の多くのタイプの問題に対して予測市場プリミティブを再利用できるからです。


  • このソーシャル メディアの投稿は [利用規約] の下で許容されますか?

  • 株式 X の価格はどうなるか (たとえば、Numerai を参照)

  • 現在このアカウントが私にメッセージを送っているのは本当にイーロン・マスクなのでしょうか?

  • この求人はオンライン求人市場で受け入れられますか?

  • https://examplefinance.network の DApp は詐欺ですか?

  • 0x 1 b 54....98 c 3 は「Casinu In」ERC 20 トークン アドレスですか?


これらのアイデアの多くは、私が前に述べたことに向けられていることに気づくかもしれません。情報防御』(情報防御)の方向性。大まかに言えば、問題は、中央集権機関に善悪を決定する権限を与え、その権限の乱用を避けることなく、ユーザーが真実と虚偽の情報を区別し、不正行為を特定できるようにするにはどうすればよいかということです。ミクロレベルで言えば、その答えは「AI」かもしれません。

しかし、マクロレベルで見ると、問題は「誰が AI を構築するのか?」ということです。 AI はその作成プロセスを反映したものであるため、必然的にバイアスが含まれます。さまざまな AI のパフォーマンスを判断するには、より高いレベルのゲームが必要であり、AI がプレイヤーとしてゲームに参加できるようになります。

オンチェーンの仕組みを通じて最終的に人間から(確率的に)報酬や罰を与えられる仕組みにAIが参加するこのAIの使い方は、研究する価値があると思います。ブロックチェーンのスケーラビリティがようやく軌道に乗り始めており、オンチェーンでは不可能だった「マイクロ」なものがすべて可能になる可能性がある今こそ、このようなユースケースを深く掘り下げるのに最適な時期です。

関連するクラスのアプリケーションは、次を使用して高度に自律的なエージェントに移行しています。より良いコラボレーションのためのブロックチェーン、支払いを通じて、または信頼できるコミットメントを行うためのスマートコントラクトの使用を通じて。

ゲームインターフェイスとしてのAI

私はここにいますMy techno-optimism」とは、ユーザーが閲覧しているオンライン世界の危険を解釈して特定することでユーザーを保護できる、ユーザー向けソフトウェアを作成する市場機会があるという考えです。 MetaMask の不正検出機能は、すでに存在する一例です。

もう 1 つの例は、Rabby Wallet のシミュレーション機能です。これは、ユーザーが署名しようとしているトランザクションの予想される結果を示します。

これらのツールは AI によって強化される可能性があります。 AI は、参加している DApp がどのようなものであるか、署名しているより複雑な操作の結果、特定のトークンが本物かどうかについて、より豊富で人間が判読できる説明を提供できます (たとえば、BITCOIN は単なる文字列ではありません)。文字、これは本物の暗号通貨の名前である、ERC 20 トークンではない、価格は 0.045 ドルよりはるかに高いなど)。この方向で開発を始めているプロジェクトがいくつかあります (たとえば、AI をメインインターフェイスとして使用する LangChain ウォレット)。私の個人的な見解は、純粋な AI インターフェイスは、他の種類のエラーのリスクが高まるため、現時点ではおそらくリスクが高すぎるということですが、AI とより伝統的なインターフェイスを組み合わせたものは非常に実現可能になりつつあります。

言及する価値のある具体的なリスクが 1 つあります。これについては、以下の「ゲームのルールとしての AI」のセクションで詳しく説明しますが、全体的な問題は敵対的機械学習にあります。ユーザーがオープンソース ウォレット内に AI アシスタントを持っている場合、悪者は AI アシスタントを持っていることになります。その AI アシスタントにもアクセスできるため、ウォレットの防御を回避するために不正行為を最適化する機会は無限にあります。最新の AI にはすべて特定の脆弱性があり、これらの脆弱性は、モデルへのアクセスが制限されているトレーニング プロセス中でも簡単に見つかります。

言及する価値のある特定のリスクが 1 つあります。これについては、以下の「ゲームのルールとしての AI」セクションで詳しく説明しますが、一般的な問題は敵対的機械学習にあります。ユーザーがオープンソース ウォレット内の AI アシスタントにアクセスできる場合、悪意のある者も同様にアクセスします。 AI アシスタントにアクセスできるため、ウォレットの防御を発動させないように詐欺を最適化する機会は無限にあります。現代の AI にはすべてどこかにバグがあり、モデルへのアクセスが制限されているトレーニング プロセスであっても、バグを見つけるのはそれほど難しいことではありません。

これは、「オンチェーンのマイクロマーケットに参加する AI」がより効果的に機能するところです。個々の AI はすべて同じリスクに直面しますが、何十人もの人々が常に反復し、改善するオープンなエコシステムを意図的に作成します。

さらに、個々の AI はクローズドです。システムのセキュリティは、各参加者の内部の仕組みではなく、ゲームのルールのオープンさによってもたらされます。

概要: AI は、ユーザーが何が起こっているかを簡単に理解するのに役立ち、ユーザーを間違いから守るリアルタイムの家庭教師として機能しますが、悪意のある誤解や詐欺師に遭遇した場合には注意してください。

ゲームのルールとしての AI

さて、多くの人が楽しみにしているアプリケーションについて話しましょう。しかし、これが最もリスクが高く、細心の注意を払って進む必要があると私は考えています。私が AI と呼んでいるものは、ゲームのルールの一部です。これは、主流の政治エリートが「AI 裁判官」に興奮していることに関連しています(たとえば、世界政府サミットの Web サイトで見ることができます)関連記事)、これらの欲求と同様の状況がブロックチェーン アプリケーションにも存在します。ブロックチェーンベースのスマートコントラクトまたはDAOが主観的な決定を下す必要がある場合、AIをコントラクトまたはDAOの一部として単純にそれらのルールを強制できるようにすることができますか?

これは敵対的機械学習とても難しい挑戦になるでしょう。簡単な議論は次のとおりです。


  • 仕組みの中心となるAIモデルがクローズドだと内部の動作を検証できず、中央集権的なアプリケーションと何ら変わらない。

  • AI モデルがオープンな場合、攻撃者はそれをダウンロードしてローカルでシミュレートし、モデルをだますために高度に最適化された攻撃を設計し、ライブ ネットワーク上で再現できます。


敵対的機械学習の例。出典:researchgate.net

さて、このブログを定期的に読んでいる読者(または仮想通貨ネイティブ)は、私の言いたいことを理解し、考え始めたかもしれません。でも待ってください。

私たちは、高度なゼロ知識証明やその他の非常に優れた形式の暗号化を実現しています。モデルの内部動作を隠す暗号魔法を使用して、攻撃者が攻撃を最適化できないようにすることは間違いなく可能です。証明するモデルは正しく実行されており、合理的なトレーニング プロセスを通じて合理的な基礎となるデータセットに基づいて構築されています。

多くの場合、私はこのブログや他の記事でこのような考え方を推進しています。しかし、AI コンピューティングに関しては、主に 2 つの反対意見があります。


  • 暗号化オーバーヘッド: SNARK (または MPC など) でタスクを実行することは、平文で実行する場合よりもはるかに効率が低くなります。 AI 自体にはすでに高い計算要求があることを考えると、暗号ブラック ボックスで AI の計算を実行することは計算上可能でしょうか?

  • ブラックボックス型敵対的機械学習攻撃: モデルの内部動作を理解していなくても、AI モデルを攻撃用に最適化する方法はあります。あまりしっかりと隠しすぎると、トレーニング データを選択する人が簡単に見破られてしまう可能性があります。毒攻撃モデルの完全性を損なう可能性があります。


これらはどちらも複雑なウサギの穴であり、1 つずつ詳しく調査する必要があります。

暗号化のオーバーヘッド

暗号化ツール、特に ZK-SNARK や MPC などの汎用ツールはオーバーヘッドが高くなります。クライアントがイーサリアムブロックを直接検証するには数百ミリ秒かかりますが、そのようなブロックの正確性を証明するための ZK-SNARK の生成には数時間かかる場合があります。 MPC などの他の暗号化ツールでは、オーバーヘッドが大きくなる可能性があります。

AI コンピューティング自体は、すでに法外に高価です。最も強力な言語モデルは、人間が読むよりもわずかに速く単語を出力することができます。言うまでもなく、これらのモデルのトレーニングには通常、数百万ドルの計算コストがかかります。最上位モデルと、トレーニング コストやパラメーター数をより経済的にしようとするモデルとの間には、品質に大きな差があります。一見すると、これは保証を追加するために AI を暗号化で包むというプロジェクト全体に懐疑的になる十分な理由です。

幸いなことに、AI は非常に特殊なタイプのコンピューティングであり、ZK-EVM などの「非構造化」タイプのコンピューティングでは恩恵を受けられないさまざまな最適化を実行できます。 AI モデルの基本構造を見てみましょう。

通常、AI モデルは主に、ReLU 関数 ( y = max(x, 0) ) などの各要素の非線形演算が散在する一連の行列乗算で構成されます。漸近的に、行列の乗算が作業の大部分を占めます。暗号化の多くの形式では、線形演算 (少なくとも入力ではなく暗号化モデルでの行列乗算) をほぼ「無料」で実行できるため、これは暗号化にとって非常に便利です。

暗号学者なら、おそらく聞いたことがあるでしょう。準同型暗号化同様の現象が次の場合にも発生します。暗号化された暗号文に対して加算を実行するのは非常に簡単ですが、乗算を実行するのは非常に困難であり、乗算演算を実行するための無限に奥深い方法が発見されたのは 2009 年になってからです。

ZK-SNARK の場合、次のようなもの2013年の協定, このプロトコルは、行列乗算の証明にかかるコストが 4 倍未満です。残念ながら、非線形層のオーバーヘッドは依然として大きく、実際の最良の実装では最大 200 倍のオーバーヘッドが示されています。

ただし、さらなる研究により、このオーバーヘッドを大幅に削減できることが期待されています。 Ryan Cao の記事を参照してください。デモでは、GKR に基づく最先端のアプローチと、GKR の主要コンポーネントについての私自身の簡単な説明が紹介されています。

しかし、多くのアプリケーションでは、AI 出力が正しく計算されていることを証明するだけでなく、モデルを非表示にする必要もあります。これを行う簡単な方法がいくつかあります。モデルを分割して、異なるサーバーのセットが各レイヤーを冗長的に保存し、特定のレイヤーをリークする一部のサーバーが大量のデータをリークしないことを期待します。しかし、驚くべきこともいくつかあります特殊なマルチパーティ計算

どちらの場合も、話の教訓は同じです。AI 計算の大部分は行列乗算であり、非常に効率的な ZK-SNARK、MPC (FHE も) を行列乗算用に設計できるため、AI を暗号化に組み込むことができます。フレームワーク内では驚くほど低いです。通常、非線形層は、サイズが小さいにもかかわらず、最大のボトルネックになります。たぶん好きパラメータの検索ルックアップなどの新しいテクノロジーが役に立ちます。

ブラックボックスの敵対的機械学習

ここで、もう 1 つの重要な問題について説明します。モデルの内容が非公開のままで、モデルへの「API アクセス」しかできない場合でも、実行できる攻撃の種類について説明します。 2016年の記事からの引用

多くの機械学習モデルは、敵対的な例、つまり機械学習モデルが誤った出力を生成する特別に設計された入力の影響を受けやすくなっています。一方のモデルに影響を与える敵対的な例は、両方のモデルが同じタスクを実行するようにトレーニングされている限り、2 つのモデルのアーキテクチャが異なる場合や異なるトレーニング セットでトレーニングされた場合でも、多くの場合、もう一方のモデルに影響を与えます。したがって、攻撃者は、被害者に関する情報をほとんど持たずに、独自のサロゲート モデルをトレーニングし、サロゲート モデルに対して敵対的な例を作成し、それらを被害者モデルに転送することができます。

攻撃対象のモデルへのアクセスが非常に限られているかまったくない場合でも、トレーニング データのみから攻撃を作成できる可能性があります。 2023 年の時点でも、この種の攻撃は依然として重大な問題です。

このようなブラックボックス攻撃を効果的に阻止するには、次の 2 つのことを行う必要があります。


  • モデルをクエリできる人や内容、およびクエリの数を実際に制限します。 API アクセスが制限されていないブラック ボックスは安全ではありませんが、API アクセスが非常に制限されているブラック ボックスは安全である可能性があります。

  • トレーニング データを非表示にする一方で、トレーニング データの作成プロセスが破損しないようにすることが重要な目標です。


前者に関しては、おそらくこの点で最も多くの成果を上げたプロジェクトは Worldcoin です。Worldcoin の初期バージョンについては、ここで詳細に分析しました (他のプロトコルも同様)。 Worldcoin は、AI モデルをプロトコル レベルで広範囲に使用して、(i) 虹彩スキャンを類似性を比較しやすい短い「虹彩コード」に変換し、(ii) スキャンした物体が実際に人間であることを検証します。

Worldcoin が依存する主な防御策は、誰でも AI モデルを単純に呼び出すことを許可しないことです。代わりに、信頼できるハードウェアを使用して、モデルが Orb カメラによってデジタル署名された入力のみを受け入れるようにします。

このアプローチが機能することは保証されていません。物理的なパッチや顔に身に着けている宝石などを通じて、生体認証 AI に対して敵対的な攻撃を実行できることが判明しています。

額に何か余分なものを身に着けると、検出を回避したり、他の人になりすましたりする可能性があります。出典: https://arxiv.org/pdf/2109.09320.pdf

しかし、私たちの希望は、AI モデル自体を隠すこと、クエリの数を大幅に制限すること、各クエリを何らかの方法で認証することを要求することなど、すべての防御策を組み合わせると、敵対的な攻撃が非常に困難になることです。システムの安全性が高まります。

これは 2 番目の質問につながります。トレーニング データをどのように非表示にするかということです。ここで、「DAO による民主的に管理された AI」が実際に意味を持つのかもしれません。誰がトレーニング データ (およびデータ自体の必要な表現) を送信できるか、誰がクエリを実行できるかを管理するオンチェーン DAO を作成できます。誰がそれらの番号をクエリできるか、MPC などの暗号化技術を使用して、各ユーザーのトレーニング入力から各クエリの最終出力まで、AI の作成および実行プロセス全体を暗号化します。この DAO は、データを送信する人々に報酬を与えるという一般的な目標を同時に満たすことができます。

この計画は非常に野心的であり、非現実的であることが証明される多くの側面があることを繰り返し述べておく必要があります。


  • このような完全なブラックボックス アーキテクチャでは、暗号化のオーバーヘッドが依然として高すぎて、従来のクローズドな「信頼してください」アプローチと競合できない可能性があります。

  • 真実は、トレーニング データの送信プロセスを分散化してポイズニング攻撃を防ぐ良い方法がないということかもしれません。

  • マルチパーティのコンピューティング デバイスでは、参加者間の共謀によりセキュリティやプライバシーの保証が侵害される可能性があります。結局のところ、これはクロスチェーン ブリッジで何度も発生しています。


私がこのセクションを「AI 裁判官になるな、それはディストピアだ」という警告から始めなかった理由の 1 つは、私たちの社会がすでに説明責任のない集中型 AI 裁判官に大きく依存しているということです。投稿の種類や政治的な内容を決定するアルゴリズムです。意見 ソーシャルメディア上で昇進や降格が行われ、さらには検閲されることもあります。

現段階でこの傾向をさらに拡大するのはかなり悪い考えだとは思いますが、ブロックチェーンコミュニティによるAIのさらなる実験が状況を悪化させる主な理由になるとは思いません。

実際、暗号通貨によって既存の集中システムさえも改善できる、非常に基本的でリスクの低い方法がいくつかあり、私はそれについてかなり自信を持っています。そのような単純な手法の 1 つは、遅延リリース検証 AI です。ソーシャル メディア サイトが AI ベースの投稿ランキングを使用する場合、そのランキングを生成したモデルのハッシュを証明する ZK-SNARK を公開できます。ウェブサイトは、1 年などの一定の遅れの後に AI モデルを公開すると約束する可能性があります。

モデルが公開されると、ユーザーはハッシュをチェックして正しいモデルが公開されたことを確認でき、コミュニティはモデルをテストしてその公平性を検証できます。リリースが遅れると、モデルがリリースされる頃にはすでに時代遅れになってしまいます。

したがって、問題は、中央集権的な世界と比較してより良いことができるかどうかではなく、どれだけうまくできるかということです。ただし、分散型の世界では注意が必要で、誰かが AI オラクルを使用した予測市場やステーブルコインを構築し、そのオラクルがハッキング可能であることが誰かに発見された場合、多額の資金が失われる可能性があります。 。

ゲームのターゲットとしての AI

中身が誰にも分からないブラックボックスであるスケーラブルな分散型プライベートAIを構築するための上記の手法が実際に機能すれば、ブロックチェーンを超えた有用性を備えたシステムの構築にも使用できる可能性があります。 NEAR プロトコル チームは、これを継続的な作業の基礎として使用しています。コアターゲット

これを行う理由は 2 つあります。

トレーニングと推論のプロセスを実行するためにブロックチェーンとマルチパーティ計算を組み合わせて「信頼できるブラック ボックス AI」を作成できれば、ユーザーがシステム内のバイアスや欺瞞を心配している多くのアプリケーションが恩恵を受ける可能性があります。私たちが依存している AI について多くの人が懸念を表明しています民主的統治暗号化とブロックチェーンベースのテクノロジーは、この目標を達成するための方法である可能性があります。

AI セキュリティの観点から見ると、これは、自然な緊急停止スイッチも備え、悪意のある動作に AI を利用しようとするクエリを制限できる分散型 AI を作成するテクノロジーになります。

注目に値するのは、「暗号化インセンティブを使用して、より優れた AI の作成を奨励​​する」ことは、完全に暗号化するために暗号化を使用するというウサギの穴に完全に陥ることなく達成できるということです。BitTensor このような方法はこのカテゴリに分類されます。

結論は

ブロックチェーンと AI が発展し続けるにつれて、この 2 つが交差するアプリケーション ケースも増加しており、これらのユース ケースの中には、より有意義で堅牢なものもあります。

一般的に、これらの基盤となるメカニズムは基本的に同じ設計のままですが、個々の参加者が AI の適用ケースとなり、よりミクロなレベルで効果的に動作するメカニズムが最も即効性があり、実装が容易です。

最も困難なのは、ブロックチェーンと暗号化を使用して「シングルトン」、つまり特定のアプリケーションが何らかの目的で依存する単一の分散型信頼できる AI を作成しようとするアプリケーションです。

これらのアプリケーションは、集中化のリスクを回避しながら、AI のセキュリティを機能および向上させる可能性を秘めています。

しかし、基礎となる仮定はさまざまな点で失敗する可能性もあります。したがって、これらのアプリケーションを展開するときは、特に価値が高くリスクの高い環境では注意が必要です。

これらすべての分野で AI のユースケースでより建設的な試みが行われることを楽しみにしています。そうすれば、どのユースケースが本当に大規模に実現可能であるかがわかります。

ソース:https://vitalik.eth.limo/general/2023/11/27/techno_optimism.html#dacc


AI
Vitalik
Odaily公式コミュニティへの参加を歓迎します
購読グループ
https://t.me/Odaily_News
チャットグループ
https://t.me/Odaily_CryptoPunk
公式アカウント
https://twitter.com/OdailyChina
チャットグループ
https://t.me/Odaily_CryptoPunk