ホスキンソンは分散コンピューティングの将来について間違っているかもしれない

ブロックチェーンのトリレンマは、2月に香港で開催されたコンセンサスで再び浮上し、カルダノの創設者であるチャールズ・ホスキンソン氏をある程度窮地に追い込んだ。彼は、グーグルクラウドやマイクロソフトアジュールといったハイパースケーラーが分散化にとって脅威ではないことを参加者に説明しなければなりませんでした。

主要なブロックチェーンプロジェクトにはハイパースケーラーが必要であり、単一障害点について心配する必要はないという点が指摘された。その理由は以下の通りです。

  • 高度な暗号化技術はリスクを無効化します
  • マルチパーティ計算により重要な情報が配布される
  • 機密コンピューティングは使用中のデータを保護する

その議論は「クラウドがデータを見ることができないなら、クラウドはシステムを制御できない」という考えに基づいていたが、時間の制約からそこで終わってしまいました。

しかし、ハイパースケーラーを支持するホスキンソンの主張には、もっと注目に値する別の選択肢が存在します。

MPCと機密コンピューティングによりリスクを軽減

これはチャールズの主張におけるある種の戦略的な要点でした。つまり、マルチパーティ計算(MPC)や機密コンピューティングといった技術によって、ハードウェアプロバイダーが基となるデータにアクセスできなくなるということです。

これらは強力なツールではあるが、根本的なリスクを解消するものではありません。

MPCは鍵情報を複数の参加者に分散させることで、単一の参加者が秘密情報を復元できないようにします。これにより、単一のノードが侵害されるリスクが大幅に低減されます。しかし、セキュリティ上のリスクは他の方向にも拡大します。調整層、通信チャネル、参加ノードのガバナンスはすべて重要になります。

単一の鍵保有者を信頼するのではなく、システムは分散された複数の主体が正しく動作することと、プロトコルが正しく実装されることに依存するようになりました。単一障害点は消滅するわけではありません。実際には、それは単に分散型の信頼基盤となるだけです。

機密性の高いコンピューティング、特に信頼できる実行環境では、異なるトレードオフが生じます。データは実行中に暗号化されるため、ホスティングプロバイダーへの情報漏洩リスクが軽減されます。

しかし、トラステッド実行環境(TEE)はハードウェアの前提条件に依存しています。マイクロアーキテクチャの分離、ファームウェアの整合性、そして適切な実装が前提となります。例えば、こちらの文献やこちらの文献では、サイドチャネル攻撃やアーキテクチャ上の脆弱性がエンクレーブ技術全体で繰り返し発生していることが示されています。セキュリティ境界は従来のクラウドよりも狭くなっていますが、絶対的なものではありません。

さらに重要なのは、MPCとTEEはどちらもハイパースケーラーのインフラストラクチャ上で動作することが多いという点です。物理ハードウェア、仮想化レイヤー、サプライチェーンは依然として集中管理されています。インフラストラクチャプロバイダーがマシン、帯域幅、地理的領域へのアクセスを制御している場合、運用上の優位性を維持できます。暗号化によってデータ検査は防げるかもしれませんが、スループット制限、シャットダウン、ポリシー介入は防げません。

高度な暗号化ツールは特定の攻撃を困難にするが、インフラレベルの障害リスクを完全に排除するわけではありません。単に、目に見える集中型攻撃をより複雑な集中型攻撃に置き換えるに過ぎません。

「L1はグローバルな計算処理を処理できない」という主張

ホスキンソン氏は、単一のレイヤー1ではグローバルシステムの計算需要に対応できないため、ハイパースケーラーが必要であると指摘し、そのようなデータセンターの構築に数兆ドルもの資金が投入されてきたことを例に挙げました。

もちろん、レイヤー1ネットワークは、AIのトレーニングループ、高頻度取引エンジン、あるいはエンタープライズ分析パイプラインを実行するために構築されたものではありません。その目的は、コンセンサスを維持し、状態遷移を検証し、永続的なデータ可用性を提供することです。

レイヤー1の目的については彼の言う通りです。しかし、グローバルシステムでは、計算が別の場所で行われたとしても、誰でも検証できる結果が主に必要となります。

現代の暗号インフラでは、高度な計算処理はオフチェーンで行われることが増えています。重要なのは、その結果をオンチェーンで証明・検証できることです。これが、ロールアップ、ゼロ知識証明システム、検証可能なコンピューティングネットワークの基盤となります。

L1がグローバルなコンピューティングを実行できるかどうかに焦点を当てると、検証の背後にある実行およびストレージインフラストラクチャを誰が制御するかという核心的な問題を見落としてしまいます。

計算処理がオフチェーンで行われ、かつ中央集権型のインフラストラクチャに依存する場合、システムは中央集権型の障害モードを継承します。決済は理論上は分散型のままだが、有効な状態遷移を生み出すための経路は実際には中央集権型に集中します。

問題は、レイヤー1内部の計算能力ではなく、インフラストラクチャ層における依存関係にあるべきです。

暗号学的中立性と参加中立性は同じではない

暗号学的中立性は強力な概念であり、ホスキンソンが議論の中で用いた点でもあります。これは、規則を恣意的に変更したり、隠されたバックドアを導入したりすることができず、プロトコルが公平性を保つことを意味します。

しかし、暗号化はハードウェア上で動作します。

物理層によって、誰が参加できるか、誰が参加する余裕があるか、そして誰が最終的に排除されるかが決まります。なぜなら、スループットとレイテンシは最終的に実際のマシンとその動作基盤となるインフラストラクチャによって制約されるからです。ハードウェアの製造、流通、ホスティングが中央集権的なままであれば、プロトコル自体が数学的に中立であっても、参加は経済的な制約を受けることになります。

高性能コンピューティングシステムにおいては、ハードウェアが決定的な要素となります。ハードウェアはコスト構造、拡張性、検閲圧力に対する耐性を左右します。集中型インフラストラクチャ上で動作する中立的なプロトコルは、理論上は中立的だが、実際には制約を受けます。

優先順位は、暗号化技術と多様なハードウェア所有形態の組み合わせへと移行すべきです。

インフラの多様性がなければ、中立性はストレス下で脆弱になります。少数のプロバイダーがワークロードのレート制限、地域制限、コンプライアンスゲートの導入などを行える場合、システムはその影響力を引き継ぐことになります。ルールの公平性だけでは、参加の公平性は保証されません。

コンピューティング市場においては、専門化が汎用化に勝る

AWSとの競争はしばしば規模の問題として捉えられがちだが、これもまた誤解を招きます。

ハイパースケーラーは柔軟性を最優先に設計されています。そのインフラストラクチャは、数千ものワークロードを同時に処理できるように設計されています。仮想化レイヤー、オーケストレーションシステム、エンタープライズコンプライアンスツール、そして弾力性の保証といった機能は、汎用コンピューティングの強みであると同時に、コスト増にもつながります。

ゼロ知識証明と検証可能な計算は、決定論的で、計算負荷が高く、メモリ帯域幅に制約があり、パイプライン処理に敏感です。言い換えれば、専門化が有利となります。

専用に構築された証明ネットワークは、コストあたりの証明量、消費電力あたりの証明量、レイテンシあたりの証明量で競争力を発揮します。ハードウェア、証明ソフトウェア、回路設計、集約ロジックが垂直統合されている場合、効率は飛躍的に向上します。不要な抽象化レイヤーを削除することで、オーバーヘッドを削減できます。永続クラスタにおける持続的なスループットは、狭く一定のワークロードに対して、弾力的なスケーリングよりも優れた性能を発揮します。

コンピューティング市場において、安定した高負荷タスクでは、特化型が汎用型よりも一貫して優れたパフォーマンスを発揮します。AWSはオプション性を最適化していますが、専用の検証ネットワークは特定の種類の作業に最適化されています。

経済構造も異なります。ハイパースケーラーは、企業向けマージンと幅広い需要変動を価格に反映させます。プロトコルインセンティブに基づいて構築されたネットワークは、ハードウェアの償却方法を異にし、短期レンタルモデルではなく、持続的な利用状況に合わせてパフォーマンスを調整できます。

競争の焦点は、定められた作業量に対する構造的な効率性となります。

ハイパースケーラーは活用すべきだが、それに依存してはならない。

ハイパースケーラーは敵ではありません。彼らは効率的で信頼性が高く、グローバルに分散されたインフラストラクチャプロバイダーです。問題は、その依存関係にあります。

回復力の高いアーキテクチャは、バースト容量、地理的冗長性、エッジ分散のために主要ベンダーを利用しますが、コア機能を単一のプロバイダーまたは少数のプロバイダーのクラスターに固定することはありません。

クラウドリージョンに障害が発生した場合、ベンダーが市場から撤退した場合、またはポリシー上の制約が強化された場合でも、決済、最終検証、および重要な成果物の可用性は維持されるべきです。

ここで、分散型ストレージおよびコンピューティングインフラストラクチャが有効な代替手段となります。証明アーティファクト、履歴記録、および検証入力は、プロバイダーの裁量で削除されるべきではありません。むしろ、プロトコルと経済的に整合し、構造的に停止が困難なインフラストラクチャ上に存在すべきです。

ハイプスケーラーは、製品の基盤となるものではなく、オプションのアクセラレーターとして使用すべきです。クラウドはリーチの拡大やバースト的な処理には依然として有効ですが、検証に必要な証明を生成し、それを永続化するシステムの能力は、単一のベンダーによって制限されるものではありません。

このようなシステムでは、もしハイパースケーラーが明日いなくなったとしても、ネットワークの速度が低下するだけで済むでしょう。なぜなら、最も重要な部分は、大手ブランドのボトルネックから借りるのではなく、より広範なネットワークによって所有・運用されているからです。

これが、仮想通貨の分散化という理念を強化する方法です。

coindesk.com↗