OpenLedgerが構築するスマートエージェント経済:OP StackとEigenDAに基づくデータ駆動モデルエコシステム

OpenLedgerデプス研報:OP Stack+EigenDAを基盤に、データ駆動型でモデルコンビナブルなエージェント経済を構築する

一、引言 | Crypto AIのモデルレイヤーの飛躍

データ、モデルと算力は AI インフラの三大核心要素であり、燃料(データ)、エンジン(モデル)、エネルギー(算力)が欠かせないことを例えています。従来の AI 業界のインフラ進化の道筋と同様に、Crypto AI 分野も同様の段階を経てきました。2024 年初頭、市場は一時的に分散型 GPU プロジェクトが主導しており(ある取引プラットフォーム、あるプラットフォーム、あるプラットフォームなど)、「算力を競う」粗放的な成長ロジックが一般的に強調されていました。しかし、2025 年に入ると、業界の関心は徐々にモデルとデータ層に移り、Crypto AI が基盤リソースの競争から、より持続可能で応用価値のある中層構築への移行を示しています。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-62B3FA1E810F4772AABA3D91C74C1AA6)

General Large Model(LLM)とSpecialized Model(SLM)

従来の大規模言語モデル(LLM)のトレーニングは、大規模データセットと複雑な分散アーキテクチャに大きく依存しており、パラメータの規模は70B~500Bに及ぶことが多く、一度のトレーニングコストは数百万ドルに達することもしばしばです。一方、SLM(Specialized Language Model)は、再利用可能な基盤モデルの軽量微調整のパラダイムとして、通常はLLaMA、Mistral、DeepSeekなどのオープンソースモデルに基づき、少量の高品質な専門データとLoRAなどの技術を組み合わせて、特定の分野の知識を持つ専門モデルを迅速に構築し、トレーニングコストと技術的ハードルを大幅に削減します。

注意すべきは、SLMはLLMの重みの中に統合されないことであり、エージェントアーキテクチャの呼び出し、プラグインシステムの動的ルーティング、LoRAモジュールのホットプラグ、RAG(リトリーバル強化生成)などの方法でLLMと協力して動作するということです。このアーキテクチャはLLMの広範なカバレッジ能力を保持しつつ、ファインチューニングモジュールによって専門的なパフォーマンスを強化し、高度に柔軟なコンビナトリアルインテリジェンスシステムを形成しています。

Crypto AI のモデル層における価値と境界

Crypto AI プロジェクトは本質的に大規模言語モデル(LLM)のコア能力を直接向上させることが難しい。核心的な理由は、

  • 技術的なハードルが高すぎる:Foundation Model のトレーニングに必要なデータ規模、計算リソース、エンジニアリング能力は非常に膨大であり、現在、アメリカ(OpenAIなど)と中国(DeepSeekなど)といったテクノロジーの巨人だけがその能力を持っている。
  • オープンソースエコシステムの限界:主流の基盤モデルである LLaMA や Mixtral はオープンソースとして公開されていますが、モデルの突破を推進する鍵は依然として研究機関やクローズドソースのエンジニアリングシステムに集中しており、ブロックチェーンプロジェクトはコアモデル層への参加スペースが限られています。

しかし、オープンソースの基盤モデルの上に、Crypto AIプロジェクトは特化した言語モデル(SLM)をファインチューニングすることで、Web3の検証可能性とインセンティブメカニズムを結びつけ、価値の拡張を実現することができます。AI産業チェーンの「周辺インターフェース層」として、2つのコア方向に反映されています:

  • 信頼できる検証層:チェーン上でモデル生成の経路、データの貢献と使用状況を記録することにより、AIの出力の可追跡性と改ざん耐性を強化します。
  • インセンティブメカニズム:ネイティブトークンを活用して、データのアップロード、モデルの呼び出し、エージェント(Agent)の実行などの行動を奨励し、モデルのトレーニングとサービスの正の循環を構築します。

AIモデルタイプ分類とブロックチェーン適用性分析

このように、モデル型Crypto AIプロジェクトの実行可能な落とし所は、主に小型SLMの軽量化微調整、RAGアーキテクチャのチェーン上データ接続と検証、およびEdgeモデルのローカルデプロイメントとインセンティブに集中しています。ブロックチェーンの検証可能性とトークンメカニズムを組み合わせることで、Cryptoはこれらの中低リソースモデルシナリオに特有の価値を提供し、AI「インターフェース層」の差別化された価値を形成します。

データとモデルに基づくブロックチェーン AI チェーンは、各データとモデルの貢献源について明確かつ改ざん不可能なオンチェーン記録を行い、データの信頼性とモデルのトレーニングの追跡可能性を大幅に向上させます。また、スマートコントラクトメカニズムを通じて、データまたはモデルが呼び出された際に自動的に報酬の配布をトリガーし、AI の行動を測定可能で取引可能なトークン化された価値に変換し、持続可能なインセンティブシステムを構築します。さらに、コミュニティのユーザーはトークン投票を通じてモデルのパフォーマンスを評価し、ルールの策定と反復に参加し、分散型ガバナンスの構造を改善することができます。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-19C2276FCCC616CCF9260FB7E35C9C24)

二、プロジェクト概要 | OpenLedger の AI チェーンビジョン

OpenLedgerは現在市場において数少ないデータとモデルインセンティブメカニズムに特化したブロックチェーンAIプロジェクトです。彼は「Payable AI」の概念を初めて提唱し、公平で透明かつ組み合わせ可能なAI運用環境を構築することを目指しています。データ提供者、モデル開発者、AIアプリケーション構築者が同じプラットフォームで協力し、実際の貢献に基づいてオンチェーン収益を得ることを奨励します。

OpenLedgerは「データ提供」から「モデルデプロイ」さらに「呼び出しの利益分配」までの全チェーンのクローズドループを提供しており、そのコアモジュールには以下が含まれます:

  • モデルファクトリー:プログラミング不要で、オープンソースのLLMを基にLoRA微調整訓練を行い、カスタムモデルを展開できます;
  • OpenLoRA:千モデルの共存をサポートし、必要に応じて動的にロードし、展開コストを大幅に削減します;
  • PoA(アトリビューションの証明):チェーン上の呼び出し記録を通じて貢献度の測定と報酬の配分を実現します;
  • Datanets:垂直シーン向けの構造化データネットワークで、コミュニティの協力によって構築および検証されます;
  • モデル提案プラットフォーム(Model Proposal Platform):組み合わせ可能、呼び出し可能、支払い可能なオンチェーンモデルマーケット。

以上のモジュールを通じて、OpenLedgerはデータ駆動型でモデルが組み合わせ可能な「エージェント経済インフラ」を構築し、AIバリューチェーンのオンチェーン化を促進しています。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-F23F47F09226573B1FCACEBDCFB8C1F3)

そして、ブロックチェーン技術の採用において、OpenLedgerはOP Stack + EigenDAを基盤として、AIモデルのために高性能、低コスト、検証可能なデータと契約の実行環境を構築しました。

  • OPスタックに基づく:Optimism技術スタックに基づき、高スループットと低コストの実行をサポート;
  • イーサリアムメインネットでの決済: 取引の安全性と資産の完全性を確保する;
  • EVM 互換: 開発者が Solidity に基づいて迅速に展開および拡張することを可能にします;
  • EigenDAはデータ可用性サポートを提供します:ストレージコストを大幅に削減し、データの検証可能性を確保します。

NEARのようなより基盤的で、データの主権と「BOS上のAIエージェント」を主軸にした汎用AIチェーンと比べて、OpenLedgerはデータとモデルのインセンティブに特化したAI専用チェーンの構築に注力しており、モデルの開発と呼び出しがチェーン上で追跡可能、組み合わせ可能、持続可能な価値のクローズドループを実現することを目指しています。これはWeb3の世界におけるモデルインセンティブ基盤インフラであり、あるプラットフォーム型のモデルホスティング、あるプラットフォーム型の使用課金、あるプラットフォーム型のチェーン上の組み合わせ可能なインターフェースを組み合わせて、「モデルは資産である」という実現の道を推進しています。

三、OpenLedger のコアコンポーネントと技術アーキテクチャ

3.1 モデルファクトリー、コード不要のモデルファクトリー

ModelFactory は OpenLedger エコシステムにおける大規模言語モデル(LLM)微調整プラットフォームです。従来の微調整フレームワークとは異なり、ModelFactory は純粋なグラフィカルインターフェース操作を提供し、コマンドラインツールや API 統合は必要ありません。ユーザーは OpenLedger 上で完了した認可とレビューのデータセットに基づいてモデルを微調整できます。データの認可、モデルのトレーニング、デプロイメントの統合ワークフローが実現され、そのコアプロセスには以下が含まれます:

  • データアクセスコントロール: ユーザーがデータリクエストを提出し、提供者が審査・承認し、データが自動的にモデル訓練インターフェースに接続される。
  • モデル選択と設定: 主流の LLM(例:LLaMA、Mistral)をサポートし、GUIを通じてハイパーパラメータを設定します。
  • 軽量化微調:内蔵LoRA / QLoRAエンジンで、リアルタイムにトレーニング進捗を表示。
  • モデル評価とデプロイ: 内蔵評価ツール、エクスポートデプロイまたはエコシステム共有呼び出しをサポート。
  • インタラクティブ検証インターフェース: チャット形式のインターフェースを提供し、モデルの問答能力を直接テストしやすくします。
  • RAG生成トレーサビリティ:出典を引用した回答で、信頼性と監査可能性を高める。

Model Factory システムアーキテクチャは、アイデンティティ認証、データ権限、モデル微調整、評価デプロイメント、RAG 溯源を通じて、6つの主要モジュールを含んでおり、安全かつ制御可能、リアルタイムインタラクション、持続可能な収益化の統合モデルサービスプラットフォームを構築します。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-909dc3f796ad6aa44a1c97a51ade4193)

ModelFactory 現在サポートしている大規模言語モデルの能力簡易表は以下の通りです:

  • LLaMAシリーズ:エコシステムが最も広く、コミュニティが活発で、汎用性能が強く、現在最も主流のオープンソース基盤モデルの一つです。
  • Mistral:アーキテクチャが効率的で、推論性能が非常に優れており、柔軟な展開やリソースが限られたシナリオに適しています。
  • Qwen:アリ出品、中国語タスクのパフォーマンスが優れており、総合能力が高く、国内の開発者に最適な選択です。
  • ChatGLM:中文対話の効果が突出しており、垂直型カスタマーサービスやローカライズシーンに適しています。
  • Deepseek:コード生成と数学的推論に優れ、スマート開発支援ツールに適しています。
  • Gemma:Googleが提供する軽量モデルで、構造が明確で、迅速に習得し実験を行うのが容易です。
  • Falcon:かつては性能のベンチマークであり、基礎研究や比較テストに適していましたが、コミュニティの活発度は減少しています。
  • BLOOM:多言語対応が強いですが、推論性能がやや弱く、言語カバレッジ型の研究に適しています。
  • GPT-2:クラシックな初期モデルで、教育や検証用途にのみ適しており、実際のデプロイには推奨されません。

OpenLedgerのモデルの組み合わせには最新の高性能MoEモデルやマルチモーダルモデルは含まれていないが、その戦略は時代遅れではなく、オンチェーンデプロイメントの現実的な制約(推論コスト、RAG適合、LoRA互換性、EVM環境)に基づいて「実用優先」の構成がなされている。

Model Factoryはノーコードツールチェーンとして、すべてのモデルに貢献証明メカニズムが組み込まれており、データ貢献者とモデル開発者の権利を確保しています。低いハードル、収益化可能性、再利用性の利点があり、従来のモデル開発ツールと比較して:

  • 開発者向け:モデルの孵化、配布、収益の完全なパスを提供します;
  • プラットフォームに対して:モデル資産の流通と組み合わせエコシステムを形成する;
  • アプリケーター向け:モデルやエージェントをAPIを呼び出すように組み合わせて使用できます。

3.2 OpenLoRA、微調整モデルのオンチェーンアセット化

LoRA(Low-Rank Adaptation)は、効率的なパラメータ微調整方法であり、事前学習済みの大規模モデルに「低秩行列」を挿入することによって新しいタスクを学習します。元のモデルのパラメータを変更せずに、トレーニングコストとストレージ要件を大幅に削減します。従来の大規模言語モデル(例えば、LLaMA、GPT-3)は通常、数十億から千億のパラメータを持っています。これらを特定のタスク(法律に関する質問、医療相談など)に利用するためには、微調整(fine-tuning)が必要です。LoRAの核心戦略は、「元の大規模モデルのパラメータを固定し、新しく挿入されたパラメータ行列のみをトレーニングすること」です。そのパラメータ効率、トレーニングの迅速さ、そして柔軟なデプロイメントにより、LoRAは現在のWeb3モデルのデプロイと組み合わせ呼び出しに最も適した主流の微調整方法です。

OpenLoRAはOpenLedgerが構築した、マルチモデルデプロイメントとリソース共有のために設計された軽量推論フレームワークです。その核心目標は、現在のAIモデルデプロイメントにおける一般的な高コスト、低再利用、GPUリソースの無駄遣いなどの問題を解決し、「支払可能なAI」(Payable AI)の実現を推進することです。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-f49cfa5ea73fc0018250d04193b34b60)

OpenLoRA システムアーキテクチャのコアコンポーネントで、モジュール設計に基づいており、モデルストレージをカバーしています、

OP-4.96%
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 6
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン