# AI+Web3: タワーとプラザ## TL; 博士1. AIの概念を持つWeb3プロジェクトは、一級市場と二級市場で資金を吸引するターゲットとなっています。2. Web3 における AI 業界の機会は、分散型インセンティブを使用してロングテールの潜在的な供給を調整することによって現れます------データ、ストレージ、計算を横断して;同時に、オープンソースモデルと AI エージェントの分散型市場を構築します。3. AIのWeb3業界における主な活用分野は、オンチェーンファイナンス(暗号支払い、取引、データ分析)および開発支援です。4. AI+Web3の効用は両者の相互補完に表れています:Web3はAIの集中化に対抗することが期待され、AIはWeb3が境界を越えるのを助けることが期待されています。! [AI+Web3: タワー&プラザ](https://img-cdn.gateio.im/social/moments-25bce79fdc74e866d6663cf31b15ee55)## はじめにここ2年、AIの発展は加速ボタンが押されたかのようで、Chatgptによって引き起こされた蝶の羽は、生成型人工知能の新たな世界を開くだけでなく、対岸のWeb3でも大きな潮流を巻き起こしています。AIの概念の加持のもと、比較的鈍化した暗号市場の資金調達が明らかに活気づいている。メディアの統計によれば、2024年上半期だけで、64件のWeb3+AIプロジェクトが資金調達を完了した。人工知能に基づくオペレーティングシステムZyber365は、Aラウンドで1億ドルの最高資金調達額を達成した。二級市場はさらに繁栄しており、ある暗号集約サイトのデータによると、わずか1年余りの間に、AI分野の総時価総額は485億ドルに達し、24時間の取引量は86億ドルに近づいています。主流のAI技術の進展による恩恵は明らかで、OpenAIのSoraテキストからビデオへのモデルが発表された後、AIセクターの平均価格は151%上昇しました。AI効果は暗号通貨の資金吸引セクターの一つであるMemeにも波及しています:最初のAIエージェントコンセプトのMemeCoin------GOATは急速に人気を博し、14億ドルの評価を得て、AI Memeブームを成功裏に引き起こしました。AI+Web3に関する研究や話題も非常に盛り上がっており、AI+DepinからAI Memecoin、そして現在のAIエージェントやAI DAOに至るまで、FOMOの感情は新しいストーリーの切り替えの速度についていけなくなっています。AI+Web3、この熱い資金、トレンド、未来の幻想に満ちた用語の組み合わせは、避けがたく資本によって取り持たれた結婚と見なされることがあります。この華やかなローブの下では、実際に投機家の舞台なのか、それとも夜明けの爆発前なのかを見極めるのは非常に難しいようです。この質問に答えるために、両者にとって重要な考察は、相手がいることでより良くなるのか?相手のモデルから利益を得ることができるのか?この記事では、私たちも先人の肩の上に立ってこの構造を見直そうとしています:Web3 が AI 技術スタックの各段階でどのように機能できるのか、そして AI が Web3 に何の新しい活力をもたらすことができるのか。## パート1 AIスタック下のWeb3にはどんな機会があるのか?このトピックを展開する前に、AI大規模モデルの技術スタックを理解する必要があります。より一般的な言葉で全体のプロセスを表現すると、「大モデル」は人間の脳のようなもので、初期段階ではこの脳は新しくこの世に生まれた赤ちゃんのものであり、周囲の膨大な情報を観察し、取り入れることでこの世界を理解する必要があります。これがデータの「収集」段階です。コンピュータは人間の視覚や聴覚などの感覚を持っていないため、訓練の前に外部の大規模な無標識情報は「前処理」を通じて、コンピュータが理解できて利用できる情報形式に変換される必要があります。データを入力すると、AIは「トレーニング」を通じて理解と予測能力を持つモデルを構築します。これは、赤ちゃんが外界を理解し学ぶ過程に似ています。モデルのパラメータは、赤ちゃんが学ぶ過程で調整される言語能力のようなものです。学習内容が専門分化し、人とコミュニケーションを取りフィードバックを得て修正されると、大規模モデルの「ファインチューニング」段階に入ります。子供は徐々に成長し、言葉を話せるようになると、新しい会話の中で意味を理解し、自分の感情や考えを表現できるようになります。この段階はAI大モデルの「推論」に似ており、モデルは新しい言語やテキスト入力に対して予測と分析を行うことができます。赤ちゃんは言語能力を通じて感情を表現し、物体を描写し、さまざまな問題を解決します。これは、AI大モデルが訓練を終えた後、推論段階で特定のタスクに応用されること、例えば画像分類や音声認識などに似ています。AIエージェントは、次の大規模モデルの形態に近づいています------独立してタスクを実行し、複雑な目標を追求できるだけでなく、思考能力を持ち、記憶、計画を行い、ツールを使用して世界と対話することができます。! [AI+Web3:タワー&スクエア](https://img-cdn.gateio.im/social/moments-cc3bf45e321f9b1d1280bf3bb827d9f4)現在、AIのさまざまなスタックの痛点に対して、Web3は現在、AIモデルプロセスの各段階をカバーする多層的で相互接続されたエコシステムを初歩的に形成しています。### 1. 基本レイヤー: Airbnb (計算能力とデータ)#### ハッシュレート現在、AI の最高コストの一つは、モデルのトレーニングと推論に必要な計算能力とエネルギーです。一例として、MetaのLLAMA3は、NVIDIAが製造した16000個のH100GPU(これは人工知能と高性能計算の作業負荷に特化して設計された最高のグラフィックス処理ユニットです。)を使用してトレーニングを完了するのに30日かかります。後者の80GBバージョンの単価は30,000から40,000ドルの間であり、4億から7億ドルの計算ハードウェア投資(GPU+ネットワークチップ)が必要です。また、毎月のトレーニングには16億キロワット時を消費し、エネルギー支出は毎月約2000万ドルになります。AIの計算能力の解放は、Web3が最初にAIと交差した分野であり------DePin(分散型物理インフラネットワーク)現在、あるDePinデータサイトには1400以上のプロジェクトが掲載されており、その中でGPU計算能力共有を代表するプロジェクトにはio.net、Aethir、Akash、Render Networkなどが含まれています。その主な論理は、プラットフォームが余剰のGPUリソースを持つ個人や団体が許可なしに分散型の方法でその計算能力を提供できるようにすることにあります。UberやAirbnbのようなバイヤーと売り手のオンライン市場を通じて、十分に活用されていないGPUリソースの使用率を向上させ、最終ユーザーはより低コストで効率的な計算リソースを手に入れることができます。同時に、ステーキングメカニズムは、品質管理メカニズムに違反したりネットワークを中断した場合に、リソース提供者が相応の罰を受けることを保証します。その特徴は次のとおりです:* 余剰なGPUリソースを集める:供給者は主に第三者の独立した中小型データセンターや暗号マイニングファームなどの運営者の余剰計算リソース、コンセンサスメカニズムはPoSのマイニングハードウェア、例えばFileCoinやETHマイナーです。現在、exolabのようなプロジェクトも、MacBook、iPhone、iPadなどのローカルデバイスを利用して、より低い参入障壁のデバイスを立ち上げ、モデル推論の計算ネットワークを構築することに取り組んでいます。* AI計算力のロングテール市場に直面して:a.「技術の観点から見ると」分散型コンピューティング市場は推論ステップにより適しています。トレーニングは非常に大規模なクラスター規模のGPUがもたらすデータ処理能力に依存していますが、推論はGPUの計算性能に対する依存度が比較的低いです。例えば、Aethirは低遅延のレンダリング作業とAI推論アプリケーションに焦点を当てています。b.「需要サイドから見ると」中小規模の計算能力を持つ需要者は、自らの大規模モデルを単独で訓練することはなく、少数の主要な大規模モデルの周りで最適化や微調整を行うことを選択します。このようなシナリオは、分散型の余剰計算リソースに自然に適しています。* 非中央集権的所有権:ブロックチェーンの技術的意義は、資源の所有者が常にその資源に対するコントロールを保持し、需要に応じて柔軟に調整し、同時に利益を得ることができることです。#### データデータはAIの基礎です。データがなければ、計算は浮草のように無用であり、データとモデルの関係は「ガベージイン、ガベージアウト」という言葉のようです。データの量と入力の質が最終的なモデルの出力の質を決定します。現在のAIモデルのトレーニングにおいて、データはモデルの言語能力、理解能力、さらには価値観や人間らしさを決定します。現在、AIのデータ需要の困難は主に以下の4つの側面に焦点を当てています:* データ渇望:AIモデルのトレーニングは大量のデータ入力に依存しています。公開資料によると、OpenAIがGPT-4をトレーニングする際のパラメータ量は1兆レベルに達しています。* データ品質:AIと各業界の結合に伴い、データの時効性、データの多様性、垂直データの専門性、新興データソースとしてのソーシャルメディアの感情の取り込みがその品質に新たな要求を突きつけています。* プライバシーとコンプライアンスの問題:現在、各国や企業は高品質なデータセットの重要性に徐々に気づき、データセットのスクレイピングに制限をかけています。* データ処理コストが高い:データ量が多く、処理プロセスが複雑です。公開資料によると、AI企業の30%以上の研究開発コストは基礎データの収集と処理に使われています。現在、web3 の解決策は次の 4 つの側面に現れています:1、データ収集:無料で提供されるリアルワールドデータの取得が急速に枯渇しており、AI企業のデータ支出は年々増加しています。しかし同時に、この支出はデータの真の貢献者に還元されておらず、プラットフォームはデータによる価値創造を完全に享受しています。たとえば、RedditはAI企業とのデータライセンス契約を通じて総額2.03億ドルの収入を実現しました。真に貢献するユーザーがデータによる価値創造に参加し、分散型ネットワークとインセンティブメカニズムを通じて、低コストでよりプライベートで価値のあるデータを取得することがWeb3のビジョンです。* Grassは、ユーザーがGrassノードを運営することで、余剰帯域幅と中継トラフィックを提供し、インターネット全体からリアルタイムデータをキャッチし、トークン報酬を得ることができる分散型データレイヤーおよびネットワークです。* Vanaは、独自のデータ流動性プール(DLP)コンセプトを導入しました。ユーザーは、プライベートデータ(購入履歴、ブラウジング習慣、ソーシャルメディア活動など)を特定のDLPにアップロードし、これらのデータを特定の第三者に使用することを許可するかどうかを柔軟に選択できます;* PublicAI では、ユーザーは X 上で #AI 或#Web3 をカテゴリラベルとして使用し、@PublicAI を使用することでデータ収集を実現できます。2、データ前処理:AIのデータ処理プロセスでは、収集されたデータが通常雑音を含み、エラーがあるため、モデルを訓練する前にデータをクリーンアップし、使用可能な形式に変換する必要があります。これには、標準化、フィルタリング、欠損値の処理といった反復作業が含まれます。この段階はAI業界の数少ない手作業の段階であり、データアノテーション専門家という業界が派生しています。モデルのデータ品質に対する要求が高まるにつれて、データアノテーション専門家のハードルも上昇しています。この作業はWeb3の非中央集権的なインセンティブメカニズムに自然に適しています。* 現在、GrassとOpenLayerはデータアノテーションという重要なプロセスへの参加を検討しています。* Synesisは「Train2earn」という概念を提唱し、データの質を強調しています。ユーザーは、注釈データ、コメント、またはその他の形式の入力を提供することで報酬を得ることができます。* データラベリングプロジェクトSapienは、ラベリングタスクをゲーム化し、ユーザーがポイントをステークしてより多くのポイントを獲得できるようにします。3、データプライバシーとセキュリティ:明確にする必要があるのは、データプライバシーとセキュリティは異なる概念であるということです。データプライバシーはセンシティブなデータの取り扱いに関するものであり、データセキュリティは情報が無許可のアクセス、破壊、盗難から保護されることを指します。したがって、Web3のプライバシー技術の利点と潜在的な応用シーンは、次の2つの側面に現れます:(1)センシティブなデータのトレーニング;(2)データ協力:複数のデータ所有者がその原データを共有することなくAIトレーニングに共同で参加できます。現在のWeb3で一般的なプライバシー技術には、次のものが含まれます:* Trusted Execution Environment (TEE) (例: Super Protocol);* BasedAI、Fhenix.io、Inco Networkなどの完全準同型暗号化(FHE)。* ゼロ知識技術(zk)、例えば Reclaim Protocol は zkTLS 技術を使用して、HTTPSトラフィックのゼロ知識証明を生成し、ユーザーが外部サイトから安全に活動、評判、そしてアイデンティティデータをインポートすることを可能にし、敏感な情報を公開することなく。しかし、現在この分野はまだ初期段階にあり、大部分のプロジェクトはまだ探索中です。現在の一つのジレンマは計算コストが高すぎることであり、いくつかの例は次のとおりです:* zkMLフレームワーク
AI+Web3の融合:分散化されたコンピューティングパワーとデータの新たな機会を探る
AI+Web3: タワーとプラザ
TL; 博士
AIの概念を持つWeb3プロジェクトは、一級市場と二級市場で資金を吸引するターゲットとなっています。
Web3 における AI 業界の機会は、分散型インセンティブを使用してロングテールの潜在的な供給を調整することによって現れます------データ、ストレージ、計算を横断して;同時に、オープンソースモデルと AI エージェントの分散型市場を構築します。
AIのWeb3業界における主な活用分野は、オンチェーンファイナンス(暗号支払い、取引、データ分析)および開発支援です。
AI+Web3の効用は両者の相互補完に表れています:Web3はAIの集中化に対抗することが期待され、AIはWeb3が境界を越えるのを助けることが期待されています。
! AI+Web3: タワー&プラザ
はじめに
ここ2年、AIの発展は加速ボタンが押されたかのようで、Chatgptによって引き起こされた蝶の羽は、生成型人工知能の新たな世界を開くだけでなく、対岸のWeb3でも大きな潮流を巻き起こしています。
AIの概念の加持のもと、比較的鈍化した暗号市場の資金調達が明らかに活気づいている。メディアの統計によれば、2024年上半期だけで、64件のWeb3+AIプロジェクトが資金調達を完了した。人工知能に基づくオペレーティングシステムZyber365は、Aラウンドで1億ドルの最高資金調達額を達成した。
二級市場はさらに繁栄しており、ある暗号集約サイトのデータによると、わずか1年余りの間に、AI分野の総時価総額は485億ドルに達し、24時間の取引量は86億ドルに近づいています。主流のAI技術の進展による恩恵は明らかで、OpenAIのSoraテキストからビデオへのモデルが発表された後、AIセクターの平均価格は151%上昇しました。AI効果は暗号通貨の資金吸引セクターの一つであるMemeにも波及しています:最初のAIエージェントコンセプトのMemeCoin------GOATは急速に人気を博し、14億ドルの評価を得て、AI Memeブームを成功裏に引き起こしました。
AI+Web3に関する研究や話題も非常に盛り上がっており、AI+DepinからAI Memecoin、そして現在のAIエージェントやAI DAOに至るまで、FOMOの感情は新しいストーリーの切り替えの速度についていけなくなっています。
AI+Web3、この熱い資金、トレンド、未来の幻想に満ちた用語の組み合わせは、避けがたく資本によって取り持たれた結婚と見なされることがあります。この華やかなローブの下では、実際に投機家の舞台なのか、それとも夜明けの爆発前なのかを見極めるのは非常に難しいようです。
この質問に答えるために、両者にとって重要な考察は、相手がいることでより良くなるのか?相手のモデルから利益を得ることができるのか?この記事では、私たちも先人の肩の上に立ってこの構造を見直そうとしています:Web3 が AI 技術スタックの各段階でどのように機能できるのか、そして AI が Web3 に何の新しい活力をもたらすことができるのか。
パート1 AIスタック下のWeb3にはどんな機会があるのか?
このトピックを展開する前に、AI大規模モデルの技術スタックを理解する必要があります。
より一般的な言葉で全体のプロセスを表現すると、「大モデル」は人間の脳のようなもので、初期段階ではこの脳は新しくこの世に生まれた赤ちゃんのものであり、周囲の膨大な情報を観察し、取り入れることでこの世界を理解する必要があります。これがデータの「収集」段階です。コンピュータは人間の視覚や聴覚などの感覚を持っていないため、訓練の前に外部の大規模な無標識情報は「前処理」を通じて、コンピュータが理解できて利用できる情報形式に変換される必要があります。
データを入力すると、AIは「トレーニング」を通じて理解と予測能力を持つモデルを構築します。これは、赤ちゃんが外界を理解し学ぶ過程に似ています。モデルのパラメータは、赤ちゃんが学ぶ過程で調整される言語能力のようなものです。学習内容が専門分化し、人とコミュニケーションを取りフィードバックを得て修正されると、大規模モデルの「ファインチューニング」段階に入ります。
子供は徐々に成長し、言葉を話せるようになると、新しい会話の中で意味を理解し、自分の感情や考えを表現できるようになります。この段階はAI大モデルの「推論」に似ており、モデルは新しい言語やテキスト入力に対して予測と分析を行うことができます。赤ちゃんは言語能力を通じて感情を表現し、物体を描写し、さまざまな問題を解決します。これは、AI大モデルが訓練を終えた後、推論段階で特定のタスクに応用されること、例えば画像分類や音声認識などに似ています。
AIエージェントは、次の大規模モデルの形態に近づいています------独立してタスクを実行し、複雑な目標を追求できるだけでなく、思考能力を持ち、記憶、計画を行い、ツールを使用して世界と対話することができます。
! AI+Web3:タワー&スクエア
現在、AIのさまざまなスタックの痛点に対して、Web3は現在、AIモデルプロセスの各段階をカバーする多層的で相互接続されたエコシステムを初歩的に形成しています。
1. 基本レイヤー: Airbnb (計算能力とデータ)
ハッシュレート
現在、AI の最高コストの一つは、モデルのトレーニングと推論に必要な計算能力とエネルギーです。
一例として、MetaのLLAMA3は、NVIDIAが製造した16000個のH100GPU(これは人工知能と高性能計算の作業負荷に特化して設計された最高のグラフィックス処理ユニットです。)を使用してトレーニングを完了するのに30日かかります。後者の80GBバージョンの単価は30,000から40,000ドルの間であり、4億から7億ドルの計算ハードウェア投資(GPU+ネットワークチップ)が必要です。また、毎月のトレーニングには16億キロワット時を消費し、エネルギー支出は毎月約2000万ドルになります。
AIの計算能力の解放は、Web3が最初にAIと交差した分野であり------DePin(分散型物理インフラネットワーク)現在、あるDePinデータサイトには1400以上のプロジェクトが掲載されており、その中でGPU計算能力共有を代表するプロジェクトにはio.net、Aethir、Akash、Render Networkなどが含まれています。
その主な論理は、プラットフォームが余剰のGPUリソースを持つ個人や団体が許可なしに分散型の方法でその計算能力を提供できるようにすることにあります。UberやAirbnbのようなバイヤーと売り手のオンライン市場を通じて、十分に活用されていないGPUリソースの使用率を向上させ、最終ユーザーはより低コストで効率的な計算リソースを手に入れることができます。同時に、ステーキングメカニズムは、品質管理メカニズムに違反したりネットワークを中断した場合に、リソース提供者が相応の罰を受けることを保証します。
その特徴は次のとおりです:
余剰なGPUリソースを集める:供給者は主に第三者の独立した中小型データセンターや暗号マイニングファームなどの運営者の余剰計算リソース、コンセンサスメカニズムはPoSのマイニングハードウェア、例えばFileCoinやETHマイナーです。現在、exolabのようなプロジェクトも、MacBook、iPhone、iPadなどのローカルデバイスを利用して、より低い参入障壁のデバイスを立ち上げ、モデル推論の計算ネットワークを構築することに取り組んでいます。
AI計算力のロングテール市場に直面して:
a.「技術の観点から見ると」分散型コンピューティング市場は推論ステップにより適しています。トレーニングは非常に大規模なクラスター規模のGPUがもたらすデータ処理能力に依存していますが、推論はGPUの計算性能に対する依存度が比較的低いです。例えば、Aethirは低遅延のレンダリング作業とAI推論アプリケーションに焦点を当てています。
b.「需要サイドから見ると」中小規模の計算能力を持つ需要者は、自らの大規模モデルを単独で訓練することはなく、少数の主要な大規模モデルの周りで最適化や微調整を行うことを選択します。このようなシナリオは、分散型の余剰計算リソースに自然に適しています。
データ
データはAIの基礎です。データがなければ、計算は浮草のように無用であり、データとモデルの関係は「ガベージイン、ガベージアウト」という言葉のようです。データの量と入力の質が最終的なモデルの出力の質を決定します。現在のAIモデルのトレーニングにおいて、データはモデルの言語能力、理解能力、さらには価値観や人間らしさを決定します。現在、AIのデータ需要の困難は主に以下の4つの側面に焦点を当てています:
データ渇望:AIモデルのトレーニングは大量のデータ入力に依存しています。公開資料によると、OpenAIがGPT-4をトレーニングする際のパラメータ量は1兆レベルに達しています。
データ品質:AIと各業界の結合に伴い、データの時効性、データの多様性、垂直データの専門性、新興データソースとしてのソーシャルメディアの感情の取り込みがその品質に新たな要求を突きつけています。
プライバシーとコンプライアンスの問題:現在、各国や企業は高品質なデータセットの重要性に徐々に気づき、データセットのスクレイピングに制限をかけています。
データ処理コストが高い:データ量が多く、処理プロセスが複雑です。公開資料によると、AI企業の30%以上の研究開発コストは基礎データの収集と処理に使われています。
現在、web3 の解決策は次の 4 つの側面に現れています:
1、データ収集:無料で提供されるリアルワールドデータの取得が急速に枯渇しており、AI企業のデータ支出は年々増加しています。しかし同時に、この支出はデータの真の貢献者に還元されておらず、プラットフォームはデータによる価値創造を完全に享受しています。たとえば、RedditはAI企業とのデータライセンス契約を通じて総額2.03億ドルの収入を実現しました。
真に貢献するユーザーがデータによる価値創造に参加し、分散型ネットワークとインセンティブメカニズムを通じて、低コストでよりプライベートで価値のあるデータを取得することがWeb3のビジョンです。
Grassは、ユーザーがGrassノードを運営することで、余剰帯域幅と中継トラフィックを提供し、インターネット全体からリアルタイムデータをキャッチし、トークン報酬を得ることができる分散型データレイヤーおよびネットワークです。
Vanaは、独自のデータ流動性プール(DLP)コンセプトを導入しました。ユーザーは、プライベートデータ(購入履歴、ブラウジング習慣、ソーシャルメディア活動など)を特定のDLPにアップロードし、これらのデータを特定の第三者に使用することを許可するかどうかを柔軟に選択できます;
PublicAI では、ユーザーは X 上で #AI 或#Web3 をカテゴリラベルとして使用し、@PublicAI を使用することでデータ収集を実現できます。
2、データ前処理:AIのデータ処理プロセスでは、収集されたデータが通常雑音を含み、エラーがあるため、モデルを訓練する前にデータをクリーンアップし、使用可能な形式に変換する必要があります。これには、標準化、フィルタリング、欠損値の処理といった反復作業が含まれます。この段階はAI業界の数少ない手作業の段階であり、データアノテーション専門家という業界が派生しています。モデルのデータ品質に対する要求が高まるにつれて、データアノテーション専門家のハードルも上昇しています。この作業はWeb3の非中央集権的なインセンティブメカニズムに自然に適しています。
現在、GrassとOpenLayerはデータアノテーションという重要なプロセスへの参加を検討しています。
Synesisは「Train2earn」という概念を提唱し、データの質を強調しています。ユーザーは、注釈データ、コメント、またはその他の形式の入力を提供することで報酬を得ることができます。
データラベリングプロジェクトSapienは、ラベリングタスクをゲーム化し、ユーザーがポイントをステークしてより多くのポイントを獲得できるようにします。
3、データプライバシーとセキュリティ:明確にする必要があるのは、データプライバシーとセキュリティは異なる概念であるということです。データプライバシーはセンシティブなデータの取り扱いに関するものであり、データセキュリティは情報が無許可のアクセス、破壊、盗難から保護されることを指します。したがって、Web3のプライバシー技術の利点と潜在的な応用シーンは、次の2つの側面に現れます:(1)センシティブなデータのトレーニング;(2)データ協力:複数のデータ所有者がその原データを共有することなくAIトレーニングに共同で参加できます。
現在のWeb3で一般的なプライバシー技術には、次のものが含まれます:
Trusted Execution Environment (TEE) (例: Super Protocol);
BasedAI、Fhenix.io、Inco Networkなどの完全準同型暗号化(FHE)。
ゼロ知識技術(zk)、例えば Reclaim Protocol は zkTLS 技術を使用して、HTTPSトラフィックのゼロ知識証明を生成し、ユーザーが外部サイトから安全に活動、評判、そしてアイデンティティデータをインポートすることを可能にし、敏感な情報を公開することなく。
しかし、現在この分野はまだ初期段階にあり、大部分のプロジェクトはまだ探索中です。現在の一つのジレンマは計算コストが高すぎることであり、いくつかの例は次のとおりです: