Lorsque l'IA parvient à une avancée technologique grâce à une stratification, le domaine du chiffrement L1-L2-L3 tombe dans un cercle vicieux de transfert de problèmes. Pourquoi la logique de stratification est-elle si différente ?
Rédigé par : Haotian
Tout le monde dit que la stratégie Rollup-Centric d'Ethereum semble avoir échoué ? Et ils déplorent ce jeu d'emboîtement L1-L2-L3, mais ce qui est intéressant, c'est que le développement du secteur de l'IA au cours de l'année écoulée a également suivi une rapide évolution L1—L2—L3. En comparant, où se situe vraiment le problème ?
La logique hiérarchique de l'IA est que chaque couche résout des problèmes fondamentaux que la couche supérieure ne peut pas résoudre.
Par exemple, les LLM de L1 résolvent les compétences de base de la compréhension et de la génération du langage, mais le raisonnement logique et les calculs mathématiques sont en effet des défauts difficiles ; Par conséquent, en ce qui concerne la L2, le modèle d’inférence se spécialise dans la résolution de cette lacune, et DeepSeek R1 peut résoudre des problèmes mathématiques complexes et déboguer du code, ce qui comble directement l’angle mort cognitif des LLM. Une fois ces travaux préparatoires terminés, l’agent d’IA de L3 intègre naturellement les deux premières couches de capacités, ce qui permet à l’IA de passer d’une réponse passive à une exécution active, en planifiant des tâches, en invoquant des outils et en gérant seule des flux de travail complexes.
Regardez, cette stratification est « progression des capacités » : L1 pose les fondations, L2 comble les lacunes, L3 fait l'intégration. Chaque couche produit un saut qualitatif sur la base de la couche précédente, et les utilisateurs peuvent clairement ressentir que l'IA devient plus intelligente et plus utile.
La logique hiérarchique du chiffrement est que chaque couche corrige les problèmes de la couche précédente, mais cela a malheureusement entraîné de nouveaux problèmes encore plus importants.
Par exemple, les performances de la chaîne publique L1 ne sont pas suffisantes, il est donc naturel de penser à utiliser la solution de mise à l’échelle de couche 2, mais après une vague d’infra couche 2, il semble que le gaz soit faible, le TPS est augmenté de manière cumulative, mais la liquidité est dispersée et l’application écologique continue d’être rare, ce qui fait de trop d’infrastructure couche 2 un gros problème. En conséquence, nous avons commencé à construire des chaînes d’applications verticales de couche 3, mais les chaînes d’applications étaient indépendantes et ne pouvaient pas profiter de la synergie écologique de la chaîne générale INFRA, et l’expérience utilisateur est devenue plus fragmentée.
Ainsi, cette hiérarchisation est devenue un « transfert de problème » : L1 a des goulots d'étranglement, L2 applique des correctifs, L3 est chaotique et dispersée. Chaque couche ne fait que déplacer le problème d'un endroit à un autre, comme si toutes les solutions n'étaient destinées qu'à « émettre des tokens ».
À ce stade, tout le monde devrait comprendre quelle est la racine de ce paradoxe : la stratification de l'IA est poussée par la compétition technologique, OpenAI, Anthropic, DeepSeek se battent pour améliorer les capacités des modèles ; la stratification de la crypto est enchaînée par la tokenomique, chaque KPI central des L2 est le TVL et le prix du Token.
Donc, en essence, l'un résout des problèmes techniques, l'autre emballe des produits financiers ? Qui a raison et qui a tort n'a peut-être pas de réponse, cela dépend des opinions.
Bien sûr, cette analogie abstraite n'est pas si absolue, mais je trouve qu'il est très intéressant de comparer l'évolution des deux, un petit massage mental pour le week-end.
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
IA et le paradoxe de la hiérarchie du chiffrement : voie de développement technologique vs enlèvement de token
Rédigé par : Haotian
Tout le monde dit que la stratégie Rollup-Centric d'Ethereum semble avoir échoué ? Et ils déplorent ce jeu d'emboîtement L1-L2-L3, mais ce qui est intéressant, c'est que le développement du secteur de l'IA au cours de l'année écoulée a également suivi une rapide évolution L1—L2—L3. En comparant, où se situe vraiment le problème ?
Par exemple, les LLM de L1 résolvent les compétences de base de la compréhension et de la génération du langage, mais le raisonnement logique et les calculs mathématiques sont en effet des défauts difficiles ; Par conséquent, en ce qui concerne la L2, le modèle d’inférence se spécialise dans la résolution de cette lacune, et DeepSeek R1 peut résoudre des problèmes mathématiques complexes et déboguer du code, ce qui comble directement l’angle mort cognitif des LLM. Une fois ces travaux préparatoires terminés, l’agent d’IA de L3 intègre naturellement les deux premières couches de capacités, ce qui permet à l’IA de passer d’une réponse passive à une exécution active, en planifiant des tâches, en invoquant des outils et en gérant seule des flux de travail complexes.
Regardez, cette stratification est « progression des capacités » : L1 pose les fondations, L2 comble les lacunes, L3 fait l'intégration. Chaque couche produit un saut qualitatif sur la base de la couche précédente, et les utilisateurs peuvent clairement ressentir que l'IA devient plus intelligente et plus utile.
Par exemple, les performances de la chaîne publique L1 ne sont pas suffisantes, il est donc naturel de penser à utiliser la solution de mise à l’échelle de couche 2, mais après une vague d’infra couche 2, il semble que le gaz soit faible, le TPS est augmenté de manière cumulative, mais la liquidité est dispersée et l’application écologique continue d’être rare, ce qui fait de trop d’infrastructure couche 2 un gros problème. En conséquence, nous avons commencé à construire des chaînes d’applications verticales de couche 3, mais les chaînes d’applications étaient indépendantes et ne pouvaient pas profiter de la synergie écologique de la chaîne générale INFRA, et l’expérience utilisateur est devenue plus fragmentée.
Ainsi, cette hiérarchisation est devenue un « transfert de problème » : L1 a des goulots d'étranglement, L2 applique des correctifs, L3 est chaotique et dispersée. Chaque couche ne fait que déplacer le problème d'un endroit à un autre, comme si toutes les solutions n'étaient destinées qu'à « émettre des tokens ».
À ce stade, tout le monde devrait comprendre quelle est la racine de ce paradoxe : la stratification de l'IA est poussée par la compétition technologique, OpenAI, Anthropic, DeepSeek se battent pour améliorer les capacités des modèles ; la stratification de la crypto est enchaînée par la tokenomique, chaque KPI central des L2 est le TVL et le prix du Token.
Donc, en essence, l'un résout des problèmes techniques, l'autre emballe des produits financiers ? Qui a raison et qui a tort n'a peut-être pas de réponse, cela dépend des opinions.
Bien sûr, cette analogie abstraite n'est pas si absolue, mais je trouve qu'il est très intéressant de comparer l'évolution des deux, un petit massage mental pour le week-end.