¿Todo el mundo dice que la estrategia Rollup-Centric de Ethereum parece haber fracasado? Y odio este juego de matrioska L1-L2-L3, pero curiosamente, el desarrollo de la pista de IA en el último año también ha pasado por la rápida evolución de L1-L2-L3. En contraste, ¿cuál es el problema?
La lógica jerárquica de la IA es que cada capa resuelve problemas centrales que la capa superior no puede resolver.
Por ejemplo, los LLM L1 resuelven las habilidades básicas de comprensión y generación de idiomas, pero el razonamiento lógico y los cálculos matemáticos son realmente defectuosos; Como resultado, cuando se trata de L2, el modelo de inferencia se especializa en superar esta deficiencia, y DeepSeek R1 puede resolver problemas matemáticos complejos y depurar código, lo que llena directamente el punto ciego cognitivo de los LLM. Después de completar estos presagios, el agente de IA de L3 integra naturalmente las dos primeras capas de capacidades, lo que permite que la IA cambie de una respuesta pasiva a una ejecución activa, y puede planificar tareas, invocar herramientas y manejar flujos de trabajo complejos por sí misma.
Mira, esta jerarquía es un "progreso de capacidades": L1 establece la base, L2 complementa las deficiencias, L3 realiza la integración. Cada capa produce un salto cualitativo sobre la base de la capa anterior, y los usuarios pueden sentir claramente que la IA se vuelve más inteligente y más útil.
La lógica jerárquica de Crypto es que cada capa está parcheando los problemas de la capa anterior, pero desafortunadamente ha traído consigo problemas nuevos y mucho más grandes.
Por ejemplo, el rendimiento de la cadena pública L1 no es suficiente, por lo que es natural pensar en usar la solución de expansión de capa 2, pero después de la involución de una onda de infraestructura de capa 2, parece que el gas es bajo y el TPS aumenta acumulativamente, pero la liquidez está dispersa y la aplicación ecológica sigue siendo escasa, lo que hace que demasiada infraestructura de capa 2 sea un gran problema. Como resultado, comenzamos a construir cadenas de aplicaciones verticales de capa 3, pero las cadenas de aplicaciones eran independientes y no podían disfrutar del efecto de sinergia ecológica de la cadena general Infra, y la experiencia del usuario se fragmentó más.
De esta manera, esta estratificación se convierte en un "traslado de problemas": L1 tiene cuellos de botella, L2 aplica parches, L3 es caótico y descentralizado. Cada capa simplemente traslada el problema de un lugar a otro, como si todas las soluciones solo se desarrollaran para la cuestión de "emitir monedas".
En este punto, todos deberían entender cuál es el meollo de esta paradoja: la estratificación de la IA está impulsada por la competencia tecnológica, OpenAI, Anthropic y DeepSeek están compitiendo ferozmente por la capacidad del modelo; la estratificación de Crypto está secuestrada por la Tokenomics, el KPI central de cada L2 es el TVL y el precio del Token.
Entonces, ¿esencialmente uno está resolviendo problemas técnicos y el otro está empaquetando productos financieros? Quién tiene razón y quién no puede no tener respuesta, depende de la perspectiva.
Por supuesto, esta analogía abstracta no es tan absoluta, solo creo que es muy interesante comparar el desarrollo de ambos, un masaje mental para el fin de semana.
Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
Reflexión fría: ¿cuál es la diferencia entre AI y el sector de Crypto?
Autor: Haotian
¿Todo el mundo dice que la estrategia Rollup-Centric de Ethereum parece haber fracasado? Y odio este juego de matrioska L1-L2-L3, pero curiosamente, el desarrollo de la pista de IA en el último año también ha pasado por la rápida evolución de L1-L2-L3. En contraste, ¿cuál es el problema?
Por ejemplo, los LLM L1 resuelven las habilidades básicas de comprensión y generación de idiomas, pero el razonamiento lógico y los cálculos matemáticos son realmente defectuosos; Como resultado, cuando se trata de L2, el modelo de inferencia se especializa en superar esta deficiencia, y DeepSeek R1 puede resolver problemas matemáticos complejos y depurar código, lo que llena directamente el punto ciego cognitivo de los LLM. Después de completar estos presagios, el agente de IA de L3 integra naturalmente las dos primeras capas de capacidades, lo que permite que la IA cambie de una respuesta pasiva a una ejecución activa, y puede planificar tareas, invocar herramientas y manejar flujos de trabajo complejos por sí misma.
Mira, esta jerarquía es un "progreso de capacidades": L1 establece la base, L2 complementa las deficiencias, L3 realiza la integración. Cada capa produce un salto cualitativo sobre la base de la capa anterior, y los usuarios pueden sentir claramente que la IA se vuelve más inteligente y más útil.
Por ejemplo, el rendimiento de la cadena pública L1 no es suficiente, por lo que es natural pensar en usar la solución de expansión de capa 2, pero después de la involución de una onda de infraestructura de capa 2, parece que el gas es bajo y el TPS aumenta acumulativamente, pero la liquidez está dispersa y la aplicación ecológica sigue siendo escasa, lo que hace que demasiada infraestructura de capa 2 sea un gran problema. Como resultado, comenzamos a construir cadenas de aplicaciones verticales de capa 3, pero las cadenas de aplicaciones eran independientes y no podían disfrutar del efecto de sinergia ecológica de la cadena general Infra, y la experiencia del usuario se fragmentó más.
De esta manera, esta estratificación se convierte en un "traslado de problemas": L1 tiene cuellos de botella, L2 aplica parches, L3 es caótico y descentralizado. Cada capa simplemente traslada el problema de un lugar a otro, como si todas las soluciones solo se desarrollaran para la cuestión de "emitir monedas".
En este punto, todos deberían entender cuál es el meollo de esta paradoja: la estratificación de la IA está impulsada por la competencia tecnológica, OpenAI, Anthropic y DeepSeek están compitiendo ferozmente por la capacidad del modelo; la estratificación de Crypto está secuestrada por la Tokenomics, el KPI central de cada L2 es el TVL y el precio del Token.
Entonces, ¿esencialmente uno está resolviendo problemas técnicos y el otro está empaquetando productos financieros? Quién tiene razón y quién no puede no tener respuesta, depende de la perspectiva.
Por supuesto, esta analogía abstracta no es tan absoluta, solo creo que es muy interesante comparar el desarrollo de ambos, un masaje mental para el fin de semana.