عندما تحقق AI قفزات في القدرة من خلال اختراقات تقنية، فإن مجالات التشفير L1-L2-L3 تقع في دوامة نقل المشاكل، لماذا تسير منطق الطبقات بنفس الاتجاه لكن النتائج مختلفة تمامًا؟
كتبه: Haotian
يقول الجميع إن استراتيجية Ethereum Rollup-Centric تبدو وكأنها فشلت؟ ويشعرون بالاشمئزاز من هذه اللعبة المتداخلة L1-L2-L3، لكن من المثير للاهتمام أن تطوير مسار الذكاء الاصطناعي في العام الماضي قد مر أيضًا بتطور سريع من L1 إلى L2 إلى L3. دعونا نقارن، ما هو السبب الحقيقي وراء ذلك؟
المنطق الطبقي للذكاء الاصطناعي هو أن كل طبقة تحل مشكلة جوهرية لا تستطيع الطبقة العليا حلها.
على سبيل المثال، لقد حلت نماذج LLMs الخاصة بـ L1 القدرة الأساسية على فهم اللغة وتوليدها، ولكن الاستدلال المنطقي والحسابات الرياضية كانت نقاط ضعف حقيقية؛ لذا وصلنا إلى L2، حيث يركز نموذج الاستدلال على معالجة هذه النقطة الضعيفة، حيث يمكن لـ DeepSeek R1 حل مسائل رياضية معقدة وتصحيح الشفرات، مما يعوض عن المناطق العمياء المعرفية لـ LLMs؛ بعد إكمال هذه الأساسات، فإن وكيل الذكاء الاصطناعي في L3 يجمع بشكل طبيعي بين القدرات في الطبقتين السابقتين، مما يسمح للذكاء الاصطناعي من الإجابة بشكل سلبي إلى التنفيذ النشط، حيث يمكنه تخطيط المهام بنفسه، واستدعاء الأدوات، ومعالجة سير العمل المعقد.
انظر، هذا النوع من التدرج هو "تقدم القدرة": L1 يبني الأساس، L2 يعالج العيوب، L3 يقوم بالتكامل. كل طبقة تحدث قفزة نوعية على أساس الطبقة السابقة، ويمكن للمستخدم أن يشعر بوضوح أن الذكاء الاصطناعي أصبح أكثر ذكاءً وأكثر فائدة.
منطق التشفير المتعدد المستويات هو أن كل مستوى يضيف تصحيحات لمشاكل المستوى السابق، لكنه للأسف جلب مشاكل جديدة أكبر.
على سبيل المثال ، لا يكفي أداء السلسلة العامة L1 ، لذلك من الطبيعي التفكير في استخدام حل تحجيم الطبقة 2 ، ولكن بعد موجة من الطبقة 2 تحت الحمراء ، يبدو أن الغاز منخفض ، ويزداد TPS بشكل تراكمي ، لكن السيولة مبعثرة ، ولا يزال التطبيق البيئي نادرا ، مما يجعل الكثير من البنية التحتية للطبقة 2 مشكلة كبيرة. نتيجة لذلك ، بدأنا في بناء سلاسل تطبيقات رأسية من الطبقة 3 ، لكن سلاسل التطبيقات كانت مستقلة ولم تستطع الاستمتاع بالتآزر البيئي لسلسلة INFRA العامة ، وأصبحت تجربة المستخدم أكثر تجزئة.
بهذه الطريقة، أصبحت هذه الطبقات بمثابة "نقل المشكلة": L1 لديها اختناق، L2 تقوم بإصلاح، L3 فوضى ومشتتة. كل طبقة ليست سوى نقل المشكلة من مكان إلى آخر، كما لو أن جميع الحلول كانت تهدف فقط إلى "إصدار العملة".
عندما نتحدث عن هذا، يجب أن يفهم الجميع ما هو جوهر هذا التناقض: تقسيم الذكاء الاصطناعي مدفوع بالتنافس التكنولوجي، حيث تتنافس OpenAI وAnthropic وDeepSeek بشدة على قدرات النماذج؛ بينما تقسيم التشفير مخطوف من قبل Tokenomic، حيث أن كل KPI أساسي في L2 هو TVL وسعر التوكن.
إذن، في جوهر الأمر، أحدهما يحل المشاكل التقنية، والآخر يعبئ المنتجات المالية؟ قد لا يكون هناك إجابة على من هو على حق ومن هو على خطأ، فالأمر متروك لتفسير كل شخص.
بالطبع، هذه المقارنة المجردة ليست قطعية إلى هذا الحد، لكنني أجد أنه من المثير للاهتمام مقارنة تطور كلا الجانبين، لذا سأقوم بتمرين ذهني خلال عطلة نهاية الأسبوع.
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
AI و التشفير: مفارقة الطبقات - التطور بين الدفع التكنولوجي و اختطاف التوكنات
كتبه: Haotian
يقول الجميع إن استراتيجية Ethereum Rollup-Centric تبدو وكأنها فشلت؟ ويشعرون بالاشمئزاز من هذه اللعبة المتداخلة L1-L2-L3، لكن من المثير للاهتمام أن تطوير مسار الذكاء الاصطناعي في العام الماضي قد مر أيضًا بتطور سريع من L1 إلى L2 إلى L3. دعونا نقارن، ما هو السبب الحقيقي وراء ذلك؟
على سبيل المثال، لقد حلت نماذج LLMs الخاصة بـ L1 القدرة الأساسية على فهم اللغة وتوليدها، ولكن الاستدلال المنطقي والحسابات الرياضية كانت نقاط ضعف حقيقية؛ لذا وصلنا إلى L2، حيث يركز نموذج الاستدلال على معالجة هذه النقطة الضعيفة، حيث يمكن لـ DeepSeek R1 حل مسائل رياضية معقدة وتصحيح الشفرات، مما يعوض عن المناطق العمياء المعرفية لـ LLMs؛ بعد إكمال هذه الأساسات، فإن وكيل الذكاء الاصطناعي في L3 يجمع بشكل طبيعي بين القدرات في الطبقتين السابقتين، مما يسمح للذكاء الاصطناعي من الإجابة بشكل سلبي إلى التنفيذ النشط، حيث يمكنه تخطيط المهام بنفسه، واستدعاء الأدوات، ومعالجة سير العمل المعقد.
انظر، هذا النوع من التدرج هو "تقدم القدرة": L1 يبني الأساس، L2 يعالج العيوب، L3 يقوم بالتكامل. كل طبقة تحدث قفزة نوعية على أساس الطبقة السابقة، ويمكن للمستخدم أن يشعر بوضوح أن الذكاء الاصطناعي أصبح أكثر ذكاءً وأكثر فائدة.
على سبيل المثال ، لا يكفي أداء السلسلة العامة L1 ، لذلك من الطبيعي التفكير في استخدام حل تحجيم الطبقة 2 ، ولكن بعد موجة من الطبقة 2 تحت الحمراء ، يبدو أن الغاز منخفض ، ويزداد TPS بشكل تراكمي ، لكن السيولة مبعثرة ، ولا يزال التطبيق البيئي نادرا ، مما يجعل الكثير من البنية التحتية للطبقة 2 مشكلة كبيرة. نتيجة لذلك ، بدأنا في بناء سلاسل تطبيقات رأسية من الطبقة 3 ، لكن سلاسل التطبيقات كانت مستقلة ولم تستطع الاستمتاع بالتآزر البيئي لسلسلة INFRA العامة ، وأصبحت تجربة المستخدم أكثر تجزئة.
بهذه الطريقة، أصبحت هذه الطبقات بمثابة "نقل المشكلة": L1 لديها اختناق، L2 تقوم بإصلاح، L3 فوضى ومشتتة. كل طبقة ليست سوى نقل المشكلة من مكان إلى آخر، كما لو أن جميع الحلول كانت تهدف فقط إلى "إصدار العملة".
عندما نتحدث عن هذا، يجب أن يفهم الجميع ما هو جوهر هذا التناقض: تقسيم الذكاء الاصطناعي مدفوع بالتنافس التكنولوجي، حيث تتنافس OpenAI وAnthropic وDeepSeek بشدة على قدرات النماذج؛ بينما تقسيم التشفير مخطوف من قبل Tokenomic، حيث أن كل KPI أساسي في L2 هو TVL وسعر التوكن.
إذن، في جوهر الأمر، أحدهما يحل المشاكل التقنية، والآخر يعبئ المنتجات المالية؟ قد لا يكون هناك إجابة على من هو على حق ومن هو على خطأ، فالأمر متروك لتفسير كل شخص.
بالطبع، هذه المقارنة المجردة ليست قطعية إلى هذا الحد، لكنني أجد أنه من المثير للاهتمام مقارنة تطور كلا الجانبين، لذا سأقوم بتمرين ذهني خلال عطلة نهاية الأسبوع.