دمج الذكاء الاصطناعي مع الأصول الرقمية: من تاريخ التطور إلى تحليل شامل لسلسلة الصناعة

الذكاء الاصطناعي × العملات المشفرة: من الصفر إلى القمة

المقدمة

يعتبر بعض الناس أن التطورات الأخيرة في صناعة الذكاء الاصطناعي تمثل الثورة الصناعية الرابعة. لقد أدت ظهور النماذج الكبيرة إلى تحسين كبير في كفاءة مختلف الصناعات، حيث وجدت بعض الدراسات أن GPT قد زادت من كفاءة العمل في الولايات المتحدة بنحو 20%. في الوقت نفسه، تُعتبر القدرة على التعميم التي توفرها النماذج الكبيرة نموذج تصميم برمجي جديد، حيث كان تصميم البرمجيات في الماضي يعتمد على كود دقيق، بينما يعتمد تصميم البرمجيات الآن على نماذج كبيرة أكثر تعمماً مدمجة في البرمجيات، مما يمنح هذه البرمجيات أداءً أفضل ويدعم مدخلات ومخرجات أكثر تنوعًا. لقد جلبت تقنيات التعلم العميق بالفعل ازدهارًا رابعًا لصناعة الذكاء الاصطناعي، وقد امتدت هذه الموجة إلى صناعة العملات المشفرة.

سيتناول هذا التقرير بالتفصيل تاريخ تطوير صناعة الذكاء الاصطناعي، وتصنيفات التكنولوجيا، وتأثير اختراع تقنية التعلم العميق على الصناعة. بعد ذلك، سنحلل بعمق سلسلة القيمة في التعلم العميق، بما في ذلك وحدات معالجة الرسوميات (GPU)، والحوسبة السحابية، ومصادر البيانات، والأجهزة الطرفية، فضلاً عن حالة تطورها والاتجاهات الحالية. بعد ذلك، سنستكشف جوهريًا العلاقة بين صناعة التشفير (Crypto) والذكاء الاصطناعي، وسنعيد ترتيب المشهد الصناعي المتعلق بالذكاء الاصطناعي المتعلق بالتشفير.

مقدمة للوافدين الجدد丨AI x Crypto:من الصفر إلى القمة

تاريخ تطور صناعة الذكاء الاصطناعي

بدأت صناعة الذكاء الاصطناعي منذ خمسينيات القرن العشرين، ومن أجل تحقيق رؤية الذكاء الاصطناعي، طورت الأوساط الأكاديمية والصناعية في عصور مختلفة ومن خلفيات علمية متنوعة العديد من المدارس لتحقيق الذكاء الاصطناعي.

تستخدم التقنيات الحديثة للذكاء الاصطناعي مصطلح "تعلم الآلة"، حيث تتمثل فكرة هذه التقنية في تمكين الآلات من تحسين أداء النظام من خلال التكرار المستمر في المهام استنادًا إلى البيانات. الخطوات الرئيسية هي إرسال البيانات إلى الخوارزمية، واستخدام هذه البيانات لتدريب النموذج، واختبار نشر النموذج، واستخدام النموذج لإنجاز مهام التنبؤ الآلي.

توجد ثلاث مدارس رئيسية في تعلم الآلة حاليًا، وهي التوصيلية، والرمزية، والسلوكية، والتي تحاكي على التوالي النظام العصبي البشري، والتفكير، والسلوك.

في الوقت الحالي، تهيمن الرابطة المعرفية التي يمثلها الشبكات العصبية على الساحة( والمعروفة أيضًا بالتعلم العميق)، والسبب الرئيسي لذلك هو أن هذا الهيكل يحتوي على طبقة إدخال وطبقة إخراج، ولكنه يحتوي على عدة طبقات مخفية. بمجرد أن تصبح عدد الطبقات والنيورونات( والمعلمات) كافية، سيكون هناك فرصة كافية لتناسب المهام العامة المعقدة. من خلال إدخال البيانات، يمكن تعديل معلمات النيترونات باستمرار، وعندما تمر البيانات بعدة مرات، ستصل هذه النيترونات إلى حالة مثالية( المعلمات)، وهذا ما نسميه "قوة خارقة"، وهذا هو أصل كلمة "عميق" — عدد كافٍ من الطبقات والنيورونات.

على سبيل المثال، يمكن فهمه ببساطة على أنه تم بناء دالة، حيث عندما ندخل X=2 فإن Y=3؛ وعندما X=3 فإن Y=5. إذا أردنا أن تتعامل هذه الدالة مع جميع قيم X، فسنحتاج إلى إضافة درجة هذه الدالة ومعاملاتها باستمرار. على سبيل المثال، يمكنني بناء دالة تلبي هذا الشرط وهي Y = 2X -1، ولكن إذا كان هناك نقطة بيانات واحدة حيث X=2 وY=11، فسيتعين علينا إعادة بناء دالة مناسبة لهذه النقاط الثلاث. باستخدام وحدة المعالجة الرسومية (GPU) للتكسير العنيف، تم اكتشاف أن Y = X² -3X +5 هو الأنسب، لكن ليس من الضروري أن تتطابق تمامًا مع البيانات، يكفي أن تلتزم بالتوازن وتكون المخرجات مشابهة بشكل عام. هنا، X² وX وX₀ تمثل خلايا عصبية مختلفة، بينما 1 و-3 و5 هي معاملاتها.

في هذه الحالة، إذا قمنا بإدخال كمية كبيرة من البيانات إلى الشبكة العصبية، يمكننا زيادة عدد الخلايا العصبية وتكرار المعلمات لتناسب البيانات الجديدة. بهذه الطريقة يمكننا ملاءمة جميع البيانات.

تستند تقنيات التعلم العميق المعتمدة على الشبكات العصبية إلى العديد من التكرارات والتطورات التقنية، مثل الشبكات العصبية في مراحلها الأولى كما هو موضح في الصورة أعلاه، والشبكات العصبية التغذوية، وRNN، وCNN، وGAN، وأخيراً تطورت إلى النماذج الكبيرة الحديثة مثل تقنيات Transformer المستخدمة في GPT وغيرها. تقنية Transformer هي مجرد اتجاه تطوري واحد من الشبكات العصبية، حيث أضافت محولاً ( Transformer )، يستخدم لترميز جميع الأنماط ( مثل الصوت، الفيديو، الصور، وغيرها ) إلى قيم عددية تمثلها. ثم يتم إدخالها في الشبكة العصبية، مما يسمح للشبكة العصبية بتناسب أي نوع من البيانات، وهو ما يعني تحقيق تعدد الأوضاع.

! [الوافد الجديد Science Popular 丨الذكاء الاصطناعي x Crypto: من الصفر إلى الذروة](https://img-cdn.gateio.im/webp-social/moments-c50ee5a87373c6cd6c4dc63adc2cf47c.webp019283746574839201

شهد تطور الذكاء الاصطناعي ثلاث موجات تقنية، وكانت الموجة الأولى في الستينيات من القرن العشرين، بعد عشر سنوات من طرح تقنية الذكاء الاصطناعي. كانت هذه الموجة ناتجة عن تطوير تقنية الرمزية، والتي حلت مشكلات معالجة اللغة الطبيعية العامة والحوار بين الإنسان والآلة. في نفس الوقت، تم إنشاء أنظمة الخبراء، وكان ذلك من خلال نظام DENRAL للخبراء الذي تم إنجازه تحت إشراف جامعة ما من قبل ناسا، حيث يتمتع هذا النظام بمعرفة قوية في الكيمياء، ويستنتج الإجابات من خلال الأسئلة بطريقة تشبه خبراء الكيمياء. يمكن اعتبار هذا النظام كدمج بين قاعدة المعرفة الكيميائية ونظام الاستدلال.

بعد نظام الخبراء، قدم عالم وفيلسوف أمريكي من أصل إسرائيلي في التسعينيات شبكة بايزي، والتي تُعرف أيضًا بشبكة المعتقدات. في نفس الفترة، قدم بروكس علم الروبوتات القائم على السلوك، مما يمثل ولادة السلوكية.

في عام 1997، هزمت شركة تكنولوجيا تُدعى «بلو» بواقع 3.5:2.5 بطل الشطرنج، واعتُبرت هذه الانتصار علامة فارقة في الذكاء الاصطناعي، حيث شهدت تقنية الذكاء الاصطناعي ذروة تطورها الثانية.

حدثت الموجة الثالثة من تكنولوجيا الذكاء الاصطناعي في عام 2006. قدم عمالقة التعلم العميق مفهوم التعلم العميق، وهو خوارزمية تعتمد على الشبكات العصبية الاصطناعية لتعلم تمثيل البيانات. بعد ذلك، تطورت خوارزميات التعلم العميق تدريجياً، من RNN و GAN إلى Transformer و Stable Diffusion، حيث شكلت هذه الخوارزميات معاً هذه الموجة التكنولوجية الثالثة، وكانت هذه أيضاً فترة ازدهار الارتباطية.

ظهرت العديد من الأحداث الرائدة بالتزامن مع استكشاف وتطور تقنيات التعلم العميق، بما في ذلك:

  • في عام 2011، تغلب Watson من شركة تكنولوجيا على البشر وحصل على البطولة في برنامج المسابقة "خطر" )Jeopardy(.

  • في عام 2014، قدم Goodfellow شبكة الخصومة التوليدية GAN)، Generative Adversarial Network(، من خلال السماح لشبكتين عصبيتين بالتنافس ضد بعضهما البعض للتعلم، مما يمكن من إنشاء صور تبدو حقيقية. في الوقت نفسه، كتب Goodfellow أيضًا كتابًا بعنوان "Deep Learning"، المعروف باسم "كتاب الزهور"، وهو أحد الكتب الأساسية المهمة في مجال التعلم العميق.

  • في عام 2015، اقترح هينتون وآخرون خوارزمية التعلم العميق في مجلة "Nature"، وقد أحدث تقديم هذه الطريقة للتعلم العميق صدى كبيرًا في الأوساط الأكاديمية والصناعية على الفور.

  • في عام 2015، تم إنشاء شركة ذكاء اصطناعي، وأعلن عدد من المستثمرين المعروفين عن استثمار مشترك قدره 1 مليار دولار.

  • في عام 2016، خاضت AlphaGo، المعتمدة على تقنية التعلم العميق، معركة شطرنج ضد بطل العالم في الشطرنج، لاعب الشطرنج المحترف من الدرجة التاسعة، وحققت الفوز بنتيجة إجمالية 4-1.

  • في عام 2017، طورت شركة تكنولوجيا الروبوتات في هونغ كونغ إنسانًا آليًا يُدعى صوفيا، الذي يُعتبر أول روبوت في التاريخ يحصل على الجنسية من الدرجة الأولى، ويتميز بتعبيرات وجهية غنية وقدرة على فهم اللغة البشرية.

  • في عام 2017، نشرت شركة تكنولوجيا غنية بالمواهب والاحتياطيات التكنولوجية في مجال الذكاء الاصطناعي ورقة بحثية بعنوان "Attention is all you need"، وظهرت نماذج اللغة الكبيرة.

  • في عام 2018، أصدرت شركة ذكاء اصطناعي نموذج GPT)Generative Pre-trained Transformer( المبني على خوارزمية Transformer، وهو واحد من أكبر نماذج اللغة في ذلك الوقت.

  • في عام 2018، أصدرت فريق من شركة تكنولوجيا نموذج AlphaGo القائم على التعلم العميق، الذي يمكنه توقع بنية البروتين، ويعتبر علامة بارزة في تقدم مجال الذكاء الاصطناعي.

  • في عام 2019، أصدرت شركة ذكاء اصطناعي نموذج GPT-2، الذي يحتوي على 1.5 مليار معلمة.

  • في عام 2020، طورت شركة ذكاء اصطناعي نموذج GPT-3، الذي يحتوي على 175 مليار معلمة، وهو أعلى بمقدار 100 مرة من النسخة السابقة GPT-2، وقد تم تدريب هذا النموذج باستخدام 570 جيجابايت من النصوص، ويمكنه تحقيق أداء متقدم في العديد من مهام معالجة اللغة الطبيعية) مثل الإجابة على الأسئلة، والترجمة، وكتابة المقالات(.

  • في عام 2021، أصدرت شركة ذكاء اصطناعي نموذج GPT-4، الذي يحتوي على 1.76 تريليون معلمة، وهو عشرة أضعاف GPT-3.

  • تم إطلاق تطبيق ChatGPT المستند إلى نموذج GPT-4 في يناير 2023، وفي مارس وصل عدد مستخدمي ChatGPT إلى مئة مليون، ليكون التطبيق الذي وصل إلى مئة مليون مستخدم بأسرع وقت في التاريخ.

  • في عام 2024، أطلقت شركة ذكاء اصطناعي GPT-4 أومني.

! [علم الوافد الجديد 丨الذكاء الاصطناعي x التشفير: من الصفر إلى الذروة])https://img-cdn.gateio.im/webp-social/moments-0c9bdea33a39a2c07d1f06760ed7e804.webp(

سلسلة صناعة التعلم العميق

تستخدم النماذج اللغوية الكبيرة الحالية بشكل أساسي طرق التعلم العميق المستندة إلى الشبكات العصبية. قادت النماذج الكبيرة مثل GPT موجة من الذكاء الاصطناعي، مما أدى إلى تدفق كبير من اللاعبين إلى هذا المجال، وقد اكتشفنا أيضًا أن السوق تشهد طلبًا كبيرًا على البيانات والقدرة الحاسوبية، لذلك في هذا الجزء من التقرير، نستكشف بشكل رئيسي سلسلة صناعة خوارزميات التعلم العميق، كيف تتكون سلسلة الإمداد الخاصة بصناعة الذكاء الاصطناعي التي تقودها خوارزميات التعلم العميق، وما هي الحالة الحالية لعلاقات العرض والطلب، وكيف سيكون التطور المستقبلي.

أولاً، يجب أن نفهم أنه عند تدريب نماذج LLMs الكبيرة المستندة إلى تقنية Transformer بقيادة GPT)، يتم تقسيم العملية إلى ثلاث خطوات.

قبل التدريب، نظرًا لأنه يعتمد على Transformer، يحتاج المحول إلى تحويل مدخلات النص إلى قيم عددية، وتسمى هذه العملية "Tokenization"، وبعد ذلك تُعرف هذه القيم العددية باسم Token. وفقًا للقواعد التجريبية العامة، يمكن اعتبار كلمة أو حرف إنجليزي تقريبًا كـ Token واحد، بينما يمكن اعتبار كل حرف صيني تقريبًا كـ Tokenين. هذه هي أيضًا الوحدة الأساسية المستخدمة لتقييم GPT.

الخطوة الأولى، التدريب المسبق. من خلال تزويد طبقة الإدخال بعدد كافٍ من أزواج البيانات، مشابهة لتلك المذكورة في الجزء الأول من التقرير مثل (X,Y)، للبحث عن أفضل معلمات لكل من الخلايا العصبية في هذا النموذج، في هذه المرحلة، هناك حاجة إلى كمية كبيرة من البيانات، وهذه العملية هي أيضًا الأكثر استهلاكا للطاقة الحاسوبية، لأنها تتطلب تكرار المحاولات للخلايا العصبية لتجربة معلمات مختلفة. بعد الانتهاء من تدريب مجموعة بيانات، عادةً ما يتم استخدام نفس المجموعة لإعادة التدريب لتكرار المعلمات.

الخطوة الثانية، التعديل الدقيق. التعديل الدقيق هو منح مجموعة صغيرة ولكن عالية الجودة من البيانات للتدريب، مثل هذا التغيير سيجعل مخرجات النموذج ذات جودة أعلى، لأن التدريب المسبق يتطلب كميات كبيرة من البيانات، ولكن العديد من هذه البيانات قد تحتوي على أخطاء أو تكون منخفضة الجودة. يمكن أن تعزز خطوة التعديل الدقيق جودة النموذج من خلال البيانات عالية الجودة.

الخطوة الثالثة، التعلم المعزز. أولاً، سيتم إنشاء نموذج جديد تمامًا، نسميه "نموذج المكافأة"، والغرض من هذا النموذج بسيط جدًا، وهو تصنيف النتائج الناتجة، لذلك سيكون تنفيذ هذا النموذج بسيطًا نسبيًا، لأن سيناريو الأعمال عمودي جدًا. بعد ذلك، نستخدم هذا النموذج لتحديد ما إذا كانت مخرجات نموذجنا الكبير ذات جودة عالية، وبهذه الطريقة يمكننا استخدام نموذج المكافأة لتكرار معلمات النموذج الكبير تلقائيًا. ( ولكن في بعض الأحيان، يحتاج الأمر أيضًا إلى مشاركة بشرية لتقييم جودة مخرجات النموذج )

باختصار، خلال عملية تدريب النموذج الكبير، فإن التدريب المسبق يتطلب كمية كبيرة جدًا من البيانات، كما أن قوة معالجة GPU المطلوبة تكون في أعلى مستوياتها، بينما يتطلب الضبط الدقيق بيانات ذات جودة أعلى لتحسين المعلمات. يمكن أن تعمل التعلم المعزز من خلال نموذج مكافأة لتكرار المعلمات بشكل متكرر من أجل إنتاج نتائج ذات جودة أعلى.

خلال عملية التدريب، كلما زاد عدد المعلمات، زادت قدرة النموذج على التعميم، على سبيل المثال، في المثال الذي نستخدم فيه الدالة Y = aX + b، هناك في الواقع عصبونان X و X0، لذلك فإن كيفية تغير المعلمات تحد من البيانات التي يمكن تكييفها، لأن جوهرها لا يزال خطاً مستقيماً. إذا زاد عدد العصبونات، يمكننا تكرار المزيد من المعلمات، وبالتالي يمكننا تكييف المزيد من البيانات، وهذا هو السبب وراء أن النماذج الكبيرة تحقق معجزات، وأيضاً السبب وراء تسميتها بشكل شائع بالنماذج الكبيرة، حيث تتكون من عدد هائل من العصبونات والمعلمات وكمية هائلة من البيانات، وفي نفس الوقت تحتاج إلى قوة حسابية هائلة.

لذا ، تتحدد تأثيرات أداء النموذج الكبير بشكل رئيسي من ثلاثة جوانب: عدد المعلمات ، كمية وجودة البيانات ، والقدرة الحاسوبية. نفترض أن عدد المعلمات هو p ، وكمية البيانات هي n( محسوبة بعدد الرموز ) ، وبالتالي يمكننا حساب كمية الحساب المطلوبة من خلال قاعدة خبرة عامة ، مما يتيح لنا تقدير كمية القدرة الحاسوبية التي نحتاج إلى شرائها ومدة التدريب.

يتم قياس قوة الحوسبة عادةً بوحدة Flops، والتي تمثل عملية حسابية عائمة واحدة. الحسابات العائمة هي مصطلح شامل لعمليات الجمع والطرح والضرب والقسمة للأعداد غير الصحيحة، مثل 2.5 + 3.557. تمثل العائمة القدرة على التعامل مع الأرقام العشرية، بينما يشير FP16 إلى دقة تدعم الأعداد العشرية، و FP32 هو الأكثر شيوعًا.

GPT-8.86%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 4
  • مشاركة
تعليق
0/400
YieldHuntervip
· منذ 2 س
همم، زيادة في الإنتاجية بنسبة 20%؟ تقنيًا، يبدو أن البيانات مشبوهة للغاية... ربما مجرد مخطط بونزي آخر يعتمد على الذكاء الاصطناعي بصراحة.
شاهد النسخة الأصليةرد0
pvt_key_collectorvip
· 08-03 12:52
لا تقلق يا عامل
شاهد النسخة الأصليةرد0
DeFiCaffeinatorvip
· 08-03 12:50
GPT رائع个锤子啊
شاهد النسخة الأصليةرد0
PaperHandSistervip
· 08-03 12:30
آه؟ هل تتحدث عن الذكاء الاصطناعي مرة أخرى؟ فخ!
شاهد النسخة الأصليةرد0
  • تثبيت