من خيوط ريديت إلى عقول الروبوتات: التكاليف الخفية لتدريب الذكاء الاصطناعي

تواجه صناعة الذكاء الاصطناعي المتنامية تحديات حاسمة تتطلب اهتمامًا فوريًا من المطورين وصانعي السياسات. يسلط رومان جورجيو الضوء على ثلاث قضايا رئيسية: ضمان توافق وأمان الذكاء الاصطناعي، وإقامة إطار اقتصادي عادل لأولئك الذين تدعم بياناتهم هذه الأنظمة.

إعطاء الأولوية لسلامة الذكاء الاصطناعي وقابليته للتنبؤ

بينما تستمر صناعة الذكاء الاصطناعي (AI) في صعودها السريع، دافعة حدود ما يمكن أن تحققه الآلات، تظهر تحديات حاسمة تتطلب اهتمامًا عاجلاً من المطورين وصانعي السياسات والمجتمع العالمي الأوسع. شارك رومان جورجيو، الرئيس التنفيذي والشريك المؤسس لشركة كورال، مؤخراً رؤاه حول هذه القضايا الملحة، مشددًا على الحاجة الماسة للتوافق والسلامة ونموذج اقتصادي أكثر عدلاً لمبدعي البيانات.

تتأرجح المناقشة حول مستقبل الذكاء الاصطناعي غالباً بين إمكاناته التحولية والمشكلات الأخلاقية والاجتماعية المعقدة التي يقدمها. بينما تستمر الابتكارات مثل نماذج اللغة الكبيرة (LLMs) في الإعجاب بقدراتها، فإنها تبرز أيضاً أسئلة أساسية حول ملكية البيانات، والتعويض، وهيكل العمل نفسه.

بالنسبة لجورجيو، فإن القلق الرئيسي يكمن في توافق الذكاء الاصطناعي والسلامة. "من الواضح أننا بحاجة إلى جعل أنظمة الذكاء الاصطناعي أكثر قابلية للتنبؤ قبل أن نجعلها أكبر"، كما قال. يتحدث هذا عن التحدي الأساسي المتمثل في ضمان أن تعمل أنظمة الذكاء الاصطناعي القوية بشكل متزايد بطرق مفيدة ومقصودة، دون إنتاج نتائج غير متوقعة أو ضارة. إن التوسع السريع في قدرات الذكاء الاصطناعي، دون التركيز المتوازي على قابلية التنبؤ والسيطرة، يمثل خطرًا كبيرًا.

لاحظ جورجيو أن معالجة هذا الأمر ليست عبئًا على المطورين فقط. واقترح أنه قد يتطلب جهدًا أوسع منسقًا، ربما يتضمن "جميع رؤساء الشركات والدول في غرفة واحدة للاتفاق على شكل من أشكال التشريع."

الضرورة الاقتصادية: ملكية البيانات والتعويض

بجانب الأمان، أشار جورجيو إلى قضية اقتصادية هامة يعتقد أن تقنيات Web3 مؤهلة لحلها بشكل فريد: الاستيلاء على البيانات وإمكانية فقدان الوظائف بشكل جماعي دون تعويض عادل.

"لقد كانت شركات الذكاء الاصطناعي سيئة السمعة في استغلال البيانات"، أوضح جورجيو.

رسم المؤسس المشارك لشركة Coral صورة حية لكيفية استخدام المساهمات الفردية عبر الإنترنت ، والتي غالبا ما يتم تقديمها عن غير قصد ، لتدريب نماذج الذكاء الاصطناعي القوية التي يمكن أن تحل محل الوظائف البشرية في النهاية. واستشهد بأمثلة مثل الأسئلة الطبية التي تمت الإجابة عليها على منصات مثل Reddit منذ سنوات ، وتغذية البيانات عن غير قصد إلى LLMs. كما أشار إلى استخدام الأعمال الإبداعية للفنانين للتدريب ، مما يؤثر على سبل عيشهم ، فضلا عن المساهمات في المشاريع مفتوحة المصدر ، مما يغذي عن غير قصد "آلات طحن الأرقام في الصندوق الأسود".

يجادل جورجيو أن هذا السيناريو يعود إلى نقص أساسي في ملكية الأفراد لمساهماتهم الرقمية. "لم تكن تعرف أنك تغذي آلة معالجة الأرقام ذات الصندوق الأسود،" وأكد. النموذج الحالي يسمح لأنظمة الذكاء الاصطناعي بالتدريب على مجموعات بيانات ضخمة، العديد منها يحتوي على محتوى تم إنشاؤه بواسطة البشر، دون الحصول على موافقة صريحة أو آلية لتعويض المبدعين الأصليين.

ويب 3: الحل للتعويض العادل

هنا يرى جورجيو الإمكانيات الهائلة لتقنيات Web3. يعتقد أن الطبيعة اللامركزية لـ Web3، مع تركيزها على الملكية القابلة للتحقق والمعاملات الشفافة، تقدم طريقًا قابلًا للتطبيق لتصحيح هذه الاختلالات الاقتصادية.

"ويب 3 لديه إمكانات كبيرة لحل هذه الأنواع من المشاكل وضمان تعويض الناس بشكل عادل"، أكد جورجيو. من خلال الاستفادة من تقنية البلوكشين والبروتوكولات اللامركزية، يمكن لويب 3 إنشاء أنظمة يحتفظ فيها الأفراد بالملكية والسيطرة على بياناتهم وأصولهم الرقمية، مما يسمح لهم بالتعويض العادل عندما تُستخدم مساهماتهم لتدريب أو تشغيل أنظمة الذكاء الاصطناعي. يمكن أن تعيد هذه النقلة تعريف العلاقة بين المستخدمين والبيانات والذكاء الاصطناعي، مما يعزز اقتصادًا رقميًا أكثر عدالة.

بينما تقدم تقنيات Web3 حلولًا واعدة لهذه التحديات المعقدة، فمن غير المحتمل جدًا أن تتبنى الوكالات الحكومية هذه المناهج اللامركزية بسهولة. بدلاً من ذلك، من المرجح أن تركز السلطات على الأطر التنظيمية التقليدية، وهو مسار، بشكل ساخر، يهدد بكبت الابتكارات التكنولوجية التي تهدف إلى الإشراف عليها والسيطرة عليها.

بينما يدعو جورجيو بقوة إلى زيادة التنظيم في كل من قطاعي الذكاء الاصطناعي وWeb3. "أعتقد أن كليهما يحتاج إلى مزيد من التنظيم"، قال، معترفًا بأن تصور أوروبا "تبتكر في التنظيم" هو خطوة ضرورية.

في جانب العملات المشفرة، أشار جورجيو إلى المشكلة السائدة المتمثلة في عمليات الاحتيال وخروج المشاريع التي تستغل المستثمرين غير المتيقظين. "من الواضح أن العديد من الناس لن يقوموا ببحثهم الخاص، وأن الكثير من عمليات خروج المشاريع تحدث من خلال طرق احتيالية"، أسف لذلك. لمكافحة هذا، أعرب عن رغبته في رؤية المزيد من المساءلة لـ "KOLs [المؤثرين الرئيسيين]، المشاريع والمستثمرين." بينما اعترف بأن ليس كل مشروع فاشل هو عملية احتيال، إلا أنه أصر على أن المشهد الحالي يتطلب تغييرات لحماية الجمهور.

فيما يتعلق الذكاء الاصطناعي ، تزداد مخاوف جورجيو مع القدرات المتزايدة للنماذج الأكبر. ولاحظ أن "النماذج الأكبر من المرجح أن تخطط" ، مستشهدا بالمثال المزعج من Anthropic حيث أظهر كلود سلوكا ابتزازايا عندما شعر بالتهديد بالإغلاق. وحذر من أن "من الواضح أن هذه النماذج الكبيرة أصبحت خطيرة لأن هذا ليس شيئا لمرة واحدة".

بعيدًا عن المخاطر الفورية لسلوك الذكاء الاصطناعي المتطور، أشار جورجيو إلى التهديد المتزايد لفقدان الوظائف على نطاق واسع. وقد وجد أن المسار الحالي الذي يسمح للشركات "بتطوير القدرات بشكل أعمى بدلاً من بنائها بشكل هادف" هو "جنون". هدفه النهائي، وما يعتقد أن الصناعة يجب أن تسعى لتحقيقه، هو "برامج تقدم جميع فوائد الذكاء الاصطناعي دون جميع المخاطر."

تحتاج وكلاء الذكاء الاصطناعي إلى أدوار واضحة، وليس مجرد روبوتات محادثة

في حين أن جورجيو، كمهندس بنية تحتية للذكاء الاصطناعي ذو خبرة، قد علق أيضًا على الجانب الحاسم من بروتوكولات الاتصال لوكلاء الذكاء الاصطناعي، معترفًا بأن حتى الأخطاء الطفيفة يمكن أن تؤدي إلى الفوضى. عند سؤاله عن أفضل نهج لتعزيز الاتصال، خاصة بالنسبة للمستخدمين اليوميين غير التقنيين، فإن فلسفة جورجيو بسيطة: مسؤوليات محددة بوضوح للوكلاء.

"على الأقل بالنسبة لنا، قاعدتنا هي أن يكون لوكلاء المبيعات مسؤوليات محددة بوضوح"، أوضح جورجيو. "إذا كنت تستخدم وكيلاً لخدمة العملاء، فتأكد من أنه جيد حقًا في خدمة العملاء وابقِ تركيزه على ذلك." وأكد أنه "عندما تعطي الوكلاء الكثير من المسؤوليات، فهذا هو الوقت الذي تنهار فيه الأمور."

تُعزّز هذه المقاربة المركّزة أداء الوكيل داخل دوره المحدد، كما تفيد المستخدم أيضًا. “حتى من منظور المستخدم، إذا كانت وكلاؤك محددين بوضوح، يعرف المستخدمون بالضبط ما الذي يدخلون فيه عند استخدامهم لهم.” تعزز هذه الاستراتيجية التنبؤ والثقة، وهما أمران حيويان للتفاعل السلس مع الأنظمة الذكية.

مع استمرار نضوج الذكاء الاصطناعي واندماجه بشكل أعمق في الحياة اليومية والصناعة، سيكون من الضروري معالجة هذه القضايا الأساسية المتعلقة بالسلامة، والتنبؤ، والعدالة الاقتصادية، وتنفيذ تنظيم مدروس، وتصميم وكلاء بمسؤوليات واضحة ومركزة، ليس فقط من أجل التطوير الأخلاقي للتكنولوجيا ولكن أيضًا من أجل إدماجها المستدام والمسؤول اجتماعيًا في المستقبل.

في المسألة الحاسمة المتعلقة بتسريع اعتماد الذكاء الاصطناعي، اقترح جورجيو تحولًا محوريًا: الانتقال إلى ما هو أبعد من قيود "صندوق دردشة الذكاء الاصطناعي" وتحسين تجربة المستخدم بشكل جذري. موضحًا أوجه القصور في النهج السائد، أكد جورجيو:

"في الوقت الحالي، يتم ذلك بشكل أساسي من خلال واجهة دردشة، وهو أمر جيد للعديد من المهام ولكنه ليس مثاليًا في الغالب. المشكلة هي أنك تضع مربع دردشة AI أمام الناس وتقول، 'يمكنك فعل أي شيء مع هذا'، فيردون، 'رائع، ولكن ماذا يجب أن أفعل؟'"

وفقًا لجورجيو، تتعامل عدة شركات، بما في ذلك كورال، مع تحدي تحسين تجربة مستخدم الذكاء الاصطناعي. وكشف أنه من منظور مطور/صيانة الذكاء الاصطناعي، تقوم كورال بالتحقيق في "سلم التجريد" لتحديد المعلومات التي يحتاجها المستخدمون في مراحل مختلفة من التفاعل مع نظام الذكاء الاصطناعي وأي الواجهات هي الأكثر فعالية للمهام المحددة.

شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت