بعد مؤتمر Zhiyuan 2023: أنا أكثر ثقة في الذكاء الاصطناعي وأكثر قلقًا بشأن البشر

في 9 يونيو ، تم افتتاح "مؤتمر بكين تشى يوان" بنجاح في مركز مؤتمرات منطقة العرض الوطني المستقل للابتكار Zhongguancun.

مؤتمر Zhiyuan هو حدث دولي سنوي للتبادل المهني الرفيع المستوى حول الذكاء الاصطناعي يستضيفه معهد Zhiyuan للأبحاث (المعروف أيضًا باسم أقوى معهد صيني لأبحاث الذكاء الاصطناعي في OpenAI في الصين). مهرجان الربيع "- كما يتضح من تشكيلة المشاركين ضيوف:

** الفائزون بجائزة تورينج جيفري هينتون ، يان ليكون ** (هذا أيضًا هو الثاني من بين الثلاثة الكبار في التعلم العميق ، وحضر بنجيو آخر المؤتمر السابق) ، وجوزيف سيفاكيس وياو كيجي ، وتشانغ بو ، وتشنغ ناننينغ ، وشي شياو ليانغ ، وتشانغ هونج جيانغ ، تشانغ يقين وأكاديميون آخرون ، ستيوارت راسل ، مؤسس مركز أنظمة الذكاء الاصطناعي في جامعة كاليفورنيا ، بيركلي ، ماكس تيجمارك ، مؤسس معهد مستقبل الحياة في معهد ماساتشوستس للتكنولوجيا ، ** الرئيس التنفيذي لشركة OpenAI سام التمان ** (هذا أيضًا أول خطاب له في الصين ، على الرغم من أنه متصل بالإنترنت) ، Meta و Microsoft و Google وغيرها من الشركات الكبرى و DeepMind و Anthropic و HuggingFace و Midjourney و Stability AI وأعضاء فريق النجوم الآخرين ، ما مجموعه أكثر من 200 كبار خبراء الذكاء الاصطناعي ...

في اليومين الماضيين ، تابعت البث المباشر للمؤتمر ، وكطالب فنون ليبرالية لا يفهم التكنولوجيا ، استمعت باهتمام كبير بالفعل واكتسبت الكثير.

ومع ذلك ، بعد قراءة خطاب جيفري هينتون ، الفائز النهائي بجائزة تورينج و "أب التعلم العميق" ، أحاطتني بعاطفة قوية ومعقدة:

من ناحية أخرى ، عند رؤية الباحثين في الذكاء الاصطناعي وهم يستكشفون ويتخيلون مختلف التقنيات المتطورة ، سيكون لديهم بطبيعة الحال ثقة أكبر في تحقيق الذكاء الاصطناعي وحتى الذكاء الاصطناعي العام في المستقبل AGI ** ؛

من ناحية أخرى ، فإن سماع الخبراء والعلماء المتميزين يناقشون مخاطر الذكاء الاصطناعي ، فضلاً عن الجهل البشري وازدراءهم لكيفية التعامل مع المخاطر ، ومليء بالمخاوف بشأن مستقبل البشر - المشكلة الأكثر أهمية ، في كلمات هينتون هي: التاريخ لم تكن هناك سابقة في العالم حيث يتحكم شخص أقل ذكاء في شيء أكثر ذكاء. ** إذا اخترعت الضفادع البشر ، فمن برأيك سيتولى زمام الأمور؟ هل هو ضفدع أم إنسان؟ **

بسبب كثرة المعلومات في المؤتمر الذي استمر لمدة يومين ، فقد استغرقت بعض الوقت لفرز مواد بعض الخطب المهمة ، وسجلت بعضًا من أفكاري بالمناسبة ، حتى أتمكن من مراجعتها لاحقًا ومشاركتها مع كل من يهتم بتقدم الذكاء الاصطناعي.

شرح: الجزء المميز بـ [ملاحظة] أدناه هو رأيي الشخصي ، والمحتوى مُلخص كاقتباس (لا يمكنني كتابته - \ _- || بسبب قدرتي المحدودة) ، المصدر هو الرابط في نهاية كل جزء وبعضها تم تعديله.

** الرئيس التنفيذي لشركة OpenAI Sam Altman: قد يظهر AGI في غضون عشر سنوات **

في منتدى "AI Safety and Alignment" الذي عُقد طوال اليوم في 10 يونيو ، ألقى المؤسس المشارك لـ OpenAI Sam Altman كلمة افتتاحية - وهي أيضًا أول خطاب له في الصين ، على الرغم من أنه كان عبر الإنترنت.

أعطى الحديث رؤى حول إمكانية تفسير النموذج ، وقابلية التوسع ، والتعميم. بعد ذلك ، عقد كل من Sam Altman و Zhang Hongjiang ، رئيس معهد Zhiyuan للأبحاث ، قمة أسئلة وأجوبة ، وناقشت بشكل أساسي كيفية تعميق التعاون الدولي ، وكيفية إجراء أبحاث أكثر أمانًا في مجال الذكاء الاصطناعي ، وكيفية التعامل مع المخاطر المستقبلية للذكاء الاصطناعي في العصر الحالي. نماذج الذكاء الاصطناعي واسعة النطاق.

** ملخص ممتاز: **

  • السبب وراء تأثير ثورة الذكاء الاصطناعي الحالية ليس فقط في حجم تأثيرها ، ولكن أيضًا في سرعة تقدمها. هذا يجلب كل من الأرباح والمخاطر.
  • المكاسب المحتملة من الذكاء الاصطناعي ضخمة. لكن يجب علينا إدارة المخاطر معًا حتى نتمكن من استخدامها لتحسين الإنتاجية ومستويات المعيشة.
  • مع ظهور أنظمة الذكاء الاصطناعي القوية بشكل متزايد ** ، لم تكن مخاطر التعاون العالمي أكبر من أي وقت مضى. غالبًا ما يكون للقوى العظمى اختلافات في الرأي في التاريخ ، لكن التعاون والتنسيق ضروريان في بعض أهم القضايا. ** يُعد تعزيز أمان الذكاء الاصطناعي العام أحد أهم المجالات التي نحتاج فيها إلى ** إيجاد اهتمامات مشتركة **. في خطابه ، أكد ألتمان مرارًا وتكرارًا على ضرورة التوافق والإشراف على أمن الذكاء الاصطناعي العالمي ، واقتبس على وجه التحديد جملة من Tao Te Ching: رحلة الألف ميل تبدأ بخطوة واحدة. المحاذاة لا تزال قضية مفتوحة.
  • ** تخيل نظام الذكاء الاصطناعي العام المستقبلي الذي ربما يحتوي على 100000 سطر من التعليمات البرمجية الثنائية ، فمن غير المرجح أن يكتشف المشرفون البشريون ما إذا كان مثل هذا النموذج يقوم بشيء شنيع. **
  • ** استغرق GPT-4 ثمانية أشهر لإكمال المحاذاة. ** ومع ذلك ، لا تزال الأبحاث ذات الصلة قيد التطوير. ** وتنقسم بشكل أساسي إلى جانبين: قابلية التوسع وقابلية التفسير. أحدهما هو الإشراف القابل للتطوير ، في محاولة لاستخدام أنظمة الذكاء الاصطناعي لمساعدة البشر في الإشراف على أنظمة الذكاء الاصطناعي الأخرى. والثاني هو القابلية للتفسير ، ومحاولة فهم "الصندوق الأسود" للأعمال الداخلية للنموذج الكبير. في النهاية ، تهدف OpenAI إلى تدريب أنظمة الذكاء الاصطناعي للمساعدة في مواءمة البحث.

عندما سأله Zhang Hongjiang إلى أي مدى بعيد عن عصر الذكاء الاصطناعي العام (AGI) ، قال Sam Altman ، "في السنوات العشر القادمة ، ستولد أنظمة الذكاء الاصطناعي الفائقة ، لكن من الصعب التنبؤ بنقطة زمنية محددة." ، كما شدد على أن "السرعة التي غيرت بها التقنيات الجديدة العالم بالكامل هي أبعد من الخيال."

وعندما سئل عما إذا كانت OpenAI ستفتح المصدر الكبير للنماذج الكبيرة ، قال ألتمان إنه سيكون هناك المزيد من المصادر المفتوحة في المستقبل ، لكن لا يوجد نموذج محدد أو جدول زمني محدد. بالإضافة إلى ذلك ، قال أيضًا أنه لن يكون هناك GPT-5 في أي وقت قريب. ** بعد الاجتماع ، أصدر ألتمان رسالة للتعبير عن امتنانه لدعوته لإلقاء كلمة في مؤتمر Zhiyuan.

** يانغ ليكون ، الحائز على جائزة تورينج: لن يستخدم أحد نموذج GPT في غضون خمس سنوات ، والنموذج العالمي هو مستقبل AGI **

ألقى يانغ ليكون ، أحد عمالقة التعلم العميق الثلاثة والفائز بجائزة تورينج ، خطابًا رئيسيًا بعنوان "نحو آلات يمكنها التعلم والعقل والتخطيط". كما هو الحال دائمًا ، تساءل عن المسار الحالي يقترح LLM فكرة أخرى لآلة يمكنها التعلم والعقل والتخطيط: النموذج العالمي.

النقاط الرئيسية للخطاب:

  • ** لا تزال قدرة الذكاء الاصطناعي بعيدة كل البعد عن قدرة البشر والحيوانات - تنعكس الفجوة بشكل أساسي في التفكير المنطقي والتخطيط ، ويمكن للنموذج الكبير فقط "الاستجابة بشكل غريزي" في الوقت الحالي. **** ما هو التعلم تحت الإشراف الذاتي؟ التعلم تحت الإشراف الذاتي يدور حول التقاط التبعيات في المدخلات. **
  • يلتقط نظام التدريب التبعيات بين ما نراه وما لم نراه. أداء النماذج الكبيرة الحالية مذهل إذا تم تدريبها على بيانات من تريليون توكن أو اثنين تريليون توكن.
  • ** ننخدع بسهولة بسيولتها. لكنهم في النهاية يرتكبون أخطاء غبية. ** يرتكبون أخطاء واقعية وأخطاء منطقية وتناقضات ولديهم أسباب محدودة ** وينتجون محتوى ضارًا. ** يحتاج هذا النموذج الكبير إلى إعادة التدريب.
  • ** كيف تُمكِّن الذكاء الاصطناعي من التخطيط حقًا مثل البشر؟ شاهد كيف يتعلم البشر والحيوانات بسرعة - من خلال رؤية العالم وتجربته. **
  • يعتقد Yang Likun أن تطوير الذكاء الاصطناعي في المستقبل يواجه ثلاثة تحديات رئيسية: ** تعلم تمثيلات العالم ، والتنبؤ بنماذج العالم ، واستخدام التعلم تحت الإشراف الذاتي. ** ** الأول هو تعلم نموذج التمثيل والتنبؤ للعالم ** طبعا يمكن تعلمه بطريقة ذاتية الإشراف.

** ثانياً ، تعلم التفكير. ** يتوافق هذا مع مفهوم عالم النفس دانيال كانيمان عن ** النظام 1 والنظام 2 **. النظام 1 هو السلوك البشري أو الفعل الذي يتوافق مع حسابات اللاوعي ، تلك الأشياء التي يمكن القيام بها دون تفكير ؛ بينما النظام 2 هو المهام التي تستخدم بوعي وعمد كل قوة تفكيرك لإكمالها. في الوقت الحالي ، يمكن للذكاء الاصطناعي بشكل أساسي فقط أن يدرك الوظائف في النظام 1 ، وهو غير مكتمل ؛

** يتمثل التحدي الأخير في كيفية التخطيط لتسلسلات معقدة من الإجراءات عن طريق تحليل المهام المعقدة إلى مهام أبسط ** ، وتعمل بطريقة هرمية.

  • نتيجة لذلك ، اقترح يانغ ليكون ** "النموذج العالمي" ، والذي يتكون من ست وحدات مستقلة ، بما في ذلك: ** وحدة التكوين ، وحدة الإدراك ، النموذج العالمي ، وحدة التكلفة ، وحدة الممثل ، وحدة الذاكرة قصيرة المدى. ** يعتقد أن تصميم العمارة ونموذج التدريب للنموذج العالمي هو العقبة الحقيقية التي تعيق تطور الذكاء الاصطناعي في العقود القليلة القادمة.

لطالما أعرب LeCun عن ازدرائه لفكرة أن الذكاء الاصطناعي سيدمر البشر ، ويعتقد أن الذكاء الاصطناعي اليوم ليس ذكيًا مثل الكلب ، وهذا القلق لا داعي له. ** عندما سُئل عما إذا كان نظام الذكاء الاصطناعي يشكل خطرًا وجوديًا على البشر ، قال LeCun ، ** ليس لدينا ذكاء اصطناعي فائق حتى الآن ، فكيف يمكننا أن نجعل نظام الذكاء الاصطناعي الفائق آمنًا؟ **

** "اسأل الناس اليوم ، هل يمكننا أن نضمن أن نظامًا فائق الذكاء آمن للبشر ، هذا سؤال لا يمكن الإجابة عليه. لأننا لا نملك تصميمًا لنظام فائق الذكاء. لذا حتى يكون لديك تصميم أساسي ، لا يمكنك اجعل شيئًا آمنًا. ** يبدو الأمر كما لو طلبت من مهندس طيران في عام 1930 ، هل يمكنك جعل محرك نفاث نفاثًا آمنًا وموثوقًا؟ وسيقول المهندس ، "ما هو المحرك التوربيني النفاث؟" "لأن المحرك التوربيني النفاث لم يتم اختراعه في عام 1930. لذلك نحن نوعًا ما في نفس الموقف. من السابق لأوانه قليلًا الادعاء بأنه لا يمكننا جعل هذه الأنظمة آمنة لأننا لم نبتكرها. اخترعهم - ربما سيكونون مشابهين للمخطط الذي توصلت إليه ، فإن الأمر يستحق المناقشة ".

** الأستاذ ماكس تيجمارك ، مركز معهد ماساتشوستس للتكنولوجيا للذكاء الاصطناعي وبحوث التفاعل الأساسية: التحكم في الذكاء الاصطناعي من خلال التفسير الميكانيكي **

ماكس تيجمارك ، حاليًا أستاذ الفيزياء في معهد ماساتشوستس للتكنولوجيا ، والمدير العلمي لمعهد القضايا الأساسية ، ومؤسس معهد مستقبل الحياة ، والمشهور "تعليق مبادرة أبحاث الذكاء الاصطناعي" ( في نهاية شهر مارس ، ألقى إيلون ماسك ، الحائز على جائزة تورينغ يوشوا بنجيو ، المؤسس المشارك لشركة أبل ستيف وزنياك وغيرهم من المشاهير أكثر من 1000 شخص) كلمة رائعة في مؤتمر Zhiyuan حول "كيفية التحكم في الذكاء الاصطناعي" (إبقاء الذكاء الاصطناعي تحت السيطرة) ، وأجرى حوارًا مع Zhang Yaqin ، الأكاديمي بجامعة Tsinghua ، لمناقشة قضايا الأمن الأخلاقي للذكاء الاصطناعي والوقاية من المخاطر.

تمت مناقشة الخطاب بالتفصيل ** القابلية للتفسير الميكانيكي للذكاء الاصطناعي ** ، وهي في الواقع دراسة لكيفية تخزين المعرفة البشرية في تلك الاتصالات المعقدة في الشبكات العصبية. إذا استمر البحث في هذا الاتجاه ، فقد يكون قادرًا أخيرًا على ** شرح السؤال النهائي حول سبب إنتاج نموذج لغة LLM للذكاء **.

بالإضافة إلى الخطاب ، فإن الحقيقة المثيرة للاهتمام هي أنه ، بصفتك البادئ في "Pause AI Research Initiative" ، يركز الخطاب الرئيسي على كيفية إجراء بحث نموذجي واسع النطاق للذكاء الاصطناعي أكثر تعمقًا. ربما كما قال ماكس نفسه في النهاية ، إنه ليس الشخص المحكوم عليه بالفشل كما قال البروفيسور يانغ ليكون ، أحد عمالقة الذكاء الاصطناعي ، إنه في الواقع مليء بالأمل والتوق إلى الذكاء الاصطناعي ، لكن يمكننا ضمان أن كل هؤلاء أكثر قوة الذكاءات تخدمنا وتستخدمها.إنها تأتي لخلق مستقبل أكثر إلهامًا مما حلم به كتاب الخيال العلمي في الماضي. **

ملحوظة: اعتقدت أنه سيكون مملًا للغاية ، لكن بشكل غير متوقع كان مثيرًا للغاية ، وشاهدت أطول خطاب لمدة ساعة مع الاستمتاع! ** كما هو متوقع من الأستاذ الذي كثيرًا ما يحاضر ، فهو رائع جدًا وعميق نظريًا وسهل الفهم. الأمر الأكثر إثارة للدهشة هو أنه ليس فقط خصمًا قويًا للذكاء الاصطناعي ، ولكنه في الواقع مدافع عن ذكاء اصطناعي أفضل! ** يمكنني أيضًا التحدث بالصينية ، ولا أنسى أن أجند نفسي أثناء إلقاء خطاب ...

** مقتطفات من أفكار رائعة: **

  1. التفسير الميكانيكي هو مجال مثير للاهتمام للغاية. تقوم بتدريب شبكة عصبية معقدة لا تفهمها لأداء مهام ذكية ، ثم تحاول معرفة كيف تقوم بذلك.

كيف نفعل ذلك؟ يمكن أن يكون لديك ثلاثة مستويات مختلفة من الطموح. ** أدنى مستوى من الطموح هو مجرد تشخيص مصداقيته ، وكم يجب أن تثق به. ** على سبيل المثال ، عندما تقود سيارة ، حتى إذا كنت لا تفهم كيفية عمل المكابح ، فأنت على الأقل تريد أن تعرف ما إذا كان يمكنك الوثوق بها لإبطائك.

** المستوى التالي من الطموح هو فهمه بشكل أفضل بحيث يكون أكثر جدارة بالثقة. ** الطموح النهائي طموح للغاية ، وهذا ما أتوقعه ، هو أننا سنتمكن من استخراج كل المعرفة التي يتعلمونها من أنظمة التعلم الآلي وإعادة تطبيقها في أنظمة أخرى لإثبات أنهم سيفعلون ما نريد. **

  1. دعونا نبطئ ، فلنتأكد من أننا نطور حواجز حماية أفضل. لذا قال الخطاب دعونا نتوقف للحظة ، المذكورة سابقًا. أريد أن أكون واضحًا ، فهو لا يقول إننا يجب أن نوقف الذكاء الاصطناعي مؤقتًا ، ولا يقول إننا يجب أن نوقف أي شيء إلى حد كبير. لقد سمعنا في هذا الاجتماع حتى الآن أنه يجب علينا الاستمرار في إجراء جميع الأبحاث الرائعة التي تقومون بها يا رفاق. ** تقول فقط أنه يجب علينا التوقف مؤقتًا ، وإيقاف تطوير أنظمة أقوى من GPT-4. ** إذن هذا في الغالب وقفة لبعض الشركات الغربية.

الآن ، السبب هو أن هذه هي الأنظمة الدقيقة التي يمكن أن تخرجنا عن نطاق السيطرة ، أسرع وأقوى الأنظمة التي لا نفهمها بما فيه الكفاية. ** الغرض من التوقف المؤقت هو فقط جعل الذكاء الاصطناعي أشبه بالتقنية الحيوية ** ، في مجال التكنولوجيا الحيوية ، لا يمكنك أن تقول فقط أنك شركة ، مهلاً ، لدي عقار جديد ، لقد اكتشفته ، و سيبدأ البيع في محلات السوبر ماركت الكبرى في بكين غدًا. عليك أولاً إقناع الخبراء في الحكومة الصينية أو الحكومة الأمريكية بأن هذا دواء آمن ، وأن فوائده تفوق عيوبه ، وأن هناك عملية مراجعة ، وبعد ذلك يمكنك القيام بذلك.

دعونا لا نرتكب هذا الخطأ ، فلنصبح أكثر شبهاً بالتكنولوجيا الحيوية ، باستخدام أقوى أنظمتنا ، على عكس فوكوشيما وتشرنوبيل.

** 3 、 **** Zhang Yaqin **: حسنًا ، ماكس ، لقد أمضيت حياتك المهنية في الرياضيات والفيزياء وعلم الأعصاب وبالطبع الذكاء الاصطناعي. من الواضح أننا سنعتمد في المستقبل أكثر فأكثر على الكفاءات والمعرفة متعددة التخصصات. لدينا العديد من طلاب الدراسات العليا والعديد من شباب المستقبل.

ما هي نصيحتك للشباب حول كيفية اتخاذ الخيارات المهنية؟

** Max Tegmark **: أولاً ، ** نصيحتي هي التركيز على الأساسيات في عصر الذكاء الاصطناعي. لأن الاقتصاد وسوق العمل يتغيران بشكل أسرع وأسرع. ** لذا ، ** نحن نبتعد عن هذا النمط من الدراسة لمدة 12 أو 20 عامًا ثم نفعل الشيء نفسه لبقية حياتنا **. لن يكون الأمر كذلك.

علاوة على ذلك ، ** لديك أساس متين وجيد جدًا في التفكير الإبداعي المنفتح. بهذه الطريقة فقط يمكننا أن نكون رشيقين ونتبع الاتجاه. **

بالطبع ، راقب ما يحدث في مجال الذكاء الاصطناعي ككل ، وليس فقط في مجالك **. لأنه في سوق العمل ، أول ما يحدث ليس استبدال البشر بالآلات. لكن ** الأشخاص الذين لا يعملون مع الذكاء الاصطناعي سيتم استبدالهم بأشخاص يعملون. **

هل يمكنني إضافة المزيد؟ أرى الوقت يتأرجح هناك.

أريد فقط أن أقول شيئًا متفائلًا. أعتقد أن Yann LeCun يسخر مني. دعاني المحكوم عليه بالفشل. لكن إذا نظرت إلي ، فأنا في الواقع سعيد ومبهج للغاية. ** أنا في الواقع أكثر تفاؤلاً من Yann LeCun بشأن قدرتنا على فهم أنظمة الذكاء الاصطناعي المستقبلية. ** أعتقد أنها واعدة جدًا جدًا.

أعتقد أننا إذا تقدمنا بأقصى سرعة وسلمنا المزيد من التحكم من البشر إلى الآلات التي لا نفهمها ، فسينتهي الأمر بطريقة سيئة للغاية. لكن لا يتعين علينا القيام بذلك. أعتقد أننا إذا عملنا بجد على التفسير الآلي والعديد من الموضوعات التقنية الأخرى التي سيتم سماعها هنا اليوم ، يمكننا في الواقع التأكد من أن كل هذا الذكاء الأعظم في خدمتنا ونستخدمه لخلق عالم أكثر إلهامًا مستقبل.

** محادثة مع مؤسس Midjourney: الصور هي الخطوة الأولى فقط ، الذكاء الاصطناعي سيحدث ثورة في التعلم والإبداع والتنظيم **

يعد MidJourney حاليًا المحرك الأكثر سخونة لتوليد الصور ، في ظل المنافسة الشرسة بين OpenAI's DALL · E 2 ونموذج المصدر المفتوح Stable Diffusion ، لا يزال يحتفظ بالصدارة المطلقة في تأثيرات توليد الأنماط المختلفة.

Midjourney هي شركة مدهشة ، 11 شخصًا يغيرون العالم ويصنعون منتجًا رائعًا ، مقدّر له أن يكون قصة السنوات الأولى لـ Pre AGI.

ملحوظة: الحوار الذي طال انتظاره بين مؤسس Midjourney والرئيس التنفيذي David Holz و Geek Park Zhang Peng ، وكل ذلك باللغة الإنجليزية ، بدون ترجمة ، لم أكن أتوقع أن أفهمه تمامًا ، وأنا مهتم جدًا به ، لأن الأسئلة والأجوبة هي رائع جدًا ، وخاصة ديفيد ، لم أستطع إلا أن أضحك عندما أجبت. لقد ضحك مثل طفل بريء. مع الخبرة في إدارة الفرق الكبيرة ، قال ، "لم أرغب أبدًا في أن يكون لدي شركة ، كنت أرغب في الحصول على منزل." لقد أخذها حتى الآن ، أصبحت Midjourney ، التي تضم 20 شخصًا فقط ، وحيد القرن الذي يجذب انتباه العالم ، مما قد يغير نموذج الشركات الناشئة المستقبلية.

** الدافع الريادي: إطلاق العنان للخيال البشري **

** Zhang Peng: ** في العشرين عامًا الماضية ، قابلت العديد من رواد الأعمال في الداخل والخارج. لقد اكتشفت أن لديهم شيئًا مشتركًا ، ولديهم جميعًا دافع قوي للاستكشاف والإبداع "من لا شيء".

كنت أتساءل ، عندما بدأت MidJourney ، ما هي القوة الدافعة لديك؟ في تلك اللحظة ، ما الذي تتوق إليه؟

** ديفيد هولز: لم أفكر مطلقًا في إنشاء شركة. أنا فقط أريد "منزل". **

آمل أنه خلال السنوات العشر أو العشرين القادمة ، هنا في Midjourney ، يمكنني إنشاء أشياء أهتم بها حقًا وأريد حقًا إحضارها إلى هذا العالم.

كثيرا ما أفكر في مشاكل مختلفة. ربما لا يمكنني حل كل مشكلة ، لكن يمكنني ** محاولة جعل الجميع أكثر قدرة على حل المشكلات. **

لذلك أحاول التفكير في كيفية حلها ، وكيفية إنشاء شيء ما. في رأيي ، يمكن تلخيص هذا في ثلاث نقاط. ** أولاً علينا أن نفكر في أنفسنا: ماذا نريد؟ ما هي المشكلة بالضبط؟ **** إذن علينا أن نتخيل: إلى أين نتجه؟ ما هي الاحتمالات؟ **** في النهاية ، علينا التنسيق مع بعضنا البعض والتعاون مع الآخرين لتحقيق ما نتخيله. **

أعتقد أن هناك فرصة كبيرة في الذكاء الاصطناعي لجمع هذه الأجزاء الثلاثة معًا وإنشاء بنية تحتية مهمة تجعلنا أفضل في حل هذه المشكلة. بطريقة ما ، يجب أن يكون الذكاء الاصطناعي قادرًا على مساعدتنا في التفكير في أنفسنا ، وتخيل اتجاهاتنا المستقبلية بشكل أفضل ، ومساعدتنا في العثور على بعضنا البعض والتعاون بشكل أفضل. يمكننا القيام بهذه الأشياء معًا ودمجها في نوع من إطار واحد. أعتقد أنه سيغير الطريقة التي نخلق بها الأشياء ونحل المشاكل. هذا هو الشيء المهم الذي أريد القيام به. **

أعتقد أنه في بعض الأحيان (فعلنا ذلك أولاً) ** يمكن أن يصبح إنشاء الصور مربكًا ** ، ولكن من نواح كثيرة ، يعد إنشاء الصور مفهومًا راسخًا. ** أصبحت Midjourney مجموعة فائقة الخيال من ملايين الأشخاص الذين يستكشفون إمكانيات هذا الفضاء. **

** في السنوات القادمة ستكون هناك فرص لمزيد من الاستكشافات المرئية والفنية أكثر من جميع الاكتشافات التاريخية السابقة مجتمعة. **

هذا لا يحل جميع المشاكل التي نواجهها ، لكنني أعتقد أنها ** اختبار ** ، ** تجربة **. إذا تمكنا من إكمال هذا الاستكشاف للمجال المرئي ، فيمكننا أيضًا القيام بذلك في أشياء أخرى.كل الأشياء الأخرى التي تتطلب منا الاستكشاف والتفكير معًا ، أعتقد أنه يمكن حلها بطريقة مماثلة.

لذلك عندما فكرت في كيفية البدء في حل هذه المشكلة ، كان لدينا الكثير من الأفكار ، وقمنا ببناء الكثير من النماذج الأولية ، ولكن فجأة كان هناك اختراق في مجال الذكاء الاصطناعي ، وخاصة في الرؤية ، وأدركنا أن هذا كان فريدًا فرصة لتكون قادرًا على إنشاء شيء لم يجربه أحد من قبل. جعلنا نريد أن نجربها.

نعتقد أنه ربما لن يمر وقت طويل قبل أن يتحد كل شيء معًا لتشكيل شيء مميز للغاية. هذه ليست سوى البداية.

** Zhang Peng: ** إذن ، الصورة (الجيل) ليست سوى الخطوة الأولى ، وهدفك النهائي هو تحرير الخيال البشري. هل هذا ما جذبك إلى ميدجورني؟

** ديفيد هولز: ** أحب الأشياء الخيالية حقًا. آمل أيضًا أن يكون للعالم المزيد من الإبداع. من الممتع جدًا رؤية الأفكار المجنونة كل يوم.

** إعادة فهم المعرفة: المعرفة التاريخية تصبح قوة الخلق **

** تشانغ بينغ: ** هذا ممتع للغاية. عادة ما نقول كلمات فارغة ، أرني الرمز الخاص بك (الفكرة رخيصة ، أرني الرمز). لكن في الوقت الحالي ، يبدو أن الأفكار هي الشيء الوحيد المهم. طالما يمكنك التعبير عن أفكارك من خلال سلسلة من الكلمات الممتازة ، يمكن أن يساعدك الذكاء الاصطناعي على إدراكها. إذن ، هل تعريفات التعلم والإبداع تتغير؟ ماذا تعتقد؟

** ديفيد هولز: ** أعتقد أن أحد الأشياء المثيرة للاهتمام هو أنه عندما تمنح الناس مزيدًا من الوقت ليكونوا مبدعين ، فإنهم أيضًا يهتمون أكثر بتعلم نفسه. **

على سبيل المثال ، هناك أسلوب فني شائع جدًا في الولايات المتحدة يسمى Art Deco. لم أهتم أبدًا بما هو هذا النوع من الفن ، حتى يوم ما ، عندما تمكنت من صنع أعمال من هذا النوع من الأسلوب الفني من خلال التعليمات ، أصبحت فجأة مهتمًا جدًا به وأردت معرفة المزيد عن تاريخه.

أعتقد أنه من المثير للاهتمام أن نكون أكثر اهتمامًا بالتاريخ عندما يصبح شيئًا يمكنك استخدامه على الفور وتسهيل إنشاءه. ** إذا أصبحت واجهة المستخدم جيدة بما فيه الكفاية ، يشعر المستخدمون أن الذكاء الاصطناعي أصبح امتدادًا لتفكيرنا. يشبه الذكاء الاصطناعي جزءًا من جسدنا وعقلنا ، ويرتبط الذكاء الاصطناعي ارتباطًا وثيقًا بالتاريخ إلى حد ما ، وسنكون أيضًا على صلة وثيقة بالتاريخ. هذا ممتع جدا.

عندما نسأل مستخدمينا عما يريدونه أكثر ، فإن الإجابة الأولى والثانية هي أنهم يريدون مواد تعليمية ، ليس فقط كيفية استخدام الأدوات ، ولكن الفن والتاريخ وعدسات الكاميرا والذكاء ، يريدون فهم وإتقان كل المعارف والمفاهيم متاح للإنشاء.

** في السابق ، كانت المعرفة مجرد تاريخ في الماضي ، ولكن الآن ، المعرفة هي القدرة على الإبداع. **

** يمكن للمعرفة أن تلعب دورًا أكبر على الفور ، والناس حريصون على اكتساب المزيد من المعرفة. **هذا رائع جدا.

** بريان كريستيان: تم إصدار النسخة الصينية من الكتاب الجديد "محاذاة الإنسان والآلة" **

تم إصدار النسخة الصينية من "محاذاة الإنسان والآلة". قدم المؤلف براين كريستيان باختصار المحتوى الرئيسي للكتاب بأكمله في 10 دقائق. يبدو غنياً ومثيراً للغاية ، كما أنه يعكس التطور السريع الحالي للذكاء الاصطناعي.

بريان كريستيان مؤلف علمي حائز على جوائز. حصل كتابه "جمال الخوارزميات" على جائزة أمازون كأفضل كتاب علمي لهذا العام وجائزة أفضل كتاب في العام لمجلة إم آي تي تكنولوجي ريفيو. تم اختيار كتابه الجديد ، مشكلة المحاذاة: التعلم الآلي والقيم الإنسانية ، الذي تتم ترجمته حاليًا إلى اللغة الصينية ، من قبل الرئيس التنفيذي لشركة Microsoft ، ساتيا ناديلا ، كأفضل خمسة كتب ألهمته في عام 2021 **.

كتاب "محاذاة الإنسان والآلة" مقسم إلى 3 أجزاء.

يستكشف الجزء الأول القضايا الأخلاقية والأمنية التي تؤثر على أنظمة التعلم الآلي اليوم.

الجزء الثاني يسمى الوكلاء ، والذي ينقل التركيز من التعلم الخاضع للإشراف والإشراف الذاتي إلى التعلم المعزز.

يعتمد الجزء الثالث على الإشراف والإشراف الذاتي والتعلم المعزز لمناقشة كيف يمكننا محاذاة أنظمة الذكاء الاصطناعي المعقدة في العالم الحقيقي.

** يانغ ياودونغ ، أستاذ مساعد ، معهد الذكاء الاصطناعي ، جامعة بكين: استعراض للتقدم المحرز في التوافق الآمن لنماذج اللغات الكبيرة **

ملاحظة: كان خطاب "التوافق الأمني لنماذج اللغات الكبيرة" الذي ألقاه يانغ ياودونغ ، الأستاذ المساعد في معهد الذكاء الاصطناعي بجامعة بكين ، مثيرًا للغاية. أولاً ، كان بإمكانه فهم الخطاب باللغة الصينية. ثانيًا ، شرح الحديث سلامة النماذج اللغوية الكبيرة بلغة سهلة الفهم للغاية. التقدم البحثي الرئيسي للمحاذاة ، يحدد النقاط الرئيسية ، ويتجاوز العديد من المحتويات حول تقدم RLHF في العمق.

نظرًا لأنني لا أعرف التكنولوجيا التفصيلية ، لا يمكنني فهم المبدأ إلا تقريبًا وتسجيل بعض النقاط المثيرة للاهتمام:

** ثلاث طرق محاذاة اقترحتها OpenAI: **

  • تدريب الذكاء الاصطناعي باستخدام التغذية الراجعة البشرية
  • تدريب الذكاء الاصطناعي لمساعدة التقييم البشري
  • تدريب منظمة العفو الدولية على القيام بأبحاث المحاذاة

** لا يزال سوق محاذاة النماذج الكبيرة لمنظمة العفو الدولية عبارة عن محيط أزرق: **

  • ** النماذج الكبيرة الموجودة ، باستثناء GPT ، فشلت تقريبًا في تحقيق المحاذاة بأي شكل من الأشكال **
  • ستكون تقنية التحول من الأغراض العامة إلى الأغراض الخاصة للنماذج واسعة النطاق هي الارتفاع القيادي التالي في تطوير النماذج واسعة النطاق

** 3 طرق آمنة للمحاذاة: **

  • في مرحلة ما قبل التدريب ** من خلال الفرز اليدوي وتنقية البيانات للحصول على بيانات عالية الجودة **
  • ** استخدم نموذج المكافأة لأخذ عينات الرفض ** في مرحلة الإخراج لتحسين جودة الإنتاج وأمانه. أو في منتج مباشر ، ** ترفض الاستجابة لمدخلات المستخدم. **
  • في مرحلة الضبط الدقيق (SFT و BLHF) ، ** أضف تعليمات مستخدم أكثر تنوعًا وغير ضارة ** لتتماشى مع نماذج التفضيل البشري ، بما في ذلك RBRM و Constitutional Al.

** من RLHF إلى RLAIF: الذكاء الاصطناعي الدستوري **

** الحائز على جائزة تورينج جيفري هينتون: الذكاء الخارق سيكون أسرع بكثير مما كان متوقعًا ، وأنا قلق جدًا من أن يتحكم هؤلاء في البشر **

الحائز على جائزة تورينج ، "أبو التعلم العميق" خطاب جيفري هينتون الختامي ، وموضوعه "مساران إلى الذكاء".

عراب الذكاء الاصطناعي يجلب لنا البحث الذي ** أقنعه بأن الذكاء الخارق سيكون أسرع بكثير من المتوقع: الحساب المميت **. وصف الخطاب بنية حوسبة جديدة ، بعد التخلي عن مبدأ فصل البرمجيات والأجهزة ، أي كيفية تحقيق الحوسبة الذكية دون استخدام backpropagation لوصف المسار الداخلي للشبكة العصبية.

** النقاط الرئيسية في الخطاب: **

  • يقترح هينتون إمكانية جديدة للذكاء الاصطناعي: الحوسبة المميتة. الحوسبة المميتة تجعل البرامج والأجهزة لم تعد منفصلة ، وتستخدم الأجهزة المادية لأداء الحوسبة المتوازية بشكل أكثر دقة. يمكن أن يؤدي إلى استهلاك أقل للطاقة وتصنيع أجهزة أكثر بساطة ، ولكن من الصعب تدريبها وتوسيع نطاقها وفقًا للنماذج واسعة النطاق.
  • هناك طريقتان للمجموعات الذكية لمشاركة المعرفة ، الحوسبة البيولوجية والرقمية ، المشاركة البيولوجية لها نطاق ترددي منخفض وبطيء للغاية ، بينما للنسخ الرقمي نطاق ترددي مرتفع وسريع للغاية. البشر بيولوجيون ، في حين أن الذكاء الاصطناعي رقمي ، لذا بمجرد أن يتقن الذكاء الاصطناعي المزيد من المعرفة من خلال الوسائط المتعددة ، ستكون سرعة مشاركتهم سريعة جدًا ، وستتجاوز البشر قريبًا.
  • عندما يتطور الذكاء الاصطناعي ليكون أكثر ذكاءً من البشر ، فمن المحتمل أن يشكل مخاطر هائلة. بما في ذلك استغلال وخداع البشر في محاولة للوصول إلى السلطة. ومن المحتمل أن تكون غير ودية مع البشر.

السبب وراء تسمية نموذج الحوسبة الجديد تمامًا بواسطة Hinton له معنى عميق:

  1. قال هينتون من قبل أن الخلود قد تحقق بالفعل. نظرًا لأن نموذج اللغة الكبيرة الحالي لمنظمة العفو الدولية قد تعلم المعرفة البشرية في تريليونات من المعلمات ، وهو مستقل عن الأجهزة: طالما يتم إعادة إنتاج الأجهزة المتوافقة مع التعليمات ، يمكن تشغيل نفس الرمز ووزن النموذج مباشرةً في المستقبل. بهذا المعنى ، فإن الذكاء البشري (وليس البشر) يخلد.

  2. ومع ذلك ، فإن هذه الحوسبة المنفصلة للأجهزة والبرامج غير فعالة للغاية من حيث كفاءة الطاقة وحجم التنفيذ. إذا تخلينا عن مبدأ تصميم الكمبيوتر المتمثل في فصل الأجهزة عن البرامج ، وأدركنا الذكاء في صندوق أسود موحد ، فستكون هذه طريقة جديدة لتحقيق الذكاء.

  3. هذا النوع من تصميم الحوسبة الذي لم يعد يفصل بين البرامج والأجهزة سيقلل بشكل كبير من استهلاك الطاقة ومقياس الحوسبة (ضع في اعتبارك أن استهلاك الطاقة للعقل البشري هو 20 واط فقط)

  4. ولكن في نفس الوقت ، فهذا يعني أنه لا يمكن نسخ الوزن بكفاءة لنسخ الحكمة ، أي التخلي عن الحياة الأبدية.

هل الشبكات العصبية الاصطناعية أذكى من الشبكات العصبية الحقيقية؟

ماذا لو تمكنت شبكة عصبية كبيرة تعمل على أجهزة كمبيوتر رقمية متعددة من اكتساب المعرفة مباشرة من العالم ، بالإضافة إلى تقليد اللغة البشرية من أجل المعرفة البشرية؟

من الواضح أنها ستصبح أفضل بكثير من البشر لأنها رصدت بيانات أكثر.

إذا كان بإمكان هذه الشبكة العصبية القيام بنمذجة غير خاضعة للإشراف للصور أو مقاطع الفيديو ، فيمكن لنسخها أيضًا التلاعب بالعالم المادي - فهذا ليس خيالًا.

ملاحظة: فقط عندما اعتقد الجميع أن الخطاب Xingjiang قد انتهى ، في الصفحة قبل الأخيرة ، قال هينتون - بنبرة مختلفة عن جميع العلماء السابقين ، بمشاعر عاطفية ومختلطة قليلة - أفكاره حول مخاوف التطور السريع الحالية للذكاء الاصطناعي ، وهي أيضًا الصوت الفضولي للعالم بعد أن ترك Google مؤخرًا بحزم و "يأسف لعمل حياته وقلقه من مخاطر الذكاء الاصطناعي":

أعتقد أن تحقيق هذه ** الذكاء الخارق قد يكون أسرع بكثير مما كنت أفكر فيه **.

سوف يرغب الأشرار في استخدامها للقيام بأشياء مثل التلاعب بالناخبين. يستخدمونها بالفعل في الولايات المتحدة والعديد من الأماكن الأخرى لهذا الغرض. وسوف تستخدم لكسب الحروب.

لجعل الذكاء الرقمي أكثر فعالية ، نحتاج إلى السماح له بتحديد بعض الأهداف. ومع ذلك ، هناك مشكلة واضحة هنا. هناك هدف فرعي واضح جدًا ومفيد جدًا لأي شيء تريد تحقيقه تقريبًا ، وهو يكتسب المزيد من القوة والمزيد من التحكم **. وجود المزيد من التحكم يجعل من السهل تحقيق أهدافك. وأجد صعوبة في تخيل كيف يمكننا منع الذكاء الرقمي من السعي للحصول على مزيد من التحكم من أجل تحقيق أهداف أخرى.

** بمجرد أن يبدأ الذكاء الرقمي في السعي إلى مزيد من التحكم ، قد نواجه المزيد من المشكلات. **

** في المقابل ، نادرًا ما يفكر البشر في الأنواع الأكثر ذكاءً منهم ، وكيفية التفاعل مع هذه الأنواع. في ملاحظتي ، أتقن هذا النوع من الذكاء الاصطناعي أفعال خداع البشر ببراعة ، لأنه يمكنه استخدام قراءة الروايات من أجل تعلم كيفية خداع الآخرين ، وبمجرد أن يتمتع الذكاء الاصطناعي بالقدرة على "الخداع" ، فسيكون لديه أيضًا القدرة المذكورة أعلاه للتحكم في البشر بسهولة. ** ما يسمى بالسيطرة ، على سبيل المثال ، إذا كنت تريد اختراق مبنى في واشنطن ، فأنت لست بحاجة للذهاب إلى هناك شخصيًا ، فأنت تحتاج فقط إلى خداع الناس ليعتقدوا أنه من خلال اختراق المبنى ، يمكنهم إنقاذ الديمقراطية وتحقيق هدفك في النهاية (سخرية ترامب).

في هذا الوقت ، قال غيرفيري هينتون ، الذي تجاوز الستين من عمره وكرس حياته للذكاء الاصطناعي:

"أشعر بالفزع ، لا أعرف كيف أمنع هذا من الحدوث ، لكنني عجوز ، وآمل أن يكتشف العديد من الباحثين الشباب والموهوبين مثلك كيف لدينا هذه الذكاء الخارق التي ستجعل حياتنا تتحسن أوقف هذا النوع من التحكم من خلال الخداع ... ربما يمكننا أن نعطيهم مبادئ أخلاقية ، لكن في الوقت الحالي ، ما زلت متوترة ، ** لأنه حتى الآن ، لا يمكنني التفكير في الأمر - بما فيه الكفاية في فجوة الذكاء وقت كبير - مثال على شيء أكثر ذكاءً يتحكم فيه شيء أقل ذكاءً. **** إذا اخترعت الضفادع البشر ، فمن برأيك سيتحكم؟ الضفادع أم البشر؟ ** هذا أيضًا أحضر آخر PPT ، النهاية. "

عندما استمعت إليها ، بدا لي أنني أستمع إلى "** الصبي الذي قتل التنين مرة واحدة ، عندما بلغ سن الشفق ونظر إلى حياته ، قام بنبوءة يوم القيامة ** ، تمامًا كما كانت الشمس الإعداد ، لقد كنت المرة الأولى التي أدرك فيها بعمق الخطر الهائل للذكاء الاصطناعي على البشر ، وأنا محرج للغاية.

بالمقارنة مع Hinton ، من الواضح أن Lecun ، أحد عمالقة التعلم العميق الأصغر سنا ، أكثر تفاؤلا:

عندما سُئل عما إذا كان نظام الذكاء الاصطناعي يشكل خطرًا وجوديًا على البشر ، قال LeCun ، ** ليس لدينا ذكاء اصطناعي فائق حتى الآن ، فكيف يمكننا أن نجعل نظام الذكاء الاصطناعي الفائق آمنًا؟ **

إنه يجعل الناس يفكرون في المواقف المختلفة لأناس الأرض تجاه حضارة الأجسام الثلاثة في "مشكلة الأجسام الثلاثة" ...

في ذلك اليوم ، كنت لا أزال أخطط لإيقاف تشغيل الكمبيوتر في مزاج أسف لانهائي. وعلى غير المتوقع ، ألقى Huang Tiejun ، مدير معهد Zhiyuan للأبحاث ، خطابًا ختاميًا مثاليًا: "لا يمكن الإغلاق".

لخص هوانغ تيجون لأول مرة وجهات نظر الخطابات السابقة:

الذكاء الاصطناعي يزداد قوة وأقوى ، والمخاطر واضحة وتتزايد يومًا بعد يوم ؛

كيف نبني ذكاءً اصطناعيًا آمنًا ، فنحن نعرف القليل جدًا ؛

يمكن التعلم من التجربة التاريخية: إدارة المخدرات ، ومراقبة الأسلحة النووية ، والحوسبة الكمومية ...

لكن يصعب التنبؤ بأنظمة الذكاء الاصطناعي شديدة التعقيد: اختبار المخاطر ، وتفسير الآلية ، وتعميم الفهم ... مجرد البداية

هدف التحدي الجديد: هل يخدم الذكاء الاصطناعي أهدافه أو أهدافه البشرية؟

بشكل أساسي ، هل يريد الناس بناء الذكاء الاصطناعي العام GAI أو الذكاء الاصطناعي العام AGI؟

الإجماع الأكاديمي هو الذكاء الاصطناعي العام AGI: الذكاء الاصطناعي الذي وصل إلى المستويات البشرية في جميع جوانب الذكاء البشري ، ويمكنه الاستجابة بشكل تكيفي للتحديات البيئية الخارجية وإكمال جميع المهام التي يمكن للبشر إكمالها ؛ يمكن أيضًا أن يطلق عليه الذكاء الاصطناعي المستقل ، فوق الإنسان الذكاء والذكاء القوي والذكاء الاصطناعي.

من ناحية أخرى ، الجميع متحمسون لبناء ذكاء اصطناعي عام ويسارعون للاستثمار.

من ناحية أخرى ، أنا أسخر من أن الذكاء الاصطناعي جعل البشر يصبحون مواطنين من الدرجة الثانية ، لكن هذه المعارضة الثنائية ليست أصعب شيء. الصفقة الكبيرة هي التصويت. أصعب شيء هو ، ما الذي يجب أن نفعله في مواجهة الذكاء الاصطناعي مثل بالقرب من AGI مثل ChatGPT؟ **

إذا استجاب البشر للمخاطر بنفس الحماس مثل الاستثمار في بناء الذكاء الاصطناعي ، فربما لا يزال من الممكن تحقيق ذكاء اصطناعي آمن ، ** ولكن هل تعتقد أن بإمكان البشر فعل ذلك؟ لا اعرف شكرا! **

شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت