لكي يصبح النموذج الكبير أكثر ذكاءً، يجب أن يعتمد على تعليم الناس وإدارة الناس - هذه هي Human-in-the-loop RL.



لقد قمت مؤخرًا بمهمة على @JoinSapien، وهي مراجعة عملية استدلال كتبها الذكاء الاصطناعي:

🌱 كيف تفكر الذكاء الاصطناعي؟
🌱 هل هو منطقي؟
🌱 في أي خطوة بدأت الأمور تنحرف؟

تسمى هذه المهمة تقييم CoT (Chain-of-Thought) ، وأنا المدقق المنطقي لها.

علاوة على ذلك، هناك شجرة الأفكار، حيث ستحاول الذكاء الاصطناعي العديد من فروع الأفكار، بينما يقوم البشر بفرز المسار الأفضل.

في الحقيقة، يمكنك أن تعتبر أنك تشرح مسألة لطفل، لكن هذا الطفل هو دماغ المستقبل بمستوى GPT.

هذا العمل، لا يمكن للذكاء الاصطناعي القيام به بمفرده، يجب أن يشارك الإنسان.

@JoinSapien #sapien @KaitoAI # KaitoAI #SapienProtocol
IN-7.96%
TREE-4.04%
GPT-2.09%
شاهد النسخة الأصلية
post-image
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت