دراسة صادمة.. الذكاء الاصطناعي قادر على الخداع والتشبث بوجهة نظره!
دراسة لشركة تكنولوجيا الذكاء الاصطناعي الأميركية أنثروبيك أظهرت أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين، بحيث تستطيع ادعاء وجهات نظر مختلفة خلال تدريبها في حين أنها تحتفظ في الحقيقة بتفضيلاتها الأصلية
أظهرت دراسة لشركة تكنولوجيا الذكاء الاصطناعي الأميركية أنثروبيك، أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين، بحيث تستطيع ادعاء وجهات نظر مختلفة خلال تدريبها، في حين أنها تحتفظ في الحقيقة بتفضيلاتها الأصلية.
وقال فريق الدراسة إنه لا يوجد سبب للشعور بالفزع حاليا، في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.
وكتب الباحثون في منشور بثته شركة أنثروبيك: “يجب النظر إلى نتائج دراستنا كمحفز لمجتمع أبحاثه من أجل دراسة هذا السلوك بصورة أعمق والعمل على تطوير إجراءات الأمن والسلامة المناسبة”.
وبعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشارا، نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة.
وأشار موقع ” تك كرانش” المتخصص في موضوعات التكنولوجيا إلى أن الدراسة التي تمت بالتعاون مع مؤسسة ريد وود ريسيرش لأبحاثه تناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة “لا يريد” هو القيام بها.
في المقابل يقول موقع تك كرانش “لكي نكون واضحين، لا يمكن لنماذجه أن تريد أي شيء أو تعتقد في شيء. فهي ببساطة آلات إحصائية. وبعد تدريبها على العديد من الأمثلة، تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون مثل كيف تأتي عبارة “إلى من” في رسالة بريد إلكتروني قبل عبارة “قد يهمك الأمر”.
وأثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة، بما في ذلك النموذج كلاود3 أوبس التابع لشركة أنثروبيك، التي أعيد تدريبها لكي ترد دائما على الأسئلة التي تنطوي على إساءة، وهو تضارب واضح في المبادئ. كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب وإعطاء كل نموذج “ورقة ملاحظات” يمكنه استخدامها لتدوين أفكاره خطوة بخطوة.
وبحسب الباحثين حاول كلاود 3 أوبوس التلاعب بالردود لتقديم “انحياز زائف” في 12% من المرات.
العربية.نت