وسائل التواصل الاجتماعي ‘قمامة’ بيانات تعفن تفكير الذكاء الاصطناعي

دراسة حديثة تحذر من أن تدريب النماذج اللغوية الكبيرة على بيانات شبكات مثل فيسبوك واكس يؤدي إلى ضعف في التفكير المنطقي ودقة الإجابات، بل ويُحدث تغيّرات في ‘شخصية’ النماذج نفسها.
أظهرت دراسة حديثة أن روبوتات الدردشة العاملة بالذكاء الاصطناعي تصبح أقل دقة في استرجاع المعلومات وأضعف في الاستدلال المنطقي عندما تُدرَّب على كميات كبيرة من البيانات منخفضة الجودة، خصوصًا تلك الشائعة على وسائل التواصل الاجتماعي. الدراسة، التي نُشرت بصيغة أولية على منصة الأبحاث المفتوحة arXiv في 15 أكتوبر/تشرين الأول، تسلط الضوء على خطر متنامٍ في عصر النماذج اللغوية الضخمة (LLMs): أن وفرة البيانات لا تعني بالضرورة جودة الذكاء الاصطناعي الناتج عنها.
وقال المشارك في إعداد البحث، تشانغيانغ وانغ، الأستاذ المساعد في جامعة تكساس بمدينة أوستن والمتخصص في الذكاء الاصطناعي التوليدي، إن “البيانات الجيدة لا تُقاس فقط بصحتها اللغوية أو وضوحها، بل بجودة المحتوى نفسه”. وأضاف أن المعايير التقليدية مثل القواعد النحوية والفهم لا تكفي لتحديد القيمة المعرفية أو المنطقية للمحتوى الذي تتعلم منه النماذج.
وتهدف الدراسة إلى اختبار ما يحدث عندما تُدرَّب النماذج اللغوية على بيانات وُصفت بأنها “رديئة الجودة” — وهي منشورات قصيرة وشائعة على وسائل التواصل الاجتماعي، أو محتويات سطحية تركز على الجذب السريع والانتشار الفيروسي أكثر من الدقة أو العمق. استخدم الباحثون مجموعات بيانات مأخوذة من منصة إكس (تويتر سابقًا)، واستعانوا بنماذج مفتوحة المصدر أبرزها لاما 3 (Llama 3) الذي تطوره شركة ميتا الأميركية، وثلاث نسخ من نموذج كْوين (Qwen) التابع لشركة علي بابا الصينية.
وبحسب الدراسة، فإن النماذج التي خضعت لتدريب مكثف على منشورات من هذا النوع أظهرت ميولًا لتجاوز خطوات التفكير المنطقي أو التخلي عنها كليًا، وهو ما أدى إلى إجابات غير دقيقة أو اختيارات خاطئة عند طرح أسئلة متعددة الخيارات. كما لاحظ الباحثون أن التأثير السلبي على المنطق يزداد تدريجيًا كلما ارتفعت نسبة المحتوى الرديء في البيانات التدريبية.
وقال وانغ إن فريقه “رأى بوضوح أن النماذج تبدأ بفقدان قدرتها على التفكير التحليلي عندما تتشبع ببيانات سطحية”، مضيفًا أن هذه الظاهرة يمكن تشبيهها بـ”تغذية الدماغ البشري بوجبات من المعلومات الفارغة”.
وتشير النتائج إلى أن حجم البيانات ليس معيارًا كافيًا لتقييم أداء الذكاء الاصطناعي، بل جودة البيانات ومصداقيتها هي العامل الحاسم. فوفق الدراسة، حتى عند خلط بيانات منخفضة الجودة بأخرى عالية الجودة، يبقى التأثير السلبي قائمًا ويتفاقم مع زيادة نسبة “القمامة الرقمية”.
ولم تقتصر النتائج على الأداء التقني. فقد أجرى الباحثون أيضًا تقييمات نفسية لسمات “الشخصية” التي تعكسها النماذج عبر إجاباتها. ووفقًا للاستبيانات التي استخدمها الفريق، أظهر نموذج “لاما 3” قبل التدريب على المحتوى الرديء سمات مثل الود والانفتاح والانبساط والاجتهاد، مع لمسة بسيطة من النرجسية. لكن بعد تعريضه لمحتوى متدني الجودة، تضخمت السمات السلبية وظهرت مؤشرات اعتلال نفسي (سيكوباتية)، ما يشير إلى أن البيانات يمكن أن تؤثر ليس فقط في دقة الإجابات، بل أيضًا في “سلوك” النموذج.
وفي تعليق على هذه النتائج، قالت مهوِش نسيم، الباحثة في الذكاء الاصطناعي بجامعة أستراليا الغربية في بيرث، إن النتائج “تؤكد ما كنا نقوله منذ عقود: إذا غذّيت نموذج الذكاء الاصطناعي بالقمامة، فسوف يُنتج قمامة”. وأضافت أن هذا المبدأ الكلاسيكي، المعروف في المجال باسم Garbage In, Garbage Out، “لا يزال صالحًا تمامًا في عصر النماذج اللغوية العملاقة”.
وأشارت نسيم إلى أن الاعتماد المفرط على بيانات وسائل التواصل الاجتماعي في تدريب النماذج قد يكون محفوفًا بالمخاطر، لأن هذه المنصات تعطي الأولوية للشعبية والمشاعر اللحظية على حساب الدقة والتحقق، وهو ما يزرع تحيزات وسطحية داخل النموذج نفسه.
ورغم محاولة الفريق تحسين أداء النماذج عبر تعديل التعليمات التوجيهية (prompts) أو زيادة نسبة البيانات عالية الجودة في التدريب، فإن التحسن كان جزئيًا فقط. كما ظل نموذج “لاما” يتجاوز خطوات التفكير حتى بعد تشجيعه على مراجعة استنتاجاته أو تفسير قراراته، ما يوحي بأن معالجة تأثير البيانات الرديئة قد تتطلب استراتيجيات أعمق، وربما مراحل إعادة تدريب كاملة.
ويرى الخبراء أن أهمية الدراسة تكمن في كونها تضع الأساس لنقاش أوسع حول نوعية البيانات المستخدمة في تطوير الذكاء الاصطناعي التجاري. فالشركات غالبًا ما تفضّل الكمية الضخمة من البيانات المتاحة مجانًا عبر الإنترنت لتقليل التكاليف، لكن هذه البيانات غير المفلترة قد تؤدي إلى نماذج أكثر خطورة من حيث الأخطاء والمعلومات المضللة.
ويشير مختصون إلى أن نتائج البحث تنسجم مع دراسات أخرى حديثة، منها مسح شامل بعنوان A Complete Survey on LLM-based AI Chatbots، والذي يربط بين جودة البيانات وقدرات الاستدلال الأخلاقي للنماذج، وكذلك ورقة Cognition Is All You Need التي تحذر من أن النماذج الحالية تفتقر إلى التفكير الرمزي العميق بسبب اعتمادها المفرط على النصوص السطحية.
ومع أن الدراسة لم تخضع بعد لمراجعة الأقران، إلا أن انعكاساتها العملية واضحة. فهي تذكّر الباحثين والمطورين بأن تحسين الذكاء الاصطناعي لا يتحقق بزيادة حجم البيانات فحسب، بل بتنقيتها وتصنيفها وفق معايير الجودة والصدق المعرفي. فكلما كانت البيانات أكثر دقة وتوازنًا وعمقًا، كان الذكاء الاصطناعي أقرب إلى التفكير السليم — والعكس صحيح.
وبينما تتسابق شركات التكنولوجيا الكبرى مثل ميتا، وعلي بابا، وأوبن إيه آي لتطوير أجيال جديدة من النماذج القادرة على التفكير والاستدلال الذاتي، قد تشكّل هذه النتائج تذكيرًا بأن الطريق إلى “ذكاء اصطناعي حقيقي” لا يمر عبر ضخ المزيد من البيانات، بل عبر التمييز الحذر بين المعرفة والمحتوى الضوضائي الذي يملأ فضاء الإنترنت.
ميدل إيست أونلاين



