علوم وتكنولوجيا

ألو من على الخط، إنس أم خوارزمية؟

مع تطوّر تقنيات الذكاء الاصطناعي التوليدي، أصبح الاحتيال الصوتي عبر مكالمات الهاتف يشكل تهديدًا متزايدًا للأفراد والشركات على حد سواء، إذ بات من الممكن استنساخ أصوات بشرية بشكل شبه مثالي باستخدام أدوات متاحة للجمهور، ما يثير مخاوف كبيرة حول مصداقية الاتصالات الهاتفية التقليدية.

حتى وقت قريب، كان بناء نظام ذكاء اصطناعي قادر على إجراء محادثة هاتفية مقنعة مهمة معقدة للغاية، تتطلب الجمع بين أدوات للتعرف على الصوت، ومعالجة اللغة الطبيعية، وتوليد الكلام، وربطها كلها عبر برمجيات هاتفية حساسة. غير أن ظهور نماذج الذكاء الاصطناعي الفورية والصوتية، مثل واجهة RealTime API من أوبن إيه آي، جعل من الممكن إنشاء هذه الأنظمة في دقائق قليلة، بدون الحاجة إلى مكونات متعددة، مع قدرة فورية على الاستماع، التحليل، والرد بصوت اصطناعي يبدو طبيعيًا.

وتشير الدراسات الحديثة إلى أن قدرة البشر على تمييز الأصوات المزيفة عن الأصوات الحقيقية منخفضة للغاية. فقد وجدت دراسة أكاديمية أن نسبة التمييز الدقيقة بين الصوت الأصلي والمزيف لا تتجاوز 17٪ حتى للأصوات المألوفة، مما يجعل الضحايا عرضة للانخداع بسهولة. كما أن الانخفاض في زمن الكمون (latency) للنماذج الصوتية الحديثة يمكّن المهاجم من إجراء مكالمات مباشرة دون أي تأخير، ما يرفع مستوى الخطورة على المستخدمين.

وكانت حوادث حقيقية قد أثبتت فعالية هذا النوع من الاحتيال. ففي العام الماضي، تعرضت شركة التكنولوجيا البريطانية أروب لعملية احتيال بقيمة 25 مليون دولار عبر مكالمة “ديب فيك”، بينما نجح هجوم تصيّد صوتي على شركة سيسكو في استخراج بيانات من نظام إدارة علاقات العملاء السحابي الخاص بها.

وتشير تقارير McAfee إلى أن واحدًا من كل أربعة أشخاص أبلغ عن تعرضه أو معرفته بشخص تعرّض لمكالمة أو رسالة صوتية مزيفة، وأن 77٪ من هؤلاء الذين فقدوا أموالًا كان السبب استنساخ الصوت.

وتسهم منصات مثل ElevenLabs وCartesia في زيادة حجم هذه المخاطر، إذ تسمح باستنساخ الأصوات باستخدام عينات صوتية قصيرة جدًا، بما في ذلك أصوات الشخصيات العامة، دون علمهم. وقد حذّر مكتب التحقيقات الفيدرالي الأميركي من احتمال انتحال المسؤولين الحكوميين، مؤكدًا أنه لا يجب الوثوق بأي رسالة صوتية تدّعي أنها صادرة عن مسؤول رفيع المستوى دون تحقق إضافي.

واحد من كل أربعة أشخاص أبلغ عن تعرضه أو معرفته بشخص تعرّض لمكالمة أو رسالة صوتية مزيفة

ويُظهر مستودع المخاطر في معهد MIT أن نسبة الحوادث المرتبطة بالاحتيال الصوتي ارتفعت من نحو 9٪ إلى حوالي 48٪ خلال السنوات الخمس الماضية، ما يعكس تصاعد هذه الظاهرة سريعًا.

وتُشير تحليلات Group‑IB وEuropean Parliament Think Tank إلى أن الهجمات الصوتية المزيفة أصبحت مكوّنًا أساسيًا في مشهد الجرائم السيبرانية، مع احتمال أن تنفذ على نطاق واسع بواسطة مشغل واحد قادر على إطلاق مئات الآلاف من المكالمات اليومية، كل واحدة موجهة بشكل شخصي للهدف.

وعلى الصعيد التقني، أصبحت طرق التحقق الصوتي التقليدية، التي كانت تعتمد على التعرف على نمط الصوت، غير موثوقة. لذلك، توصي الدراسات باستخدام أساليب تحقق متعددة العوامل، إضافة إلى تطوير تقنيات كشف الصوت المزيف باستخدام التعلم العميق، واعتماد آليات «تحدّي واستجابة» أو علامات مائية صوتية يمكن التحقق منها رقميًا.

كما أن لهذه التكنولوجيا استخدامات مشروعة، مثل متابعة الرعاية الصحية، وخدمة العملاء، وتعليم اللغات، لكن سهولة الوصول إلى هذه الأدوات تجعلها مزدوجة الاستخدام، حيث يمكن أن تُستغل لارتكاب جرائم واسعة النطاق بسهولة. ويشير الباحثون إلى أن الاحتيال والانتحال الصوتي يقوّضان الثقة في التواصل اليومي، وهو ما يجعل هذه الجرائم “الخط الأمامي” في مرحلة الانتقال إلى الذكاء الاصطناعي التوليدي.

ويخلص خبراء إلى أن التحوّل الحقيقي الذي أحدثه الذكاء الاصطناعي في مجال الصوت لم يأتِ بالذكاء الفائق للبشر، بل بمكالمة هاتفية واحدة قد تبدو طبيعية تمامًا. ويؤكدون أن الأفراد والمؤسسات بحاجة ملحة إلى تدريب ووعي متقدم، وابتكار حلول تقنية وتنظيمية للتصدي لهذا النوع الجديد من الاحتيال، قبل أن يصبح جزءًا لا يمكن السيطرة عليه من الحياة اليومية.

في النهاية، الصوت لم يعد دليلاً على هوية المتحدث، تمامًا كما أصبح البريد الإلكتروني بحاجة إلى التحقق قبل التصديق، ومع استمرار تطور تقنيات الاستنساخ الصوتي، سيصبح التعامل بحذر مع المكالمات الهاتفية ضرورة لا غنى عنها.

 

 

ميدل إيست أون لاين

مقالات ذات صلة

زر الذهاب إلى الأعلى