منوعات
عصر الشك الكامل.. الذكاء الاصطناعي يقود أخطر موجة تضليل في التاريخ
في عصر تتسارع فيه تقنيات الذكاء الاصطناعي وتتداخل فيه الحقائق مع المحتوى المزيّف، أصبح من السهل التشكيك في كل ما يُنشر، خاصة مع تصاعد استخدام أدوات التزييف العميق في إنتاج صور وفيديوهات تبدو واقعية بشكل مخادع.
يسأل عنوان متداول على الإنترنت عمّا إذا كان “نتنياهو حقيقيًا أم مُولَّدًا بالذكاء الاصطناعي؟”، في إشارة إلى مقطع مصوَّر يظهر رئيس الوزراء الإسرائيلي، وبدا وكأن لديه ستة أصابع، في سياق متزايد من التلاعب منذ بدء الحرب الأمريكية-الإسرائيلية على إيران.
كان الفيديو حقيقيًا، لكن سرعان ما انتشرت تكهّنات على الإنترنت تزعم أن نتنياهو قُتل أو أُصيب في ضربة إيرانية، وأن إسرائيل تُخفي الحقيقة باستخدام نسخة مُولَّدة بالذكاء الاصطناعي.
ثورة صامتة في الهندسة.. مشروع «نماذج العالم» يقود الذكاء الاصطناعي
وجاء في تعليق على منصة “إكس” حصد نحو 5 ملايين مشاهدة: “آخر مرة تحققت، لم يكن لدى البشر ستة أصابع... إلا إذا كان الأمر متعلقًا بالذكاء الاصطناعي. هل لم يعد نتنياهو على قيد الحياة؟”.
وسارع خبراء في التحقيق الرقمي إلى تفسير “الإصبع الزائد” بأنه مجرد خداع بصري ناجم عن إضاءة وظل عابر، جعلا جزءًا من كفه يبدو كأنه إصبع إضافي.
لكن هذا التفسير ضاع وسط الضجيج على الإنترنت.
وفقا لوكالة "فرانس برس"، لم يعد غريبًا أن تختفي الأخطاء التقليدية التي كانت تفضح الصور المُولَّدة بالذكاء الاصطناعي، مثل “الأصابع الزائدة”، بعدما أصبحت أدوات إنتاج “الديب فيك” قادرة على إنشاء مقاطع فائقة الواقعية خلال ثوانٍ.
فكيف يمكن إثبات أن ما هو حقيقي فعلًا حقيقي، في وقت تلاشت فيه الحدود بين الواقع والتلاعب وسط ضباب الحرب في إيران، حتى باتت الصور الحقيقية موضع تشكيك؟
وبعد أيام من انتشار الفيديو الأول، نشر نتنياهو مقطعًا ثانيًا، بدا كأنه “إثبات حياة”، صُوِّر في مقهى، وظهر فيه وهو يرفع يديه وكأنه يتحدى المشككين أن يعدّوا أصابعه.
لكن بدلًا من تهدئة الشكوك، أثار ذلك موجة جديدة من نظريات لا أساس لها.
وكتب مستخدم على “ثريدز” في منشور واسع الانتشار: “هذا أيضًا ذكاء اصطناعي”، متسائلًا كيف لم ينسكب فنجان القهوة الممتلئ رغم حركة يديه، وبقي ممتلئًا بعد رشفة كبيرة.
واستمرت الشكوك حتى بعد نشر فيديو ثالث لنتنياهو برفقة السفير الأميركي في إسرائيل مايك هاكابي، إذ ركّز بعض المدققين على الإنترنت على أذنيه، معتبرين أن شكلهما لا يطابق الصور السابقة له.
شائعات
منذ اندلاع الحرب في الشرق الأوسط في 28 فبراير/شباط، نشرت شبكة فرانس برس أكثر من 500 مادة تحقق من المعلومات، كشفت عن معلومات مضللة، بينها ما يتراوح بين 20 و25% تم إنشاؤها باستخدام الذكاء الاصطناعي، وهو مستوى غير مسبوق خلال أزمة مماثلة.
وقد شهدت حروب سابقة، مثل الحرب الروسية في أوكرانيا أو الحرب في غزة، موجات من المحتوى المُولَّد بالذكاء الاصطناعي.
لكن ما يميّز هذه الحرب هو حجم هذا المحتوى وواقعيته، بفضل أدوات متقدمة ومنخفضة التكلفة ومتاحة على نطاق واسع، قادرة على إزالة كثير من العلامات التي كانت تكشف التلاعب، بحسب باحثين.
وتغصّ المنصات الرقمية بما يصفه كثيرون بـ”الفوضى الرقمية”.
ويقول مدير مجموعة أبحاث في الذكاء الاصطناعي في جامعة ساسكس البريطانية، توماس نوفوتني: “أعتقد أننا يجب أن نتعامل مع الصور والفيديوهات والتسجيلات الصوتية كما نتعامل مع الشائعات”.
وقد بلغت درجة واقعية المحتوى المُولَّد بالذكاء الاصطناعي حدًا جعل الصور والفيديوهات الحقيقية نفسها موضع شك، ما يخلق أزمة ثقة.
وتوضح أستاذة في جامعة ماينوث الإيرلندية، كونستانس دو سان لوران، أن “مشكلة التضليل اليوم ليست أن الناس يصدقونه، بل أنهم لم يعودوا يثقون حتى بالمعلومات الحقيقية”.
محتوى ضار
يتجاوز حجم المحتوى الزائف قدرات المدققين، وحتى وسائل إعلام كبرى قد تقع في الخطأ. فقد أعلنت مجلة “دير شبيغل” الألمانية أخيرًا سحب صور مرتبطة بإيران، بعدما تبيّن أنها على الأرجح مُولَّدة بالذكاء الاصطناعي.
وحتى بعد كشف زيفها، تعود هذه المواد للانتشار، فيما يسميه بعض الباحثين “التضليل الزومبي”.
وتعتمد خوارزميات المنصات على التفاعل (الإعجابات والمشاركات)، وغالبًا ما تعزز المحتوى الصادم والمضلل.
وتقول دو سان لوران إن المنصات “تعمل كناشر من خلال ما تختار عرضه، وغالبًا ما يشمل ذلك محتوى ضارًا ومضللًا”.
كما تسهم الحوافز المالية في تفاقم الظاهرة، إذ تتيح المنصات تحقيق أرباح من التفاعل، ما يشجع بعض المؤثرين على نشر محتوى مضلل.
ووفق معهد الحوار الاستراتيجي في لندن، حققت شبكة حسابات على منصة “إكس” تنشر محتوى مُولَّدًا بالذكاء الاصطناعي حول الحرب، أكثر من مليار مشاهدة منذ اندلاعها.
ومن الأمثلة، مقطع مُولَّد بالذكاء الاصطناعي يُظهر برج خليفة في دبي وهو ينهار، حصد ملايين المشاهدات قبل أن يتم تصحيحه.
مواد ساخرة
كما تنتشر مواد ساخرة مُولَّدة بالذكاء الاصطناعي تُبسّط الحروب وتشوهها، ضمن ظاهرة تقوم على تبسيط الدعاية وتحويلها إلى محتوى ساخر.
ومنها فيلم إيراني مزيف بشخصيات “ليغو” (قطع بلاستيكية شهيرة لتركيب الألعاب)، يتهم دونالد ترامب بشن الحرب لصرف الأنظار عن قضايا أخرى.
كما استُخدمت مقاطع واقعية مزيفة لإظهار “انتصارات” عسكرية إيرانية أو تصوير قادة عالميين في مواقف عبثية.
ورغم تحذير ترامب من أن الذكاء الاصطناعي “سلاح تضليل”، فإنه نفسه نشر محتوى مماثلًا في سياقات أخرى.
إنكار الحقيقة
وكانت أدوات كشف الذكاء الاصطناعي تهدف إلى توضيح الحقيقة، لكنها أحيانًا تزيد الغموض. ففي حالة نتنياهو، صنّف أحد هذه الأدوات الفيديو في المقهى على أنه “مُولَّد بنسبة 96.9%”، بينما خلصت أدوات أخرى إلى العكس.
ولا يقتصر الأمر على الفيديوهات، إذ تنتشر صور أقمار اصطناعية وخرائط مزيفة تُستخدم للتشكيك في الوقائع.
وتشير منظمة “نيوزغارد” إلى أن التضليل لم يعد يقتصر على اختلاق محتوى، بل يشمل أيضًا وصف مواد حقيقية بأنها مزيفة، وبالتالي فإن إمكانية التشكيك في كل شيء تجعل من السهل إنكار الحقائق.
وتقول الخبيرة بمشروع محو الأمية الإعلامية، هانا كوفينغتون: “الجهات السيئة تريد أن يعتقد الناس أن كل شيء يمكن تزويره، حتى لا يثقوا بأي شيء”.
وفي مثال على ذلك، نشر حساب رسمي إيراني صورة لطفل قُتل في قصف، تبيّن لاحقًا أنها على الأرجح مُولَّدة بالذكاء الاصطناعي، دون أن يثير ذلك صدمة واسعة.
وكتب أحد المستخدمين: “ربما معدلة بالذكاء الاصطناعي، لكن المعنى حقيقي”، في تعبير عن واقع جديد بات فيه التمييز بين الحقيقي والمزيف أكثر صعوبة.