الجزيرة.نت - 4/26/2026 12:36:44 PM - GMT (+3 )
لم تعد الدعاية في سياقات الحروب الحديثة تُمارس عبر الخطابات السياسية التقليدية أو وسائل الإعلام الكلاسيكية، بل باتت تتشكل داخل بيئة رقمية سريعة الإيقاع، تتداخل فيها الرسائل السياسية مع المحتوى الترفيهي، وتنتشر عبر مقاطع قصيرة وصور مصممة لجذب الانتباه وتحفيز التفاعل.
ومع صعود الذكاء الاصطناعي التوليدي، تضاعفت قدرة هذه المنظومة على إنتاج محتوى مؤثر وسريع الانتشار، ما أعاد تشكيل العلاقة بين المستخدم والمعلومة بشكل أكثر ضبابية من أي وقت مضى.
بيئة رقمية جديدة تذيب الحدودترى ألميرا زاينوتدينوفا، الباحثة الإسبانية في أخلاقيات وتقنيات الذكاء الاصطناعي المسؤول، أن فهم هذا التحول يبدأ من إدراك أن الفصل الذي كان قائما بين الحياة الرقمية والواقع قد تلاشى إلى حد كبير، إذ أصبحت السياسة والتفاعل الاجتماعي وتشكّل الآراء تحدث ضمن بيئة واحدة مشتركة.
وفي هذا السياق، لم يعد المحتوى المولّد بالذكاء الاصطناعي استثناء، بل أصبح عنصرا متكررا في الحياة اليومية، من مقاطع الفيديو القصيرة التي نراها على "إكس" و"تيك توك" و"إنستغرام"، إلى الصور الاصطناعية والنصوص المؤتمتة التي تُستخدم بالفعل في التلاعب ونشر المعلومات المضللة، مع تسارع كبير في سرعة الإنتاج وحجمه.
وتشير زاينوتدينوفا في حديثها للجزيرة نت إلى أن أحد أبرز مظاهر هذا التحول يتمثل في "الدعاية الاصطناعية" (Slopaganda)، وهي محتوى منخفض الجودة يُنتَج بكثافة عبر أنظمة مؤتمتة، ويعتمد على التكرار واللغة العاطفية والسرديات المبسطة، مع بروز تأثيره في الانتشار المستمر على حساب الدقة.
ويظهر هذا النمط بوضوح في التوترات الجيوسياسية الحديثة، مثل التصعيد بين الولايات المتحدة وإيران، حيث تنتشر مقاطع وصور مولدة بالذكاء الاصطناعي تصاغ بطريقة درامية لترسيخ انطباعات عاطفية وتعزيز سرديات معينة.
إعلان
ويأتي ذلك امتدادا لتحذيرات من استخدام الذكاء الاصطناعي التوليدي في الصراعات دون ضوابط، كما تجلى خلال حرب الأيام الـ12 بين إسرائيل وإيران في يونيو/حزيران 2025، حيث تداخلت الدعاية العسكرية مع أنظمة ذكاء اصطناعي وروبوتات محادثة مثل "غروك" (Grok) قدمت أحيانا تفسيرات مضللة.
وبالتوازي، تسهم ظاهرة "ألباستا" (Alpasta) في تعزيز هذا المشهد، وهي نصوص مولدة بالذكاء الاصطناعي تبدو في ظاهرها طبيعية وسليمة لغويا، لكنها في الواقع تعتمد على تراكيب متكررة وغامضة، ما يمنحها قدرة على التسلل داخل النقاشات العامة دون إثارة الشكوك، مما يجعل الحملات المنسقة أكثر صعوبة في الرصد.
وفي موازاة البعد التقني الذي تشير إليه زاينوتدينوفا، يبرز البعد الإدراكي والإعلامي لهذا التحول، وهو ما يتناوله الكاتب الفلسطيني-الأمريكي المحلل في شؤون السياسة الخارجية طارق كيني شاوا من زاوية تأثيره على ثقة الجمهور وطريقة تلقيه للمعلومات.
إذ يشير الكاتب إلى أنه حتى قبل الانتشار الواسع لأدوات الذكاء الاصطناعي، كانت الثقة في وسائل الإعلام التقليدية تشهد تراجعا ملحوظا، في وقت أصبح فيه الجمهور يعتمد بشكل متزايد على منصات التواصل الاجتماعي مصدرا للأخبار.
غير أن تدفق المحتوى المولد بالذكاء الاصطناعي، وصعوبة التحقق منه أو تمييزه، زاد من تعقيد هذه الأزمة، وجعل عملية التفريق بين الحقيقي والمصطنع أكثر صعوبة من أي وقت سابق.
وفيما يتعلق بتأثير المحتوى الرقمي السريع على إدراك السياسة، يرى شاوا أن هذا التحول يحمل جانبين متناقضين. فمن جهة، أتاح الفضاء الرقمي، عبر منصات مثل "إكس" و"تيليغرام"، إمكانية الوصول إلى معلومات كانت في السابق خارج نطاق الإعلام التقليدي.
لكن من جهة أخرى، فإن التدفق المستمر والمكثف للمحتوى جعل المستخدمين أكثر عرضة لحالة من التشبع المعلوماتي، حيث ينتقل الفرد خلال ثوانٍ بين محتويات شديدة التباين، من مشاهد عنف وحروب إلى محتوى ترفيهي مولد بالذكاء الاصطناعي، ما يؤدي إلى حالة من التشويش واللامبالاة، ويؤثر على طريقة تفاعل الجمهور مع القضايا السياسية بشكل أعمق وأكثر تعقيدا مما كان عليه سابقا.
تحديات التنظيم وحدود السيطرةوتوضح زاينوتدينوفا أن هذه الديناميكيات تفرض تحديات على الأُطر التنظيمية الحالية رغم وجود تشريعات مثل "قانون الذكاء الاصطناعي" في الاتحاد الأوروبي، و"قانون الخدمات الرقمية" الذي يسعى للحد من تضخيم المحتوى المضلل.
إلا أن هذه الجهود تصطدم بقيود هيكلية، إذ تستمر المنصات في مكافأة المحتوى الأكثر جذبا للانتباه بغض النظر عن دقته.
وترى أن خطورة الدعاية الرقمية تكمن في التراكم المستمر، حيث تنتج أنظمة الذكاء الاصطناعي آلاف الرسائل المتشابهة بصيغ مختلفة، ما يجعل من الصعب تتبع النية أو قياس التأثير التراكمي بالسرعة نفسها التي يُنتَج بها. وهو ما يؤدي إلى بيئة معلوماتية مشبعة تربك قدرة المستخدم على التمييز بين الحقيقي والمصطنع ضمن ما يعرف بـ "الحرب المعرفية".
إعلان
كما تشير الباحثة إلى ظاهرة "الحظر الخفي" (shadow-banning)، حيث يُخفّض ظهور المحتوى دون علم المستخدم، ما يعزز انتقال المنصات إلى مرحلة يُستخدم فيها الذكاء الاصطناعي لإنتاج المحتوى وكذلك للتحكم في انتشاره في آن واحد.
في هذه المرحلة، يصعب تجاهل نقاط الضعف التي تعاني منها الحلول التنظيمية والتقنية، فأنظمةُ الإشراف على المحتوى تعتمد بشكل كبير على الأتمتة، وغالبا ما تعجز عن فهم السياق أو السخرية أو التنسيق واسع النطاق، ما يؤدي أحيانا إلى تقييد خطاب مشروع مقابل استمرار حملات التأثير المنظمة.
وترى زاينوتدينوفا أن المنصات تمارس سلطة حقيقية على الخطاب العام عندما تتحكم في التضخيم، حتى عندما يُبرَّر ذلك بمؤشرات الأداء، فإن له أبعادا أخلاقية واضحة.
وتؤكد أنه إذا لم تستطع المنصة إدارة هذا التأثير بشكل أخلاقي، فإن توسعها المستمر يطرح إشكالية جوهرية، خاصة مع استمرار تحميل الأضرار المعرفية والمجتمعية للمستخدمين.
كما ترى أن المقاربات التنظيمية الحالية غير كافية، لأن القانون، بحسبها، سيظل دائما متأخرا عن التطور التكنولوجي، ما يجعل المسؤولية الأخلاقية عنصرا أساسيا لا يمكن تجاوزه. وتقول: "من دون تحول أخلاقي في القيادة، نحاول مواجهة فيضان بدلو."
معضلة المجتمع الرقميلكن في المقابل، لا تميل الباحثة إلى خيار الحظر، إذ ترى أنه غالبا ما يؤدي إلى ما يعرف بـ "تأثير سترايسند" (Streisand effect)، وهي ظاهرة تعني أن محاولات منع أو إخفاء محتوى ما قد تؤدي إلى زيادة انتشاره بدلا من الحد منه، كما أن فئة المراهقين تميل بطبيعتها إلى كسر القيود وتجاوزها.
وهذا التحول لا يتعلق فقط بالمحتوى، بل بطريقة تفاعل المستخدم معه، حيث يصبح جزءا من دورة انتشار الرسائل دون وعي. وتضيف أن البيئة الرقمية الحالية تختلف جذريا عن السابق، إذ لم تعد بعض المنصات مجرد أدوات تواصل أو ترفيه، بل أصبحت بيئات معقدة تتداخل فيها أنماط متعددة من المحتوى.
وتشير كذلك إلى أن بعض المنصات، بما في ذلك بيئات الألعاب مثل "روبلوكس" (Roblox)، أصبحت تُستخدم أيضا كمساحات يمكن أن يُنشر فيها محتوى متطرف أو تلاعبي.
في النهاية، ربما علينا أن نسأل أنفسنا: "هل لا تزال آراؤنا نتاج اختياراتنا الحرة، أم أنها تتشكل تدريجيا وببطء مخيف داخل منظومات رقمية لا نملك السيطرة عليها؟"
فحين يصبح ما نراه، وما نتفاعل معه، وما نعيد مشاركته، خاضعا لمنطق الخوارزميات، تتداخل حدود التأثير مع حدود الإرادة، ويغدو من الصعب الفصل بين ما نعتقد أنه رأي شخصي، وما قد يكون نتيجة تعرض متكرر وموجه.
ويبدو أن تحذيرات الطبيب والمفكر جوست ميرلو في كتابه "اغتصاب العقل" أكثر حضورا مع هذا الواقع الجديد، حين أشار إلى أن أخطر أشكال السيطرة ليست تلك التي تُفرض بالقوة، بل تلك التي تجعل الإنسان يعتقد أن الأفكار التي زُرعت فيه هي أفكاره هو.
إقرأ المزيد


