الذكاء الاصطناعي تحت النار: التحقيق في استخدام ChatGPT في الرسائل السرّية والتضليل الإعلامي

الذكاء الاصطناعي تحت النار: التحقيق في استخدام ChatGPT في الرسائل السرّية والتضليل الإعلامي

الإنترنت كان دائمًا مكانًا غريبًا. لكن في الفترة الأخيرة اكتسب موهبة جديدة: يستطيع أن ينظر إليك مباشرة ويكذب عليك بنحوٍ مثالي… بقواعد لغوية صحيحة ونبرة واثقة.

اليوم، لم يعد الحديث عن ChatGPT وأدوات الذكاء الاصطناعي التوليدي محصورًا في “يا له من رائع، يكتب رسائل البريد”، بل تحوّل إلى “لحظة… من يستخدمه؟ ولماذا؟”. وفي 25–26 فبراير 2026 ظهرت تقارير جديدة دفعت النقاش خطوة إضافية نحو منطقة أكثر حساسية: احتيالات عاطفية (رومانسية)، ومكاتب محاماة وهمية، ومحاولات لتشويه سياسي—بحسب ما ورد في تقارير عن أعمال التعطيل والتحقيق التي تقودها OpenAI بشأن إساءة استخدام النصوص المُولَّدة بالذكاء الاصطناعي كجزء من عمليات أوسع.

هذه ليست قصة “الروبوتات ستستولي على العالم”. إنها قصة “البشر يفعلون أفعال البشر—الخداع، التأثير، التلاعب—لكن بأدوات أفضل”. وهذا ما يجعلها أكثر إزعاجًا… لأنها أكثر واقعية.

ما يلي هو تحقيق بأسلوب إنساني وواضح حول كيف يمكن سحب أدوات مثل ChatGPT إلى الرسائل السرّية وحملات التضليل، وكيف يبدو ذلك عمليًا، وما هي الدفاعات المتاحة، وكيف نحافظ على واقع عام قابل للحياة في وقتٍ يمكن فيه إنتاج نصوص اصطناعية أسرع من التفكير النقدي.


ساحة المعركة الجديدة ليست “الذكاء الاصطناعي ضد البشر” — بل الانتباه ضد الحقيقة

التضليل لا يحتاج إلى إقناع الجميع. يكفي أن يربك عددًا كافيًا من الناس لفترة كافية ليخلق ضجيجًا وتشاؤمًا وانقسامًا. واقتصاد الانتباه الحديث أشبه بمحرك نفاث موجّه مباشرة إلى الفصّ الجبهي في أدمغتنا.

الذكاء الاصطناعي التوليدي يغيّر “حجم” المشكلة. ليس لأنه ينتج دعاية سحرية تُنوّم الجماهير، بل لأنه يجعل من الرخيص جدًا توليد:

  • نسخ لا تنتهي من الرواية نفسها

  • رسائل محلية مترجمة بلغات متعددة

  • ردود مصممة لشخصيات وهمية في التعليقات

  • محتوى يتقمص “شكل المجتمع” ويقلد البشر

وقد أشارت OpenAI في تقاريرها إلى أن عمليات التأثير غالبًا ما تعتمد على مزيج من الذكاء الاصطناعي وبنى تقليدية—حسابات مزيفة، مواقع، منصات—حيث يساعد الذكاء الاصطناعي على تسريع إنتاج المحتوى وتكراره بدل أن يستبدل العملية بالكامل.

إذًا الخوف ليس أن منشورًا واحدًا سيُسيطر على عقلك. الخوف هو الإقناع الصناعي: آلاف المنشورات، شخصيات مقنعة، تفاعل مستمر… يومًا بعد يوم، إلى أن يصبح الزائف مألوفًا.

والبشر يخلطون بين الألفة والحقيقة طوال الوقت. أدمغتنا تحب الاختصارات. أحيانًا بصورة مؤسفة جدًا.


ماذا تعني “الرسائل السرّية” فعليًا؟ (ولماذا ليست دائمًا سيناريوهات أفلام تجسّس)

عندما يسمع الناس “رسائل سرّية”، يتخيلون شفرات، وإسقاطات سرية، وأشرارًا يخفون مورِس داخل الميمز. الواقع أقل درامية… وأكثر عملية.

الرسائل السرّية تعني عادة التواصل بطريقة تُخفي النية أو المصدر أو التنسيق أو المعنى عن المراقبين. وقد يشمل ذلك:

1) تنسيق مخفي

عدة حسابات تبدو مستقلة لكنها في الحقيقة مُدارة ضمن خطة واحدة—تنشر في أوقات محددة، وتدفع الموضوعات نفسها، وتردّ على المنتقدين بالطريقة ذاتها.

2) محتوى “قابل للإنكار”

لغة مُصاغة بعناية لتُلمّح دون أن تُصرّح، وتتجنب جُملًا يمكن تدقيقها بسهولة أو تحويلها إلى مسؤولية قانونية مباشرة.

3) إخفاء الرسائل داخل النص (Steganography)

الإخفاء/الاستيغانوغرافيا هو إدخال رسالة داخل رسالة أخرى. باحثون درسوا إخفاء الرسائل باستخدام نماذج اللغة الكبيرة، حيث يمكن أن تُشفّر معلومات في اختيارات دقيقة للكلمات مع بقاء النص مقروءًا. هذا مجال بحث حقيقي، وهناك أوراق علمية تقترح أطرًا للتواصل الخفي عبر نماذج اللغة.

ملاحظة مهمة: أغلب الحملات الواقعية لا تحتاج إلى استيغانوغرافيا متقدمة. تحتاج إلى تنسيق، وحجم، وتوزيع. الأشياء المملة… التي تعمل بكفاءة.


كيف يظهر ChatGPT داخل عمليات التضليل؟

الفكرة الأساسية: الذكاء الاصطناعي نادرًا ما يكون “الآلة كاملة”. غالبًا ما يكون مسرّعًا.

بحسب تقارير علنية وملخصات OpenAI حول التعطيل، تظهر أنماط إساءة الاستخدام في نقاط مثل:

كتابة وصقل سرديات دعائية

قد يحاول الفاعلون توليد منشورات أو نقاط حديث أو “تقارير” لتغذية قصة معينة. وقد وصفت OpenAI سابقًا تعطيل عمليات تأثير خفية وتكتيكاتها العامة.

الترجمة والتوطين

بدل منشور واحد ركيك باللغة الإنجليزية، تحصل على عشرات النسخ المناسبة لمناطق مختلفة ولهجات وإشارات ثقافية محلية—ما يجعل الحملة أكثر قابلية للتصديق وأصعب في الاكتشاف.

“كتابة الشخصية” (Persona Scripting)

يساعد الذكاء الاصطناعي على الكتابة بصوت “أم وحيدة”، أو “محارب قديم خائب”، أو “طالب قلق”… وهكذا. ولهذا تحديدًا أصبحت الأصالة على الإنترنت تتآكل.

إغراق التعليقات واصطياد التفاعل

حتى النصوص منخفضة الجودة قد تُغرق أنظمة الإشراف وتُخفي النقاش الحقيقي. الكمية تصبح سلاحًا.

دعم احتيالات وعمليات نصب

التقارير الحديثة سلّطت الضوء على تعطيل OpenAI لشبكات تضمنت احتيالات عاطفية وانتحالًا، حيث يمكن للذكاء الاصطناعي أن يساعد في كتابة الرسائل والسيناريوهات وصناعة واجهة تبدو “مهنية”.

ولا شيء من هذا يحتاج “ذكاء خارق”. يحتاج سرعة وحجمًا وكلفة منخفضة—ثلاثة أشياء يجيدها الذكاء الاصطناعي.


مثال راهن: ما الذي وضعته تقارير فبراير 2026 على الطاولة؟

في 25–26 فبراير 2026، لخصت جهات إعلامية تقرير تهديدات جديد من OpenAI حول كيف حاول فاعلون خبيثون استخدام ChatGPT ضمن عمليات تضليل واحتيال، بما في ذلك أنشطة مرتبطة في التقارير بـ احتيالات رومانسية وخدمات قانونية وهمية ومحاولة تشويه سياسي استهدفت القيادة السياسية في اليابان وفق ما نُقل.

هناك نقطتان مهمتان هنا:

  1. لم تكن العمليات “ذكاء اصطناعي فقط”. كانت تعتمد على منصات وحسابات مزيفة وأدوات أخرى—والذكاء الاصطناعي ساعد في توليد المحتوى أو تحسينه.

  2. الاستجابة لم تكن مجرد قلق نظري. تضمنت إجراءات تعطيل (مثل حظر حسابات) وتقارير للشفافية وبناء دفاعات مشتركة.

هذه نقلة نوعية: من “قد يُساء استخدام الذكاء الاصطناعي يومًا ما” إلى “هذه أنماط وحالات واقعية وإجراءات مضادة الآن”.


لماذا يعمل التضليل بهذا الشكل القوي؟ لأنه يستغل “برمجيات البشر” الطبيعية

التضليل ليس قويًا لأن الناس أغبياء. بل لأنه قوي لأن الناس بشر.

هو يستغل:

  • عبء الإدراك: لا يمكننا التحقق من كل شيء

  • البرهان الاجتماعي: “الجميع يقول ذلك” يبدو مقنعًا

  • حماية الهوية: المعلومات التي تُرضي جماعتنا أسهل في القبول

  • دوائر الغضب: الغضب ينتشر أسرع من التعقيد

والذكاء الاصطناعي يمكنه إنتاج محتوى يضغط هذه الأزرار… مرارًا وبحجم كبير.

والنقطة الأخطر: التضليل لا ينشر معتقدات خاطئة فقط. ينشر إرهاقًا معرفيًا—إحساسًا بأن الحقيقة مستحيلة وأن كل شيء دعاية. هذا يجعل الناس تنسحب من الواقع العام.


الجانب الخفي: التضليل يتحول إلى “خدمة” قابلة للتشغيل عند الطلب

قديمًا كانت الحملات تحتاج كتّابًا ومترجمين ووقتًا طويلًا.

اليوم يستطيع فريق صغير إنجاز أكثر—بأسرع—لأن الذكاء الاصطناعي يوفر:

  • مسودات غير محدودة

  • إعادة صياغة حسب النبرة (“أكثر غضبًا”، “أكثر تعاطفًا”، “أكثر رسمية”)

  • ترجمة وتكييف ثقافي سريع

  • استجابة خاطفة لدورات الأخبار

ولهذا لم يعد مصطلح حرب المعلومات مبالغة. بل وصفًا دقيقًا.

الجزء المرعب ليس فقط أن الأكاذيب تنتشر. بل أن الأكاذيب يمكن تحسينها باستمرار كما يُحسَّن إعلان تجاري—تجارب A/B على الروايات حتى تلتصق إحداها بعقول الناس.


“لكن ألا يمكن اكتشاف نصوص الذكاء الاصطناعي؟” أحيانًا… وليس بشكل موثوق دائمًا

الجميع يريد فلترًا سحريًا يقول: “هذا نص كتبه الذكاء الاصطناعي.”

الواقع: الاكتشاف فوضوي.

  • الناس يحررون نصوص الذكاء الاصطناعي

  • النصوص تُعاد صياغتها

  • البشر أنفسهم يكتبون أحيانًا “بنبرة إنترنت عامة”

  • المهاجمون يمكنهم تعمّد تنويع الأسلوب

ولهذا تميل أفضل المقاربات إلى السلوك والشبكات بدل “تحليل الجملة” فقط:

  • أنماط نشر منسقة

  • بنى تحتية مشتركة

  • دفعات تفاعل متزامنة

  • قوالب سردية متكررة عبر حسابات متعددة

بعبارة أخرى: اصطياد الحملة لا الجملة.


ماذا تفعل المنصات والصحافة والباحثون لمواجهة ذلك؟

أفضل الدفاعات ليست جدارًا واحدًا ضخمًا، بل منظومة من أدوات وإجراءات تعمل معًا:

استخبارات التهديدات والتعطيل

تؤكد تقارير OpenAI على التحقيق والتعطيل، بما في ذلك حظر حسابات مرتبطة بسلوك خبيث.

إثبات المصدر والأصالة (Provenance)

يزداد الاهتمام بأدوات تُظهر أصل المحتوى—طرق تشفيرية أو بيانات وصفية تثبت المصدر وما إذا تم التلاعب به. ليست حلًا سحريًا، لكنها مفيدة خصوصًا في المحتوى عالي الحساسية.

زيادة الاحتكاك والتحقق

قد تطلب المنصات تحققًا إضافيًا للحسابات التي تتصرف كالبوتات—خاصة خلال الانتخابات والأزمات.

محو أمية إعلامية لا تهين الناس

أفضل “تثقيف إعلامي” ليس: “لا تكن ساذجًا”. بل تعليم آليات التلاعب: المحفزات العاطفية، إشارات المصداقية المزيفة، والسرديات التي تبدو “مثالية أكثر من اللازم”.


ماذا يمكنك أن تفعل اليوم (دون أن تتحول إلى محقق مُنهك ومرعوب)

لا تحتاج للتحقق من كل ذرة في الإنترنت. تحتاج فقط لبعض عادات جيدة:

  1. تباطأ عند انفجارات العاطفة
    إذا جعلتك منشورات تغضب فورًا أو تفرح بشكل مفرط، فهذا مؤشر على تحريك الأزرار. توقّف.

  2. فتّش عن المصدر الأول
    صورة لعنوان خبر ليست مصدرًا. “أحدهم أرسلها لي” ليست مصدرًا.

  3. لاحظ دلائل التنسيق
    العبارات نفسها عبر حسابات كثيرة، الوسوم نفسها، الروابط نفسها، توقيت متقارب—هذه رائحة حملة.

  4. عامل اليقين المفرط كعلامة خطر
    الواقع معقد. الدعاية واثقة دائمًا.

  5. اعتمد قنوات تحقق موثوقة
    ليس “شخص لديه شارة”، بل مؤسسات تُصحح أخطاءها علنًا وبشفافية.


زاوية السياسات: أين تقع المسؤولية؟

سياسات OpenAI المنشورة تضع قيودًا واضحة ضد توليد أو ترويج التضليل وسلوكيات خداعية، وتؤكد الامتثال لإجراءات السلامة.

لكن السياسة وحدها لا تكفي. النظام البيئي الفعلي يشمل:

  • مزوّدي النماذج (سياسات + تنفيذ + شفافية)

  • المنصات (ضبط التوزيع + الإشراف + التحقق)

  • الحكومات (قوانين + رقابة—مع الحذر من إساءة الرقابة)

  • المجتمع المدني (مراقبون وباحثون وصحافة)

  • المستخدمين (نعم… نحن أيضًا)

إنها مشكلة “فعل جماعي”: الجميع يريد معلومات نظيفة، ولا أحد يريد دفع التكلفة كاملة. بينما المهاجمون لديهم دافع قوي ولا يهتمون بالأخلاق.

هذا ما نسميه “عدم تماثل”... ويديره الواقع بابتسامة ساخرة.


إلى أين يتجه الأمر؟ ثلاث مستقبلات واقعية (ولا واحد منها ممل)

مستقبل 1: “ويب موثَّق” يتوسع

مزيد من المحتوى يصبح موقّعًا ومؤرشفًا ومثبت المصدر—خصوصًا الأخبار والمحتوى الحساس. بينما تبقى المحتويات اليومية فوضوية، لكن طبقات المصداقية تتحسن.

مستقبل 2: تضليل أكثر تخصيصًا

تتحول الحملات من رسائل عامة إلى سرديات دقيقة تستهدف مجتمعات صغيرة جدًا. الذكاء الاصطناعي يجعل ذلك رخيصًا.

مستقبل 3: تحوّل ثقافي نحو “نظافة معرفية”

يبدأ الناس في التعامل مع المعلومات كما يتعاملون مع سلامة الغذاء: ليست مثالية، لكنها محكومة بمعايير (“اغسل مصادرك”، “اطبخ ادعاءاتك”، “لا تأكل شائعات نيئة”).

على الأرجح سنحصل على خليط من الثلاثة… مع قليل من الفوضى للتتبيل.


الخلاصة: الذكاء الاصطناعي ليس الشرير، لكنه أداة قوية جدًا

ChatGPT لم يخترع الخداع. لكنه يجعل الخداع أسهل في التوسع—خصوصًا عندما يتزاوج مع أنظمة توزيع تكافئ التفاعل على حساب الدقة.

الجانب المضيء: يمكن استخدام التقنية نفسها دفاعيًا—لاكتشاف الحملات المنسقة، ومساعدة الباحثين على فرز المحتوى، ودعم التحقق من الحقائق، وتعليم المستخدمين بسرعة أكبر مما يستطيع الفاعلون الخبثاء التكيّف.

الصراع ليس “الذكاء الاصطناعي ضد الحقيقة”. الصراع هو الحوافز ضد الحقيقة.

والحوافز… كائنات زلقة صغيرة تحب التخريب.


فقرة كلمات مفتاحية SEO (فقرة واحدة محسّنة)

التضليل بالذكاء الاصطناعي، إساءة استخدام ChatGPT، الرسائل السرّية، حملات التضليل، حرب المعلومات، كشف الدعاية، أمن الذكاء الاصطناعي، أمن نماذج اللغة الكبيرة، مخاطر الذكاء الاصطناعي التوليدي، السلوك المنسق غير الأصيل، الهندسة الاجتماعية، التلاعب عبر الإنترنت، عمليات التأثير، تهديدات سيبرانية، استخبارات التهديدات، تحقيقات OSINT، الأدلة الجنائية الرقمية، تضليل الانتخابات، الدعاية السياسية، كشف الأخبار الكاذبة، أصالة المحتوى، محو الأمية الإعلامية، أدوات التحقق من الحقائق، حوكمة الذكاء الاصطناعي، نزاهة المنصات، الوقاية من الاحتيال، تكتيكات الاحتيال العاطفي، الاحتيال عبر الانتحال، سلامة الشات بوت، تقرير تهديدات OpenAI 2026، الامتثال لسياسات الذكاء الاصطناعي، استراتيجيات الإشراف على المحتوى، كشف النصوص الاصطناعية، إخفاء الرسائل في النص، الاستيغانوغرافيا اللغوية، شفافية الذكاء الاصطناعي، الثقة والسلامة، تضخيم الخوارزميات، الدفاع ضد التضليل، أزمة الثقة الرقمية.