جوجل والبنتاغون يناقشان صفقة للذكاء الاصطناعي

جوجل والبنتاغون يناقشان صفقة للذكاء الاصطناعي

في 17 أبريل 2026، لم تعد عبارة "صفقة ذكاء اصطناعي بين جوجل والبنتاغون" تبدو مجرد احتمال بعيد، بل بدأت تبدو كمؤشر واضح على الاتجاه الذي تسير إليه صناعة الذكاء الاصطناعي عالميًا. ووفقًا للتقارير، فإن شركة جوجل التابعة لألفابت تجري مناقشات مع وزارة الدفاع الأمريكية بشأن اتفاق محتمل يسمح للبنتاغون باستخدام نماذج Gemini للذكاء الاصطناعي داخل بيئات مصنفة وسرية. هذه المحادثات لا تتعلق فقط بشراء برنامج جديد، بل تشير إلى تحول أكبر بكثير: التقاطع المتزايد بين شركات التكنولوجيا الكبرى، والأمن القومي، والذكاء الاصطناعي التوليدي، والبنية التحتية السحابية الدفاعية، وحوكمة الذكاء الاصطناعي. وهذا النوع من الأخبار يدفع الشركات وصناع القرار والمستثمرين والقراء العاديين إلى طرح السؤال نفسه: عندما تقترب أقوى أنظمة الذكاء الاصطناعي في العالم من أقوى المؤسسات العسكرية في العالم، ما الذي سيتغير فعلًا؟

ما يجعل هذه القصة بالغة الأهمية هو الشكل الذي قيل إن المناقشات تتخذه. فقد أشارت التقارير إلى أن الترتيب المقترح سيسمح للبنتاغون باستخدام تقنيات جوجل للذكاء الاصطناعي في "جميع الاستخدامات القانونية" داخل البيئات السرية، في حين تسعى جوجل إلى تضمين بنود تعاقدية تمنع استخدام هذه التكنولوجيا في المراقبة الجماعية داخل الولايات المتحدة أو في الأسلحة ذاتية التشغيل من دون إشراف بشري مناسب. وهنا يكمن جوهر القصة. فمن جهة، تبدو وزارة الدفاع الأمريكية حريصة على دمج الذكاء الاصطناعي المتقدم بشكل أعمق في أعمالها الحساسة. ومن جهة أخرى، تدرك جوجل على ما يبدو أن أي عقد دفاعي متعلق بالذكاء الاصطناعي في عام 2026 لن يُحكم عليه بناءً على قدرات التكنولوجيا فقط، بل أيضًا على أساس الخطوط الأخلاقية الحمراء التي يتم رسمها، والجهة التي ستتولى تنفيذها، وما إذا كانت تلك الوعود ستصمد تحت ضغط الواقع العملي.

بالنسبة إلى جوجل، هذه ليست مجرد صفقة مبيعات جديدة ضمن قطاع المؤسسات. إنها جزء من إعادة تموضع أوسع بكثير. ففي عام 2018، واجهت الشركة رد فعل داخليًا قويًا بسبب مشروع Maven، وهو مشروع تابع للبنتاغون استخدم الذكاء الاصطناعي لتحليل صور الطائرات المسيّرة. وقد تحول ذلك الجدل آنذاك إلى لحظة مفصلية في النقاش العام حول الذكاء الاصطناعي العسكري، واعتراضات الموظفين، وأخلاقيات العمل في وادي السيليكون. أما اليوم، فالوضع مختلف تمامًا. جوجل باتت تبني منتجات مخصصة للعملاء الحكوميين، وتروج لحلول مثل Gemini for Government، وتعرض الذكاء الاصطناعي بوصفه منصة آمنة للإنتاجية والتحليل والأتمتة في القطاع العام. الفارق بين جوجل عام 2018 وجوجل عام 2026 يفسر إلى حد كبير لماذا تحظى هذه الصفقة المحتملة بكل هذا الاهتمام. فالأمر لا يتعلق بعقد فقط، بل بمسار استراتيجي طويل يشهد تغيرًا واضحًا.

اهتمام البنتاغون بهذا النوع من الاتفاقات ينسجم أيضًا مع توجه دفاعي أوسع وأكثر وضوحًا. فقد أطلقت وزارة الدفاع الأمريكية خلال السنوات الماضية استراتيجية لتبني الذكاء الاصطناعي بهدف تسريع استخدامه في مختلف المجالات العسكرية، وأكد مسؤولون كبار أن الذكاء الاصطناعي التوليدي يجري تقييمه للاستخدام في المهام القتالية والإدارية على حد سواء. وتشير تصريحات رسمية إلى أن الوزارة حددت بالفعل أكثر من 180 حالة استخدام محتملة للذكاء الاصطناعي التوليدي مع وجود إشراف بشري، بما في ذلك تطوير البرمجيات، ودعم تقييم الأضرار بعد العمليات، وتلخيص النصوص المأخوذة من مصادر مفتوحة أو بيانات سرية. كما أنشأت الوزارة في وقت سابق فريقًا متخصصًا لدراسة النماذج اللغوية الكبيرة والذكاء الاصطناعي التوليدي، ما يعكس السرعة التي انتقلت بها هذه التقنيات من كونها تجارب مثيرة للاهتمام إلى كونها أولوية تشغيلية حقيقية. لذلك، عندما تظهر أخبار عن مناقشات بين جوجل والبنتاغون بشأن Gemini في بيئات سرية، فهي لا تبدو حدثًا مفاجئًا أو منفصلًا، بل امتدادًا لمسار يتم بناؤه منذ سنوات.

هذه الخلفية مهمة لأنها توضح نوع القيمة التي قد يبحث عنها البنتاغون لدى شركة مثل جوجل. فالمسألة لا تتعلق بمجرد "روبوت دردشة" يجيب عن الأسئلة. في البيئات الدفاعية، يمكن لـ نماذج الذكاء الاصطناعي العاملة في بيئات سرية أن تساهم في استرجاع المعرفة، وتلخيص الوثائق، ودعم التخطيط، وتوليد الشيفرات البرمجية، وأتمتة الإجراءات، وفرز البيانات، ودعم التحليل الاستخباراتي، والمساعدة في اتخاذ القرار عبر أنظمة بيروقراطية وتشغيلية شديدة التعقيد. وحتى التصريحات الرسمية الصادرة عن البنتاغون ركزت ليس فقط على الردع والقدرة العسكرية، بل أيضًا على فكرة التغلب على البيروقراطية من خلال الاعتماد الأسرع على التقنيات الرقمية والذكاء الاصطناعي. وبعبارة أخرى، فإن جاذبية نظام مثل Gemini لا تكمن فقط في قوته التقنية، بل في قدرته المحتملة على تقليل الاحتكاك داخل واحدة من أعقد المؤسسات في العالم. وفي زمن تصبح فيه السرعة، والحجم، والتفوق المعلوماتي عناصر حاسمة، يصبح تبني الذكاء الاصطناعي الدفاعي مرتبطًا بالكفاءة المؤسسية بقدر ارتباطه بالقدرات الميدانية.

كما أن جوجل نفسها كانت تهيئ الأرضية التجارية والتقنية لهذا التوسع منذ فترة. فقد عرضت مؤخرًا من خلال قطاعها الحكومي العام حلولًا مثل Gemini for Government باعتبارها منصة ذكاء اصطناعي آمنة تحتوي على ميزات متقدمة في الأمان والامتثال. كما روّجت لأدوات أخرى موجهة للعسكريين والموظفين المدنيين تسمح ببناء مساعدين ووكلاء ذكاء اصطناعي مخصصين للمهام غير المصنفة. هذه الخطوات العامة لا تؤكد وجود الصفقة السرية قيد النقاش، لكنها توضح أن جوجل بنت بالفعل مسارًا تدريجيًا للدخول إلى استخدامات الذكاء الاصطناعي الحكومية: أولًا عبر عروض آمنة للقطاع العام، ثم من خلال أدوات موجهة للمهام الحكومية، ثم عبر دمج أعمق داخل سير العمل الدفاعي. ومن منظور تحسين محركات البحث، ومن منظور السوق كذلك، فإن عبارات مثل Google Public Sector AI وGemini for Government والذكاء الاصطناعي في البيئات المصنفة والذكاء الاصطناعي الحكومي التوليدي لم تعد مصطلحات هامشية، بل أصبحت تصف واحدة من أكثر ساحات المنافسة التجارية أهمية في اقتصاد الذكاء الاصطناعي.

مع ذلك، فإن أكثر الجوانب إثارة للقلق في هذه القصة ليس التكنولوجيا نفسها، بل الضوابط والقيود. فمحاولة جوجل، بحسب ما تم تداوله، منع استخدام التكنولوجيا في المراقبة الجماعية الداخلية أو في الأسلحة ذاتية التشغيل من دون إشراف بشري، توحي بأن الشركة تعرف تمامًا أين يتركز القلق العام. فالنقاش الحديث حول الذكاء الاصطناعي لم يعد يدور فقط حول الابتكار مقابل التنظيم، بل حول الكيفية التي يمكن أن تنزلق بها الأنظمة المصممة لتعزيز الكفاءة إلى أدوات للإكراه أو التعتيم أو العنف عندما يتم نشرها داخل مؤسسات الدولة. ولهذا السبب تصبح صياغة العقد نفسها ذات أهمية استثنائية. فإذا كانت هذه الضمانات حقيقية، وقابلة للتنفيذ، ويمكن تدقيقها ومراجعتها، فإنها تتحول إلى البنية الأخلاقية الأساسية للاتفاق. أما إذا كانت غامضة أو رمزية أو قابلة للتحايل، فإن عبارة "الذكاء الاصطناعي المسؤول" قد تتحول إلى مجرد شعار تسويقي بدلًا من أن تكون إطارًا فعليًا للحكم والرقابة. وبالنسبة للقراء الذين يتابعون أخلاقيات الذكاء الاصطناعي والتكنولوجيا المرتبطة بالأمن القومي والإشراف البشري على الذكاء الاصطناعي، فإن هذا هو التوتر الحقيقي الكامن خلف العنوان.

وهناك أيضًا مفارقة تاريخية أعمق في هذه القصة. ففي عام 2018، نشرت جوجل مبادئها الخاصة بالذكاء الاصطناعي وأكدت آنذاك أنها لن تطور ذكاءً اصطناعيًا للاستخدام في الأسلحة، مع الإبقاء على إمكانية التعاون مع الحكومات والجيوش في مجالات مثل الأمن السيبراني والتدريب ورعاية المحاربين القدامى والبحث والإنقاذ. أما الآن، فإن الخطاب أصبح أكثر عمومية واتساعًا، ويركز على الابتكار الجريء، والتطوير والنشر المسؤول، والتقدم التعاوني. وعند قراءة الصياغات القديمة والجديدة جنبًا إلى جنب، يظهر تحول واضح في اللهجة: من لغة تضع خطوطًا حمراء أكثر صراحة، إلى إطار أشمل قائم على الحوكمة والإدارة. هذا التحول لا يثبت تلقائيًا وجود نية ضارة، لكنه يفسر سبب تعرض كل قصة جديدة تتعلق بالذكاء الاصطناعي الدفاعي من جوجل إلى هذا القدر من التدقيق.

هناك سبب آخر يجعل هذا الموضوع يحظى بكل هذا الاهتمام، وهو أن سوق الدفاع أصبح واحدة من أكثر ساحات المنافسة حساسية داخل سباق الذكاء الاصطناعي العالمي. فالحكومات في مختلف أنحاء العالم تتجه بوتيرة متسارعة إلى اعتماد أنظمة الذكاء الاصطناعي، ما يجعل التعاقدات الحكومية والعسكرية ذات قيمة استراتيجية هائلة. وهذا يعني أن البنتاغون لا يختار مجرد أدوات تقنية، بل يسهم أيضًا في تحديد أي الشركات ستصبح مزودي البنية التحتية للدولة في العصر القادم. ومن ثم، فإن أي اتفاق سري مع جوجل حول الذكاء الاصطناعي سيحمل قيمة رمزية تتجاوز استخداماته التشغيلية المباشرة. فهو سيشير إلى أن Gemini لم يعد ينافس فقط على جذب المستخدمين أو ميزانيات الإنتاجية المؤسسية، بل أصبح ينافس على الثقة في أكثر البيئات الحاسوبية حساسية وتعقيدًا. وبهذا المعنى، فإن القصة تتعلق بالقوة السوقية بقدر ما تتعلق بالقدرة العسكرية. فمن يفز بعقود الذكاء الاصطناعي الحكومي والبنية السحابية الدفاعية والأنظمة المصنفة قد يحصل أيضًا على مصداقية تمتد آثارها إلى القطاع الخاص.

ومع ذلك، من السذاجة الاعتقاد بأن تشغيل نموذج متقدم داخل بيئة سرية يحل تلقائيًا أصعب المشكلات. صحيح أن ذلك قد يقلل بعض مخاطر التعرض الخارجي للبيانات، لكنه لا يلغي نقاط الضعف المعروفة في الذكاء الاصطناعي، مثل الهلوسة، والثقة الزائدة في المخرجات، والانحياز، وغموض المصادر، وضعف الأداء في الحالات الحدّية. وقد شددت التصريحات الرسمية للبنتاغون مرارًا على أهمية الإشراف والمسؤولية وضرورة فحص هذه الأنظمة بعناية قبل استخدامها في السياقات التشغيلية. وهذا الحذر مبرر تمامًا. ففي السياق الدفاعي، لا تعني الخلاصة غير الدقيقة أو التوصية المضللة مجرد إزعاج بسيط، بل قد تؤدي إلى تشويه التحليل، وإضعاف الثقة، وهدر الوقت، والتأثير على قرارات شديدة الحساسية. ولهذا السبب، فإن حوكمة الذكاء الاصطناعي، وتقييم النماذج، والاعتماد الأمني، والمراجعة البشرية ضمن الحلقة، وإمكانية التدقيق والمساءلة، ليست قضايا جانبية، بل هي الشروط الأساسية التي تجعل أي نشر جاد للذكاء الاصطناعي العسكري ممكنًا أصلًا.

إذا تقدمت الصفقة المحتملة إلى الأمام، فإن الاختبار الحقيقي لن يكون ما إذا كانت جوجل قادرة تقنيًا على تشغيل Gemini داخل بيئة آمنة. الاختبار الحقيقي سيكون ما إذا كان الاتفاق قادرًا على إنشاء حدود مقنعة ومفهومة بشأن الاستخدام، والمساءلة، والتوسع المستقبلي. وعمليًا، قد يعني ذلك وضع صلاحيات محددة بدقة، وسجلات استخدام، وضوابط وصول، وإجراءات مراجعة، وآليات امتثال داخلية، وفصل واضح بين المساعدة الذكية والاستقلالية التامة. وهذا التمييز الأخير بالغ الأهمية. فالنظام الذي يساعد المحللين على البحث أو التلخيص أو التنظيم أو كتابة المسودات ليس هو نفسه النظام الذي يُمنح سلطة الفعل من دون سيطرة بشرية ذات معنى. وإصرار جوجل، وفقًا لما تم تداوله، على وضع قيود تخص الأسلحة ذاتية التشغيل يوحي بأنها تدرك هذا الفرق. لكن ثقة الجمهور ستعتمد في النهاية على ما إذا كان العقد النهائي، إذا تم توقيعه، سيجعل هذه الحدود راسخة في القانون والسياسة والممارسة اليومية. وهنا بالتحديد إما أن يصبح الذكاء الاصطناعي العسكري المسؤول واقعًا فعليًا، أو ينهار إلى مجرد خطاب دعائي.

ولهذا السبب أيضًا تستحق عبارة "جميع الاستخدامات القانونية" اهتمامًا خاصًا. فهي تبدو واضحة ظاهريًا، لكنها أوسع بكثير مما قد يتخيله كثير من القراء. فكون الاستخدام قانونيًا لا يعني بالضرورة أنه سليم أخلاقيًا أو مقبول اجتماعيًا. هناك تقنيات كثيرة يمكن استخدامها بطرق يسمح بها القانون، ومع ذلك تبقى مثار جدل سياسي أو ضرر اجتماعي أو قلق أخلاقي. ويظهر هذا بوضوح في مجالات مثل المراقبة، والأمن القومي، والحدود، والتحليل التنبؤي. ولهذا تبدو الاستثناءات التي تسعى جوجل إلى إضافتها محاولة لتضييق تلك المساحة، من خلال رسم خطوط حول المراقبة الجماعية الداخلية والأسلحة ذاتية التشغيل من دون إشراف بشري. لكن هذه الخطوط لن تكون ذات قيمة إلا إذا كانت التعريفات دقيقة، وآليات الرقابة قوية، والتنفيذ جادًا. ففي الذكاء الاصطناعي الدفاعي، غالبًا ما تعيش أصعب الخلافات داخل المساحات الرمادية لا داخل العناوين الواضحة.

بالنسبة إلى أصحاب المواقع، والمسوقين، والناشرين، فإن هذه القصة تذكير مهم بأن موضوعات مثل أخبار الذكاء الاصطناعي وأخبار جوجل وتكنولوجيا البنتاغون وسياسات الذكاء الاصطناعي التوليدي أصبحت موضوعات دائمة الحضور في نتائج البحث، مع طلب متزايد ومستمر من الجمهور. فالقراء لا يبحثون فقط عن عنوان عاجل، بل يريدون تفسيرًا واضحًا، وسياقًا أوسع، وتحليلًا بلغة مفهومة لما تعنيه هذه الصفقات بالنسبة إلى الخصوصية، والدفاع، والتنظيم، والحوسبة السحابية، ومستقبل العمل. ولذلك، فإن أي تدوينة قوية حول هذا الموضوع يجب ألا تكتفي بإعادة صياغة العنوان، بل ينبغي أن تربط بين استراتيجية جوجل في الذكاء الاصطناعي، ودفع البنتاغون نحو التحديث، وأخلاقيات نشر الذكاء الاصطناعي في البيئات السرية، والسباق التجاري الأوسع للهيمنة على الذكاء الاصطناعي في القطاع العام. هذا النوع من الكتابة هو ما يحول الموضوع الرائج إلى محتوى طويل الأمد وقابل للتصدر في محركات البحث.

وعلى المستوى الإنساني، تصل هذه القصة إلى الجمهور لأنها تقع في نقطة التقاء بين الإعجاب والقلق. فالناس يشعرون بالدهشة تجاه قدرة الذكاء الاصطناعي على معالجة المعلومات بسرعة مذهلة، ومساعدة الخبراء، وتحديث المؤسسات الضخمة. لكنهم في الوقت نفسه يشعرون بالانزعاج من فكرة انتقال هذه الأنظمة إلى عمق أعمال الاستخبارات، والدفاع، والعمليات المصنفة. والمحادثات الجارية بين جوجل والبنتاغون تعكس هذا التناقض بدقة. فهي توضح أن الذكاء الاصطناعي لم يعد يعيش على هامش المجتمع باعتباره مجرد تجربة تقنية جديدة، بل بدأ ينتقل إلى مركز القدرة المؤسسية للدولة. وعندما يحدث ذلك، فإن الأسئلة المتعلقة بالمساءلة، والمراقبة، والرقابة الديمقراطية، والسيطرة البشرية، تصبح أكثر إلحاحًا من أي وقت مضى. ولهذا فإن اتفاق الذكاء الاصطناعي المحتمل بين جوجل والبنتاغون أكبر بكثير من مجرد مفاوضات تجارية؛ إنه لقطة مكبرة للمكان الذي تنتقل إليه السلطة في عصر الذكاء الاصطناعي.

في النهاية، قد يبدو العنوان متعلقًا بجوجل والبنتاغون فقط، لكن الموضوع الأعمق هو مستقبل الذكاء الاصطناعي في الأمن القومي. فإذا وصل Gemini إلى البيئات الدفاعية المصنفة، فسيكون ذلك خطوة جديدة في تحول الذكاء الاصطناعي من محرك إنتاجية تجاري إلى بنية تحتية أساسية تستخدمها الحكومات لدعم القرار والإدارة والتحليل. وما إذا كانت هذه القصة ستتحول إلى نموذج للابتكار والكفاءة والتحديث المسؤول، أو إلى مثال على توسع المهمة وفقدان الثقة العامة، سيتوقف على التفاصيل التي لا تزال غير معروفة حتى الآن. وحتى تاريخ 17 أبريل 2026، ما تزال الصفقة محل نقاش ولم تُحسم بعد. لكن الرسالة أصبحت واضحة: الصراع حول من يطوّر الذكاء الاصطناعي العسكري، ومن يضع قواعده، ومن يفرض حدوده، لم يعد نظريًا. إنه يحدث الآن، وعلى أعلى مستويات السلطة.

فقرة ختامية محسّنة للسيو في نهاية المقال:
تشهد عبارة جوجل والبنتاغون يناقشان صفقة للذكاء الاصطناعي اهتمامًا متزايدًا بالتزامن مع ارتفاع البحث عن كلمات مفتاحية مثل Google Gemini AI وصفقة البنتاغون للذكاء الاصطناعي والذكاء الاصطناعي المصنف والذكاء الاصطناعي العسكري وتكنولوجيا الدفاع والذكاء الاصطناعي في الأمن القومي وعقد جوجل الدفاعي وأخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي المسؤول والإشراف البشري على الذكاء الاصطناعي والذكاء الاصطناعي الحكومي التوليدي وGoogle Public Sector وGemini for Government واستراتيجية الذكاء الاصطناعي لوزارة الدفاع الأمريكية والبيئات السرية وحوكمة الذكاء الاصطناعي وتنظيم الذكاء الاصطناعي وشركات التكنولوجيا الكبرى والدفاع واعتماد الذكاء الاصطناعي في الحكومة والذكاء الاصطناعي في القطاع الحكومي، ما يجعل هذا الموضوع من أهم موضوعات التكنولوجيا للقراء الباحثين عن فهم أعمق لمستقبل الذكاء الاصطناعي، وتحديث الدفاع، والأمن السيبراني، والابتكار في القطاع العام.

أستطيع أيضًا إعادة صياغتها بالعربية بأسلوب أكثر صحفيّة أو أكثر بساطة لمدونة عربية إذا أردت.