شركات الذكاء الاصطناعي تقدم خدماتها للجيش الأميركي.. ما القصة؟
احمد حسن اسماعيل
تطور الذكاء الاصطناعي في الأشهر الماضية بشكل غير مسبوق وأصبح جزءا لا يتجزأ من عمل الكثيرين المستمر واليومي، ورغم هذا التطور والانتشار الواسع فإن مزايا وقدرات الذكاء الاصطناعي ما زالت كامنة تنتظر من يكتشفها، لذا تسعى الشركات باستمرار من أجل الوصول إلى هذه الإمكانيات الدفينة.
وبينما تتسابق الشركات والمستخدمين على حد سواء لإيجاد وظائف جديدة يمكن للذكاء الاصطناعي المساهمة بها في الحياة المدنية كان للجيوش العالمية -وتحديدا الجيش الأميركي- وجهة نظر أخرى، إذ رأى في تقنيات الذكاء الاصطناعي فرصة ذهبية لتعزيز تفوقه التقني عالميا.
تغير موقف الشركات
جهود استغلال الذكاء الاصطناعي بشكل عسكري ليست جديدة، ولكنها كانت سرية، إذ لم تعلن أي شركة في الأشهر الماضية نيتها التعاون مع الهيئات العسكرية والاستخباراتية في أي مكان حول العالم، وهذا دفع الخبراء إلى الاعتقاد بأن الذكاء الاصطناعي ليس جاهزا بعد للخوض في الاستخدامات العسكرية.
لكن وبشكل مفاجئ أعلنت “آنثروبيك” المطورة لنموذج الذكاء الاصطناعي “كلود” والمنافس الأكثر شراسة أمام “شات جي بي تي” أنها تنوي إتاحة خدماتها للجيش الأميركي والهيئات الاستخباراتية من خلال صفقة عقدتها مع “أمازون” و”بالانتير” الشهيرة بتطويرها نظم المعلومات الحكومية.
تتيح الصفقة لشركة “بالانتير” دمج أنظمتها في أحدث نماذج الذكاء الاصطناعي الخاصة بشركة “آنثروبيك” من خلال خدمات “أمازون” السحابية، وذلك لتيسير عمل الموظفين في مراجعة المستندات والبيانات المعقدة التي كانت تستغرق وقتا طويلا في المراجعة، مما يسرع عملية اتخاذ القرار في الأمور الحساسة والتي تحتاج إلى قرارات سريعة.
وعلى غرار هذه الصفقة غيرت “ميتا” سياسة استخدام نموذج الذكاء الاصطناعي المجانية مفتوح المصدر الخاص بها، وعقب ذلك أعلنت “أوبن إيه آي” مالكة نموذج الذكاء الاصطناعي الأشهر “شات جي بي تي” بيعه للقوات الجوية بعد تغير سياسات الشركة في مطلع هذا العام لإتاحة الاستخدام العسكري لنماذجها.
وبينما تسعى كل شركة إلى تحقيق الربح وفق إستراتيجيتها الخاصة لكن التزامن في هذا التحول بالسماح بالاستخدام العسكري يعكس توجها حقيقيا داخل الشركات ومجالس إدارتها على الأقل، وذلك لأن عددا من الموظفين في هذه الشركات يعترضون على تغيير السياسة لإتاحة الاستخدام العسكري.
تطور استخدام الذكاء الاصطناعي
رغم أن الشركات التقنية المطورة لنماذج الذكاء الاصطناعي غيرت سياستها مؤخرا فإن الجيش الأميركي تحديدا يستخدم تقنيات الذكاء الاصطناعي منذ فترة طويلة، ولكن عبر تطوير تقنيات خاصة بها منفردة عن تقنيات الذكاء الاصطناعي المتاحة تجاريا للاستخدام.
ونقلت مجلت “تايمز” عبر موقعها تقريرا يشير إلى مضاعفة الجيش الأميركي إنفاقه على تطوير تقنيات الذكاء الاصطناعي 3 مرات في الفترة من 2022 وحتى 2023 ليصل إلى 557 مليون دولار بدلا من 190 مليونا.
يشار إلى أن هذا الإنفاق كان لتطوير أنظمة ذكاء اصطناعي خاصة بالجيش الأميركي، ومن المتوقع أن يرتفع مجددا هذا العام مع الاتفاقيات الخاصة بالوصول إلى تقنيات الذكاء الاصطناعي المطورة من قبل شركات خارجية، إذ قد يدفع الجيش الأميركي قيمة حق استخدام هذه التقنيات بشكل خارجي لكونها أقوى وأجود من التقنيات المطورة داخليا.
وفي الوقت الحالي يقتصر استخدام الذكاء الاصطناعي على التقاط الإشارات ومراقبة الأهداف المختلفة والتنبؤ بالهجمات المتنوعة على الأهداف الحيوية، ولكن مع توقيع عقود الوصول إلى تقنيات خارجية من المتوقع أن يتوسع هذا الاستخدام بشكل كبير.
مخاوف حقوقية
يدخل العالم إلى حقبة استخدام الذكاء الاصطناعي في التقنيات الحربية مع حقيبة مليئة بأفلام الخيال العلمي التي تتحدث عن نهاية العالم على يد الذكاء الاصطناعي المسلح، فضلا عن مجموعة من المخاوف الحقوقية من استخدام هذه التقنيات المبتكرة في الاستخدامات العسكرية وتبعات هذا الأمر.
وخلال السنوات الماضية ومع تطور آليات الذكاء الاصطناعي والقيادة الذاتية للسيارات ظهرت العديد من المطالبات العالمية بحظر استخدام هذه التقنيات بشكل عسكري تماما ومنع تطويرها من الأساس، وفي مقدمة المعارضين تأتي نيوزيلندا على لسان الوزير المسؤول عن ضبط الأسلحة في حكومتها فيل تويفورد.
نادى تويفورد في عام 2021 بإصدار قانون دولي لحظر استخدام أسلحة الذكاء الاصطناعي، وأشار إلى مجموعة من المسيّرات الصغيرة التي كانت تحمل أسلحة واستخدمت لمهاجمة المقاتلين الليبيين في عام 2020.
انضمت أكثر من 30 دولة إلى حملة تويفورد لحظر هذه الأسلحة، فضلا عن مجموعة واسعة من نشطاء حقوق الإنسان من مختلف دول العالم، ولكن القوى العسكرية الكبرى في العالم متمثلة في الولايات المتحدة والصين وروسيا أنكرت هذه المخاوف ورفضت تمرير القرار بشكل كامل.
وعلى النقيض، يرى داريو أمودي المدير التنفيذي لشركة “آنثروبيك” أن واجب الدول الديمقراطية هو تطوير أنظمة ذكاء اصطناعي يمكن استخدامها تجاريا وعسكريا لحماية العالم من الدول الاستبدادية التي تسيء استخدام هذه التقنيات لصالحها، وهذا ما عبر عنه في بيان نشره عبر مدونته عقب توقيع الصفقة مع “بالانتير”.
معارضة داخلية
بعيدا عن المعارضة الدولية والحقوقية لاستخدام تقنيات الذكاء الاصطناعي في الأسلحة فإن العاملين في هذه الشركات التقنية يعربون عن معارضتهم استخدام مثل هذه التقنيات بشكل واضح وكبير عبر العديد من المواقف المختلفة.
وفي عام 2018 نظم موظفو “غوغل” وقفة احتجاجية ضد الشركة لدفعها إلى التخلي عن عقود عسكرية تتيح استخدام تقنياتها في البنتاغون، ورغم أن الشركة أعلنت في بيان رسمي نيتها التخلي عن هذه العقود وتركها فإنها تصرفت عكس هذا البيان بشكل كامل، مما تسبب في موجة غضب عارمة ضد إدارتها.
تكرر الموقف هذا العام من موظفي “أمازون” و”غوغل” عقب استخدام تقنيات المطورة من قبلهم في الحرب على غزة من قبل الجيش الإسرائيلي، ومن ضمن المعارضين كان فريق تطوير الذكاء الاصطناعي داخل “غوغل” الذي شارك رسالة سرية مع زملائه تشير إلى أن تقنيات الذكاء الاصطناعي الخاصة بالشركة لا تستخدم في الحرب ضد غزة.
ماذا بعد؟
من حق الشركات أن تطارد الأرباح المتزايدة، ولكن هذا يجب ألا يكون على حساب الأمن العالمي، ورغم وجود العديد من التأكيدات من مختلف الشركات والجهات الحكومية بشأن استخدام هذه التقنيات بشكل آمن لا ينتهك حقوق البشر فإن هذا ليس ضمانا حقيقيا على هذه الاستخدامات.
وفي وقت يتطور العلم فيه بشكل واسع للغاية لا يسعنا إلا أن نتذكر ما حدث مع مبتكر القنبلة النووية أوبنهايمر الذي قال جملته الشهيرة “الآن أصبحت الموت، مدمر العوالم”.