“عسكرة” الذكاء الاصطناعي تقلب المعادلات في سوق التكنولوجيا

الذكاء الاصطناعي

أثار انخراط “أوبن إيه آي” (OpenAI)، الشركة التي طوّرت نماذج الذكاء الاصطناعي GPT، في العمل العسكري استياءً واسعَ النطاق بين أوساط المدافعين عن أخلاقيات الذكاء الاصطناعي وخصوصية البيانات، ما أدى إلى حملة مقاطعة شرسة أسفرت عن قيام مئات آلاف المستخدمين بإلغاء اشتراكاتهم المدفوعة، أو حذف تطبيق “تشات جي بي تي” بشكل نهائي، والتحول الفوري نحو تطبيق “كلاود” التابع لشركة “أنثروبيك”، ذلك أن الأخيرة، رفضت طلبات من وزارة الدفاع الأميركية لأن تزيل حماية السلامة من نماذجها.

وعلى هذا الأساس، وبفضل “النزوح” الهائل من قاعدة المستخدمين الجديدة، نجح تطبيق “كلاود” في انتزاع الصدارة ليحتل المركز الأول كأكثر التطبيقات المجانية تحميلًا على متجر التطبيقات الأميركي. وتراجع “تشات جي بي تي” إلى المركز الثاني. وحل “جوجل جيمناي” في المركز الثالث.

فما الذي حدث؟

ببساطة يمكن تفسير ما حدث بالشكل التالي:

رفضت  شركة Anthropic  طلب وزارة الدفاع الأميركية بـ إزالة حماية السلامة من نماذجها، ما أثار توترًا سياسيًا حول نية الوزارة استخدام المنصة في المراقبة الجماعية.

في المقابل في المقابل وافقتOpenAI  على اتفاق مع وزارة الدفاع الأميركية يتيح نشر نماذجها في شبكات حكومية، بشرط وضع «خطوط حمراء» حول الاستخدام في المراقبة الجماعية، ومنها بشكل أساسي:

  • عدم السماح باستخدام النماذج في المراقبة الجماعية الواسعة النطاق التي تنتهك الخصوصية.
  • عدم استخدامها في تطوير أسلحة ذاتية القرار بالكامل (أي أنظمة تتخذ قرار الإطلاق أو الاستهداف دون إشراف بشري).

إذاً، يتيح هذا الإتفاق إمكانية استخدام وزارة الدفاع الأميركية نماذج الشركة داخل بعض الأنظمة أو الشبكات الحكومية الأميركية لأغراض التحليل اللغوي، معالجة البيانات، الدعم اللوجستي، أو المساعدة في البرمجة، ضمن بيئات خاضعة للرقابة الأمنية. ويخضع الإتفاق لشرطي وجود إشراف بشري على أي استخدام حساس، والإلتزام بسياسات استخدام تمنع الأذى أو الانتهاكات الحقوقية.

أهمية ما جرى

لعل أهمية ما جرى لا يتعلق بالمرونة والمنافسة القوية بين شركات الذكاء الاصطناعي فحسب، بل بإثباته أن مستخدمي التكنولوجيا لم يعودوا مُستهلكين سلبيين فقط. فهذه القاعدة العريضة يمكنها أن تؤثر في صورة الشركات وأحيانًا في قراراتها المستقبلية.

كما يثبت التطور الأخير أن الحكومات ترى الذكاء الاصطناعي أداة استراتيجية مهمة في الأمن القومي، في حين يعبر المستخدمين عن مخاوف جدية من دخول التكنولوجيا في مجالات “العسكرة” التي لا يمكن السيطرة عليها.