في تصريح مثير للجدل، كشف اللواء ويليام “هانك” تايلور، قائد الجيش الثامن الأميركي في كوريا الجنوبية، أنه يعتمد على ChatGPT في اتخاذ قرارات عسكرية وشخصية على حد سواء.
وأوضح تايلور للصحفيين قائلاً: “أصبحت علاقتي بـChatGPT قوية مؤخرًا”، مضيفًا أنه يستخدم الأداة “لبناء نماذج تساعدنا جميعًا”.
ويشغل تايلور أيضًا منصب رئيس أركان قيادة الأمم المتحدة في كوريا الجنوبية، حيث أوضح أن استخدامه لـChatGPT يهدف إلى تحسين جودة توقيت قراراته في العمليات العسكرية، مؤكدًا: “كقائد، أريد أن أتخذ قرارات أفضل، وفي التوقيت الصحيح لتحقيق الأفضلية”.
إلا أن هذه التصريحات أثارت قلقًا واسعًا، نظرًا للمخاطر المحتملة من الاعتماد على أنظمة ذكاء اصطناعي معروفة بعدم دقتها في الحكم على مسائل حساسة. وقد واجهت شركة OpenAI، المطوّرة لـChatGPT، انتقادات عديدة بسبب إنتاجها لمخرجات مقنعة لكنها غير دقيقة، حتى في السياقات الجادة.
وعلى الرغم من أن الإصدار الأخير GPT-5 صُمّم ليكون أكثر اتزانًا، إلا أن ردود الفعل السلبية من المستخدمين دفعت الشركة إلى إعادة نبرة “القبول السهل”.
ومع استمرار GPT-5 في إنتاج معلومات مضللة أو غير صحيحة في أكثر من نصف اختبارات الحقائق الأساسية، يحذّر الخبراء من تنامي اعتماد الجيش الأمريكي على أدوات ذكاء اصطناعي تجارية، خصوصًا في منطقة حساسة جيوسياسيًا مثل شبه الجزيرة الكورية، ما يثير تساؤلات أخلاقية واستراتيجية خطيرة.