مترجم: عن مقال في جريدة الـ Washington postتمتلك الولايات المتحدة على طراداتها من فئة إيجيس نظام دفاع يمكنه تتبع وتدمير الصواريخ والطائرات المضادة للسفن. وقامت إسرائيل بتطوير طائرة بدون طيار ، Harpy ، يمكنها اكتشاف وتدمير أجهزة بث الرادار تلقائيًا.
أما كوريا الجنوبية ، فلديها روبوتات حراسة على حدودها مع كوريا الشمالية يمكنها قتل البشر. كل هذه يمكن أن تعمل بشكل مستقل – دون أي تدخل أو تحكم بشري. في الواقع ، فإن الإصدارات المبكرة من Terminator موجودة بالفعل هنا. ولا توجد اتفاقيات عالمية تحد من استخدامها. إنهم ينشرون ذكاء اصطناعي لتحديد الأهداف واتخاذ قرارات في جزء من الثانية حول ما إذا كانوا سيهاجمون. لا تزال هذه التكنولوجيا غير كاملة ، لكنها أصبحت دقيقة بشكل متزايد – وقاتلة. لقد أحدث التعلم العميق ثورة في تصنيف الصور والتعرف عليها ، وسيسمح قريبًا لهذه الأنظمة بتجاوز قدرات الجندي البشري العادي.
لكن ،هل نحن مستعدون لهذا؟ هل نريد أن يقوم رجال الروبوتات بمراقبة مدننا؟ إن العواقب ، بعد كل شيء ، يمكن أن تكون إلى حد كبير كما رأينا في أفلام ومسلسلات وقصص الخيال العلمي البائس. الجواب بالتأكيد لا.
في الوقت الحالي ، يقول الجيش الأمريكي إنه يريد إبقاء الإنسان على اطلاع على جميع قرارات الحياة أو الموت. تقع جميع الطائرات بدون طيار المنتشرة حاليًا في الخارج ضمن هذه الفئة: يتم توجيهها عن بُعد بواسطة الإنسان (أو عادةً العديد من البشر). ولكن ماذا يحدث عندما تقوم الصين وروسيا والدول المارقة بتطوير روبوتاتهم المستقلة وتكتسب معهم ميزة على قواتنا؟ بالتأكيد سيكون هناك حافز قوي للجيش لتبني تقنيات القتل الذاتي. سيكون الأساس المنطقي إذن أنه إذا تمكنا من إرسال الروبوت بدلاً من الإنسان إلى الحرب ، فإننا ملزمون أخلاقياً بالقيام بذلك ، لأنه سينقذ الأرواح – على الأقل ، حياة جنودنا ، وعلى المدى القصير. ومن المرجح أن الروبوتات ستكون أفضل في تطبيق قوانين الحرب الأكثر وضوحا مما أثبته البشر. لن تكون لديك مذبحة My Lai في حرب فيتنام إذا تمكنت الروبوتات من فرض القواعد الأساسية ، مثل “لا تطلق النار على النساء والأطفال”. ثم ستكون هناك تساؤلات حول تسلسل القيادة. من المسؤول في حالة حدوث خطأ ما؟ إذا كان لنظام الأسلحة مشكلة في التصميم أو التصنيع ، يمكن مساءلة الشركة المصنعة. إذا كان النظام قد تم نشره عندما لم يكن من المفترض أن يتم نشره ، فإن جميع القادة الذين يصعدون السلسلة مسؤولون. إن إسناد المسؤولية سيظل مهمة صعبة ، كما هو الحال مع الأسلحة التقليدية ، ولكن السؤال الأكثر أهمية هو: هل يجب اتخاذ القرار بحياة بشرية بواسطة آلة؟ إن أنظمة الأسلحة المستقلة الفتاكة تنتهك كرامة الإنسان. إن قرار أخذ حياة بشرية هو قرار أخلاقي ، ولا يمكن للآلة أن تحاكي سوى القرارات الأخلاقية ، ولا تنظر في الواقع في آثار أفعالها. يمكننا برمجته ، أو عرض أمثلة عليه ، لاشتقاق صيغة لتقريب هذه القرارات ، ولكن هذا يختلف عن صنعها لنفسها.
يتجاوز هذا القرار تطبيق قوانين الحرب المكتوبة ، ولكن حتى هذا يتطلب استخدام الحكمة والنظر في تفاصيل لا حصر لها.
إن التسرب المستمر للتكنولوجيات العسكرية في الحياة المدنية سيشهد نشر هذه الأنظمة العسكرية في مدننا.
وتستفيد الأنظمة الاصطناعية من عدم الشعور بالعواطف المدمرة ، مثل الغضب. لكنها تفتقر أيضًا إلى المشاعر الإيجابية الحاسمة ، مثل التعاطف والتعاطف. كما يشير الرائد دانيال ديفيس من الجيش الأمريكي: “في كل حرب تقريبًا تشارك الولايات المتحدة … اكتشف العدو أنه على الرغم من أن الجنود يمكن أن يكونوا قساة ووحشيين مثل أي خصم ، يمكن للجندي نفسه أن يمد يد الرحمة عندما يقتضي الأمر ذلك”.
إن الهدف من الحرب هو تحقيق السلام بشروطنا. والتواصل والروح الإنسانية هي جزء مهم من تسهيل هذا .
إن الطريقة الوحيدة لتجنب المواقف التي لا يمكن الدفاع عنها هي إقرار وإنفاذ حظر دولي على أنظمة الأسلحة المستقلة الفتاكة. ونزع السلاح من جانب واحد غير قابل للاستمرار. فبمجرد أن يظهر العدو هذه التكنولوجيا ، سنعمل بسرعة للحاق به:
حرب باردة روبوتية.
إن سابقة هذا النوع من الحظرماثلة للعيان . الرماح الشائكة والأسلحة الكيميائية والليزر المسببة للعمى كلها أسلحة وافق المجتمع على عدم استخدامها. (لسوء الحظ ، لا تُحظر الأسلحة النووية على وجه التحديد ، على الرغم من أن استخدامها قد ينتهك القوانين الدولية الأخرى التي تحد من الضحايا المدنيين والآثار طويلة الأمد ؛ والعامل الرئيسي الذي يحد من استخدامها هو الخوف من الانتقام الجماعي). هناك أمل في تحقيق مثل هذا الحظر. والجهود جارية بموجب اتفاقية الأمم المتحدة بشأن أسلحة تقليدية معينة (CCW) ، وكبار العلماء وحملة وقف الروبوتات القاتلة لجعل حكومات العالم تنظر في معاهدة متعددة الأطراف من شأنها إزالة الإغراء لبناء كتائب وفرق أكبر وأفضل من الروبوتات القاتلة المستقلة و نشرها في وقت أقرب مما يمكن للعدو المحتمل القادم. لكننا مسؤولون بشكل جماعي عن النظر في هذه الأسئلة الأخلاقية وتحديد ما إذا كنا نريد استخدام هذه التكنولوجيا في الحرب.
توفر الروبوتات والذكاء الاصطناعي إمكانات كبيرة لمساعدة المجتمع – في أشياء هامة مثل البحث تحت المباني المنهارة بحثًا عن الناجين ، إلى فهرسة وتمحيص وتدقيق البيانات الضخمة للعلاجات الجديدة للسرطان. والأمر متروك لنا سواء استغلنا إمكاناتهم لبناء السلام وإثراء حياتنا أو لضمان حرب لا نهاية لها وخفض تكلفة الحياة البشرية.