شاركوا في مهمّتنا،
بل قودوها

قدّم/ ي دعمك!

"الروبوتات القاتلة"... العالم أمام خطر غياب السيطرة البشرية على آلات القتل

انضمّ/ ي إلى مجتمع "قرّائنا/ قارئاتنا الدائمين/ ات”.

هدفنا الاستماع إلى الكل، لكن هذه الميزة محجوزة لمجتمع "قرّائنا/ قارئاتنا الدائمين/ ات"! تفاعل/ي مع مجتمع يشبهك في اهتماماتك وتطلعاتك وفيه أشخاص يشاركونك قيمك.

إلى النقاش!

سياسة

الخميس 23 أغسطس 201806:05 م
في قصة كلاسيكية بعنوان The Machine Stops، يضعنا الكاتب الإنكليزي إ. م. فورستر أمام سيناريو مستقبلي مخيف، تصبح الآلات فيه هي المتحكمة بكل شيء، وأقوى من البشر. فهل ستتحول القصة الخيالية التي خرجت إلى النور لأول مرة عام 1909 إلى حقيقة قريباً؟ الإجابة قد تكون نعم. ففي السنوات الأخيرة، بدأت بعض الدول في تطوير وصناعة أنظمة تسلّح ذكية ستكون لديها القدرة على تحديد أهداف وإطلاق النار عليها بدون رقابة إنسانية. ويُطلق على هذه الأنظمة إعلامياً مصطلح "الروبوتات القاتلة". ومؤخراً، عرضت شركة روسية رائدة في صناعة الأسلحة رجلاً آلياً ضخماً ذهبي اللون، يصل طوله إلى نحو أربعة أمتار ويمكنه ممارسة القتل في أية حرب يخوضها بذكاء شديد. INSIDE_kalashnikovRobot هذا "الروبوت" مقاوم للرصاص، ويصل وزنه إلى نحو 4.5 أطنان، ويمكنه السير برشاقة شديدة على قدمين، كما يستطيع حمل أشياء بذراعيه بمرونة شديدة، حتى لو كانت أسلحة. إذاً، فنحن نتحدث هنا عن آلي عسكري، تم تصنيعه بشكل أساسي حتى يكون قادراً على تقديم الدعم أثناء خوض المعارك العسكرية. يأتي الآلي الجديد الذي طورته شركة "كالاشينكوف كونسرن" الروسية في وقت تحذّر فيه منظمات دولية من التبعات المدمرة لهذا النوع من الأسلحة الآلية الذكية. فالتقدم العالمي الواضح في تصنيع الأسلحة الذكية القاتلة يطرح عدة مخاوف أبرزها: كيف سيمكن للعالم محاسبة مثل هذا الآلي إذا ارتكب جرائم حرب؟ وهل تنفق الدول ملايين الدولارات على تطوير مثل هذا النوع من الأسلحة لتضمن بذلك الإفلات من العقاب حين تدخل في أية معارك عسكرية مستقبلية؟

"أوقفوا الروبوتات القاتلة"

يثير ملف "الروبوتات القاتلة" مخاوف منظمات دولية عدة، ترى أن الأمر خطير ويستحق وقفة من دول العالم.
في قصة كلاسيكية بعنوان The Machine Stops، يضعنا الكاتب الإنكليزي إ. م. فورستر أمام سيناريو مستقبلي مخيف، تصبح الآلات فيه هي المتحكمة بكل شيء. فهل ستتحول القصة الخيالية إلى حقيقة قريباً؟
كانت سلسلة أفلام الخيالي العلمي الشهيرة Terminator قد تناولت فكرة صناعة روبوت قاتل بشكل قد يكون ألهم صناع الأسلحة حول العالم بتحويل أحداثها إلى حقيقة
على سبيل المثال، طالبت منظمة "هيومن رايتس ووتش" في 21 أغسطس الجاري بفرض حظر على هذا النوع من الأسلحة ذاتية التحكم، ودعت الدول التي ستشارك في اجتماع دولي قادم سيناقش مخاطر هذه الروبوتات إلى التفاوض من أجل حظر تطويرها وإنتاجها واستخدامها. stopkillerrobots ومن المتوقع أن تجتمع أكثر من 70 دولة في الأمم المتحدة في جنيف بين 27 و31 أغسطس 2018، للمرة السادسة منذ عام 2014، لمناقشة التحديات التي تثيرها الأسلحة ذاتية التحكم، والتي تُعرف أيضاً باسم "أنظمة الأسلحة الفتاكة ذاتية التحكم". وتقول "هيومن رايتس ووتش" إن الأسلحة ذاتية التحكم تنتهك ما يُعرف بـ"شرط مارتنز" الوارد في "القانون الدولي الإنساني" والذي ينصّ على ضرورة الحكم على التكنولوجيات الناشئة اعتماداً على "مبادئ الإنسانية" و"الوعي العام"، عندما لا تكون مشمولة مسبقاً في أحكام المعاهدات الأخرى. وللتحذير من مخاطر هذه الأسلحة، أطلقت المنظمة الحقوقية الدولية حملة بعنوان "أوقفوا الروبوتات القاتلة"، طالبت فيها بعدم السماح بتطويرها واستخدامها بأي شكل، وبأن تتفق الدول على حظرها قبل أن تتكاثر حول العالم. وانطلقت حملة "أوقفوا الروبوتات القاتلة" عام 2013، وهي تحالف يضم 75 منظمة غير حكومية في 32 دولة تعمل على فرض حظر استباقي على تطوير وإنتاج واستخدام أسلحة ذاتية التحكم. وحتى اليوم، أيّدت 26 دولة صراحة حظر الأسلحة ذاتية التحكم، منها دول عربية هي الجزائر، مصر، العراق، وفلسطين. كما طالب آلاف العلماء وخبراء الذكاء الاصطناعي، وأكثر من 20 من الحائزين على جائزة نوبل للسلام، وأكثر من 160 من القادة الدينيين ومنظمات من مختلف الانتماءات بحظر هذه الأسلحة. وفي يونيو، أصدرت شركة غوغل مجموعة من المبادئ الأخلاقية التي تتضمن تعهداً بعدم تطوير الذكاء الاصطناعي لاستخدامه في الأسلحة. وتتخوف "هيومن رايتس ووتش" من أن هذه الروبوتات لن تكون قادرة على تطبيق أي حكم قانوني وأخلاقي دقيق على قرارات استخدام القوة الفتاكة. كما تخلق تلك الأسلحة عقبات كبيرة أمام ضمان المعاملة الإنسانية للآخرين وإظهار الاحترام للحياة والكرامة الإنسانيتين. وكانت بعض الدول قد أكدت أنها لن تضم أجهزة روبوتات قاتلة إلى جيوشها. على سبيل المثال، قال قائد وحدة أمن الإنترنت في الجيش الألماني لودفغ لاينهوس في فبراير الماضي إن جيش بلاده ليست لديه نية لامتلاك أجهزة روبوتات قاتلة. وصرّح لاينهوس، أثناء نقاش بشأن الذكاء الاصطناعي على هامش مؤتمر ميونيخ السنوي للأمن بأن "موقفنا واضح تماماً. ليست لدينا نية لجلب نظم ذاتية"، لكنه أضاف أن الجيش الألماني ينبغي أن يتأهب للتصدي لمثل هذه الأسلحة إذا استخدمتها دول أخرى. وفي أبريل الماضي، أنهى أكثر من 50 باحثاً في مجال الذكاء الاصطناعي مقاطعتهم لجامعة "كايست"، وهي واحدة من أكبر الجامعات في كوريا الجنوبية، بعد موافقتها على التوقف عن تطوير أجهزة روبوت قاتلة في إطار شراكة مع شركة دفاعية. وأطلقت "كايست" وشركة "هانوها سيستمز"، إحدى أكبر شركتين كوريتين جنوبيتين لإنتاج الذخائر العنقودية، مشروعهما المشترك في فبراير. وقال الباحثون الذين ينتمون إلى ثلاثين دولة إنهم سيمتنعون عن زيارة "كايست" أو استضافة زائرين من الجامعة أو التعاون مع برامجها البحثية حتى تتعهد بعدم تطوير أسلحة للذكاء الاصطناعي دون "سيطرة بشرية فعالة". وردت "كايست" وقتها بأنها لا تعتزم إنتاج مثل هذه الأنظمة أو "أنظمة أسلحة قاتلة تعمل بشكل مستقل أو روبوتات قاتلة". وكانت سلسلة أفلام الخيالي العلمي الشهيرة Terminator قد تناولت فكرة صناعة روبوت قاتل بشكل قد يكون ألهم صناع الأسلحة حول العالم بتحويل أحداثها إلى حقيقة.
إنضمّ/ي إنضمّ/ي

رصيف22 منظمة غير ربحية. الأموال التي نجمعها من ناس رصيف، والتمويل المؤسسي، يذهبان مباشرةً إلى دعم عملنا الصحافي. نحن لا نحصل على تمويل من الشركات الكبرى، أو تمويل سياسي، ولا ننشر محتوى مدفوعاً.

لدعم صحافتنا المعنية بالشأن العام أولاً، ولتبقى صفحاتنا متاحةً لكل القرّاء، انقر هنا.

Website by WhiteBeard
Popup Image