الحريات العامة وحقوق الإنسان

الحريات العامة وحقوق الإنسان

القائمة البريدية
06 أغسطس, 2023

رايتس ووتش تنتقد الانزلاق الأميركي نحو “القتل الذاتي”

5 مارس, 2026
من حملة لحظر

من حملة لحظر "الروبوتات القاتلة" في برلين عام 2019 (رويترز)

انتقدت هيومن رايتس ووتش قرار وزارة الدفاع الأميركية (البنتاغون) رفض “الخطوط الحمراء” الأخلاقية التي وضعتها شركة الذكاء الاصطناعي أنثروبيك للاستخدام العسكري.

وقالت إن ذلك الرفض يمثل “إشارة واضحة” إلى أن البنتاغون غير مرجّح أن يلتزم بضمانات ذات معنى في تطوير الأسلحة المعتمدة على الذكاء الاصطناعي، بما يحمي المدنيين.

وقالت فيريتي كويل نائبة مدير قسم الأزمات والنزاعات والأسلحة، وآنا باتشياريللي الباحثة الأولى في التكنولوجيا والحقوق والتحقيقات بالمنظمة، إن أنثروبيك رفضت السماح باستخدام منتجاتها في أسلحة ذاتية التشغيل بالكامل أو في المراقبة الجماعية للمواطنين الأميركيين ضمن عقدها مع وزارة الدفاع.

وأشارت المنظمة إلى أن وزير الدفاع الأميركي بيت هيغسيث وجه بفسخ العقد مع أنثروبيك في 27 فبراير/شباط، قبل توقيع اتفاق سريع مع منافستها “أوبن إيه آي”OpenAI  التي وافقت على استخدام منتجاتها “لأي استخدام قانوني”، وهو ما وصفته المنظمة بأنه “متطلب جديد” من الحكومة الأميركية.

ووفق المنظمة فإن مذكرة الذكاء الاصطناعي الصادرة عن وزارة الدفاع في يناير/كانون الثاني “أزالت على ما يبدو” شرطا كان يوجب على مشغلي أنظمة الأسلحة الذاتية القدرة على ممارسة “مستويات مناسبة من الحكم البشري على استخدام القوة”.

ودعت المنظمة الحكومات المشاركة هذا الأسبوع في اجتماعات الأمم المتحدة في جنيف للتصدي لهذا القرار “الخطير” عندما تناقش سبل معالجة أنظمة الأسلحة الذاتية ضمن إطار اتفاقية الأسلحة التقليدية.

ويكمن صلب الخلاف بين أنثروبيك والبنتاغون في رؤاهما المتباينة حول تعريف “الذكاء الاصطناعي المسؤول” في المجالات العسكرية. وتقول أنثروبيك إنها وضعت خطا أحمر ضد أنظمة الأسلحة ذاتية التشغيل بالكامل، التي تختار الأهداف وتشتبك معها دون أي تدخل بشري.

ومنذ سنوات، تؤكد هيومن رايتس ووتش أن أنظمة الأسلحة الذاتية قد تعرض المدنيين لـخطر جسيم لأنها تواجه صعوبة في التمييز بين المدنيين والمقاتلين أثناء النزاعات المسلحة، أو في التعامل مع بيئات معقدة وديناميكية مثل الاحتجاجات. ومن بين أوجه القصور أنها تفتقر إلى القدرة على فهم الإشارات الدقيقة التي تعبّر عن النيات البشرية.

وتقول إنه بسبب غموض هذه الأنظمة وعدم القدرة على التنبؤ بسلوكها، سيكون من الصعب محاسبة المشغلين أو المطورين بشكل فردي. كما أن التحيزات المدمجة في خوارزميات هذه الأنظمة قد تقود إلى أضرار غير متناسبة بحق الملونين والنساء والأشخاص ذوي الإعاقة وغيرهم.

  • الأكـثر مشاهـدة
  • الـشائـع