الحريات العامة وحقوق الإنسان

الحريات العامة وحقوق الإنسان

القائمة البريدية
تاريخ النشر: 06 أغسطس, 2023

الذكاء الاصطناعي وخطاب الكراهية في العصر الرّقمي

تاريخ النشر: 20 يوليو, 2025
الذكاء الاصطناعي يطرح أسئلة جوهرية حول العلاقة بين التكنولوجيا والإنسان (شترستوك)

الذكاء الاصطناعي يطرح أسئلة جوهرية حول العلاقة بين التكنولوجيا والإنسان (شترستوك)

د. كريم الماجري

في زمن يروج لتقنيات الذكاء الاصطناعي بوصفها أدوات محايدة وعالية الكفاءة، تتكشف يومًا بعد آخر أوجه القصور العميقة داخل هذه الخوارزميات التي لا تخلو من تحيزات مضمّنة تعيد إنتاج التمييز والصّور النمطية، بل وتضخّمها في كثير من الأحيان.

تضعنا هذه المفارقة أمام تحد أخلاقي وحقوقي جوهري: هل يمكن لتقنيات صُممت وفق منطق السوق والهيمنة الثقافية أن تخدم الكرامة الإنسانية والمساواة؟ وهل يكتفي التطوّر التقني دون وعي اجتماعي ومساءلة قانونية واضحة؟

تدفعنا الطفرة الهائلة التي يشهدها العالم في مجال الذكاء الاصطناعي لإعادة طرح أسئلة جوهرية حول العلاقة بين التكنولوجيا والإنسان، وتبيّن دور الخوارزميات في توجيه الخطاب العام، خاصة حين يتعلق الأمر بخطاب الكراهية والعنصرية والتمييز.

ففي الوقت الذي يُحتفى بقدرات هذه التقنيات على التعلّم والتحليل، تتصاعد المخاوف من تحوّل تلك القدرات إلى أدوات شرعنة رقمية للتحيّز والإقصاء تحت واجهة “الحياد التكنولوجي”. ومن هنا، يصبح من الضروري نقل النقاش من مجاله التقني الضيّق إلى فضاء أوسع يُركّز على العدالة الاجتماعية والحقوق الأساسية، ويضع التقنية في خدمة الكرامة لا عاملا مساعدا على فرض المزيد من الهيمنة.

الخوارزميات وانهيار وهم الحياد

تقبع الخوارزميات في قلب هذا الإشكال، إذ كثيرا ما يُفترض أنها تعتمد نفس المقاربات تجاه اللّون والجنس والدّين، غير أن الواقع يؤكّد لنا عكس ذلك تماما. فهذه الأنظمة تتغذّى على بيانات بشرية، هي بدورها واقعة تحت تأثير ثقافات الهيمنة والتمييز. وقد أظهرت تقارير دولية، مثل تقريرAI Ethics Journal   وAlgorithm Watch (2023) أنّ أدوات التعرّف على الوجه تُظهر دقة أعلى بكثير في التعرّف على الوجوه البيضاء مقارنة بالوجوه الأفريقية أو الآسيوية، ما يجعل الأشخاص من ذوي البشرة غير البيضاء أكثر عرضة للخطأ، أو الإقصاء، أو حتى خضوعهم للمراقبة الجائرة.

لا يقتصر هذا الانحياز البنيوي على السياقات الغربية، بل يمتدّ كذلك إلى المنطقة العربية، حيث يزداد الوضع تعقيدًا في ظلّ ضعف التمثيل اللّغوي والثقافي ضمن نماذج التعلّم الآلي، وغياب السياسات الشفافة لمراقبة الخوارزميات. ونتيجة لذلك، تتكاثر النماذج اللغوية التي تكرّس الصور النمطية حول المسلمين أو النّساء أو اللاجئين، دون أن تخضع لأي شكل من المساءلة المجتمعية أو الرقابية.

 صناعة الكراهية الآلية

يتّضح دور الذكاء الاصطناعي في تعميق إشكالية خطاب الكراهية من خلال خوارزميات منصّات التواصل الاجتماعي التي تُعلي من “المحتوى التفاعلي” حتى وإن كان قائمًا على العنف اللفظي أو العنصرية أو التّحريض. في هذا الإطار كشف تقرير صادر عن منظمة اليونسكو عام (2022) أن منشورات الكراهية تنتشر بنسبة أسرع بـ70% من المحتوى المعتدل أو التوعوي، وذلك بسبب تصميم أنظمة الاقتراح على تعزيز الاستقطاب.

يبدو المشهد أكثر هشاشة في العالم العربي حيث إنه يفتقر إلى البنية التحتية الحقوقية اللازمة لمواجهة هذه الظاهرة. فثقافة الحقوق الرقمية ما تزال ضعيفة، وما يزال وجود مؤسّسات مستقلّة تراقب المحتوى معدوما تقريبا. ونتيجة لذلك، تزداد معدلات خطاب الكراهية الموجّه ضدّ الفئات المهمّشة، مثل اللاجئين والمهاجرين والنساء، كما بيّنت تقارير حديثة للشبكة العربية لمعلومات حقوق الإنسان.

الذّكاء الاصطناعي وخدمة العدالة

رغم الصورة القاتمة، هناك بوادر واعدة تشير إلى إمكانية تحويل الذّكاء الاصطناعي من أداة مراقبة إلى وسيلة رعاية. بدأت بعض المبادرات الدولية تعي خطورة الاستخدام المنفلت للخوارزميات، وتسعى إلى تطوير نماذج تُبنى على قيم التعدّد والعدالة. ومن أبرز هذه المبادرات “خطة الأمم المتحدة لمكافحة خطاب الكراهية” (2021)، التي تهدف إلى تدريب الخوارزميات على رصد المحتوى العنيف والتّحريضي ضمن معايير تراعي التنوّع الثقافي والدّيني.

وفي ألمانيا، طوّرت الهيئة الفدرالية للتثقيف السياسي نظاما تجريبيا لرصد خطاب الكراهية في الفضاء الرقمي، يتيح تفاعلاً وقائيًا دون انتهاك الخصوصية. أما في أميركا اللاتينية، فتقود منظمات مثل Red de Derechos Digitalis (R3D)  حملةً لتعديل القوانين الرقمية، بحيث تشمل آليات للطعن في قرارات الخوارزميات الجائرة. أما على المستوى العربي، فقد أوصت لجنة حقوق الإنسان في قطر(2021)  بتبني “مقاربة العدالة الخوارزمية” التي تنطلق من حماية الفئات الأكثر هشاشة لا من منطق الأغلبية المسيطرة.

جدل التوازن الممكن

غالبًا ما يُصوَّر خطاب الكراهية وجها آخر لحرية التعبير، إلا أن المنظور الحقوقي المتزن يُبيّن أن التصدّي للكراهية لا يعني بالضرورة خنق حرية التّعبير، بل يندرج ضمن حماية الحق في الاختلاف. فالمجتمعات الديمقراطية تُقاس بقدرتها على حماية التعدّد لا بتمجيد التحريض. وفي هذا الإطار، شدّدت وثيقة “الميثاق الأوروبي للحقوق الرقمية” (2022) على ضرورة تبنّي تعريفات دقيقة لخطاب الكراهية، واعتماد إشراف بشري على أدوات الحذف الآلي، بهدف تجنّب الرقابة الذكية المتعسفة، مع التأكيد في الوقت ذاته على دعم الصحافة المستقلة والمنصات الثقافية التي يمكن أن تمثل حصنًا ضد الخطابات الإقصائية.

التحوّل المنشود

إن النّقلة المطلوبة في سياسات الذكاء الاصطناعي ليست محصورة في تحسين الأداء أو تقليص الأخطاء، بل في إعادة توجيه الغاية من هذه الأدوات. فالخوارزميات، كما الإنسان، يمكن تأطيرها وتربيتها ومساءلتها. ولا بدّ من صوغها وفق منطق الكرامة حتى تتحوّل من أدوات رقمية مجرّدة إلى طاقات رمزيّة تحمي التعدّد وتحترم الحق في الاختلاف، وتحول دون تطبيع التمييز داخل الفضاء الرقمي.

إن بناء سياسات عادلة للذّكاء الاصطناعي يتطلّب إشراك المجتمعات، وإعادة الاعتبار للضوابط الأخلاقية، وتفعيل الرقابة الحقوقية لضمان ألاّ تتحوّل “خوارزميات القوّة” إلى أدوات عنف صامت، بل إلى “خوارزميات كرامة” تُكرّس المساواة وتؤمّن الحماية للضعفاء في الفضاء الرقمي.

مقاربات مختلفة

في الوقت الذي تتبلور هذه الإشكاليات على المستوى العالمي، تختلف المقاربات الجغرافية والثقافية في التعامل مع الذكاء الاصطناعي وخطاب الكراهية الرقمي. فبينما تسعى بعض الدّول إلى فرض قواعد تنظيمية دقيقة تضمن التوازن بين حرية التعبير ومكافحة التمييز، لا تزال دول أخرى تنظر إلى الذكاء الاصطناعي كأداة أمنية بالأساس، في حين تسعى حركات تحرّرية في مناطق ثالثة إلى مساءلة التكنولوجيا نفسها كمنظومة هيمنة.

 لا شكّ في أنّ هذا التنوع يُبرز مدى ارتباط الذكاء الاصطناعي بالسياقات السياسية والاجتماعية، ويؤكد على عدم إمكانية فصل النّقاش بشأنه عن البُنى القانونية والثقافية الحاضنة له.

  • الأكـثر مشاهـدة
  • الـشائـع