هل يمارس الذكاء الاصطناعي التحيز وفقًا للأيديولوجيات السياسية ..؟ من حوارنا -كأن الذكاء الاصطناعي هو الكأس المقدسة-، مع الرفيق رزكار عقراوي – بؤرة ضوء – الحلقة الثالثة


فاطمة الفلاحي
2025 / 5 / 27 - 23:29     

الذكاء الاصطناعي لا “يفكّر” من خلال المفاهيم العامة، بل يرسم أنماطًا من مجموعات بيانات محددة، فهو عرضة لمشكلة تُعرف باسم “التجهيز الزائد” (Overfitting)، وهي عندما يتقن الذكاء الاصطناعي “فهمه” لمهمة معينة، لكن ليس لديه القدرة على نقل ذلك إلى أي شيء مختلف ولو قليلًا.

سؤال 3. هل يا ترى سيمارس الذكاء الاصطناعي مشكلة التحيز وفقًا للجنس، والعرق، أو الأيديولوجيات السياسية، في اتخاذ القرارات؟

الذكاء الاصطناعي لا يعمل في فراغ تقني، وانما ينشأ ويبرمج ويفعّل داخل بنية رأسمالية طبقية ذكورية غير متكافئة، تعيد انتاج التمييزات الجندرية والطبقية والعرقية والايدولوجية السائدة ضمن ادوات جديدة تُقدَّم بلغة الحياد والخبرة والشفافية. الخوارزميات تُدرّب على بيانات غير محايدة، بيانات متخمة بتاريخ طويل من التمييز البنيوي بكافة اشكاله. فعندما تُغذى انظمة الذكاء الاصطناعي بمعطيات من السوق الرأسمالية، تتعلم ان الرجال البيض هم الاكثر كفاءة من السود أو الاعراق الاخرى، وان النساء اقل اجرا، وان الفقراء أكثر عرضة للجريمة. هي تلتقط هذا التاريخ وتحوّله الى معايير حسابية صارمة تُستخدم لاحقا في اتخاذ قرارات مصيرية تتعلق بالعمل، التعليم، الصحة، الفرز الاجتماعي وغيرها. هذا كله نتيجة مباشرة لكون الذكاء الاصطناعي يُطوّر داخل بنية رأسمالية غير متكافئة خاضعة للدول الرأسمالية الكبرى، تعيد انتاج امتيازاتها وهيمنتها من خلال خوارزميات مكرسة لخدمة النموذج السائد واعادة انتاجه كأنها مسلمات طبيعة.
لا يوجد خوارزم حيادي يُبنى على سوق غير حيادي. لا توجد عدالة رقمية تُنتج من داخل شركات هدفها الربح والتجريد والتسليع والسيطرة الطبقية. انحياز الخوارزميات ضد النساء والسود والفقراء لا يعود الى اخطاء تقنية، وانما يعكس بدقة منطق السلطة التي صممتها. الذكاء الاصطناعي لا يخطئ، هو ينفذ ما طُلب منه، داخل بنية لا ترى في المساواة والتنوع البشري الا فوضى يجب ضبطها.
مثلا في انظمة التوظيف، تُستخدم الخوارزميات لتحليل السير الذاتية وتحديد من يستحق الاستدعاء او من يجب استبعاده. شركات كبرى مثل لينكدان تعتمد على انظمة ذكية تفضل المرشحين الذين يتماهون مع نمط السوق الرأسمالي، بينما يتم اقصاء شغيلات وشغيلة اليد والفكر، وخاصة من ينتمون الى خلفيات اجتماعية غير ميسورة او يمتلكون خبرات غير نمطية. تُقاس القيمة بناء على الانضباط، المرونة، الجاهزية للطاعة، لا بناء على الحاجات الانسانية او توفير فرص العمل للجميع او العدالة الاجتماعية او المساواة. يتم استبعاد عدد كبير من العاملات والعاملين لأنهم لا يتناسبون مع صورة العامل او العاملة المثالية التي صاغها النظام الرأسمالي.
في الجانب الجندري، تكشف التطبيقات اليومية كيف يُعاد انتاج التمييز وعدم المساواة من خلال الخوارزميات. رغم الانطباع العام بكون الذكاء الاصطناعي محايدا جندريا، الا ان تحليل بنية هذه الانظمة يُظهر كيف تُغذّى بلغة ذكورية وتصورات اجتماعية منحازة. مثلا، دراسة من جامعة كارنيغي ميلون اظهرت ان الاعلانات الممولة للوظائف في فيسبوك وغوغل تميل الى عرض الوظائف التقنية والهندسية والقيادية للرجال أكثر من النساء. وهي نتيجة مباشرة لتغذية الخوارزميات ببيانات تعكس عدم المساواة القائمة بين الرجل والمرأة حسب درجة تطور المجتمعات.
نظام التوظيف في شركة امازون اعتمد على بيانات سابقة منحازة، وتم تدريب الخوارزمية على ان الذكور هم الاكثر توظيفا. النتيجة ان السير الذاتية للنساء، او تشير الى مشاركة المتقدمة في نشاط نسوي، تم خفض تقييمها تلقائيا. لم يكن هناك قرار فردي، كان ذلك ناتجا عن نموذج تعلم من النظام الذكوري وكرّس نتائجه.
في واجهة اخرى، نرى كيف تُصمم المساعدات الذكية مثل سيري واليكسا بأصوات انثوية في الامور الخدمية والمنزلية، وتُبرمج على الطاعة واللطف، مما يعزز القوالب النمطية عن المرأة كخادمة او داعمة. حاليا، تستثمر بعض دول الشرق الاوسط مليارات الدولارات في تطوير مشاريع الذكاء الاصطناعي وفق قيم دينية ذكورية محافظة، مما يعزز التحيزات الجندرية داخل هذه الانظمة. فعلى سبيل المثال، تم تطوير بعض المساعدات الصوتية العربية بأصوات ذكورية بدلا من الانثوية، في محاولة لتجنب الصورة النمطية الخاضعة للمرأة وفق بعض التفسيرات الدينية. كما ان العديد من الانظمة الرقمية المستخدمة في هذه الدول تقيّد ظهور النساء في المحتوى الرقمي، او تعكس تصورات تقليدية تقلل من دور المرأة في المجتمع. على سبيل المثال، تستخدم بعض الحكومات الاستبدادية انظمة ذكاء اصطناعي لمراقبة السلوكيات الاجتماعية وتطبيق معايير اخلاقية مستوحاة من القيم الدينية الذكورية، مثل تقييد صور النساء غير المحجبات، او تقليل ظهورهن في نتائج البحث والخوارزميات الاعلانية. أحد أكثر اشكال هذا الاستغلال تطرفا كان تطوير انظمة ذكاء اصطناعي لمراقبة ملابس النساء، حيث تقوم هذه الانظمة بتحليل الصور والفيديوهات لتحديد مدى مطابقتها للمعايير الدينية المفروضة. في إيران مثلا، تم اعتماد انظمة رقمية لرصد مدى التزام النساء بالحجاب الالزامي. هذه الاستخدامات هي جزء من مشروع اشمل لإعادة ضبط الجندر رقميا وفق شروط السلطة الابوية والدينية.
هذا التحيز الجندري يزداد بفعل غياب النساء عن فرق التصميم والتطوير. التقارير تشير الى ان نسبة النساء في اقسام الذكاء الاصطناعي في فيسبوك لا تتجاوز 15 بالمئة، وفي غوغل اقل من 10 بالمئة. معظم البرمجيات تُبنى في غرف مغلقة ذكورية، تُعيد انتاج أفقها الثقافي والاجتماعي داخل الخوارزمية، النتيجة ان التكنولوجيا لا تكتفي بعكس التحيزات، هي تضفي عليها طابع القوة والانتشار والشرعية.
التمييز الايديولوجي داخل انظمة الذكاء الاصطناعي لا يظهر كقمع مباشر، وانما يعمل من خلال آليات تصنيف وتصفية غير معلنة. الخوارزميات التي تدير منصات التواصل الاجتماعي والمحتوى الرقمي تخفض وتقييد وصول الخطابات اليسارية والتقدمية، وتُصنّفها كخطاب مثير للجدل او متطرف وحتى عنيف، بينما ترفع المحتوى الليبرالي والتجاري والديني المحافظ. هذا النوع من الخنق الناعم للخطاب السياسي التقدمي لا يمارس بقوة قمع الدولة بشرطتها واجهزتها الامنية كما كان من قبل، وانما عبر برمجيات خفية تعيد تشكيل المجال العام، وتحاصر وتقييد وتحجب الافكار المعارضة للنظام الرأسمالي.
في ظل غياب رقابة شعبية حقيقية، تصبح هذه انظمة الذكاء الاصطناعي ادوات لإعادة انتاج اللامساواة والتمييز بكافة اشكاله. السلطة هنا لم تعد مرئية، ولم تعد تحتاج الى قانون لتمرير هيمنتها او جماهير تنتخبها. كل ما يتطلبه الامر هو نموذج تعلم آلي يعمل بصمت، ويصنّف البشر، ويقصي ويمنح، ويعيد رسم اللامساواة والخارطة الطبقية والجندرية بمختلف اشكالها، دون اي مساءلة قانونية او مجتمعية، سواء كانت عالمية او محلية.

انتظرونا في الحلقة الرابعة