شاركوا في مهمّتنا،
بل قودوها

اشترك/ ي وشارك/ ي!
خوارزميّات توظيف لا ترى النّساء

خوارزميّات توظيف لا ترى النّساء

انضمّ/ ي إلى مجتمع "قرّائنا/ قارئاتنا الدائمين/ ات”.

هدفنا الاستماع إلى الكل، لكن هذه الميزة محجوزة لمجتمع "قرّائنا/ قارئاتنا الدائمين/ ات"! تفاعل/ي مع مجتمع يشبهك في اهتماماتك وتطلعاتك وفيه أشخاص يشاركونك قيمك.

إلى النقاش!

تكنولوجيا نحن والنساء

الاثنين 25 نوفمبر 202401:43 م

أُنجز هذا التقرير بدعم من أريج.

متفائلة على الدوام، تواصل منّة فتحي رحلتها في البحث عن وظيفة مناسبة؛ فمهما كانت المتاعب في سبيل تحقيق ذلك، تعتقد منّة أن التطبيقات الذكية تُعزّز من فرصها في التقديم والمنافسة على الوظائف المتاحة.

في الوقت ذاته، تفصح منّة عن معاناتها منذ فترة، في رحلة البحث عن وظيفة: "قدمت في 75 وظيفة، ولم يتصل بي أحد ولا أعلم السبب، كلها تذهب في ثقب أسود".

منّة ليست حالة وحيدة، فمثلها كثيرون؛ إذ يعتقد 88% من أصحاب العمل أنهم يخسرون المرشحين ذوي المؤهلات العالية الذين يُستبعدون من عمليات التوظيف بواسطة "ATS"؛ لأنّ المرشحين لا يقدمون سِيَراً ذاتية "متوافقة مع معايير البرنامج وكلماته المفتاحية المُبرمَجة". ولذلك تُرفض 75% من السِّير الذاتية وتُحذف من قاعدة البيانات، ولا تُعرض مطلقاً على فريق التوظيف.

المفاجآت تتوالى

رغم معرفة رواد الأعمال بخسارتهم أفضل المرشحين، فإن 70% من الشركات الكبرى، و20% من الشركات الصغيرة والمتوسطة، و75% من مسؤولي التوظيف، يستخدمون حالياً برامج "ATS"، أو أيّ أداة توظيف أخرى تعمل بالذكاء الاصطناعي لمراجعة طلبات المتقدمين.

70% من الشركات الكبرى، و20% من الشركات الصغيرة والمتوسطة، و75% من مسؤولي التوظيف يستخدمون الذكاء الاصطناعي في التوظيف... تقرير يسلّط الضوء على وجود تمييز على أساس النوع، لدى خوارزميات أدوات الذكاء الاصطناعي المُعدة لفحص السير الذاتية، عند اختيار الموظفين/ات؛ ما يقلّل فرص النساء في الحصول على الوظائف مقارنة بالرجال

وبعيداً عن دهشة الجمهور لاعتقادهم أن التكنولوجيا صديقة للبشر، فإنّ برامج فحص طلبات التوظيف "ATS" تعتمد على ما تُزوَّد به من معلومات، فالتحدي لم يعد في أتمتة الوظائف، أو توفير النفقات؛ فكل مَن لم يتمّ تمثيله تمثيلاً دقيقاً وعادلاً داخل البيانات الضخمة، لن يستطيع الذكاء الاصطناعي معاملته بشكل حيادي لأنه "غير موجود" بالنسبة لنموذج البرمجة، والمعايير المسبقة الخاصة بتصنيفات الخوارزميات.

خوارزميات التوظيف منحازة ضد النساء

أجرت البروفيسورة إليزابيث كيلان، أستاذة القيادة والتنظيم بكلية إسيكس للأعمال، ومديرة مركز كرانفيلد الدولي، مقابلات مع 69 خبيراً من مطوري الذكاء الاصطناعي؛ لمعرفة موقفهم من استخدام التكنولوجيا في العمل، بما في ذلك التوظيف، ليكشف الخبراء عن أن أنظمة الذكاء الاصطناعي يمكنها أن تخلق تحيزاً خوارزمياً ضد المرأة، من خلال تخفيض تلقائي لرتبة المتقدمات من النساء، بسبب تدريبه مسبقاً على سِيَر ذاتية لم تتضمن النساء، حيث يتم التعلم الآلي من خلال التعرف على الأنماط السابقة، ومن ثم التّنبؤ بالأنماط الحالية والمستقبلية.

فالخوارزميات -في حد ذاتها- ليست متحيزة، ولكن نسبة تمثيل الرجال في البيانات المُدخلة تبلغ نحو 90%، وبالتالي تصبح النساء غير مرئيات للبرنامج.

نحن مَن يُعلّم الذكاء الاصطناعي

يؤكد المهندس أحمد عوض، خبير الذكاء الاصطناعي وتطوير برامج التعلم الآلي، وجود تحيز أثناء فرز السير الذاتية، يحدث عند تدريب النموذج من خلال مجموعة البيانات المُدخَلة، التي قد لا تحتوي على معلومات متساوية لكلا الجنسين، أو حتى تعطي تفاصيل أكثر أو أقل عن مجموعة دون أخرى، وبالتالي عندما تبدأ عملية التعلم الآلي، وتحليل الأنماط، والبحث عن السمات المشتركة؛ تصبح التنبؤات ضعيفة لفئة ما وأقوى بالنسبة للفئة الأخرى .

ويوضح عوض أن للتحيز أشكالاً متعددة، فربما يعطي الأولوية لجنس، أو فئة عمرية، أو عرق معين، فهذا لا يعني أن البيانات غير صحيحة، ولكنها غير متساوية لتتبع السرديات التي يغذيها القائمون على تدريب نموذج البرنامج.

وللتقريب، فإنه إذا ما غُذّيت بيانات البرنامج بأن الرجل هو من يمتلك شارباً (مثلاً)، فكل من لا يمتلك شارباً فهو من الفئة الأخرى! ويضخم الذكاء الاصطناعي التحيزات الموجودة بسبب التكرار، لأنه يستمد نماذج اللغة وموادها من المعلومات المنشورة بالفعل.

ويشير المهندس معتز عثمان، خبير تطوير البرامج الرقمية بشركة جو ميديا، إلى إمكانية الكشف عن التمييز أو التحيز المحتمل في أنظمة الذكاء الاصطناعي و"ATS"، باستخدام تقنيات ومنهجيات التدقيق الخوارزمي لتحليل مخرجات النظام، وللتحقق من وجود تباينات غير مبررة بين الفئات المختلفة .

العدالة الجندرية

ويتفق دكتور محمود خالد، الخبير التقني والمحاضر بكلية تكنولوجيا المعلومات بجامعة سيناء، بأن دقة هذه الأنظمة تعتمد على جودة وتنوع البيانات وتنظيفها من التحيزات، بسبب التغذية الراجعة للبشر. ولذلك لابد من دعم التشريعات واللوائح لضمان العدالة الجندرية في استخدام التكنولوجيا، إضافة إلى ضرورة توعية وتدريب الموظفين على كيفية التعامل مع برامج الفحص وتقييم البرامج بشكل مستمر .

ومن واقع أحد مشاريع تطوير وتدريب برامج الذكاء الاصطناعي، تقول تسنيم قورة، المتخصصة في برامج تحليل البيانات بمنحة ALX بإفريقيا، إن سيطرة الرجال على القوى العاملة، تعدّ من الأمثلة الواضحة على وجود التحيزات. فمن دون قصد، تُستخدم كلمات مباشرة بصيغة المذكر، لا تركز على المشاعر ولا تراعي الجوانب الإنسانية، وهي سمات تخص المجتمع الذكوري، ومن ثمّ تُدَّرب البرامج عليها، ناهيك عن تفضيلات المطورين والمراجعين.

وتقترح قورة استحداث مهنة التدقيق والمراجعة الأخلاقية من بعد مطوري ومدربي الذكاء الاصطناعي، كإجراء للتخفيف من التحيز والتمييز، لضمان التعامل بمسؤولية وعدالة في التطرق للموضوعات كافة وبشكل متساوٍ، مثلما يحدث في قضية برامج النسخ العربية، بسبب الاعتماد على المصادر الأجنبية.

إننا مكشوفون أمامهم

تضيف تسنيم قورة، المتخصصة في برامج تحليل البيانات بمنحة ALX بإفريقيا، أنه ليس هناك ما يسمى بـ "الصدفة"، و"الحظّ" في عالم الإنترنت، فالخوارزميات تتبعك في كل مكان لتسجل تفضيلاتك، بل وتتنبأ برغباتك وتفاعلاتك .

وبالرجوع لمتخصصي تحسين محركات البحث، أوضح عبد الحسيب طارق، مشتري وسائل إعلام (Media Buyer)، أن منصات مثل لينكد إن تقدم خيارات استهداف تفصيلية تسمح للمعلنين بالوصول إلى شبكة احترافية، والاستفادة من بيانات المستخدمين الدقيقة؛ لضمان وصول الإعلان عن الوظيفة إلى الفئة المستهدفة من المهنيين.

وفقاً لليونسكو، النساء أقل بنسبة 25% من الرجال في معرفة كيفية الاستفادة من التكنولوجيا الرقمية، 12% فقط من الباحثين في مجال الذكاء الاصطناعي و6% من مطوري البرمجيات من النساء. وعندما يتعلّق الأمر بالأدوار الفنية الخاصة بعلوم الكمبيوتر والبرمجة وعلوم البيانات وهندسة البرمجيات؛ يشغل الرجال 75% من الوظائف

ويشير طارق إلى أن الخوارزميات قد تؤدي دوراً مهماً في تقديم إعلانات الوظائف، أو انحرافها حسب الجنس أو العرق، بسبب التحسين الخوارزمي الخفي الخاص بالمنصات، والذي يعمل دون الرجوع لموافقة المعلنين. ويتمّ اختيار شرائح الجمهور طبقا لشخصية المعلن، وتحليل بيانات السوق والمنافسين.

معوّقات إضافية للمرأة

ووفقاً لليونسكو، فإن النساء أقل بنسبة 25% من الرجال في معرفة كيفية الاستفادة من التكنولوجيا الرقمية، 12% فقط من الباحثين في مجال الذكاء الاصطناعي، و6% من مطوري البرمجيات هم من النساء. فعندما يتعلق الأمر بالأدوار الفنية الخاصة بعلوم الكمبيوتر والبرمجة وعلوم البيانات وهندسة البرمجيات؛ يشغل الرجال 75% من الوظائف.

لا تزال منّة تحاول الحصول على وظيفة قائلة: "ربما ارتكبت خطأً ما في السيرة الذاتية، فليس لديّ تجربة سلبية أو حتى إيجابية لأرويها، فكل شيء ينتهي عند حدود التقديم"، ولكنها ستكمل السعي للحصول على فرصة يوماً ما.


رصيف22 منظمة غير ربحية. الأموال التي نجمعها من ناس رصيف، والتمويل المؤسسي، يذهبان مباشرةً إلى دعم عملنا الصحافي. نحن لا نحصل على تمويل من الشركات الكبرى، أو تمويل سياسي، ولا ننشر محتوى مدفوعاً.

لدعم صحافتنا المعنية بالشأن العام أولاً، ولتبقى صفحاتنا متاحةً لكل القرّاء، انقر هنا.

منبر الشجعان والشجاعات

تكثُر التابوهات التي حُيِّدت جانباً في عالمنا العربي، ومُنعنا طويلاً من تناولها. هذا الواقع هو الذي جعل أصوات كثرٍ منّا، تتهاوى على حافّة اليأس.

هنا تأتي مهمّة رصيف22، التّي نحملها في قلوبنا ونأخذها على عاتقنا، وهي التشكيك في المفاهيم المتهالكة، وإبراز التناقضات التي تكمن في صلبها، ومشاركة تجارب الشجعان والشجاعات، وتخبّطاتهم/ نّ، ورحلة سعيهم/ نّ إلى تغيير النمط السائد والفاسد أحياناً.

علّنا نجعل الملايين يرون عوالمهم/ نّ ونضالاتهم/ نّ وحيواتهم/ نّ، تنبض في صميم أعمالنا، ويشعرون بأنّنا منبرٌ لصوتهم/ نّ المسموع، برغم أنف الذين يحاولون قمعه.

Website by WhiteBeard
Popup Image