الذكاء الاصطناعي يتطور ويدوس سؤال الأخلاق... والعالم العربي خارج اللعبة

الثلاثاء 13 أبريل 202101:48 م

ما هو الذكاء الاصطناعي؟ "فكرة الذكاء الاصطناعي ليست حديثة، فقد بدأت منذ أربعينيات وخمسينيات القرن الماضي. وقد جاءت في دراسة حول كيفية جعل الآلة أو الحاسوب في مستوى ذكاء الإنسان، أو في الأقل، ذات قدرة على تقليد ذكاء الإنسان. وهي تقوم في الأساس على بناء تجربة وتعلم الآلة من التجربة التي قامت ببنائها. يعتمد الذكاء الاصطناعي على أن تأخذ الآلة قرارها بنفسها دون مساعدة الانسان أو توجيهه"، يقول المهندس والخبير أكرم دويكات في جلسة أدارتها المهندسة أنجليك عبود تحت عنوان "الذكاء الاصطناعي ما بين التحيز والتغيير الاجتماعي"، وأقيمت في منتدى فلسطين للنشاط الرقمي نهاية آذار/ مارس الماضي، الذي ينظمه سنوياً مركز حملة- المركز العربي لتطوير الإعلام الاجتماعي.

وقد جاءت هذه الحوارية، التي تتناول موضوعاً ليس بجديد كما يشير دويكات إنما موضوعاً ملحاً بدأ يغير في شكل حاضرنا ومستقبلنا البشري، ضمن مجموعة من الورش المتنوعة والجلسات السياساتية والحواريات الرقمية، شارك فيها متحدثون متخصّصون فلسطينيون وعرب. محاولةً الإجابة على العديد من الأسئلة المطروحة حول موضوع الذكاء الاصطناعي.

يقول دويكات: "ارتبط الذكاء الاصطناعي بالألعاب Video Games عند بداية الاهتمام بهذا المجال في منتصف القرن الماضي. كان التساؤل إن كان ممكناً إطلاق آلة تلعب لعبة شطرنج في الحاسوب وتستطيع هزيمة الانسان؟ من هنا بدأ النقاش من أجل بناء استراتيجية. لكنه تطور ليشمل تقريباً كل النواحي الحياتية". ويضيف: "في عامي 2006 و2007، حاول شخص ما العمل على فكرة الذكاء الاصطناعي من جديد، وذلك من خلال التجربة على مجموعة من الصور. وقد لاحظ فرقاً شاسعاً بين النتائج التقليدية والنتائج التي حصل عليها، وتزامنت هذه التجربة مع التطور في الحواسيب وقدراتها وتوافر كميات هائلة من البيانات التي لم تكن موجودة في السابق. من هنا انطلقت الشرارة الثانية لتطوير الذكاء الاصطناعي".

لكن لا يبدو بأن الأغراض التي دفعت الإنسان إلى تطور "إيجابي" كهذا ظلت على حالها. وها نحن نتحدث عن عنصرية في عالم الذكاء الاصطناعي فجّرت سؤالاً أخلاقياً كبيراً أوساط المعنيين في هذا العالم والمتابعين له. "لكن ماذا لو وقع الذكاء الاصطناعي في الأيدي الخطأ"؟، يقول كريستيان رافلاوب في مقاله: "الآلة والأخلاق... تحديات الذكاء الاصطناعي"، "إنه شيء لا يستطيع المرء تخيله حتى. وعلى سبيل المثال، لا تزال دول العالم منقسمة حول ضرورة فرض قواعد صارمة لتنظيم استخدام ما يسمّى بـ "الروبوتات القاتلة". وكانت النتائج بهذا الشأن مخيبة للآمال إلى حد كبير بعد محادثات استمرت أسبوعاً كاملاً في مقر الأمم المتحدة بجنيف في ربيع هذا العام.

بدأت تظهر مشاكل هذا العلم عند بدء تطبيق التعرف على الأشخاص، من بين هؤلاء الأشخاص كان هنالك أشخاص سود البشرة، ولم تتعرف عليهم الخوارزمية

كيف يكون الذكاء الاصطناعي متحيزاً وعنصرياً؟

طرحت المهندسة عبود سؤالاً حول التحيز أو العنصرية في هذا العلم، مستحضرة مثالاً لشركة مايكروسوفت حين أطلقت خوارزمية للرد الآلي في تويتر، فصارت الخوارزمية تجيب الناس بصورة مماثلة. يقول دويكات في هذا الصدد: "أطلقت هذه الخوارزمية من أجل الرد السريع على الزبائن، لكن الناس في تويتر بدأوا بإطلاق الشتائم والتحدث معها بصورة سيئة، هذا الحديث السيئ تبرمج في داخل الخوارزمية على أنه الأمر الطبيعي للحديث بين الناس. فقامت الخوارزمية بالرد عليهم بذات الأسلوب الذي تحدثوا به معها". ويتابع: "مشكلة هذا العلم كما أي علم، أن من صنعه هو الإنسان؛ ما يعني بأنه ليس كاملاً. بدأت تظهر مشاكل هذا العلم عند بدء تطبيق التعرف على الأشخاص، من بينهم كان هنالك أشخاص سود البشرة، ولم تتعرف عليهم الخوارزمية. التحيز يأتي من خلال البيانات في الخوارزمية، والبيانات تأتي من خلال الأشخاص الذين يصنعون الخوارزميات. وقد بدأ استخدام هذا الذكاء دون التفكير بالأبعاد السلبية التي قد تنتج عن استخدامه".

ويضيف دويكات: "ثمة أمر مهم يجب على الناس فهمه في قضية الذكاء الاصطناعي. ما يحدث هو خوارزميات تحمل المعلومات التي يوفرها لها الانسان، وبناء على المعلومات المتوفرة لديها تقوم هي بالتصرف. على سبيل المثال، اشترت شركة أمازون خوارزمية لقراءة السير الذاتية للمتقدمين للعمل، وأعطتها أمثلة على ذلك من خلال سير ذاتية متوفرة لدى الشركة. بعد فترة، لاحظوا في الشركة أن قبول النساء لمناصب عالية قد قل بشكل كبير. وبعد مراجعة للخوارزمية، اتضح أنها لا تقبل النساء بسبب المعلومات المُدخلة إليها؛ فمعظم السير الذاتية التي تلقتها تخص الرجال".

ويورد مثالاً آخر: "خوارزمية أخرى استُخدمت في محاكم أمريكا في قضايا الإفراج عن سجناء. بعد فترة من الاستخدام وجدوا بأن الخوارزمية تحكم على سود البشرة على أنهم أشخاص من الممكن إعادة ارتكابهم للجرم، وجاء ذلك بسبب إدخال المعلومات المتحيزة لطرف دون آخر أثناء بناء الخوارزمية".

ذكاء اصطناعي مُنصف

"حتى نستطيع الوصول إلى ذكاء اصطناعي مُنصف بحق جميع المستخدمين، ثمة ثلاثة أمور مهمة يجب العمل عليها؛ الأول والأهم هو إدراك العاملين في هذا المجال بأن العالم متنوع وفيه خلفيات وأعراق مختلفة، وأن بناء الخوارزميات يجب أن يراعي هذه الفروقات والخلفيات. أما المشكلة الثانية فتتمركز في أن العاملين في هذا المجال ليسوا منوّعين بما فيه الكفاية، ففي النهاية كل شخص ينتبه إلى مشاكل ومتطلبات أبناء شعبه وصفاتهم وحياتهم. يجب على الحكومات تخصيص ميزانيات من أجل تدريس هذا العلم في الجامعات بشكل جدي، أو حتى تخصيص منح دراسية لمن يدرسه في الخارج. بهذه الطريقة يمكننا تطوير هذا المجال. المسألة الجوهرية هي كتابة محتوى أكبر في الانترنت. فالمعلومات التي تخزن لدى الخوارزميات مصدرها في النهاية هو الانترنت. على سبيل المثال، ثمة محتوى فلسطيني في الشبكة، لكنه غير كاف في رأيي. يجب علينا تطوير هذا المحتوى وملاءمته بحيث نتمكن من استخدام رموزنا في الخوارزميات".

المحتوى الخاص بالذكاء الاصطناعي باللغة العربية شبه معدوم في الشبكة العنكبوتية

الذكاء الاصطناعي في العالم العربي وفلسطين

وفي مقابلة لرصيف22 مع دويكات من أجل التعرف على السياق العربي بشكل عام وفلسطين بشكل خاص، قال: "بشكل عام، محتوى العالم العربي في الذكاء الاصطناعي ضعيف جداً. ثمة شركات ومشاريع "ستارت أب". لكن مقارنةً بالمحتوى والشركات في اللغة الانجليزية فهو قليل جداً. كما أن المحتوى الخاص بالذكاء الاصطناعي باللغة العربية شبه معدوم في الشبكة العنكبوتية".

أما عن تطويره فيقول: "أعتقد أنها مهمة جماعية وليست فردية. كل شخص يعمل في هذا المجال أو يعرف عن هذا المجال بإمكانه التدوين عنه. وعلى الجامعات والحكومات التوحد من أجل تخصيص برامج حوله ودعمه. إذا قام كل شخص بما يقع على عاتقه، فبإمكاننا الحديث عن تطوير المحتوى في هذا المجال". ويتابع قائلاً: "لكي أشرح فكرة استخدام المحتوى في الشبكة بصورة أوضح؛ عند قراءة محتوى سلبي حول الفلسطينيين وبشكل دائم، ستتكون فكرة لدى القارئ بأن الفلسطينيين هم كذلك. لكن عند وجود رواية مغايرة تتحدث عن الفلسطينيين بطريقة إيجابية، فإن الصورة ستتغير. وكذلك الأمر في الخوارزميات، حيث أن مصدر المعلومات الأساسي هو ما يتوفر في الشبكة".

"أي معلومة أو مقال أو محتوى موجود على الانترنت ممكن استخدامه لتطوير الذكاء الاصطناعي. لا يوجد ضمان حول عدم استخدام المقالات والمحتوى في الانترنت. فعند بناء أنظمة أو خوارزميات، يجمع المختصون المواد الموجودة باللغة العربية ويحاولون استخدامها وتطويعها لمصالحهم، وهي مؤثرة عند استخدامها. لكن هل أقول إني متأكد من استخدامها؟ لا أبداً. لأن الشركات لا تُفصح عن مصادر معلوماتها. الفكرة الأساسية هي أنه عندما يكون المحتوى قليلاً، لا تكون هناك خيارات كثيرة عند بناء الخوارزمية"، يقول دويكات.

لكن من يتحمل، في نهاية المطاف، المسؤولية الأخلاقية تجاه التطور الذي يتقدم بسرعة الضوء ويدوس في طريقه الشعوب الضعيفة والقضايا الإنسانية المهمشة؟

الهدف الأساسي من الحوارية، بحسب المهندس، هو التوعية للأشخاص الذين يعملون في هذا المجال حول كيفية بناء الخوارزميات، وللأشخاص الذين يستخدمونه بأنه من الممكن أن يحتوي على الكثير من أشكال التحيز. ثمة مطالبات عالمية في مراقبة العمل في هذا الذكاء الاصطناعي بالذات في الأماكن الحساسة، كما يشير دويكات.

"أما فيما يخص تطوير المحتوى الفلسطيني، فأعتقد أننا نحتاج إلى تطوير محتوانا كفلسطينيين بشكل عام قبل الحديث عن الذكاء الاصطناعي. والمسؤولية في تطوير هذا المحتوى تقع على الجميع أفراداً وحكومة وجامعات ومواقع وشركات ومؤسسات مجتمع مدني. أنا شخصياً أخذت على نفسي مسؤولية وبدأت بالكتابة باللغة العربية من أجل تشجيع وتطوير المحتوى باللغة العربية. ليس ذاك الذي يتعلق بالذكاء الاصطناعي فحسب، بل تطوير المحتوى الذي يمثل الشعب الفلسطيني ككل. إذا كان المحتوى أكبر، فإن خوارزميات فيسبوك وتويتر والانترنت بشكل عام سوف تقترح علينا قراءة مواد في ذات الصدد. وكلما تمكنا من تطوير المحتوى الخاص فينا، كلما صار موجوداً وبارزاً وقادراً على صنع الفارق في الخوارزميات"، يؤكد دويكات.

سؤال الأخلاق

لكن من يتحمل، في نهاية المطاف، المسؤولية الأخلاقية تجاه التطور الذي يتقدم بسرعة الضوء ويدوس في طريقه الشعوب الضعيفة والقضايا الإنسانية المهمشة؟ يقول تاي وان كيم المتخصص في أخلاقيات الذكاء الاصطناعي في جامعة كارنيجي ميلون في بيتسبرغ، بأن "شركات وادي السيليكون تفتقر إلى الوعي بالمسائل الأخلاقية، كما أن المؤسسات الدينية والحكومات ليس لديها اطلاع كاف على هذه التكنولوجيا حتى تنخرط في النقاش الدائر". ما يعني أن طرفاً ثالثاً عليه أن يردم هذه الهوة وأن يضع سؤال الأخلاق في المركز. ذلك على الرغم من أن الطبيعة البشرية، تشكل أيضاً، عنصراً جوهرياً في هذه المعادلة.

وقد كتب الكاتب دارا عبد الله مقالاً عن الذكاء الاصطناعي والأخلاق في العربي الجديد، أورد فيه دراسة أجراها فريق من "معهد ماساتشوستس للتكنولوجيا" في الولايات المتحدة الأميركية، هي استقصاء ميداني "لمعرفة ما إذا كانت القرارات الأخلاقيّة لدى البشر تختلف باختلاف الأمكنة التي يعيشون فيها، والوقوف على تأثير ذلك على أخلاقيات وسياسات تصميم الذكاء الاصطناعي". أطلق الفريق لعبة "يقوم فيه المرء بالقرار نيابة عن سيارة ذاتية الحركة. السيارة أمامها خياران: إما أن تبقى على مسارها وتقتل خمسة أشخاص، أو أن تنحرف عن مسارها وتقتل شخصاً واحداً فقط". أظهرت النتائج ثلاثة عوامل لعبت الدور الأكبر في القرارات الأخلاقية المتّخذة من قبل المشاركين: الموقع الجغرافي والوضع الاقتصادي والانتماء الثقافي.

وفي حين أن الذكاء الاصطناعي يصنعه في النهاية البشر، كما أشار دويكات، هل يمكن أن ينقلب المخترَع على مخترِعه؟ هل يمكن أن يتدخل الذكاء الاصطناعي في الطبيعة البشرية؟ فيصبح العامل السائد على الجغرافيا والاقتصاد والثقافة، والمحرك لأسئلتنا الأخلاقية؟

إظهار التعليقات
Website by WhiteBeard