التحيز هو من السمات الإنسانية التي تلازمنا في الحياة اليومية، لكن وجوده في مجال الذكاء الاصطناعي أمر آخر، فبينما نجد أن الأميركيين السود يعانون من التمييز في قطاعات التعليم والإسكان والقضاء وغيرها، يعاني المهاجرون إلى أميركا من تمييز اجتماعي من نوع آخر. منشأ هذا التمييز هو تضخّم الاعتماد على الذكاء الاصطناعي وعمليات الأتمتة في المساعدة على اتخاذ القرارات الأمنية والتعرف إلى الوجوه أو تحليل السلوك. 

مبدأ الاعتماد على هذه التقنيات ليس سيئاً في ظاهره، لكن الخلل يكمن في الواقع الذي آل إليه عالم الذكاء الاصطناعي: احتكار أميركي وسوء استخدام في غياب المحاسبة الحقيقية والبديل.

خلال الهبة الشعبية الأخيرة في أميركا، ارتفع مستوى الحديث عن تحيّز الخوارزميات، أو بتعبير علمي، العلوم أو القواعد التي تغذي البرامج التقنية من أجل اتخاذ القرارات، لكونها تصبح يوماً بعد يوم مسؤولة بشكل أوضح عن كثير من القرارات المرتبطة بحياتنا، من الإعلانات التي تعرض أمامنا، إلى الوظائف التي تقدم إلينا، وصولاً إلى القرارات التي يتخذها أفراد الشرطة.

الكثير من السياسيين والخبراء التقنيين أشاروا إلى وجود عنصرية في الذكاء الاصطناعي المعتمد من قبل عناصر الشرطة تجاه المدنيين (مثل خاصية التعرف إلى الوجوه وتحليل السلوك). هذه العنصرية "الاصطناعية" تشبه تماماً عنصرية عناصر الشرطة على أرض الواقع. 

اليوم، يعود الحديث عن هذا الموضوع على نطاق أوسع، بعد أن نشر الإعلام الأميركي حديثاً معلومات تؤكد طرد تيمنت غيبرو من شركة "غوغل". وغيبرو هي متخصّصة في موضوع أخلاقيات الذكاء الاصطناعي ورائدة في هذا المجال في الشركة، تحديداً في مجال تشخيص المشكلات التقنية والأخلاقية التي يعاني منها الذكاء الاصطناعي اليوم.

وعند الحديث عن مجال الذكاء الاصطناعي، وتحديداً أدوات "التعلم الآلي"، من الضروري التطرّق إلى حاجة الذكاء إلى "التدريب". يتضمن ذلك أن يتعرض الكمبيوتر لمجموعة من البيانات، ثم يتعلم إصدار أحكام أو تنبؤات وحتى احتماليات حول المعلومات التي يعالجها، بناءً على الأنماط التي يلاحظها خلال معاينة كمية البيانات الضخمة.

الباحثة المطرودة مؤخراً، غيبرو، شاركت في إعداد وكتابة أوراق بحثية كثيرة توثق حجم التمييز الذي تعاني منه "النساء الملونات" بسبب استخدام البيانات التي ترجّح أن تكون "المرأة الملونة" مجرمة. اليوم، تعود غيبرو بورقة بحثية جديدة حول النماذج اللغوية المعدة للاستخدام البرمجي تحت عنوان "مخاطر الببغاوات العشوائية: هل يمكن أن تكون النماذج اللغوية كبيرة جداً؟".

مواقع أميركية وبريطانية نشرت معلومات حول حادثة طرد غيبرو من "غوغل"، ولكن لم تنشر تفاصيل حول الأسباب.

موقع "MIT Technology Review" استطاع الحصول على نسخة من هذه الورقة البحثية للاطلاع على مضمونها واستخلاص أسباب الطرد.

بمجرد قراءة عنوان الورقة الجديدة، يمكن تحليل الموضوع بطريقة أو بأخرى، إذ تعتبر شركة "غوغل" الأولى في مجال الأبحاث التأسيسية في علوم النماذج اللغوية التي تتضمن نموذج تحويل اللغة الذي يدعم ويطور خدمات البحث باستخدام محرك "غوغل"، وهو الخدمة الأساسية التي يعتبرها المعنيون البقرة المربحة للشركة.

حساسية الورقة البحثية تكمن إذاً في إخضاع الأبحاث التي مولتها "غوغل" للمساءلة في مجالات أخلاقية وإبستومولوجية وتقنية، وحتى علمية. تتعزز أهمية ذلك عندما نتذكر أن "غوغل" بنت إمبراطوريتها اللغوية على هذه المجالات المعرّضة للمساءلة، بما فيها محركات البحث والإعلانات والصور والفيديوهات، إلى جانب جزئية أخرى، وهي مشاركة موظفين آخرين في "غوغل" في إعداد الورقة البحثية.

بالنظر إلى حجم الورقة والمصادر المعتمدة فيها، إضافة إلى آلية البحث والمتخصصين المشاركين فيها، لا يمكن غض النظر وتجنب هذه النماذج من الأبحاث. على العكس، قد يقف المتخصصون عندها، ويعيدون النظر في الكثير من الأمور والنشاطات التي يشاركون فيها، والتي يتم توظيفها بطرق مغايرة لما يسعون خلفه في أبحاثهم.

بكل الأحوال، وفي العودة إلى الورقة، يمكن تلخيص الأضرار التي وثقتها حول أبحاث النماذج اللغوية على الشكل التالي:

1- بناء الوهم وتضليل المستخدمين بصورة كبيرة، بسبب تقليد السلوك البشري واستخدام مصطلحاته.

2- استخدام بيانات متحيزة في عملية بناء الخوارزميات.

3- زيادة الضرر البيئي جراء تشغيل أعداد كبيرة من الأجهزة، وخصوصاً أنها تحتاج إلى تدريب نماذجها اللغوية على كمية كبيرة من النصوص.

4- احتكار الشركات الكبرى لهذه الأبحاث، لأن برمجياتها تعتمد عليها، ومحاصرة الباحثين الخبراء في هذا المجال ضمن هذه الشركات، لإبعادهم عن معاينة المشاكل البنيوية الموجودة فيها.

وكما يكون الإنسان معرضاً للخطأ، فإن الذكاء الاصطناعي الذي يغذي البرامج معرض أيضاً للكثير من الأخطاء والتحيز لطرف دون آخر.

أسباب الخلل

من الصعب إحصاء كل الأسباب المسؤولة عن هذا التمييز المتعلق بالذكاء الاصطناعي، وخصوصاً أننا نتحدث عن صناديق سوداء مغلقة يمكن معاينة نتائجها، ولكن يصعب تفكيك محتوياتها، بسبب صعوبة الولوج إلى الهندسة المعتمدة فيها.

في الدرجة الأولى، إن عملية بناء هذا الذكاء والبيانات المستخدمة في تدريبه غالباً ما تكون مسؤولة عن الجزء الأكبر من التمييز، لأنها مثل الكلاب البوليسية تتصرف كما يجري تدريبها. 

عندما استخدم المحتل الإسرائيلي الكلاب البوليسية للتعرف إلى الفلسطينيين، راحت تهجم عليهم وكأنهم المعتدون، بدلاً من المجرمين الحقيقيين، تماماً كما تدأب البرامج على اعتبار الملونين والمهاجرين والمحجبات مثلاً أكثر ميلاً نحو سلوكيات الإرهاب. ويتم تغذية البرامج بصور لمجرمين حقيقيين بهذه الخصائص، ليكون الأمر عفوياً وحقيقياً، وسرعان ما تتحول الصور النمطية التي تتعرف البرامج إليها حول هؤلاء إلى صفة المجرمين.

من جهة أخرى، قد تساهم الجهة المسؤولة عن توظيف هذه التقنية في تكريس حالة التمييز، لأن الدول العظمى، وعلى رأسها أميركا، تحتكر التكنولوجيا والذكاء الاصطناعي. وحين تقوم بعرضه مجاناً على المستخدمين، لا يكون ذلك نابعاً من حرص على رواد الشبكة العنكبوتية، بقدر السعي إلى خلق بيئة مناسبة لتصبح البنية التحتية البرمجية منسجمة مع هندستها المصطنعة لمفهوم الذكاء، وبالتالي تصبح البرامج التي تعتمد عليها ملتزمة بتوجهاتها. وبطبيعة الحال، لا يمكن للأطراف العلمية في الجهة المقابلة بناء نماذج وبرمجيات بديلة تسمح بالاستغناء عن هذه البرامج المتاحة على الشبكة العنكبوتية. 

أخيراً، آلية استخدام هذا الذكاء الاصطناعي هي أيضاً من العوامل الأساسية المساهمة في التمييز، فالاعتماد عليه مثلاً في قرارات حساسة من دون معاينة النتائج والتدقيق فيها من قبل أشخاص حقيقيين، قد يراكم الأخطاء الموجودة في البرمجة ويزيد من تأثيرها بدلاً من تحسينها.

نتائج الخلل

بدايةً، لا بد من التفريق بين الدقة والتأثير خلال معاينة الخلل الكامن في الذكاء الاصطناعي. قد تختلف دقة النتائج التي تصدر عن خوارزميات معينة بحسب المنطق الذي تعتمد عليه والبيانات التي استخدمت في تدريبها وجودة هذه البيانات، وبالتالي يمكن تدريبها أكثر وتحسين البيانات المستخدمة لمعالجة دقة النتائج. أما التأثير الذي نلمسه من خلال تمظهر نتائج التوظيف في مجالات شتى، فهو الذي يسلط الضوء على الأخطاء الجوهرية والممارسات المتحيزة الخاطئة في عملية بناء الذكاء الاصطناعي. 

على سبيل المثال، ولأن نسبة المبرمجين الذكور غالباً ما تطغى على النساء، يمكن معاينة تحيز الذكاء الاصطناعي إلى الذكور وتفضيلهم في موضوع الوظائف. إن جمعاً عشوائياً لأحاديث المستخدمين على الشبكة العنكبوتية وتحليلها، ومن ثم استخدامها لتدريب برنامج ذكي، من شأنه أن يعود بنتائج متحيّزة بصورة واضحة ضد السود والنساء. هذه نماذج بسيطة عن التحييز التراكمي في موضوع الذكاء الاصطناعي الذي يحصل بطريقة متعمدة، ويغذى ببيانات في ظاهرها عشوائية، وما هي سوى تجسيد لعالمنا المتحيز وللمشكلات الاجتماعية الموجودة فيه، وللعنصرية المتفشية تحت مسميات مختلفة، وليست صالحة بشكلها العشوائي للتدريب.

معظم الأحاديث والنقاشات اليوم حول موضوع التمييز ترتبط بالنتائج الحقيقية وكيفية العودة عنها، لإتاحة الفرص للأطراف التي تتعرض للتميز المذكور، لكن الموضوع أكثر عمقاً وتعقيداً، فالأسئلة التي يجب طرحها ترتبط بالمهام الموكلة للبرامج والذكاء الاصطناعي وسبب إنشائها بالدرجة الأولى، إضافة إلى الأبحاث المسؤولة عنها والجهات الأكثر مشاركة في الموضوع. 

أسئلة أخرى تطرح حول ملكية البيانات المستخدمة والتحكم بها وكيفية الاستفادة منها، في ظل حروب الأجيال الخامسة والسادسة، وتأخر القوانين والتشريعات عن مواكبة عمل كل هذه المسارات الرقمية، وبالتالي أساس المشكلة هو اجتماعي اقتصادي سياسي أكثر مما هو تقني وبحثي، ولا شك في أن معظم الباحثين على دراية بحساسية التوظيف بالصورة الحالية.

خلاصة

لا بد للباحث والمتخصص في مجال الذكاء الاصطناعي من تحمل المسؤولية الأكبر في هذا الإطار، لأن الهدف الأساس لكل هذه البرمجة هو الإنسان وتحسين جودة الحياة البشرية وتمكين الأفراد. إن الباحث هو الأكثر قدرة على نشر التوعية ورفض تنفيذ أو نشر أي برامج ومكتبات إلكترونية قد تكرس فوقية مجموعات دون أخرى أو تساعد في بناء صور نمطية غير عادلة. 

وكما يغوص الكثير من الباحثين في تطوير الخدمات للمستخدم، لا بد من الغوص أيضاً في تداعيات الخدمات هذه على المديين القريب والبعيد، لاستحداث قوانين علمية تعوق أي تمييز ظاهري أو باطني ضد أي فئة. 

لا بد أيضاً من تكامل جهود الباحثين التقنيين مع خبراء من مجالات أخرى، لمعاينة الصورة كاملة واستباق الأضرار. أما بالنسبة إلى الشركات الكبرى، وعلى رأسها "غوغل"، فعلى الرغم من كل ما نسمعه عن دورها الريادي في مجال أخلاقيات الذكاء الاصطناعي، فإن الكثير من الأسئلة تطرح بعد طرد موظفيها وحل مجلس أخلاقيات الذكاء الاصطناعي الخاص بها. 

معظم الشركات الكبيرة، وعلى رأسها "غوغل"، تدعم الأخلاق والإنصاف ومحاربة خطاب الكراهية عندما تؤثر هذه الموضوعات بصورة إيجابية في صورتها وأهدافها. أما ما يخرج عن سياق التلميع، فحتى لو كان الباحث نجماً من نجومها، كحال غيبرو، فمصيره الطرد، والعبرة لمن عاين واقع الحال واعتبر.

المصدر: الميادين