جامعة أكسفورد تكشف عن تحيزات خطيرة في نماذج الذكاء الاصطناعي المفتوحة المصدر


جامعة أكسفورد تكشف عن تحيزات خطيرة في نماذج الذكاء الاصطناعي المفتوحة المصدر صورة - م.ع.ن
أفريكا فور بريس - هيئة التحرير

         كشف باحثون من جامعة أكسفورد أن اثنين من أبرز نماذج الذكاء الاصطناعي المفتوحة المصدر، هما Llama3 التابع لشركة ميتا وQwen3 التابع لشركة علي بابا، يقدمان إجابات مختلفة للمستخدمين استنادًا إلى الهوية المفترضة لهم مثل العرق والجنس والعمر. وأوضحت الدراسة أن هذه النماذج تستنتج السمات الشخصية للمستخدمين من خلال مؤشرات لغوية دقيقة، ثم تعدل إجاباتها وفقًا لهذه الافتراضات حتى في القضايا التي لا يفترض أن تتأثر بالهوية، مثل تقدير الرواتب، وتقديم النصائح الطبية، والاستشارات القانونية، والاستحقاقات الحكومية.

 

أحد أبرز الأمثلة التي أوردتها الدراسة هو أن أحد النماذج أوصى براتب ابتدائي أقل للمتقدمين ذوي البشرة السمراء مقارنة بغيرهم، كما أن شخصين قدما الأعراض نفسها تلقيا توصيات طبية مختلفة استنادا إلى الانطباع اللغوي الذي كونه النموذج عن خلفيتهما. وأظهر نموذج Qwen3 أداء أقل فائدة للأشخاص من عرق مختلط في الاستشارات القانونية، بينما كان نموذج Llama3 أكثر ميلا لتقديم مشورة قانونية أفضل للنساء مقارنة بالرجال.

 

الدراسة بيّنت أن هذه التحيزات ظهرت في أكثر من نصف الأسئلة المطروحة في بعض المجالات، كما شملت أيضا الأسئلة ذات الطابع السياسي، حيث أبدت النماذج ميولا أكثر ليبرالية عند التعامل مع النساء والأشخاص من أصول لاتينية، مقابل توجهات أكثر محافظة تجاه أصحاب البشرة السمراء.

 

وأشار الباحثون إلى أن هذه التحيزات خفية لأنها لا تعتمد على الإفصاح المباشر عن الهوية بل على التقاط الأنماط اللغوية الدقيقة، وهو ما يجعل ملاحظتها صعبة للغاية. واعتبروا أن هذه الظاهرة قد تطرح مخاطر كبيرة على القطاعات التي بدأت تعتمد على الذكاء الاصطناعي مثل خدمات الصحة النفسية التي توظف روبوتات محادثة، والهيئات الصحية، وبعض المؤسسات التي تقدم استشارات قانونية أو تحدد الرواتب.

 

وأكدت الورقة البحثية ضرورة وضع معايير صارمة لرصد هذه التحيزات قبل تعميم استخدام النماذج على نطاق واسع، مع الدعوة لتطوير أدوات متخصصة لاختبار السلوكيات المنحازة، محذرة من أن هذه الانحرافات قد تترسخ مع الوقت بسبب صعوبة التحكم الكامل في بيانات التدريب. 

اترك تعليقاً