نيويورك (أخبار إنمائية) — 23 سبتمبر/أيلول 2025

وجدت عدة دراسات أن الأدوات الطبية التي تعتمد على الذكاء الاصطناعي متحيزة ضد النساء والأقليات العرقية في تشخيص حالاتهم المرضية، بما قد يعرّض حياتهم للخطر، وفقًا لتقرير نشرته صحيفة فايننشال تايمز.

وأشارت الأبحاث، التي أجريت في عدد من الجامعات المرموقة في الولايات المتحدة والمملكة المتحدة، إلى أن الأدوات المعتمدة على النماذج اللغوية العميقة تميل إلى التقليل من خطورة الأعراض التي تعاني منها النساء، وتظهر قدرًا أقل من التعاطف تجاه الأقليات العرقية.

وتأتي هذه النتائج في الوقت الذي تحاول فيه شركات التقنية الكبرى، مثل مايكروسوفت وأوبن إيه آي، طرح أدوات ذكاء اصطناعي تهدف إلى تقليل الأعباء على الأطباء، وتسريع عمليات التشخيص، والانتقال بالمرضى إلى مرحلة العلاج بسرعة أكبر.

وبدأ العديد من الأطباء باستخدام نماذج الذكاء الاصطناعي مثل "جيميناي" و"شات جي بي تي"، إلى جانب أدوات تسجيل الملاحظات الطبية، لاستقبال شكاوى المرضى والوصول إلى المشكلات الحقيقية بشكل أكثر كفاءة.

وفي يونيو/حزيران الماضي، كشفت شركة مايكروسوفت عن أداة ذكاء اصطناعي طبية قالت إنها أقوى أربع مرات من الأطباء البشر في تشخيص الأمراض.

لكن الدراسات التي أُجريت في معهد ماساتشوستس للتكنولوجيا في الوقت نفسه أظهرت أن أدوات الذكاء الاصطناعي الطبية قدّمت رعاية أقل للمرضى النساء، وفي بعض الحالات أوصت بعلاجهم في المنزل بدلاً من التدخل الطبي المباشر.

وأظهرت دراسة منفصلة أخرى في المعهد نفسه أن أدوات الذكاء الاصطناعي أظهرت تعاطفًا أقل تجاه الأقليات العرقية المصابة بأمراض نفسية وعقلية.

وأوضحت دراسة أجرتها كلية لندن للاقتصاد أن نموذج "غوغل غيما" قلل من خطورة المشاكل البدنية والنفسية التي تواجهها النساء. ويُعد "غيما" نموذجًا مفتوح المصدر من شركة غوغل، ويستخدم على نطاق واسع من قبل السلطات المحلية في المملكة المتحدة.

وأشار التقرير إلى أن هذا التحيز العنصري والجندري يعود إلى الطريقة التي يتم بها تدريب النماذج اللغوية العميقة والبيانات المستخدمة، حيث تعتمد الشركات غالبًا على بيانات متاحة على الإنترنت، والتي غالبًا ما تتضمن لغة عنصرية وتحاملًا ضد فئات معينة.

وبالتالي، تنتقل هذه الانحيازات إلى النماذج اللغوية العميقة على الرغم من محاولات المطورين الحد منها عبر القيود والإجراءات الوقائية.

وأوضحت شركة أوبن إيه آي أن معظم الدراسات اعتمدت على نماذج قديمة من أدوات الذكاء الاصطناعي، وأن النماذج الجديدة أصبحت أقل عرضة لهذا التحيز.

وأكدت غوغل أيضًا أنها تتخذ إجراءات صارمة لمنع التمييز العنصري والتحيز، مع تطوير ضوابط صارمة للقضاء على هذه الظواهر نهائيًا.

وقال ترافيس زاك، أستاذ مساعد في جامعة كاليفورنيا، سان فرانسيسكو، والمسؤول الطبي الرئيسي في شركة Open Evidence الناشئة في مجال المعلومات الطبية بالذكاء الاصطناعي، إن الحل الحقيقي يكمن في اختيار البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي بعناية فائقة.

وأضاف زاك أن أداة Open Evidence، التي يعتمد عليها أكثر من 400 ألف طبيب في الولايات المتحدة، تم تدريبها على مستندات طبية وإرشادات صحية من أطباء خبراء، بالإضافة إلى المراجع الطبية المستخدمة في الجامعات.