“ميتا” تطلق أداة لاكتشاف التحيز العنصري في الأنظمة الحاسوبية

أصدرت شركة “ميتا”، أداة جديدة مصممة لاكتشاف التحيّز العنصري داخل أنظمة الرؤية الحاسوبية.
وأظهرت العديد من نماذج الرؤية الحاسوبية، تحيزًا منهجيًا ضد النساء والأشخاص الملونين. وتأمل “ميتا” في أن تسمح الأدوات المحسنة للمطورين باكتشاف أوجه القصور ومعالجتها بشكل أفضل.
وقدمت الشركة للباحثين، إمكانية الوصول إلى FACET، أو العدالة في تقييم الرؤية الحاسوبية، وهي أداة لتقييم مدى جودة أداء نماذج الرؤية الحاسوبية عبر خصائص مختلفة، من ذلك لون البشرة.
واعتمدت FACET على أكثر من 30 ألف صورة تحتوي على 50 ألف شخص صنفها الخبراء عبر الفئات الديموغرافية المختلفة.
وأشارت الشركة إلى إمكانية استخدام الأداة للإجابة على الأسئلة، مثل هل المحرك أفضل في التعرّف على المتزلجين عندما يكون جنسهم المتصور ذكرًا أو هل النظام أفضل وقادر على تحديد الأشخاص ذوي البشرة الفاتحة والبشرة الداكنة، وهل هذه المشكلات تتضخم عندما يكون الشخص ذا شعر مجعد وليس مستقيمًا.
وأوضحت “ميتا”، أن هذه الخطوة تأتي استجابة للطبيعة الصعبة لقياس العدالة في الرؤية الحاسوبية، التي غالبًا ما تفشل بسبب التسميات الخطأ المحتملة والتحيزات الديموغرافية.
وقالت “ميتا” في تدوينة: “من المعروف أن قياس معايير العدالة في الرؤية الحاسوبية أمر صعب، إذ إن خطر التسمية الخطأ حقيقي، والأشخاص الذين يستخدمون أنظمة الذكاء الاصطناعي هذه، قد تكون لديهم تجربة أفضل أو أسوأ، لا تعتمد على مدى تعقيد المهمة نفسها، بل على التركيبة السكانية”.



