اتومبیل های خودران نمیتوانند عابران پیاده را با رنگ پوست تیره را تشخیص دهند
افرادی که پوست تیرهتری دارند بیشتر در معرض خطر برخورد با وسیله نقلیه خودران قرار میگیرند.
تخمین زده میشود که تا سال ۲۰۴۰، ۳۰ میلیون وسیله نقلیه خودران در جادهها باشند و به طور بالقوه برخی از خطرات ناشی از خطای رانندگان انسانی را از بین ببرند.
اما نگرانیهای دیگری نیز وجود دارد که باید هنگام تصور آیندهای که خودروهای خودران چرخ آن را در دست میگیرند به خاطر بسپارید: نژادپرستی، تبعیض جنسی و توانایی.
تشخیص رنگ پوست
الگوریتمها کامل نیستند. آنها توسط انسانهایی طراحی شدهاند که خطاپذیر هستند. و میتواند تعصب سازندگان آنها را به راحتی منعکس کند. الگوریتمها از مثالهایی که آورده شده است، میآموزند. اگر به آنها تعداد کافی جمعیت متنوعی داده نشود، شناختن آنها در عمل دشوارتر خواهد بود.
در سال ۲۰۲۱ ، کمیسیون حقوقی شروع به تهیه یک چارچوب قانونی برای ورود وسایل نقلیه مستقل به جادههای انگلستان کرد و گفت که آنها ممکن است “برای شناسایی چهرههای پوست تیره در تاریکی نیاز به تلاش بیشتر داشته باشند”. به گفته این گزارش، افراد دارای معلولیت نیز در معرض خطر هستند، “ممکن است سیستمها برای مقابله با انواع کامل صندلیهای چرخدار و اسکوترها آموزش ندیده باشند.”
تحقیقات روی سیستم های تشخیص اشیا
گزارش سال ۲۰۱۹ یافتههای مشابهی داشت. محققان از جورجیاتِک برای تکمیل مطالعه خود، هشت مدل هوش مصنوعی را که در پیشرفتهترین سیستمهای تشخیص اشیا استفاده میشود، مورد بررسی قرار دادند. این سیستمها به وسایل نقلیه خودران اجازه میدهند علائم جادهای، عابران پیاده و سایر اشیا را هنگام حرکت در جادهها تشخیص دهند.
آنها این سیستمها را با استفاده از دو دسته مختلف بر اساس مقیاس Fitzpatrick ، مقیاسی که معمولاً برای طبقهبندی رنگ پوست انسان استفاده میشود، آزمایش کردند. به طور کلی وقتی به سیستم گروهی از تصاویر عابران پیاده با رنگ پوست تیرهتر ارائه میشود، توانایی شناسایی پنج درصد کاهش مییابد. این مدلها هنگام رویارویی با عابران پیاده با سه سایه تاریک در مقیاس، “عملکرد یکنواخت ضعیفتری” از خود نشان دادند.
فراتر از صندلی راننده
نژادپرستی در سیستمهای هوش مصنوعی فقط به خودورها محدود نمیشود. به عنوان مثال، نرمافزار تشخیص چهره آمازون، Rekognition ، موفقیت پایینتری در تشخیص رنگهای تیره پوست و صورتهای زن دارد.
در ماه مه سال گذشته، ProPublica گزارش داد كه نرمافزاری كه برای كمك به قضات در تعیین خطر ارتکاب مجدد برای مجرمین مورد استفاده قرار میگیرد، نسبت به سیاهپوستان عملکردی مغرضانه دارد. این سیستم توسط قضات در مجازاتهای کیفری مورد استفاده قرار میگیرد و نمرهای را بر اساس اینکه آیا فرد مجدداً بزه میکنند ارائه میدهد.
روزنامهنگاران تحقیقی، نمره خطر تعیین شده برای بیش از ۷۰۰۰ نفر در فلوریدا را در سالهای ۲۰۱۳ و ۲۰۱۴ ارزیابی کردند. این روزنامهنگاران سپس بررسی کردند که آیا همان افراد به جرم جدید در دو سال آینده متهم شدهاند یا خیر.
این الگوریتم نه تنها قابل اعتماد نبود (فقط ۲۰ درصد از افرادی که پیشبینی میکردند مرتکب جرائمی خشن شوند) این کار را کردند، بلکه از نظر نژادی نیز مغرضانه بود. متهمان سیاهپوست به عنوان مجرمان آینده پرچمدار میشدند و به اشتباه آنها را تقریباً دو برابر نرخ متهمان سفید نشان میداد. در حالی که متهمان سفید پوست بیشتر از متهمان سیاهپوست به عنوان کم خطر برچسبگذاری میشدند.
آیندهای بی طرف
اهمیت توسعه سیستمهای هوشمصنوعی بیطرف بسیار مشهود است. با وسایل نقلیه خودران، این کار با افزایش تعداد تصاویر عابران پیاده با پوست تیره در مجموعه دادههای مورد استفاده برای آموزش سیستم شروع میشود.
مهندسان مسئول توسعه این سیستمها باید تأکید بیشتری بر آموزش سیستمها با دقت بالاتر برای این گروه داشته باشند.
هوشمصنوعی هر روز بیشتر در زندگی ما ادغام میشود. واضح است که جامعه توسعه هوشمصنوعی باید در برابر این نوع جهتگیریهای مخرب موضع بگیرد.