زمانی برای نژاد پرستی هوش مصنوعی

به تازگی یکی از مسابقاتی که به صورت مجازی در زمینه زیبایی چهره افراد برگزار شد، در دنیای مجازی مخالفت افراد بسیاری را در پی داشت زیرا هیئت داوران این مسابقه که از چند هوش مصنوعی تشکیل شده بود در زمینه انتخاب برندگان بسیار نژادپرستانه عمل کرده بود.

نگرانی اصلی به وجود آمده این است که آیا این هوش های مصنوعی بر پایه اطلاعات تفسیری اولیه خود عمل کرده اند یا خیر؟ اگر پاسخ به این سوال مثبت باشد، این امر نشان دهنده رگه های نژادپرستی در طراحان این هوش های مصنوعی است و در صورت منفی بودن این پاسخ نیز، نگرانی جدیدی شکل خواهد گرفت که نشان دهنده نژادپرستانه رفتار کردن خود هوش مصنوعی است.

در این مسابقه پنج هوش مصنوعی پیشرفته در واقع موظف به داوری بین شرکت کنندگان شده بودند که هر کدام از این روبات ها تخصص ویژه ای در تشخیص زیبایی افراد داشتند. برای مثال یکی از هوشمندترین آنها که با نام RYNKL شناخته می شد مسئول تعیین زیبایی چشم افراد و رد کردن شرکت کنندگانی با چشمان گشاده بود.

روبات دیگر که PIMPL نامیده می شد برای تعیین لکه های صورت در نظر گرفته شده بود و حتی افرادی که کک و مک های موجود بر روی پوست آنها تا حدی زیبا به نظر می رسید را از دور خارج می کرد. روبات MADIS نیز ویژگی چهره شرکت کنندگان را با انباره داده های موجود درباره گروه نژادی آنها مقایسه می کرد و در انتها نیز روبات های AntiAgeist و Symmetry Master نیز تا حدودی به چنین کارهای مقایسه ای می پرداختند.

نتیجه حاصل شده از تحلیل های این داورهای ماشینی تا حد زیادی نژادپرستانه به نظر می رسید به این ترتیب که از بین تمامی 6 هزار نفری که با دانلود نرم افزار مربوط به این مسابقه از خود تصاویر سلفی تهیه کرده و در آن شرکت کرده بودند تنها 44 نفر برنده شده که اغلب این برندگان مربوط به شاخه های بشری دارای رنگ پوست روشن بودند.

آناستازیا جورجیوسکایا به عنوان یکی از اعضای تیم برگزار کننده این مسابقه در این باره بیان کرد که: «بسیاری از شرکت کنندگان با نتیجه هیئت داوران مخالف بودند و درخواست دریافت نظرات انسانی را داشتند؛ اما با هر مسابقه این چنینی که برگزار می شود ایده های بیشتری در زمینه چگونگی بررسی صورت انسان و حتی فراتر از آن یعنی ارزیابی ویژگی های متعدد بدن انسان و حتی نمایه های اجتماعی به دست می آوریم.»

با این وجود نگرانی اصلی به وجود آمده این است که آیا این هوش های مصنوعی بر پایه اطلاعات تفسیری اولیه خود عمل کرده اند یا خیر؟ اگر پاسخ به این سوال مثبت باشد، این امر نشان دهنده رگه های نژادپرستی در طراحان این هوش های مصنوعی است و در صورت منفی بودن این پاسخ نیز، نگرانی جدیدی شکل خواهد گرفت که نشان دهنده نژادپرستانه رفتار کردن خود هوش مصنوعی است.

منبع: gizmodo

ترجمه: آناهیتا عیوض خانی

No tags for this post.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا