به گزارش سیناپرس به نقل ازایسنا، امروزه ارزشهایی که در مورد ساخت سیستمهای هوش مصنوعی گرفته میشود بر زندگی انسانها تاثیرگذار است.
به همین منظور اخیرا شرکت "ماشین آلات بینالمللی کسب و کار"(آی.بی.ام) در مورد حذف تبعیض جنسیتی و اصلاح دادههای نامناسب و مفروضات ناقص سیستمهای تشخیص چهره مبتنی بر هوش مصنوعی که سبب افزایش نگرانی بسیاری از افراد شده است، تصمیماتی گرفته است.
آی.بی.ام برای حل این مشکل اخیرا در حال توسعه یک ابزار مبتنی بر هوش مصنوعی به نام "Fairness ۳۶۰" است.
"کاش آر وارشنی"(Kush R. Varshney) پژوهشگر هوش مصنوعی آی.بی.ام در مصاحبه با پایگاه خبری گیزمگ گفت: ابزار مذکور دارای چندین جز است. کار نخست این ابزار بررسی تبعیض جنسیتی است، دومین کارکرد آن بررسی این است که این اتفاقات چگونه رخ میدهند و این رخدادها در نظر کاربران چگونه است و کار نهایی آن اصلاح دادههای غلط الگوریتمها است.
وارشنی در ادامه گفت: کار اصلی ابزاری که ما توسعه دادهایم این است که به آسانی تبعیضهای جنسیتی را مورد بررسی قرار میدهد. الگوریتم مذکور شامل ۱۰ الگوریتم مختلف برای حذف یا کاهش تبعیضهای جنسیتی است. این الگوریتمها به سه دسته تقسیم میشوند. یک گروه دادهها را از قبل پردازش میکنند تا اطمینان حاصل شود که عملکرد سیستمهای تشخیص چهره برای تمامی افراد یکسان است. مرحله بعد، تنها پردازش دادهها است که شامل ساختن محافظهای الگوریتمی برای برداشتن تبعیضهای جنسیتی دادهای میباشد.
درنهایت پژوهشگران اظهار کردند هدف آنها از توسعه این ابزار طراحی یک سیستم هوش مصنوعی است که الگوریتم های آن عملکردی بدون تعصب و کاملا بیطرف داشته باشند.
No tags for this post.