نماد سایت خبرگزاری سیناپرس

راه رسیدن به هوش مصنوعی در آینده، اعتماد به آن است

به گزارش سیناپرس، دانشگاه لینکوپینگ در حال هماهنگی یک پروژه در اتحادیه اروپا است که یک نقشه راه مبتنی بر تحقیق را با هدف هدایت نهادهای تأمین مالی تحقیقات و تصمیم گیرندگان برای هوش مصنوعی قابل اعتماد در آینده، تهیه کرده است.

به گفته کارشناسان، توسعه هوش مصنوعی در مراحل ابتدایی خود است. وقتی امروز به کارهایی که در ۵۰ سال گذشته انجام می دادیم نگاه می ‌کنیم، آن ها را بسیار ابتدایی خواهیم یافت.

فردریک هاینتز (Fredrik Heintz) استاد هوش مصنوعی در دانشگاه بین المللی لبنان و هماهنگ ‌کننده این پروژه می‌ گوید: اکنون پایه ‌گذاری هوش مصنوعی قابل ‌اعتماد مهم است.

نقشه راهی که اکنون توسط این تیم تحقیقاتی ارائه شده، اولین گام در راه استانداردسازی است، جایی که ایده این است که تصمیم ‌گیرندگان و نهادهای تأمین مالی تحقیقات می ‌توانند بینشی در مورد آنچه برای توسعه هوش مصنوعی قابل اعتماد لازم است به دست آورند. فردریک هاینتز معتقد است که این ایده خوبی است که نشان دهیم بسیاری از مسائل تحقیقاتی باید قبل از دستیابی به آن حل شوند.

در این مطالعات، محققان سه معیار برای هوش مصنوعی قابل اعتماد تعریف کرده اند: باید با قوانین و مقررات مطابقت داشته باشد، باید چندین اصل اخلاقی را رعایت کند و اجرای آن باید قوی و ایمن باشد. فردریک هاینتز اشاره می کند که این معیارها، به ویژه اجرای اصول اخلاقی، چالش های عمده ای را ایجاد می کنند.

او در ادامه اینگونه توضیح می دهد: مثلاً عدالت را در نظر بگیرید. آیا این به معنای توزیع برابر منابع است یا اینکه همه نقش آفرینان منابع مورد نیاز برای رساندن همه آنها به یک سطح را دریافت کنند؟ ما با سؤالات بلند مدت بزرگی روبرو هستیم و پاسخ به آنها زمان می برد. او می افزاید، به یاد داشته باشید تعریف عدالت صدها سال است که مورد بحث فیلسوفان و محققان بوده است.

این پروژه روی سؤالات تحقیقاتی گسترده و جامع تمرکز خواهد کرد و سعی خواهد کرد استانداردهایی را برای همه کسانی که با هوش مصنوعی کار می کنند، بیابد. اما فردریک هاینتز متقاعد شده است که تنها در صورتی می توانیم به این هدف دست یابیم که تحقیقات اولیه در زمینه هوش مصنوعی در اولویت قرار گیرد.

فردریک هاینتز می ‌گوید: مردم اغلب هوش مصنوعی را به عنوان یک موضوع فناوری در نظر می گیرند، اما آنچه واقعاً مهم است این است که آیا ما از آن سود اجتماعی به دست می آوریم یا خیر. اگر می ‌خواهیم به هوش مصنوعی دست یابیم که قابل اعتماد باشد و در جامعه به خوبی عمل کند، باید مطمئن شویم که تمرکز آن بر مردم است.

به گفته کارشناسان، بسیاری از پیشنهادات حقوقی نوشته شده در اتحادیه اروپا و کشورهای عضو آن توسط متخصصان حقوقی نوشته شده است. اما فردریک هاینتز معتقد است که آنها فاقد دانش تخصصی در زمینه هوش مصنوعی هستند، که یک مشکل بزرگ محسوب می شود. 

به گزارش سیناپرس، هاینتز در پایان اضافه می کند: قانون و استانداردها باید مبتنی بر دانش باشد. این جایی است که ما محققان می ‌توانیم مشارکت داشته باشیم و اطلاعاتی درباره پیشروی فعلی تحقیقات ارائه کرده و تصمیم‌ های مستدلی را ممکن کنیم. 

مترجم: سامیه خسروی زاده
منبع: eurekalert
 

No tags for this post.
خروج از نسخه موبایل