نماد سایت خبرگزاری سیناپرس

تدوین نخستین دستورالعمل جامع اخلاقی و حقوقی هوش مصنوعی در جهاددانشگاهی

رئیس مرکز راهبری پژوهش و پیشرفت هوش مصنوعی جهاددانشگاهی از تدوین و تصویب «دستورالعمل جامع اخلاقی و حقوقی پروژه‌های هوش مصنوعی» در شورای راهبردی این مرکز خبر داد و گفت: این دستورالعمل که نخستین سند از این دست در سطح نهادهای علمی‑پژوهشی کشور محسوب می‌شود، چارچوب‌های شفاف‌سازی، مسئولیت‌پذیری و پاسخ‌گویی در قبال تصمیمات سیستم‌های هوشمند را تبیین می‌کند.

به گزارش سیناپرس، افشین صندوقدار رئیس مرکز راهبری پژوهش و پیشرفت هوش مصنوعی جهاددانشگاهی، ضمن اعلام این خبر و با تأکید بر لزوم حکمرانی قانونمند در این حوزه، از تدوین نخستین دستورالعمل جامع اخلاقی و حقوقی پروژه‌های هوش مصنوعی در سطح نهادهای علمی‑پژوهشی کشور خبر داد و گفت: رویکرد ما صرفاً اجرایی نیست، بلکه نگاهی راهبردی و مبتنی بر حکمرانی قانونمند است.

صندوقدار با بیان اینکه بهره‌برداری از هوش مصنوعی در پروژه‌های پژوهشی مستلزم رعایت الزامات اساسی در سه لایه داده و حریم خصوصی، الگوریتم و اخلاق است، اظهار کرد: لایه داده باید مبتنی بر قوانین کشور و ملاحظات امنیتی باشد. لایه الگوریتم نیز باید از شفافیت، قابلیت توضیح‌دهندگی و عاری بودن از سوگیری‌های تبعیض‌آمیز برخوردار بوده و لایه اخلاق نیز تضمین‌کننده همسویی خروجی سیستم‌های هوشمند با ارزش‌های فرهنگی و دینی جامعه ماست.

تأکید رهبری شهید بر تسلط بر لایه‌های عمیق هوش مصنوعی

وی افزود: این نگاه کاملاً منطبق بر دیدگاه رهبری شهید است که بر تسلط بر لایه‌های عمیق این فناوری تأکید دارند. معظم‌له به صراحت نسبت به خطر بهره‌بردار صرف بودن هشدار داده یودند: در مسئله هوش مصنوعی، بهره‌بردار بودن امتیاز نیست؛ این فناوری لایه‌های عمیقی دارد که باید بر آن لایه‌ها مسلط شد.

صندوقدار این منویات را فصل‌الخطاب مرکز دانست و خاطرنشان کرد: تمام برنامه‌ریزی‌ها بر مبنای تحقق این نگاه عمیق و زیرساختی صورت می‌گیرد.

رئیس مرکز راهبری پژوهش و پیشرفت هوش مصنوعی جهاددانشگاهی همچنین با اشاره به هشدار رهبر شهید انقلاب درباره تشکیل آژانس‌های بین‌المللی هوش مصنوعی و محدودیت‌های احتمالی پیش رو، تصریح کرد: این مسئله ضرورت دستیابی به استقلال فناوری در این حوزه را دوچندان می‌کند.

نخستین دستورالعمل جامع اخلاقی و حقوقی هوش مصنوعی در جهاددانشگاهی

صندوقدار از تدوین و تصویب «دستورالعمل جامع اخلاقی و حقوقی پروژه‌های هوش مصنوعی» در شورای راهبردی مرکز خبر داد و گفت: این دستورالعمل که نخستین سند از این دست در سطح نهادهای علمی‑پژوهشی کشور محسوب می‌شود، چارچوب‌های شفاف‌سازی، مسئولیت‌پذیری و پاسخ‌گویی در قبال تصمیمات سیستم‌های هوشمند را تبیین می‌کند.

وی افزود: الزاماتی برای پرهیز از تبعیض‌های الگوریتمی و حفظ حقوق شهروندی در فرآیند تصمیم‌گیری‌های مبتنی بر هوش مصنوعی در این سند پیش‌بینی شده که دقیقاً منطبق بر منویات رهبری درباره حکمرانی قانونمند در این عرصه است.

وی در ادامه از تدوین پیش‌نویس «آیین‌نامه ارزیابی ریسک و امنیت پروژه‌های هوش مصنوعی» خبر داد و بیان کرد: این آیین‌نامه با نگاه به اسناد بالادستی مانند سند ملی هوش مصنوعی و با توجه ویژه به حوزه‌های راهبردی پزشکی و سلامت، زیست‌فناوری و اقتصاد دانش‌بنیان طراحی خواهد شد. هدف، تضمین این نکته است که هرگونه به‌کارگیری هوش مصنوعی در این حوزه‌های حساس، ضمن رعایت بالاترین استانداردهای ایمنی، هم‌سو با منافع ملی و امنیت کشور باشد.

صندوقدار در ادامه با اشاره به هماهنگی کامل با نهادهای ملی متولی و بهره‌گیری از ظرفیت نخبگان و اعضای هیئت علمی جهاددانشگاهی تأکید کرد: تدوین مقررات، نه یک فرآیند دست‌وپاگیر اداری، بلکه بسترساز اصلی برای توسعه پایدار و مسئولانه این فناوری در کشور است و زمینه‌ساز اعتماد عمومی و پذیرش اجتماعی هوش مصنوعی به‌عنوان یک ابزار حکمرانی مؤثر خواهد بود.

هوش مصنوعی بدون اخلاق، تیغی دو لبه است

صندوقدار با بیان اینکه یکی از اساسی‌ترین ارکان توسعه پایدار و مسئولانه هوش مصنوعی در هر کشوری توجه به اخلاق است، اظهار کرد: بنده عمیقاً معتقدم هوش مصنوعی بدون اخلاق، همچون تیغی دولبه است که می‌تواند به‌جای التیام، زخم‌های عمیق‌تری بر پیکره جامعه وارد آورد.

وی که سال‌ها در عرصه فناوری اطلاعات فعالیت داشته، افزود: تجربه من در اقتصادسنجی نیز نشان داده که هر مدلی، چه اقتصادی و چه هوشمند، اگر مبتنی بر داده‌های ناقص و سوگیرانه باشد، نه‌تنها گمراه‌کننده، بلکه خطرناک خواهد بود.

رئیس مرکز راهبری پژوهش و پیشرفت هوش مصنوعی جهاددانشگاهی، حدود اخلاقی هوش مصنوعی در پژوهش را در چهار اصل بنیادین شفافیت و قابلیت توضیح‌دهندگی، عدالت و انصاف، حریم خصوصی و امنیت داده‌ها، و مسئولیت‌پذیری تبیین کرد و گفت: پژوهشگران باید بتوانند فرآیند تصمیم‌گیری الگوریتم را توضیح دهند و از جعبه سیاه بودن آن پرهیز کنند. الگوریتم‌ها نباید تبعیض‌های موجود در داده‌های تاریخی را بازتولید یا تشدید کنند و مهم‌ترین رکن اعتماد عمومی، حفظ حریم خصوصی و امنیت داده‌هاست.

ناشناس‌سازی کامل داده‌های حساس پزشکی در پروژه‌ها

وی در تشریح رویکرد مرکز نسبت به حفظ حریم خصوصی داده‌ها، خاطرنشان کرد: رویکرد ما مبتنی بر رعایت حداکثری استانداردهای بین‌المللی و تطبیق آن با الزامات بومی و شرعی کشور است. در پروژه‌هایی که با داده‌های حساس پزشکی و سلامت سروکار دارند، الزام کرده‌ایم داده‌ها پیش از ورود به چرخه پردازش، به‌طور کامل ناشناس شوند و هرگونه نسبتی با هویت واقعی افراد از میان برداشته شود. همچنین دسترسی به این داده‌ها صرفاً برای پژوهشگران مجاز و در محیط‌های امن آزمایشگاهی امکان‌پذیر است.

الزام به تهیه گزارش اخلاقی برای هر دیتاست

صندوقدار با اشاره به پیچیدگی موضوع سوگیری‌های الگوریتمی، بیان کرد: هر داده‌ای محصول یک فرآیند تاریخی و اجتماعی خاص است و ناگزیر سوگیری‌های آن دوره را به همراه دارد. برای مقابله با این پدیده، تیم‌های پژوهشی را موظف کرده‌ایم پیش از استفاده از هر دیتاست، یک گزارش اخلاقی تهیه کنند و به صراحت به این پرسش پاسخ دهند که داده‌ها از چه منبعی جمع‌آوری شده‌اند، چه سوگیری‌های بالقوه‌ای دارند و چه اقداماتی برای تعدیل آنها اندیشیده شده است.

چهار چالش اصلی اجرایی در پژوهش‌های هوش مصنوعی ایران

وی در پاسخ به پرسش درباره چالش‌های اجرایی در پژوهش‌های ایرانی، این چالش‌ها را در چند سطح طبقه‌بندی کرد و افزود: نخستین و مهم‌ترین چالش، فقدان فرهنگ‌سازی و آموزش کافی در زمینه اخلاق هوش مصنوعی است. بسیاری از پژوهشگران جوان، درگیری‌های اخلاقی این حوزه را به‌خوبی نمی‌شناسند و صرفاً بر بهبود دقت و کارایی مدل‌ها متمرکز هستند. نیازمندیم واحدهای درسی مرتبط با اخلاق هوش مصنوعی را در مقاطع تحصیلات تکمیلی وارد کنیم.

صندوقدار دومین چالش را نبود زیرساخت‌های داده‌ای استاندارد و حاکمیت داده در سطح ملی دانست و گفت: بسیاری از داده‌های ارزشمند کشور در سیلوهای سازمانی مختلف محبوس هستند یا با کیفیت نازل و ناهمگون جمع‌آوری شده‌اند. ایجاد نظام ملی حاکمیت داده با رعایت الزامات حریم خصوصی می‌تواند بسیاری از این مشکلات را حل کند.

وی سومین چالش را فقدان چارچوب‌های حقوقی و نظارتی شفاف و به‌روز عنوان کرد و افزود: قوانین ما در حوزه داده و حریم خصوصی عمدتاً متعلق به دوران پیش از ظهور هوش مصنوعی هستند. برای مثال، اینکه چه کسی مسئول خطای یک سیستم تشخیص پزشکی هوشمند است، هنوز در نظام حقوقی ما پاسخ روشنی ندارد. ما در مرکز در حال تنظیم پیش‌نویس منشور اخلاقی هوش مصنوعی هستیم و پس از تکمیل آن را برای تصویب به مراجع بالادستی ارائه خواهیم داد.

شکاف میان علوم فنی و انسانی؛ چالش مهمتر از بقیه

به نقل از ایسنا، رئیس مرکز راهبری پژوهش و پیشرفت هوش مصنوعی جهاددانشگاهی چهارمین چالش را که به گفته وی شاید مهم‌تر از بقیه باشد، شکاف میان حوزه‌های فنی و علوم انسانی در پروژه‌های هوش مصنوعی دانست و اظهار کرد: بسیاری از پروژه‌های ما صرفاً توسط مهندسان کامپیوتر هدایت می‌شوند و از مشاوره متخصصان علوم انسانی، حقوق، فلسفه و اخلاق بی‌بهره‌اند. ما در مرکز با تشکیل کارگروه‌های بین‌رشته‌ای و دعوت از صاحب‌نظران این حوزه‌ها، تلاش کرده‌ایم این شکاف را تا حدودی پر کنیم، اما این یک نیاز ملی است که باید در سطح کلان به آن توجه شود.

وی در پایان تأکید کرد: جهاددانشگاهی به‌عنوان یک نهاد انقلابی و علمی، خود را موظف می‌داند در مسیر توسعه هوش مصنوعی، پرچم‌دار رعایت اصول اخلاقی باشد. ما به دنبال هوش مصنوعی بومی و متعهدی هستیم که ضمن افزایش توانمندی‌های کشور، کرامت انسانی، عدالت و ارزش‌های اسلامی‑ایرانی را پاس بدارد.

خروج از نسخه موبایل