تدوین نخستین دستورالعمل جامع اخلاقی و حقوقی هوش مصنوعی در جهاددانشگاهی

رئیس مرکز راهبری پژوهش و پیشرفت هوش مصنوعی جهاددانشگاهی از تدوین و تصویب «دستورالعمل جامع اخلاقی و حقوقی پروژههای هوش مصنوعی» در شورای راهبردی این مرکز خبر داد و گفت: این دستورالعمل که نخستین سند از این دست در سطح نهادهای علمی‑پژوهشی کشور محسوب میشود، چارچوبهای شفافسازی، مسئولیتپذیری و پاسخگویی در قبال تصمیمات سیستمهای هوشمند را تبیین میکند.
به گزارش سیناپرس، افشین صندوقدار رئیس مرکز راهبری پژوهش و پیشرفت هوش مصنوعی جهاددانشگاهی، ضمن اعلام این خبر و با تأکید بر لزوم حکمرانی قانونمند در این حوزه، از تدوین نخستین دستورالعمل جامع اخلاقی و حقوقی پروژههای هوش مصنوعی در سطح نهادهای علمی‑پژوهشی کشور خبر داد و گفت: رویکرد ما صرفاً اجرایی نیست، بلکه نگاهی راهبردی و مبتنی بر حکمرانی قانونمند است.
صندوقدار با بیان اینکه بهرهبرداری از هوش مصنوعی در پروژههای پژوهشی مستلزم رعایت الزامات اساسی در سه لایه داده و حریم خصوصی، الگوریتم و اخلاق است، اظهار کرد: لایه داده باید مبتنی بر قوانین کشور و ملاحظات امنیتی باشد. لایه الگوریتم نیز باید از شفافیت، قابلیت توضیحدهندگی و عاری بودن از سوگیریهای تبعیضآمیز برخوردار بوده و لایه اخلاق نیز تضمینکننده همسویی خروجی سیستمهای هوشمند با ارزشهای فرهنگی و دینی جامعه ماست.
تأکید رهبری شهید بر تسلط بر لایههای عمیق هوش مصنوعی
وی افزود: این نگاه کاملاً منطبق بر دیدگاه رهبری شهید است که بر تسلط بر لایههای عمیق این فناوری تأکید دارند. معظمله به صراحت نسبت به خطر بهرهبردار صرف بودن هشدار داده یودند: در مسئله هوش مصنوعی، بهرهبردار بودن امتیاز نیست؛ این فناوری لایههای عمیقی دارد که باید بر آن لایهها مسلط شد.
صندوقدار این منویات را فصلالخطاب مرکز دانست و خاطرنشان کرد: تمام برنامهریزیها بر مبنای تحقق این نگاه عمیق و زیرساختی صورت میگیرد.
رئیس مرکز راهبری پژوهش و پیشرفت هوش مصنوعی جهاددانشگاهی همچنین با اشاره به هشدار رهبر شهید انقلاب درباره تشکیل آژانسهای بینالمللی هوش مصنوعی و محدودیتهای احتمالی پیش رو، تصریح کرد: این مسئله ضرورت دستیابی به استقلال فناوری در این حوزه را دوچندان میکند.
نخستین دستورالعمل جامع اخلاقی و حقوقی هوش مصنوعی در جهاددانشگاهی
صندوقدار از تدوین و تصویب «دستورالعمل جامع اخلاقی و حقوقی پروژههای هوش مصنوعی» در شورای راهبردی مرکز خبر داد و گفت: این دستورالعمل که نخستین سند از این دست در سطح نهادهای علمی‑پژوهشی کشور محسوب میشود، چارچوبهای شفافسازی، مسئولیتپذیری و پاسخگویی در قبال تصمیمات سیستمهای هوشمند را تبیین میکند.
وی افزود: الزاماتی برای پرهیز از تبعیضهای الگوریتمی و حفظ حقوق شهروندی در فرآیند تصمیمگیریهای مبتنی بر هوش مصنوعی در این سند پیشبینی شده که دقیقاً منطبق بر منویات رهبری درباره حکمرانی قانونمند در این عرصه است.
وی در ادامه از تدوین پیشنویس «آییننامه ارزیابی ریسک و امنیت پروژههای هوش مصنوعی» خبر داد و بیان کرد: این آییننامه با نگاه به اسناد بالادستی مانند سند ملی هوش مصنوعی و با توجه ویژه به حوزههای راهبردی پزشکی و سلامت، زیستفناوری و اقتصاد دانشبنیان طراحی خواهد شد. هدف، تضمین این نکته است که هرگونه بهکارگیری هوش مصنوعی در این حوزههای حساس، ضمن رعایت بالاترین استانداردهای ایمنی، همسو با منافع ملی و امنیت کشور باشد.
صندوقدار در ادامه با اشاره به هماهنگی کامل با نهادهای ملی متولی و بهرهگیری از ظرفیت نخبگان و اعضای هیئت علمی جهاددانشگاهی تأکید کرد: تدوین مقررات، نه یک فرآیند دستوپاگیر اداری، بلکه بسترساز اصلی برای توسعه پایدار و مسئولانه این فناوری در کشور است و زمینهساز اعتماد عمومی و پذیرش اجتماعی هوش مصنوعی بهعنوان یک ابزار حکمرانی مؤثر خواهد بود.
هوش مصنوعی بدون اخلاق، تیغی دو لبه است
صندوقدار با بیان اینکه یکی از اساسیترین ارکان توسعه پایدار و مسئولانه هوش مصنوعی در هر کشوری توجه به اخلاق است، اظهار کرد: بنده عمیقاً معتقدم هوش مصنوعی بدون اخلاق، همچون تیغی دولبه است که میتواند بهجای التیام، زخمهای عمیقتری بر پیکره جامعه وارد آورد.
وی که سالها در عرصه فناوری اطلاعات فعالیت داشته، افزود: تجربه من در اقتصادسنجی نیز نشان داده که هر مدلی، چه اقتصادی و چه هوشمند، اگر مبتنی بر دادههای ناقص و سوگیرانه باشد، نهتنها گمراهکننده، بلکه خطرناک خواهد بود.
رئیس مرکز راهبری پژوهش و پیشرفت هوش مصنوعی جهاددانشگاهی، حدود اخلاقی هوش مصنوعی در پژوهش را در چهار اصل بنیادین شفافیت و قابلیت توضیحدهندگی، عدالت و انصاف، حریم خصوصی و امنیت دادهها، و مسئولیتپذیری تبیین کرد و گفت: پژوهشگران باید بتوانند فرآیند تصمیمگیری الگوریتم را توضیح دهند و از جعبه سیاه بودن آن پرهیز کنند. الگوریتمها نباید تبعیضهای موجود در دادههای تاریخی را بازتولید یا تشدید کنند و مهمترین رکن اعتماد عمومی، حفظ حریم خصوصی و امنیت دادههاست.
ناشناسسازی کامل دادههای حساس پزشکی در پروژهها
وی در تشریح رویکرد مرکز نسبت به حفظ حریم خصوصی دادهها، خاطرنشان کرد: رویکرد ما مبتنی بر رعایت حداکثری استانداردهای بینالمللی و تطبیق آن با الزامات بومی و شرعی کشور است. در پروژههایی که با دادههای حساس پزشکی و سلامت سروکار دارند، الزام کردهایم دادهها پیش از ورود به چرخه پردازش، بهطور کامل ناشناس شوند و هرگونه نسبتی با هویت واقعی افراد از میان برداشته شود. همچنین دسترسی به این دادهها صرفاً برای پژوهشگران مجاز و در محیطهای امن آزمایشگاهی امکانپذیر است.
الزام به تهیه گزارش اخلاقی برای هر دیتاست
صندوقدار با اشاره به پیچیدگی موضوع سوگیریهای الگوریتمی، بیان کرد: هر دادهای محصول یک فرآیند تاریخی و اجتماعی خاص است و ناگزیر سوگیریهای آن دوره را به همراه دارد. برای مقابله با این پدیده، تیمهای پژوهشی را موظف کردهایم پیش از استفاده از هر دیتاست، یک گزارش اخلاقی تهیه کنند و به صراحت به این پرسش پاسخ دهند که دادهها از چه منبعی جمعآوری شدهاند، چه سوگیریهای بالقوهای دارند و چه اقداماتی برای تعدیل آنها اندیشیده شده است.
چهار چالش اصلی اجرایی در پژوهشهای هوش مصنوعی ایران
وی در پاسخ به پرسش درباره چالشهای اجرایی در پژوهشهای ایرانی، این چالشها را در چند سطح طبقهبندی کرد و افزود: نخستین و مهمترین چالش، فقدان فرهنگسازی و آموزش کافی در زمینه اخلاق هوش مصنوعی است. بسیاری از پژوهشگران جوان، درگیریهای اخلاقی این حوزه را بهخوبی نمیشناسند و صرفاً بر بهبود دقت و کارایی مدلها متمرکز هستند. نیازمندیم واحدهای درسی مرتبط با اخلاق هوش مصنوعی را در مقاطع تحصیلات تکمیلی وارد کنیم.
صندوقدار دومین چالش را نبود زیرساختهای دادهای استاندارد و حاکمیت داده در سطح ملی دانست و گفت: بسیاری از دادههای ارزشمند کشور در سیلوهای سازمانی مختلف محبوس هستند یا با کیفیت نازل و ناهمگون جمعآوری شدهاند. ایجاد نظام ملی حاکمیت داده با رعایت الزامات حریم خصوصی میتواند بسیاری از این مشکلات را حل کند.
وی سومین چالش را فقدان چارچوبهای حقوقی و نظارتی شفاف و بهروز عنوان کرد و افزود: قوانین ما در حوزه داده و حریم خصوصی عمدتاً متعلق به دوران پیش از ظهور هوش مصنوعی هستند. برای مثال، اینکه چه کسی مسئول خطای یک سیستم تشخیص پزشکی هوشمند است، هنوز در نظام حقوقی ما پاسخ روشنی ندارد. ما در مرکز در حال تنظیم پیشنویس منشور اخلاقی هوش مصنوعی هستیم و پس از تکمیل آن را برای تصویب به مراجع بالادستی ارائه خواهیم داد.
شکاف میان علوم فنی و انسانی؛ چالش مهمتر از بقیه
به نقل از ایسنا، رئیس مرکز راهبری پژوهش و پیشرفت هوش مصنوعی جهاددانشگاهی چهارمین چالش را که به گفته وی شاید مهمتر از بقیه باشد، شکاف میان حوزههای فنی و علوم انسانی در پروژههای هوش مصنوعی دانست و اظهار کرد: بسیاری از پروژههای ما صرفاً توسط مهندسان کامپیوتر هدایت میشوند و از مشاوره متخصصان علوم انسانی، حقوق، فلسفه و اخلاق بیبهرهاند. ما در مرکز با تشکیل کارگروههای بینرشتهای و دعوت از صاحبنظران این حوزهها، تلاش کردهایم این شکاف را تا حدودی پر کنیم، اما این یک نیاز ملی است که باید در سطح کلان به آن توجه شود.
وی در پایان تأکید کرد: جهاددانشگاهی بهعنوان یک نهاد انقلابی و علمی، خود را موظف میداند در مسیر توسعه هوش مصنوعی، پرچمدار رعایت اصول اخلاقی باشد. ما به دنبال هوش مصنوعی بومی و متعهدی هستیم که ضمن افزایش توانمندیهای کشور، کرامت انسانی، عدالت و ارزشهای اسلامی‑ایرانی را پاس بدارد.





