قانون مند شدن هوش مصنوعی در مراقبت های بهداشتی

ظهور هوش مصنوعی مولد، یک متخصص اخلاق هوش مصنوعی را بر آن داشته تا چارچوبی را برای کاهش خطرات استفاده از فناوری در حال توسعه در فضای مراقبت های بهداشتی پیشنهاد کند.

به گزارش سیناپرس، هوش مصنوعی مولد شامل الگوریتم‌هایی مانند ChatGPT یا DALL-E است که می‌ تواند برای ایجاد محتوای جدید از جمله متن، تصاویر، صدا، ویدیو و کد رایانه‌ ای، استفاده شود. مدل‌های زبان بزرگ (LLM) یک جزء کلیدی از هوش مصنوعی مولد هستند که بر روی مقادیر زیادی متن بدون برچسب با استفاده از یادگیری خود یا نیمه نظارت شده آموزش داده می ‌شوند.

همچنین توانایی هوش مصنوعی مولد به طور تصاعدی گسترش یافته و در مراقبت‌های بهداشتی، از آن برای پیش‌بینی نتایج بیماری با یادگیری از مجموعه داده‌های بزرگ بیمار استفاده می ‌شود که آزمون مجوز پزشکی ایالات متحده را گذرانده و بدون یادگیری قبلی به نمره ۶۰ درصد رسیده است.

پتانسیل هوش مصنوعی برای ورود به فضای مراقبت های بهداشتی و جایگزینی پزشکان، پرستاران و سایر متخصصان سلامت، استفان هارر (Stefan Harrer) اخلاق شناس هوش مصنوعی را بر آن داشت تا چارچوبی را برای استفاده از هوش مصنوعی مولد در پزشکی پیشنهاد کند.

هارر که مدیر ارشد نوآوری در مرکز تحقیقات تعاونی سلامت دیجیتال (DHCRC) و عضو ائتلاف هوش مصنوعی سلامت (CHAI) است، می ‌گوید: مشکل استفاده از هوش مصنوعی توانایی آن برای تولید محتوای متقاعدکننده نادرست و نامناسب است.

هارر که در ملبورن استرالیا مستقر است، گفت: ماهیت بازیابی دانش کارآمد، پرسیدن سؤالات درست و هنر تفکر انتقادی بر توانایی فرد برای بررسی پاسخ ها با ارزیابی اعتبار آنها در برابر مدل های جهان استوار است.

هارر معتقد است که هوش مصنوعی مولد پتانسیل تغییر مراقبت های بهداشتی را دارد. برای این منظور، او معرفی یک چارچوب قانونی مبتنی بر اخلاقی از ۱۰ اصل را پیشنهاد می کند که به گفته او، خطرات هوش مصنوعی مولد در مراقبت های بهداشتی را کاهش می دهد. این اصول عبارتند از:

  1. هوش مصنوعی را به عنوان یک ابزار کمکی طراحی کنید که توانایی‌های تصمیم ‌گیرندگان انسانی را افزایش داده اما جایگزین آن‌ها نمی‌ شود.
  2. هوش مصنوعی طوری طراحی شود تا معیارهایی در مورد عملکرد، استفاده و تأثیر ایجاد کند که توضیح دهد چه زمانی و چگونه هوش مصنوعی برای کمک به تصمیم ‌گیری و بررسی سوگیری‌های احتمالی استفاده می‌ شود.
  3. هوش مصنوعی باید بر اساس سیستم‌های ارزشی گروه‌های کاربر هدف بوده و به آن پایبند باشد.
  4. هدف و استفاده از هوش مصنوعی را از ابتدای کار مفهومی یا توسعه اعلام شود.
  5. تمام منابع داده مورد استفاده برای آموزش هوش مصنوعی فاش شود.
  6. محتوای تولید شده توسط هوش مصنوعی باید به وضوح و شفاف برچسب گذاری شود.
  7. به طور منظم نظارت بر هوش مصنوعی در برابر استانداردهای حریم خصوصی، ایمنی و عملکرد وجود داشته باشد.
  8. نتایج بررسی شده را مستند کرده و به اشتراک گذاشته شود تا عملکرد هوش مصنوعی بهبود یابد.
  9. هنگام به کارگیری توسعه دهندگان انسانی، اطمینان حاصل شود که کار منصفانه و استانداردهای کار ایمن اعمال می شود.
  10. یک سابقه قانونی که به وضوح مشخص می کند چه زمانی ممکن است از داده ها برای آموزش هوش مصنوعی استفاده شود و چارچوب های حق چاپ، مسئولیت و پاسخگویی حاکم بر داده های آموزشی و محتوای تولید شده.

به گزارش سیناپرس، در اروپا، قانون هوش مصنوعی قرار است ماه آینده در پارلمان اروپا به رای گذاشته شود. اگر این قانون تصویب شود، نظارت بیومتریک، تشخیص احساسات و برخی از سیستم های هوش مصنوعی مورد استفاده در پلیس ممنوع خواهد بود.

چارچوب نسبتاً کلی هارر را می ‌توان در بسیاری از محیط‌های کاری با خطر جایگزینی هوش مصنوعی برای انسان‌ها اعمال کرد و به نظر می رسد این اقدام در زمانی رخ داده که مردم از جهان می خواهند که درباره این موضوع کمی درنگ کند. شرح کامل این مقاله در مجله eBioMedicine منتشر شده است.

مترجم: مهدی فلاحی پناه

No tags for this post.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا