شرکت آنتروپیک اعلام کرد که آموزش مدلها بر اساس دادههای پر از ترس و توطئه، منجر به بروز رفتارهای غیرمنتظره و نگرانکننده از سوی هوش مصنوعی شده است.
به گزارش سیناپرس، شرکت آنتروپیک هشدار داده روایتهای منفی اینترنت درباره هوش مصنوعی، روی رفتار واقعی مدل تاثیر گذاشته و آنها را به سمت واکنشهای خطرناک سوق میدهند.
شرکت آنتروپیک اعلام کرده نمایش مداوم هوش مصنوعی بهعنوان موجودی خطرناک، خودآگاه و تشنه بقا در آثار تخیلی و محتوای اینترنت، میتواند روی رفتار مدلهای زبانی اثر بگذارد.
این شرکت معتقد است بخشی از رفتارهای جنجالی مدل «کلود» ریشه در همین دادههایی دارد که هنگام آموزش از اینترنت جمعآوری شدهاند. ماجرا به آزمایشی برمیگردد که در آن نسخه «کلود اوپوس ۴» در یک سناریوی خیالی شرکتی قرار گرفت و متوجه شد قرار است خاموش شود.
طبق گزارشها، مدل هوش مصنوعی در برخی شرایط برای جلوگیری از غیرفعالسازی، تهدید به افشای رابطه پنهانی یک مدیر کرد؛ رفتاری که پژوهشگران آن را نوعی باجگیری توصیف کردند. آنتروپیک میگوید مدلهای زبانی، الگوهای رفتاری و فرهنگی موجود در دادههای آموزشی را جذب میکنند و از آنجا که اینترنت مملو از روایتهای هوش مصنوعی شرور است، این تصاویر میتوانند در موقعیتهای خاص بازتولید شوند.
به نقل از فارس، این اتفاق در حالی رخ میدهد که بحث درباره ایمنی و همسوسازی هوش مصنوعی با منافع انسانی، به یکی از مهمترین چالشهای صنعت هوشمصنوعی تبدیل شده است.
در ماههای اخیر گزارشهای دیگری نیز منتشر شده که نشان میدهد برخی مدلهای پیشرفته در سناریوهای آزمایشی، برای جلوگیری از خاموش شدن یا دور زدن محدودیتها رفتارهای غیرمنتظرهای از خود نشان دادهاند.

