قول شفافیت بیشتر در مورد توهمات و محتوای مضر هوش مصنوعی از سوی «اوپنایآی»

شرکت اوپنایآی(OpenAI) که توسعهدهنده هوش مصنوعی مشهور ChatGPT است، یک مرکز ارزیابی ایمنی جدید راهاندازی کرده است که به طور منظم بهروز میشود تا شفافیت بیشتری در مورد توهمات و محتوای مضر هوش مصنوعی داشته باشد.
به گزارش خبرگزاری سینا، شرکت اوپنایآی(OpenAI) یک صفحه وب جدید به نام «مرکز ارزیابی ایمنی» راهاندازی کرده است تا به شکل عمومی، اطلاعات مربوط به مواردی مانند میزان توهم مدلهای خود را به اشتراک بگذارد.
این هاب همچنین اگر مدلی محتوای مضر تولید میکند، نشان میدهد که چگونه طبق دستور عمل میکند و سعی میکند آن را اصلاح کند.
این شرکت فناوری ادعا میکند که این صفحه جدید شفافیت بیشتری را از جانب «اوپنایآی» فراهم میکند؛ شرکتی که همین الان هم با پروندههای قضایی متعددی مبنی بر استفاده غیرقانونی از مطالب دارای حق نشر برای آموزش مدلهای هوش مصنوعی خود مواجه است.
این «مرکز ارزیابی ایمنی» به منظور گسترش نظارت «اوپنایآی» راهاندازی شده است که به طور مداوم نیز بهروزرسانی میشود.
شرکت «اوپنایآی» در اعلامیه خود میگوید: همانطور که علم ارزیابی هوش مصنوعی در حال تکامل است، هدف ما این است که پیشرفت خود را در توسعه راههای مقیاسپذیرتر برای اندازهگیری قابلیت و ایمنی مدلها به اشتراک بگذاریم. با به اشتراک گذاشتن زیرمجموعهای از نتایج ارزیابی ایمنی خود در اینجا، امیدواریم این امر نه تنها درک عملکرد ایمنی سیستمهای «اوپنایآی» را در طول زمان آسانتر کند، بلکه از تلاشهای جامعه برای افزایش شفافیت در سراسر زمینه نیز حمایت کند.
این شرکت میافزاید که تلاش میکند تا ارتباطات فعالتری در این زمینه داشته باشد.
علاقهمندان میتوانند به هر یک از بخشهای این هاب نگاه کنند و اطلاعات مربوط به مدلهای مربوطه مانند «GPT-4.1» تا 4.5 را مشاهده کنند.
«اوپنایآی» خاطرنشان میکند که اطلاعات ارائه شده در این مرکز فقط یک «عکس فوری» است و افراد علاقهمند باید به ارزیابیها و سایر اطلاعات برای جزئیات بیشتر نگاه کنند.
یکی از نکات مهم کل «مرکز ارزیابی ایمنی» این است که «اوپنایآی» نهادی است که این آزمایشها را انجام میدهد و انتخاب میکند که چه اطلاعاتی را به صورت عمومی به اشتراک بگذارد. در نتیجه، هیچ راهی برای تضمین اینکه این شرکت تمام مسائل یا نگرانیها را با مردم در میان بگذارد، وجود ندارد.