چتباتها در پاسخ به سوالات حساس سلامت، اشتباه میکنند

یک مطالعه تازه نشان میدهد که چتباتها، حتی آنهایی که توسط شرکتهای بزرگ فناوری ساخته شدهاند، در پاسخ به سوالات حساس و مستعد انتشار اطلاعات نادرست درباره سلامت، عملکرد قابل اعتمادی ندارند.
به گزارش سیناپرس، دکتر نیکلاس بی. تیلر از مرکز پزشکی Harbor-UCLA و همکارانش، پنج چتبات محبوب شامل Gemini (گوگل)، DeepSeek (High-Flyer)، Meta AI (متا)، ChatGPT (اوپنایآی) و Grok (xAI) را بررسی کردند. آنها ده سوال در پنج حوزهی پرریسک سلامت شامل سرطان، واکسنها، سلولهای بنیادی، تغذیه و عملکرد ورزشی به چتباتها دادند و پاسخها توسط دو کارشناس مستقل ارزیابی شد.
نتایج نشان داد؛ تقریبا نیمی از پاسخها مشکلدار بودند. به طور خاص، نزدیک ۲۰ درصد پاسخها «بسیار مشکلدار» و حدود ۳۰ درصد «تا حدی مشکلدار» ارزیابی شدند. عملکرد چتباتها در حوزه واکسنها و سرطان نسبتاً بهتر بود، اما در موضوعات تغذیه، ورزش و سلولهای بنیادی، کیفیت پاسخها پایین و گاهی گمراهکننده بود.
یک نکته قابل توجه، کیفیت ارجاعات و منابع ذکرشده توسط چتباتها بود؛ تقریبا هیچ یک نتوانستند فهرست ارجاعات کامل و معتبر ارائه دهند و اغلب به منابع ساختگی یا نادرست استناد کردند. سطح دشواری متنها هم بالاتر از سطح خواننده معمول بود و بیشتر معادل تحصیلکردگان سال سوم و چهارم دانشگاه ارزیابی شد.
محققان هشدار دادند: چتباتها به دادههای بهروز دسترسی ندارند و خروجیهای خود را بر اساس الگوهای آماری و پیشبینی کلمات تولید میکنند. آنها قادر به تحلیل شواهد یا قضاوت اخلاقی نیستند و ممکن است پاسخهایی ارائه دهند که معتبر و علمی به نظر برسد اما در واقع نادرست باشد.
این تحقیق یک یادآوری مهم برای کاربران است که نباید به صورت کامل به چتباتها برای اطلاعات پزشکی حساس اعتماد کنند و همیشه باید نظرات متخصصان انسانی و منابع معتبر پزشکی را نیز در نظر گرفت.
مترجم:ندا جوادهراتی





