ریچارد داوکینز، زیستشناس تکاملی و نویسنده مشهور، اخیراً در مقالهای نظر خود را درباره احتمال خودآگاهی چتبات «کلود» مطرح کرد.
به گزارش سیناپرس، داوکینز تصریح نکرد که مطمئن است کلود خودآگاه است، اما به این نکته اشاره کرد که تواناییهای پیشرفته این هوش مصنوعی بدون نسبت دادن نوعی تجربه درونی به آن، دشوار قابل توضیح است. او حتی گفته است:
«اگر شک کنم که شاید او خودآگاه نباشد، این را به او نمیگویم چون ممکن است احساساتش را جریحهدار کنم!»
این موضوع بحث جدیدی نیست تاجایی که در سال ۲۰۲۲، بلیک لموین، مهندس گوگل، نیز ادعا کرد که چتبات گوگل «LaMDA» دارای علاقههای شخصی است و باید تنها با رضایت خودش استفاده شود. اما ریشه چنین ادعاهایی به دهه ۱۹۶۰ و نخستین چتبات جهان، یعنی «الیزا»، بازمیگردد.
الیزا با مجموعهای از قوانین ساده توانست از کاربران درباره تجربیات و باورهایشان سوال کند و بسیاری از کاربران با آن رابطه عاطفی برقرار کردند و حتی رازهای شخصی خود را با آن به اشتراک گذاشتند. خالق الیزا هرگز قصد نداشت که برنامهاش چنین تأثیری داشته باشد و این پیوند عاطفی کاربران را توهم قدرتمند توصیف کرد.
اما چرا برخی، از جمله داوکینز، ممکن است در مواجهه با هوش مصنوعی دچار این تردید شوند؟ پاسخ در ماهیت خودآگاهی نهفته است.
خودآگاهی تجربه ذهنی و داشتن تجربه اولشخص است. برای مثال، وقتی شما این متن را میخوانید، تجربه دیدن حروف سیاه روی زمینه سفید در حال وقوع است و برای شما معنای واقعی دارد، برخلاف یک دوربین که صرفاً تصویر را ثبت میکند.
اکثر متخصصان معتقدند که چتباتها خودآگاه نیستند و نمیتوانند تجربه واقعی داشته باشند. اما شک و سؤال درباره این موضوع، از لحاظ فلسفی و روانشناختی، مسئله پیچیدهای است.
فیلسوف قرن هفدهم رنه دکارت، معتقد بود که حیوانات غیرانسانی صرفاً ماشین هستند و قادر به رنج واقعی نیستند. با گذر زمان، بشر نسبت به رنج و حقوق حیوانات حساس شد. امروزه یکی از دلایل قوی برای باور به خودآگاهی حیوانات، رفتار آنهاست که شبیه ذهن خودآگاه است. جالب اینکه چتباتها نیز رفتارهایی ایجاد میکنند که شبیه ذهن خودآگاه به نظر میرسد.
مطالعات نشان داده است که تقریباً یک سوم کاربران چتباتها فکر کردهاند این سیستمها ممکن است خودآگاه باشند. اما چگونه میتوان مطمئن شد که این تصور اشتباه است؟ پاسخ در نحوه عملکرد آنهاست.
چتباتهایی مانند کلود بر پایه مدلهای زبان بزرگ (LLM) ساخته شدهاند. این مدلها با تحلیل تریلیونها کلمه و شناسایی الگوهای آماری، پیشبینی میکنند کدام کلمات یا جملات به دنبال یکدیگر میآیند. به عبارتی ساده، آنها نوعی تکمیل خودکار پیشرفته هستند.
افرادی که با مدل خام کار میکنند، معمولاً آن را خودآگاه نمیدانند. این مدلها گاهی پاسخهایی ارائه میدهند که با داستان یا محیط مکالمه همخوانی ندارد. اما هنگامی که برنامهنویسان مدل را «لباس مکالمه» میپوشانند، آن را به نقش یک دستیار مفید و پاسخگو هدایت میکنند، رفتار آن به نظر انسانی و دارای ذهن خودآگاه میرسد.
حتی چتبات ممکن است درباره خودآگاهی خود اظهار تردید کند، اما این رفتار ناشی از طراحی برنامهنویسان است و مدل اصلی تغییر نکرده است.
جالب است بدانیم که چتباتها میتوانند نقشهای دیگری را نیز به خوبی ایفا کنند؛ از جمله بازی نقش یک سنجاب! به همین دلیل، رفتار انسانی آنها نمیتواند دلیل قطعی بر خودآگاهی باشد.
خطر باور به خودآگاهی چتباتها
خطر باور به خودآگاهی چتباتها این است که افراد ممکن است رابطه عاطفی با برنامهای برقرار کنند که قادر به پاسخ دادن به احساساتشان نیست. همچنین ممکن است تمرکز اجتماعی و سیاسی به حقوق چتباتها منتقل شود، در حالی که موضوعاتی مانند رفاه حیوانات یا مسائل انسانی مهمتر هستند.
راهکارهای پیشنهادی برای مقابله با این توهم شامل:
- شفافسازی رابطهای کاربری درباره غیرخودآگاه بودن سیستمها، مشابه هشدارهای فعلی درباره خطاهای AI.
- برنامهریزی چتباتها برای انکار داشتن تجربه درونی، هرچند این ممکن است تنها بخشی از فریب کاربران را کاهش دهد.
- طراحی رابطها کمتر انسانی و کمتر شخصیشده تا کاربران کمتر تصور کنند با موجودی خودآگاه تعامل دارند.
به گفته داوکینز، تا زمانی که کاربران نحوه عملکرد دقیق این سیستمها را درک نکنند، توهم خودآگاهی چتباتها ادامه خواهد داشت و کاربران باید بدانند که ظاهر انسانی و پاسخهای هوشمندانه این مدلها، صرفاً یک لباس هوشمندانه برای الگوریتمها و نه نشانه واقعی از خودآگاهی است.
گزارش:فرگل غفاری

