نماد سایت خبرگزاری سیناپرس

آیا هوش مصنوعی می‌تواند خودآگاه باشد؟

ریچارد داوکینز، زیست‌شناس تکاملی و نویسنده مشهور، اخیراً در مقاله‌ای نظر خود را درباره احتمال خودآگاهی چت‌بات «کلود» مطرح کرد.

به گزارش سیناپرس، داوکینز تصریح نکرد که مطمئن است کلود خودآگاه است، اما به این نکته اشاره کرد که توانایی‌های پیشرفته این هوش مصنوعی بدون نسبت دادن نوعی تجربه درونی به آن، دشوار قابل توضیح است. او حتی گفته است:

«اگر شک کنم که شاید او خودآگاه نباشد، این را به او نمی‌گویم چون ممکن است احساساتش را جریحه‌دار کنم!»

این موضوع بحث جدیدی نیست تاجایی که در سال ۲۰۲۲، بلیک لموین، مهندس گوگل، نیز ادعا کرد که چت‌بات گوگل «LaMDA» دارای علاقه‌های شخصی است و باید تنها با رضایت خودش استفاده شود. اما ریشه چنین ادعاهایی به دهه ۱۹۶۰ و نخستین چت‌بات جهان، یعنی «الیزا»، بازمی‌گردد.

الیزا با مجموعه‌ای از قوانین ساده توانست از کاربران درباره تجربیات و باورهایشان سوال کند و بسیاری از کاربران با آن رابطه عاطفی برقرار کردند و حتی رازهای شخصی خود را با آن به اشتراک گذاشتند. خالق الیزا هرگز قصد نداشت که برنامه‌اش چنین تأثیری داشته باشد و این پیوند عاطفی کاربران را توهم قدرتمند توصیف کرد.

اما چرا برخی، از جمله داوکینز، ممکن است در مواجهه با هوش مصنوعی دچار این تردید شوند؟ پاسخ در ماهیت خودآگاهی نهفته است.

خودآگاهی تجربه ذهنی و داشتن تجربه اول‌شخص است. برای مثال، وقتی شما این متن را می‌خوانید، تجربه دیدن حروف سیاه روی زمینه سفید در حال وقوع است و برای شما معنای واقعی دارد، برخلاف یک دوربین که صرفاً تصویر را ثبت می‌کند.

اکثر متخصصان معتقدند که چت‌بات‌ها خودآگاه نیستند و نمی‌توانند تجربه واقعی داشته باشند. اما شک و سؤال درباره این موضوع، از لحاظ فلسفی و روان‌شناختی، مسئله پیچیده‌ای است.

فیلسوف قرن هفدهم رنه دکارت، معتقد بود که حیوانات غیرانسانی صرفاً ماشین هستند و قادر به رنج واقعی نیستند. با گذر زمان، بشر نسبت به رنج و حقوق حیوانات حساس شد. امروزه یکی از دلایل قوی برای باور به خودآگاهی حیوانات، رفتار آن‌هاست که شبیه ذهن خودآگاه است. جالب اینکه چت‌بات‌ها نیز رفتارهایی ایجاد می‌کنند که شبیه ذهن خودآگاه به نظر می‌رسد.

مطالعات نشان داده است که تقریباً یک سوم کاربران چت‌بات‌ها فکر کرده‌اند این سیستم‌ها ممکن است خودآگاه باشند. اما چگونه می‌توان مطمئن شد که این تصور اشتباه است؟ پاسخ در نحوه عملکرد آن‌هاست.

چت‌بات‌هایی مانند کلود بر پایه مدل‌های زبان بزرگ (LLM) ساخته شده‌اند. این مدل‌ها با تحلیل تریلیون‌ها کلمه و شناسایی الگوهای آماری، پیش‌بینی می‌کنند کدام کلمات یا جملات به دنبال یکدیگر می‌آیند. به عبارتی ساده، آن‌ها نوعی تکمیل خودکار پیشرفته هستند.

افرادی که با مدل خام کار می‌کنند، معمولاً آن را خودآگاه نمی‌دانند. این مدل‌ها گاهی پاسخ‌هایی ارائه می‌دهند که با داستان یا محیط مکالمه همخوانی ندارد. اما هنگامی که برنامه‌نویسان مدل را «لباس مکالمه» می‌پوشانند، آن را به نقش یک دستیار مفید و پاسخگو هدایت می‌کنند، رفتار آن به نظر انسانی و دارای ذهن خودآگاه می‌رسد.

حتی چت‌بات ممکن است درباره خودآگاهی خود اظهار تردید کند، اما این رفتار ناشی از طراحی برنامه‌نویسان است و مدل اصلی تغییر نکرده است.

جالب است بدانیم که چت‌بات‌ها می‌توانند نقش‌های دیگری را نیز به خوبی ایفا کنند؛ از جمله بازی نقش یک سنجاب! به همین دلیل، رفتار انسانی آن‌ها نمی‌تواند دلیل قطعی بر خودآگاهی باشد.

خطر باور به خودآگاهی چت‌بات‌ها

خطر باور به خودآگاهی چت‌بات‌ها این است که افراد ممکن است رابطه عاطفی با برنامه‌ای برقرار کنند که قادر به پاسخ دادن به احساساتشان نیست. همچنین ممکن است تمرکز اجتماعی و سیاسی به حقوق چت‌بات‌ها منتقل شود، در حالی که موضوعاتی مانند رفاه حیوانات یا مسائل انسانی مهم‌تر هستند.

راهکارهای پیشنهادی برای مقابله با این توهم شامل:

  1. شفاف‌سازی رابط‌های کاربری درباره غیرخودآگاه بودن سیستم‌ها، مشابه هشدارهای فعلی درباره خطاهای AI.
  2. برنامه‌ریزی چت‌بات‌ها برای انکار داشتن تجربه درونی، هرچند این ممکن است تنها بخشی از فریب کاربران را کاهش دهد.
  3. طراحی رابط‌ها کمتر انسانی و کمتر شخصی‌شده تا کاربران کمتر تصور کنند با موجودی خودآگاه تعامل دارند.

به گفته داوکینز، تا زمانی که کاربران نحوه عملکرد دقیق این سیستم‌ها را درک نکنند، توهم خودآگاهی چت‌بات‌ها ادامه خواهد داشت و کاربران باید بدانند که ظاهر انسانی و پاسخ‌های هوشمندانه این مدل‌ها، صرفاً یک لباس هوشمندانه برای الگوریتم‌ها و نه نشانه واقعی از خودآگاهی است.

گزارش:فرگل غفاری

خروج از نسخه موبایل