کد خبر : 5137 چهارشنبه 19 فروردین 1394 - 03:30:09
گفتگوی-Technology-Review-با-نیک-بوستروم-استاد-فلسفه-دانشگاه-آکسفورد

گفتگوی Technology Review با نیک بوستروم استاد فلسفه دانشگاه آکسفورد

سیناپرس: هوش مصنوعی از جنگ هسته ای خطرناک تر است

هوش مصنوعی را می توان نمادی از پیشرفت دانش بشری در عرصه علوم نوین به شمار آورد. با این حال همانقدر که این عرصه نوین طرفداران بیشماری دارند نباید از منتقدان و حتی مخالفان هوش مصنوعی چشم پوشی کرد. نیک بوستروم استاد فلسفه دانشگاه آکسفورد از جمله این منتقدان به شمار می آید. او در کتابی تحت عنوان Superintelligence به این نکته اشاره می کند که هوش مصنوعی می تواند تهدیدی جدی برای جامعه انسانی تلقی شود. گفتگوی اختصاصی وی با Technology Review را می خوانید.

چگونه به این اعتقاد رسیده اید که هوش مصنوعی حتی می تواند از خطرات هسته ای هولناک تر باشد؟

بدون شک عوامل زیادی وجود دارد که می توانند به شکلگیری فجایع مختلف منجر شوند اما تنها چند مورد از آنها را می توان تهدیدی جدی برای ساکنان آینده زمین یعنی نسل های بعدی به شمار آورد و من فکر می کنم هوش مصنوعی یکی از بزرگترین آنهاست. با این حال نکته اساسی اینجاست که درخصوص این مقوله شمار کسانی که با نگرانی صحبت می کنند چندان زیادی نیست حال آنکه برای تهدید بزرگی نظیر جنگ هسته ای قضیه فرق می کند.

درباره تغییرات جوی چه نظری دارید که از آن به عنوان بزرگترین تهدید پیش روی بشر یاد می شود؟

این (تغییرات جوی) را – در مقایسه با هوش مصنوعی - باید خطری بسیار کوچک به شمار آورد. نکته اساسی اینجاست که تغییرات جوی در آینده فقط در برخی نقاط زمین اثرات ناخوشایندی به همراه خواهند داشت.

اگر شخصی به سراغ شما بیاید و بگوید: شرکت من فناوری ابداع کرده است که به نظر می رسد قابلیت تولید هوش مصنوعی بسیار قدرتمندی را دارد. آنگاه شما چه توصیه ای به وی می کنید؟

نخستین نکته ای که به وی می گویم این است که تحقیقاتی در زمینه ایمنی هوش مصنوعی انجام دهد. نکته مهمی که باید در نظر گرفته شود این است که باید میان افرادی که در حوزه هوش مصنوعی کار می کنند و افرادی که به مقوله ایمنی آنها فکر می کنند ارتباط خوبی برقرار شود. تنها در صورتی می توان سناریوی خوبی در این عرصه تجسم کرد که در آن این ارتباط خوب وجود داشته باشد.

گوگل و چند غول بزرگ دیگر فناوری پیشرفتهایی در عرصه هوش مصنوعی داشته اند. آیا با مدیران آنها صحبت کرده اید؟

من نمی خواهم به نامها اشاره کنم. یادمان باشد این افراد خاص هستند که به این عرصه (هوش مصنوعی) علاقمند هستند.

چه تصوری دارید از این نکته که هوش مصنوعی مشکلاتی ایجاد کند، مثلا توسط دولتها و به عنوان یک سلاح به کار گرفته شود؟

همواره جای چنین نگرانی وجود دارد. با این حال فکر می کنم چیزهای دیگری نیز وجود دارد که باید آنها را نیز مد نظر قرار دهیم. همواره نگرانی هایی وجود دارد که شاید نتوان آنها را بیان کرد و شاید باید زمانی به آنها پرداخته شود که تهدیدات هوش مصنوعی به سطوح بالایی برسد.

به نظر می رسد شما در بیان اینکه کسی نمی تواند پیش بینی در زمینه تهدیدات هوش مصنوعی ارایه کند محتاطانه صحبت می کنید. فکر می کنید سیگنالهایی وجود دارد که نشان دهند چه زمان به آن سطح بالا از تهدیدات احتمالی نزدیک می شویم؟

قطعا فناوری های زیادی وجود خواهند داشت که وقوع چنین شرایطی را نشان دهند. نکته مهم این است که این یک فرآیند است و باید زمان لازم گذشته تا همه چیز خود را نشان دهند.

منبع

نظرات شما

[کد امنیتی جدید]