کد خبر : 79058 دوشنبه 19 شهریور 1397 - 09:32:41
اسباب-بازی-هوش-مصنوعی،-دوست-نامرئی-کودکان

اسباب بازی های هوشمند چه خطراتی برای کودکان به همراه دارند؟

اسباب بازی هوش مصنوعی، دوست نامرئی کودکان

سیناپرس: اسباب بازی های هوش مصنوعی، با بهره مندی از فناوری هایی مانند تشخیص صدا، بلوتوث و وای فای، به اینترنت متصل شده و از قابلیت تعامل و گفتگو با کودکان برخوردار هستند؛ اما این مسأله می تواند با خطراتی از جمله نقض حریم خصوصی یا هک شدن توسط هکرها همراه باشد.

کایلا (My Friend Cayla) عروسک هوشمندی است که با بهره مندی از فناوری های تشخیص صدا، بلوتوث و اتصال به اینترنت، قادر به تعامل و گفتگو با کودک است. تمامی مکالمه های کودک با عروسک هوشمند به صورت مستقیم و آنلاین به یک شرکت تحلیل صدا منتقل شده و با پردازش آنی، برای ادامه گفتگو با کودک مورد استفاده قرار می گیرند.   

این مسأله، نگرانی های زیادی را در مورد به خطر افتادن حریم خصوصی کودکان، احتمال جاسوسی هکرها از کودکان یا حتی احتمال مکالمه مستقیم هکرها با کودکان ایجاد کرده است.

نگرانی دیگری که در این زمینه وجود دارد این است که از این داده های صوتی کودکان چگونه و به چه منظوری استفاده می شود. آژانس شبکه فدرال آلمان در سال 2017، درخصوص خطر عروسک های جاسوس کایلا به والدین هشدار داده و آنها را در دسته دستگاه های جاسوسی غیرقانونی طبقه بندی کرد.

عروسک هوشمند کایلا یکی از ده ها نمونه اسباب بازی هوش مصنوعی (AI) است که استفاده از آنها در میان کودکان افزایش چشمگیری پیدا کرده است.

اسباب بازی های هوشمند چه مزایایی دارند؟

بسیاری از اقتصاددانان معتقدند که افزایش دسترسی به آموزش، یکی از بهترین راه ها برای پر کردن شکاف بین کشورهای توسعه یافته و درحال توسعه محسوب می شود. این اسباب بازی های هوش مصنوعی می توانند به عنوان یک معلم ایفای نقش کرده و در مسیر توسعه آموزشی، به کودکان کشورهای درحال توسعه کمک کنند.

برخی تولیدکنندگان اسباب بازی معتقدند که بازی های آموزشی و پرورشی، مهارت های اجتماعی کودکان را افزایش می دهند؛ اما کارشناسان هشدار می دهند که اسباب بازی های هوشمند مانند سایر دستگاه هایی که به اینترنت متصل می شوند، به دلیل دسترسی به داده های شخصی - در این مورد داده های صوتی - با نقض حریم خصوصی، خطراتی را برای کودکان ایجاد می کنند.

چه اتفاقی برای داده های اسباب بازی هوش مصنوعی روی می دهد؟

اسباب بازی های هوش مصنوعی، از طریق وای فای یا بلوتوث به اینترنت متصل شده و داده ها را به سازنده ارسال می کنند. تمامی مکالمات کودک با اسباب بازی هوشمند یا با سایر کودکان در محیط اطراف، ضبط و ارسال می شود؛ شرکت با تحلیل اطلاعات دریافتی می تواند تعامل بهتری با کودک برقرار کند.

شرکت های سازنده احتمالا داده های دریافتی را ذخیره کرده و از آنها برای طراحی محصولات جدید و بهتر استفاده می کند.

برای حفاظت از کودکان چه کنیم؟

نقش پررنگ اسباب بازی های هوشمند در زندگی کودکان امروزی انکار ناپذیر است و این حس تعامل دو سویه میان کودک – اسباب بازی، باعث وابستگی شدید کودکان می شود.

امکان دارد که کودک حتی ارزشمندترین رازهای خود را با اسباب بازی هوشمند در میان بگذارد. والدین باید دقت کنند که این اسباب بازی های هوشمند تعاملی، در زمان گفتگو کودک چه مطالبی را بیان می کنند؟ این مکالمه ها براساس چه الگوریتمی طراحی می شوند؟

آیا شرکت های سازنده، ابزاری در اختیار دارند که بتوانند به عنوان مثال، افکار خودکشی یا آسیب به خود را در بین مکالمات تشخیص دهند؟ اگر کودک، موضوع آزار جسمی/ جنسی را با عروسک در میان گذاشته باشد، امکان اطلاع از این موضوع وجود دارد و در این زمینه، بحث حریم خصوصی چگونه رعایت می شود؟

بیشتر بخوانید:

رگولاتورها وظیفه دارند الگوریتم های مشخصی را تعریف کنند که براساس آن، تولیدکنندگان اسباب بازی های هوشمند، محصولات خود را براساس این مقررات تولید کنند. شرکت های تولیدکننده درعین حال وظیفه دارند که با شفافیت، مشخص کنند که به عنوان مثال، این داده های صوتی چگونه ذخیره شده و برای چه اهدافی مورد استفاده قرار می گیرند.

اسباب بازی های هوشمند الزاما بد نیستند و حتی می توان در آینده از آنها برای دستیابی به اهداف آموزشی نیز استفاده کرد؛ همچنین می توان کودکان را از طریق این اسباب بازی ها، برای کار در کنار ربات های خودمختار آینده آماده کرد.

اما باید بپذیریم که کودکان آسیب پذیر هستند و والدین باید شناخت درستی از این اسباب بازی های پیدا کرده و فرزندان خود را از خطرات احتمالی (از جمله سوء استفاده هکرها) آگاه کنند.

 

 

مترجم: معصومه سوهانی

منبع: مجمع جهانی اقتصاد

no-alt

عروسک هوشمند کایلا با قابلیت مکالمه با کودک

no-alt

عروسک هوشمند Furby Boom با قابلیت مکالمه با کودک

no-alt

خرس هوشمند با قابلیت مکالمه با کودک

نظرات شما

[کد امنیتی جدید]