جولان اخبار جعلی در سال ۲۰۱۹

از سال ۲۰۱۱ تا امروز بیش از ۲۰۰ گزارش مرتبط با آینده اخبار جعلی در رسانه‌ها توسط موسسه niemanlab منتشرشده و آینده ارتباط اجتماع و رسانه‌ها را تحلیل کرده است. پیش‌بینی شرایط رسانه‌ای سال آینده طی روزهای آتی منتشر خواهد شد و در آن از نظرات مراکز مختلف پیش‌بینی استفاده‌شده است. در این میان مهم‌ترین موضوعی که در تمامی پیش‌بینی‌ها به‌عنوان نقطه مشترک دیده می‌شود، این نقطه عبارت است از اخبار جعلی.

آیا در سال ۲۰۱۹ کیفیت اطلاعاتی که ما از آن‌ها برای انتخاب گزینه‌های سیاسی خود استفاده می‌کنیم، بهتر خواهد شد؟ یا ما در آستانۀ یک دوره وخیم از اخبار جعلی و سایر اطلاعات غلط و نادرست قرار داریم؟ در این گزارش به بررسی نظرات پیش‌بینی کنندگان این حوزه می‌پردازیم که اکثر آن‌ها آمیخته با بدبینی است.

آیا در سال ۲۰۱۹ کیفیت اطلاعاتی که ما از آن‌ها برای انتخاب گزینه‌های سیاسی خود استفاده می‌کنیم، بهتر خواهد شد؟ یا ما در آستانۀ یک دوره وخیم از اخبار جعلی و سایر اطلاعات غلط و نادرست قرار داریم؟ در این گزارش به بررسی نظرات پیش‌بینی کنندگان این حوزه می‌پردازیم که اکثر آن‌ها آمیخته با بدبینی است.

ان ژیائو مینا (An Xiao Mina) نویسنده کتاب خاطرات جنبش (Memes to Movements ) و مدیر بخش محصولات شرکت میدان (director of product at Meedan) در این رابطه گفت: «ما نیازمند ترسیم یک چشم‌انداز برای روزنامه‌نگاری جدید و یک مسیر واضح و روشن برای حمایت و تقویت آن در جهان هستیم.»

ویتنی فیلیپس (Whitney Phillips) استادیار ارتباطات اجتماعی، فرهنگ و فناوری‌های دیجیتال در دانشگاه سیراکوس (Syracuse University) نیز در رابطه با این مسئله اعلام کرد: «چشم‌انداز رسانه‌ها با روایت‌های سمی و اطلاعات آلوده آمیخته‌شده است، سیستم‌های ما ناکارآمد شده‌اند اما هنوز در حال فعالیت بوده و مورداستفاده قرار دارند.»

جیمز واهوتو (james Wahutu) عضو مرکز اینترنت و اجتماع برکمن کلین در هاروارد، از دیگر کارشناسانی است که آینده حوزه اخبار جعلی و دنیای رسانه را پیش‌بینی کرده است. وی در این رابطه می‌گوید: «من فکر می‌کنم پایان سال ۲۰۱۸ برای ما نقطه اوج یک ترن هوائی است و ما در آستانه فرودی هستیم که برای آن آمادگی نداریم؛ زیرا ما در این ترن هوائی باید خود را برای شرایط نفس‌گیر برگزیت و در ۲۰۱۹ و انتخابات ایالات‌متحده آمریکا در سال ۲۰۲۰ آماده کنیم.»

بیل آدایر (Bill Adair) بنیان‌گذار PolitiFact نیز در این رابطه اعلام کرد: «دونالد ترامپ مانند یک هیولای خرابکار در فیلم گودزیلا است. مقامات به او شلیک می‌کنند، اما او از میانه شهر حرکت کرده و قدرت را به دست می‌گیرد.»

یکی از موضوعات مهم و قابل‌توجه در سال جاری، بحث تهدید جدی فیلم‌های جعلی تولیدشده توسط هوش مصنوعی است که می‌تواند باعث ایجاد شواهدی از رویدادهایی شود که هیچ‌گاه در واقعیت رخ نداده‌اند. این موضوع یک تهدید جدی برای گفتمان دموکراتیک است که مشکلاتی را ایجاد می‌کند و باید بررسی کرد که تا چه حد موردتوجه قرارگرفته است؟

یارد نیومن (Jared Newman) تحلیلگر مرکز Betaworks Ventures نظری متفاوت در این رابطه دارد. وی در این خصوص گفت: «تشخیص اخبار جعلی ساخته‌شده توسط هوش مصنوعی را نمی‌توان یک نسخه جدید از مشکلی قدیمی دانست. هیچ‌کدام از نمونه‌های پیشین خلاقیت و ساخت اخبار جعلی در حوزه روزنامه‌نگاری قابل‌مقایسه با سرعت و دقت هوش مصنوعی که در آینده با ان روبه‌رو هستیم، نیستند.»

روبینا مادانا فیلیون (Rubina Madan Fillion) مدیر تعامل مخاطب در اینترسپت (audience engagement at The Intercept) اعتقاد دارد که این فناوری با سرعت زیادی درحال‌توسعه و تکامل بوده و سازندگان هوش مصنوعی می‌توانند آن را بهبود بخشیده و به‌گونه‌ای ارائه کنند که قانع‌کننده‌تر باشد.

کلیر واردل (Claire Wardle) مدیر اجرایی نسخه اولیه این پیش‌بینی نیز درباره آینده دنیای رسانه گفت: «شاید من تعریفی بیش‌ازحد تکنولوژیکی ارائه کرده‌ام. شاید این نوع محتوا واقعاً تأثیر منفی نداشته باشد.»

اگرچه بحث در مورد اخبار جعلی و اطلاعات غلط در ایالات‌متحده و به میزان کمتر در اتحادیه اروپا متمرکز است اما تأثیرات بالقوه آن در کشورهای کمتر توسعه‌یافته حتی بدون تاریخچه سیستم‌های رسانه‌ای قوی بسیار کهن‌تر است. این پیش‌بینی‌ها بر تأثیر اطلاعات غلط بر سیاست در آفریقا (به‌ویژه آفریقای جنوبی و نیجریه)، آسیا (به‌ویژه هند و اندونزی) و برزیل متمرکز بود.

پیتر کونلیف جونز (Peter Cunliffe-Jones) مدیر اجرائی Africa Check درباره اخبار جعلی و تأثیر آن می‌گوید: «با افزایش اخبار جعلی در جوامع پیچیده، پتانسیل ناسازگاری و اختلافات اجتماعی و خشونت واقعی، بسیار واضح می‌شود.»

ترجمه: احسان محمدحسینی

منبع: niemanlab

No tags for this post.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا