نجات از جهل علمی با هوش مصنوعی
فیلمها و تصاویر فریبنده ایجاد شده توسط هوش مصنوعی میتواند انتخابات را تحت تاثیر قرار دهد، باعث سقوط بازارهای سهام شود و شهرت افراد را نابود کند و محققان در حال توسعه روشهایی برای محدود کردن آسیب آن هستند.
به گزارش ایسنا و به نقل از نیچر، ماه ژوئن سال جاری، در نبرد سیاسی منتهی به انتخابات مقدماتی ریاست جمهوری آمریکا در سال ۲۰۲۴، مجموعهای از تصاویر منتشر شد که نشان میداد دونالد ترامپ یکی از مشاوران پزشکی سابق خود، آنتونی فائوچی را در آغوش گرفته است. فائوچی، یک مقام بهداشتی بود که توسط برخی محافظهکاران آمریکایی به دلیل ترویج ماسک و واکسن در طول همهگیری کووید-۱۹ مورد انتقاد قرار گرفته بود.
هانی فرید(Hany Farid)، دانشمند رایانه در دانشگاه کالیفرنیا، برکلی و یکی از بسیاری از متخصصانی که تصاویر را بررسی کردند، میگوید: معلوم بود که آنها تقلبی بودند. با بررسی دقیق سه تا از عکسها، موهای ترامپ به طرز عجیبی تار شده، متن در پسزمینه بیمعناست، بازوها و دستها بهطور غیرطبیعی قرار گرفتهاند و جزئیات گوش قابل مشاهده ترامپ درست نیست. همه نشانههای بارز هوش مصنوعی مولد(AI) هستند که به آن هوش مصنوعی ساختگی نیز گفته میشود.
چنین تصاویر و ویدیوهای جعل عمیقی که توسط تولیدکنندگان متن به تصویر با استفاده از هوش مصنوعی «آموزش عمیق» ساخته شده، در حال حاضر بسیار زیاد است.
اگرچه کلاهبرداران مدتهاست که از فریب برای کسب سود، تغییر عقاید یا شروع جنگ استفاده میکنند، سرعت و سهولتی که اکنون میتوان حجم عظیمی از دادههای جعلی کاملا متقاعد کننده ایجاد و منتشر کرد همراه با عدم آگاهی عمومی تبدیل به یک تهدید فزاینده شده است.
سینتیا رودین(Cynthia Rudin)، دانشمند رایانه هوش مصنوعی در دانشگاه دوک در دورهام، کارولینای شمالی، میگوید: مردم به فناوری مولد عادت ندارند. این فناوری اینگونه نیست که به تدریج تکامل یافته باشد. مثل بمب بود، ناگهان به وجود آمد. بنابراین، آن سطح از شک و تردید که لازم است، وجود ندارد.
دهها سیستم در حال حاضر برای کاربران ساده در دسترس هستند تا تقریبا هر محتوایی را برای هر هدفی تولید کنند، خواه ایجاد ویدیوهای جعل عمیق از تام کروز در تیک تاک برای سرگرمی باشد خواه زنده کردن یک قربانی تیراندازی در مدرسه در یک فیلم با استفاده از هوش مصنوعی برای ایجاد یک ویدیوی حمایتی از تغییر مقررات اسلحه یا جعل کردن تماس یکی از دوستان و آشنایان برای درخواست کمک از سوی آنها و کلاهبرداری دهها هزار دلار از افراد مختلف.
ویدیوهای جعل عمیق را میتوان در لحظه در یک تماس ویدیویی زنده تولید کرد. در اوایل سال جاری، جروم پاول(Jerome Powell)، رئیس بانک فدرال رزرو آمریکا، با فردی که فکر میکرد ولادیمیر زلنسکی(Volodymyr Zelenskyy)، رئیسجمهور اوکراین است، گفتوگوی ویدیویی داشت، اما اشتباه میکرد.
مقدار محتوای تولید شده توسط هوش مصنوعی ناشناخته است، اما تصور میشود که این میزان در حال انفجار باشد. دانشگاهیان معمولا تخمین میزنند که حدود ۹۰ درصد از کل محتوای اینترنت میتواند ظرف چند سال تبدیل به محتوای ساخته شده شود. رودین میگوید: این یافتن محتوای واقعی و مفید را دشوار میکند. او اضافه میکند که موتورهای جستجو و رسانههای اجتماعی تنها اطلاعات نادرست را تقویت میکنند.
اگرچه بسیاری از این محتواها برای سرگرمی ساخته شدهاند، مانند تصویر پاپ فرانسیس که ژاکت پفدار پوشیده بود اما برخی از آنها مخرب هستند. برای مثال یک فایل ساختگی میتواند موج ایجاد کند. یک تصویر تولید شده توسط هوش مصنوعی از انفجاری در پنتاگون ایالات متحده که در ماه مه در فضای مجازی منتشر شد، باعث شد بازار سهام برای مدت کوتاهی افت کند. وجود محتوای ساختگی همچنین به بازیگران بد اجازه میدهد تا شواهد واقعی از رفتار نادرستشان را صرفا با ادعای جعلی بودن آن رد کنند.
سوفی نایتینگل(Sophie Nightingale) روانشناس در دانشگاه لنکستر بریتانیا که اثرات هوش مصنوعی مولد را مطالعه میکند، میگوید توانایی مردم برای اینکه واقعا بدانند کجا باید اعتماد کنند در حال از بین رفتن است. و این یک مشکل واقعی برای دموکراسی است. ما باید در این مورد خیلی سریع عمل کنیم. این یک تهدید بزرگ است.
برخی از کارشناسان میگویند جعلهای تولید شده توسط هوش مصنوعی نیز میتوانند تاثیرات زیادی بر علم داشته باشند. آنها نگرانند که تواناییهای در حال توسعه سریع سیستمهای هوش مصنوعی مولد بتواند انتشار دادهها و تصاویر جعلی را برای محققانی که به اصول اخلاقی پایبند نیستند، آسانتر کند.
در حال حاضر، برخی از محتوای ساختگی حاوی سرنخهایی هستند مانند تصاویری که افراد را با شش انگشت در یک دست نشان میدهند. اما هوش مصنوعی مولد هر روز بهتر میشود. وائل عبدالمجید(Wael Abd-Almageed)، دانشمند اطلاعات و مهندس رایانه در دانشگاه کالیفرنیای جنوبی در لسآنجلس میگوید: ما در مورد چند ماه صحبت میکنیم. زمانی که مردم نمیتوانند با چشم غیر مسلح تفاوت را تشخیص دهند.
همه اینها باعث شده است که محققان تلاش کنند تا دریابند چگونه میتوان از قدرتهای جعل عمیق هوش مصنوعی در راستای موارد مفید استفاده کرد و در عین حال ابزارهایی برای محافظت در برابر موارد مخرب آن توسعه داد.
دو جنبه دفاع فناورانه وجود دارد: برچسبگذاری فعالانه محتوای واقعی یا جعلی هنگام تولید آنها و استفاده از آشکارسازها برای پیدا کردن موارد جعلی پس از انتشار.
شیام ساندار(Shyam Sundar)، روانشناس و موسس آزمایشگاه تحقیقاتی تاثیرات رسانهای در دانشگاه ایالتی پنسیلوانیا در دانشگاه پارک، میگوید هیچ کدام راه حل کاملی نیستند، اما هر دو با اضافه کردن موانع به تشخیص جعل کمک میکنند. اگر شما یک بازیگر مخرب هستید، مطمئنا میتوانید خیلی پیش بروید. ایده این است که کار را برای آنها سخت کنیم.
نایتینگل میگوید، فناوری در کوتاهمدت بسیار حیاتی خواهد بود، اما پس از آن در دراز مدت، شاید بتوانیم بیشتر به آموزش و مقررات فکر کنیم.
اتحادیه اروپا با قانون هوش مصنوعی خود که در ژوئن امسال توسط پارلمان تصویب شد و منتظر تصمیمات دو شاخه دیگر دولت اتحادیه اروپا است، در سطح جهانی پیشرو است. نایتینگل میگوید: ما قطعا درسهای مهمی از آن میگیریم، چه به درستی انجام شوند یا خیر.
آیا این فقط یک فانتزی است؟
برای محققان، هوش مصنوعی مولد، ابزار قدرتمندی است. برای مثال، برای ایجاد مجموعههای دادههای پزشکی بدون نگرانی در مورد حفظ حریم خصوصی، برای کمک به طراحی مولکولهای دارویی و بهبود نسخههای خطی علمی و نرمافزاری میتوان از آن استفاده کرد. جعل عمیق به دلیل استفاده از آنها در ناشناس کردن شرکت کنندگان در درمان گروهی مبتنی بر ویدئو در حال بررسی هستند. ایجاد آواتارهای سفارشی از پزشکان یا معلمان که برای بینندگان قانع کنندهتر است. یا امکان بهبود شرایط کنترل در مطالعات علوم اجتماعی.
ساندار میگوید: من بیشتر امیدوار هستم تا نگران. من فکر میکنم این به عنوان یک فناوری متحول کننده است.
اما با نگرانی از سوء استفاده گسترده، محققان و متخصصان اخلاق تلاش کردهاند قوانینی را برای هوش مصنوعی وضع کنند. بیانیه مونترال در سال ۲۰۱۸ برای توسعه مسئولانه هوش مصنوعی و توصیه ۲۰۱۹ درباره هوش مصنوعی از سازمان همکاری و توسعه اقتصادی در این مورد ارائه شد.
ابتکاری به نام مشارکت در هوش مصنوعی، یک سازمان غیرانتفاعی که شامل شرکای اصلی صنعت است، گفتوگو در مورد بهترین شیوهها را ترویج کرد. اگرچه برخی از ناظران و شرکتکنندگان در مورد اینکه آیا تأثیری داشته است یا خیر مطمئن نیستند.
همه از اصول شفافیت و افشای محتوای ساختگی دفاع میکنند. شرکتها در حال در نظر گرفتن این موضوع هستند. برای مثال، در ماه مارس، تیک تاک دستورالعملهای انجمن خود را بهروزرسانی کرد تا برای سازندگان اجباری شود که استفاده از هوش مصنوعی را در هر صحنهای که ظاهری واقعی دارد، افشا کنند. در ماه ژوئیه، هفت شرکت فناوری پیشرو از جمله متا، مایکروسافت، گوگل، اپن ایآی و آمازون به طور داوطلبانه به کاخ سفید تعهد دادند تا محتوای تولید شده توسط هوش مصنوعی را برچسبگذاری کنند. در ماه سپتامبر، گوگل اعلام کرد که از اواسط نوامبر، هر محتوای تولید شده توسط هوش مصنوعی که در تبلیغات سیاسی در پلتفرمهای این شرکت از جمله یوتیوب استفاده شود، باید مشخص شود.
یکی از راههای برچسبگذاری تصاویر ساختگی، مشخص کردن آنها با تغییر پیکسلها به روشی متمایز است که برای چشم غیرقابل تشخیص است اما در تجزیه و تحلیل مشخص میشود.
بهعنوان مثال، تغییر دادن هر nامین پیکسل بهگونهای که مقدار رنگ آن یک عدد زوج باشد، یک واترمارک ایجاد میکند اما یک واترمارک ساده که تقریبا پس از هر گونه دستکاری تصویر، مانند اعمال فیلتر رنگ، ناپدید میشود.
برخی از واترمارکها به دلیل آسان بودن فرآیند حذف آنها مورد انتقاد قرار گرفتهاند. اما واترمارکهای عمیقتر میتوانند، بهعنوان مثال، موجی از سایههای تیره به روشن را از یک طرف تصویر به سمت دیگر هدایت کنند و آن را روی چندین الگوی اینچینی دیگر قرار دهند، بهگونهای که قابل پاک کردن نباشد. فرید میگوید، حذف این واترمارکها دشوار است اما غیرممکن نیست. در ماه اوت، گوگل یک واترمارک برای تصاویر ساختگی به نام SynthID منتشر کرد، بدون اینکه جزئیاتی در مورد نحوه عملکرد آن فاش کند. فرید میگوید هنوز مشخص نیست که این واترمارک چقدر قوی است.
ایده واترمارکینگ زدن برای این است که ابرداده یک فایل را با اطلاعات منشا امن برچسب گذاری کنیم. در عکاسی، چنین سیستمهایی با استفاده از نرمافزاری بر روی دستگاه دوربین شروع به کار میکنند که تضمین میکند جیپیاس و مهرهای زمانی یک تصویر مشروع هستند و برای مثال تصویر، از روی تصویر دیگری گرفته نشده است.
بیمهگرها از چنین سیستم هایی برای تایید تصاویر داراییها و خسارتها استفاده میکنند و خبرگزاری رویترز فناوری احراز هویت را برای تایید عکسهای جنگ در اوکراین آزمایش کرده است.
ائتلاف برای منشا و اصالت محتوا(C۲PA)، که گروههای صنعتی مهم در فناوری و انتشار را گردهم میآورد، اولین نسخه از مجموعهای از مشخصات فنی را در سال ۲۰۲۲ منتشر کرد که چگونه سیستمها باید اطلاعات منشا را برای تصاویر ساختگی و واقعی ردیابی کنند.
بسیاری از ابزارهای سازگار با C۲PA که دادههای منشا را جاسازی، ردیابی و تایید میکنند، اکنون در دسترس هستند و بسیاری از شرکتها مانند مایکروسافت میگویند که از دستورالعملهای C۲PA پیروی میکنند. اندرسون روچا(Anderson Rocha) محقق هوش مصنوعی در دانشگاه کامپیناس در برزیل میگوید: C۲PA بسیار مهم خواهد بود. این کمک خواهد کرد.
کارآگاهان جعل
هانی فرید که در کمیته راهبری C۲PA است و به عنوان مشاور حقوقی Truepic، شرکتی در سن دیگو، کالیفرنیا، که نرمافزاری برای ردیابی عکسها و فیلمهای معتبر میفروشد، فعالیت میکند، میگوید: سیستمهایی که منشا تصویر را ردیابی میکنند باید به ابزاری برای کاهش تعداد زیادی فایلهای مشکوک تبدیل شوند. او میگوید، اما این به «فعالان خوب» بستگی دارد که در طرحی مانند C۲PA ثبتنام کنند. این آشکارسازها را به یک ابزار مکمل خوب تبدیل میکند.
آزمایشگاهها و شرکتهای دانشگاهی طبقهبندی کنندههای مبتنی بر هوش مصنوعی زیادی تولید کردهاند. آنها الگوهایی را یاد میگیرند که میتوانند دادههای ساخته شده با هوش مصنوعی را از عکسهای واقعی متمایز کنند و بسیاری از سیستمها گزارش کردهاند که میتوانند در بیش از ۹۰ درصد مواقع موارد تقلبی را شناسایی کنند، در حالی که تنها در یک درصد یا کمتر از مواقع تصاویر واقعی را تقلبی تشخیص میدهند. اما اغلب میتوان این سیستمها را شکست داد. فرید میگوید یک فعال بد میتواند تصاویر را به گونهای تغییر دهد که آشکارساز بیشتر خطا کند.
ابزارهای مبتنی بر هوش مصنوعی را میتوان با روشهای دیگری جفت کرد که بر درک انسان تکیه و موارد جعلی را از واقعی جدا کنند. فرید به دنبال سرنخهایی مانند خطوط پرسپکتیو است که از قوانین فیزیک پیروی نمیکند. نشانههای دیگر ظریفتر هستند. او و همکارانش دریافتند که پروفایلهای صورت ساخته شده توسط ژنراتورهای StyleGAN، به عنوان مثال، چشمهایشان را دقیقا به سمت یک موقعیت یکسان در عکس میگیرند، و به این نکته اشاره میکنند که کدام تصویر چهره جعلی است. میتوان به آشکارسازها الگوریتمهای پیچیدهای داد که بهعنوان مثال بتوانند یک ساعت را در جایی از عکس بخوانند و بررسی کنند که آیا نور در تصویر با زمان ثبتشده روز مطابقت دارد یا خیر.
FakeCatcher شرکت فناوری اینتل با جستجوی تغییرات رنگ مورد انتظار در صورت که از نوسانات جریان خون ناشی میشود، ویدیوها را تجزیه و تحلیل میکند.
روچا میگوید برخی آشکارسازها به دنبال الگوهای اختلال(نویز) متمایز تولید شده توسط حسگرهای نور در دوربین هستند که تاکنون به خوبی توسط هوش مصنوعی شبیهسازی نشدهاند.
نبرد بین سازندگان دادههای جعلی و کارآگاهان شدید است.
فرید مقالهای از دانشآموز سابق خود سیوی لیو(Siwei Lyu) را به یاد میآورد که اکنون دانشمند رایانه در دانشگاه بوفالو، نیویورک است، که نشان میدهد چگونه برخی ویدیوهای هوش مصنوعی افرادی را نشان میدهند که دو چشمشان با سرعتهای متفاوت پلک میزند.
او می گوید که ژنراتورها این مشکل را در چند هفته برطرف کردند. به همین دلیل، اگرچه آزمایشگاه فرید اکثریت قریب به اتفاق تحقیقات خود را منتشر میکند، اما او کد را تنها مورد به مورد براساس درخواست دانشگاهیان منتشر میکند.
عبدالمجید نیز رویکردی مشابه دارد. او میگوید: اگر ابزار خود را در اختیار عموم قرار دهیم، مردم روشهای تولید خود را حتی پیچیدهتر خواهند کرد.
چندین سرویس شناسایی که دارای رابط کاربری عمومی هستند، ایجاد شدهاند، و بسیاری از آزمایشگاههای دانشگاهی در این مورد وجود دارند، از جمله پروژه DeFake در موسسه فناوری روچستر در نیویورک و DeepFake-o-meter در دانشگاه بوفالو.
آژانس پروژههای تحقیقاتی پیشرفته دفاعی ایالات متحده(دارپا) پروژه Semantic Forensics به اختصار سمافور خود را در سال ۲۰۲۱ راهاندازی کرد.
ویل کوروی(Wil Corvey)، سرپرست این پروژه، میگوید گروهی متشکل از نزدیک به ۱۰۰ فرد دانشگاهی و محقق شرکتی تحت پوشش سمافور برای انجام بیش از ۱۵۰ تجزیه و تحلیل با یکدیگر همکاری کردهاند. مجموعهای از الگوریتمهای تشخیص استفاده میشوند که میتوانند به صورت مجزا یا با هم استفاده شوند.
از آنجایی که تعداد زیادی ژنراتور و آشکارساز وجود دارد و هر مورد متفاوت است، میزان دقت گزارش شده بسیار متفاوت است.
رقابت تسلیحاتی بین آنها به این معنی است که وضعیت دائما در حال تغییر است. اما برای بسیاری از انواع رسانه، میزان موفقیت فعلی ضعیف به حساب میآید. بررسی متون تولید شده توسط ۱۴ ابزار تشخیصی در سال جاری نشان داد که همه «نه دقیق بودند و نه قابل اعتماد». در مورد ویدئو، یک رقابت پرمخاطب در سال ۲۰۲۰ توسط سیستمی برنده شد که تنها حدود ۶۵ درصد دقیق بود. روچا در مورد تصاویر میگوید که اگر ژنراتور به خوبی شناخته شده باشد، آشکارسازها به راحتی میتوانند بیش از ۹۵ درصد دقیق باشند. اما اگر ژنراتور جدید یا ناشناخته باشد، نرخ موفقیت معمولا کاهش مییابد.
کوروی میگوید: استفاده از آشکارسازهای متعدد روی یک تصویر میتواند میزان موفقیت را افزایش دهد.
او میافزاید که تشخیص مصنوعی بودن چیزی تنها یک بخش از پازل است: از آنجایی که کاربران بیشتری برای تغییر محتوای خود به هوش مصنوعی اعتماد میکنند، سوال مهمتر این نیست که «چه میزان از این داده جعلی است؟» بلکه سوال اصلی این است که «چرا این ساخته شده است؟». به همین دلیل، بخش مهمی از کار سمافور این است که با نسبت دادن رسانه به یک خالق و مشخص کردن معنای آن، هدف پشت جعل را تعیین کند.
یک پروژه موازی دارپا با نام INCAS، در تلاش است تا ابزارهای خودکاری را برای شناسایی سیگنالهای کمپینهای اطلاعات غلط انبوه که ممکن است توسط هوش مصنوعی جعل شده یا نشده باشند، توسعه دهد.
شبکه اجتماعی
ابزار سمافور(SemaFor) اکنون در مرحله سوم و آخر پروژه خود است و کوروی در آن بر روی دسترسی به کاربران بالقوه مانند سایتهای رسانههای اجتماعی تمرکز دارد.
او میگوید: ما با تعدادی از شرکتها از جمله گوگل ارتباط برقرار کردهایم. تا جایی که ما میدانیم، هیچ کدام الگوریتمهای ما را به طور ثابت در سایت اجرا نمیکنند. متا با محققان دانشگاه ایالتی میشیگان در ایست لنسینگ بر روی آشکارسازها همکاری کرده است، اما نگفته است که چگونه ممکن است از آنها استفاده کند. فرید با پلتفرم متمرکز بر اشتغال لینکدین(LinkedIn) کار میکند و از آشکارسازهای مبتنی بر هوش مصنوعی برای کمک به از بین بردن چهرههای مصنوعی که از حسابهای کاربری کلاهبرداران پشتیبانی میکنند، استفاده میکنند.
عبدالمجید طرفدار این است که سایتهای رسانههای اجتماعی ردیابهایی را بر روی تمام تصاویر موجود در سایتهای خود اجرا کنند.
برای مثال یک برچسب هشدار بر روی تصاویر پرچم گذاری شده با درصد بالایی از احتمال جعلی بودن منتشر کنند. اما او این شانس را نداشت که چند سال قبل در مورد این موضوع با شرکتی که نامش را فاش نمیکند، صحبت کرد.
او میگوید: من به یک پلتفرم شبکه اجتماعی گفتم، نرم افزار من را بردارید و از آن استفاده کنید، آن را رایگان بگیرید. و آنها گفتند، اگر نمیتوانید به ما نشان دهید چگونه پول در آوریم، پس برای ما اهمیتی ندارد. با این حال، فرید استدلال میکند که آشکارسازهای خودکار برای این نوع استفاده مناسب نیستند: حتی یک ابزار دقیق ۹۹ درصدی نیز یک بار از ۱۰۰ بار اشتباه میکند، و این به نظر او اعتماد عمومی را کاملا از بین میبرد. فرید استدلال میکند که تشخیص باید به جای تلاش برای کنترل کل اینترنت، با تحقیقات فشرده و تحت هدایت انسان در مورد موارد خاص انجام شود.
بسیاری استدلال میکنند که شرکتهایی مانند ناشران و سایتهای رسانههای اجتماعی به قوانینی نیاز دارند تا آنها را به سمت رفتار مسئولانه سوق دهد.
در ماه ژوئن، پارلمان اروپا پیش نویس قانونی را تصویب کرد که به شدت استفادههای پرخطر از هوش مصنوعی را تنظیم میکند و افشای محتوای تولید شده توسط چنین ابزارهایی را به اجرا در میآورد.
نایتینگل، روانشناس میگوید: جهان نظارهگر است، زیرا اتحادیه اروپا رهبری این موضوع را بر عهده گرفته است.
اما کارشناسان در مورد شایستگی این عمل و اینکه آیا ممکن است نوآوری را خنثی کند، اختلاف نظر دارند.
در ایالات متحده، چند لایحه هوش مصنوعی در حال بررسی است، از جمله یک مورد با هدف جلوگیری از جعل عمیق تصاویر محرمانه و دیگری در مورد استفاده از هوش مصنوعی در تبلیغات سیاسی، اما هیچ کدام قطعی نیستند.
یک نکته وجود دارد که کارشناسان روی آن اتفاق نظر دارند: بهبود سواد فناوری به جلوگیری از غرق شدن جامعه و دموکراسی در جعل عمیق کمک میکند. روچا میگوید: ما باید این خبر را به گوش مردم برسانیم تا مردم را از آنچه در حال وقوع است آگاه کنیم. زمانی که آنها در مورد آن مطلع شوند، میتوانند اقدام کنند. آنها میتوانند مطالبه آموزش در مدارس را داشته باشند.
فرید میگوید، حتی با وجود تمام ابزارهای فناوری و اجتماعی که در اختیار داریم، این یک نبرد شکستخورده برای متوقف کردن تمام جعلیات است. او میگوید: اما اشکالی ندارد زیرا مانند پولهای تقلبی، همچنان میتوان جهان را با جعلهای هوش مصنوعی فریب داد اما بسیار سختتر از قبل.
No tags for this post.