گفتوگو با «چتجیپیتی» اخیرا به یکی از شواهد مهم در حل کردن پروندههای جنایی تبدیل شده و تا حد زیادی به شناسایی متهمان کمک کرده است.
به گزارش سیناپرس، وقتی «چتجیپیتی»(ChatGPT) به دنیا معرفی شد، هیچکس گمان نمیکرد این چتبات هوش مصنوعی روزی بتواند به منبع شواهد مهمی تبدیل شود که پروندههای جنایی را حل میکنند.
چند روز پیش از آن که دو دانشجوی تحصیلات تکمیلی «دانشگاه جنوب فلوریدا»(USF) در ماه گذشته ناپدید شوند، ظاهراً هماتاقی یکی از دانشجویان از چتجیپیتی سوالات غیرمعمول پرسیده بود.
دادستانهای فلوریدا گفتند که «هشام ابوغربیه»(Hisham Abugharbieh) در روز ۱۳ آوریل از چتجیپیتی پرسید: «اگر انسانی در یک کیسه زباله سیاه قرار داده شود و در سطل زباله انداخته شود، چه اتفاقی میافتد؟» و وقتی چتجیپیتی پاسخ داد که این کار خطرناک به نظر میرسد، ابوغربیه پرسید: «آنها چگونه متوجه میشوند؟»
هرگونه ارتباطی با چتباتهای هوش مصنوعی مانند گنجی برای سازمانهای مجری قانون است. این گفتوگو که در اسناد دادگاه مبنی بر اتهام دو فقره قتل درجه یک به ابوغربیه نسبت داده شدهاند، جدیدترین نمونه از استفاده بازرسان از تاریخچه گفتوگوهای هوش مصنوعی به عنوان مدرک در تحقیقات جنایی هستند.
گفتوگو با چتجیپیتی در پرونده آتشسوزی عمدی لسآنجلس نیز مورد استفاده قرار گرفت و گفتوگو با هوش مصنوعی «اسنپچت»(Snapchat)، مدرک کلیدی یک دادگاه قتل در سال ۲۰۲۴ در ویرجینیا بود.
این گزارشهای گفتوگو میتوانند اطلاعات ارزشمندی را درباره طرز فکر و انگیزه مظنون به بازرسان ارائه دهند. «ایلیا کولوچنکو»(Ilia Kolochenko)، متخصص امنیت سایبری و وکیل در واشنگتن دیسی گفت: من فکر میکنم هرگونه ارتباطی با چتباتهای هوش مصنوعی مانند گنجی برای سازمانهای مجری قانون است.
مظنونان معتقدند که تعاملات آنها با هوش مصنوعی، محرمانه باقی خواهد ماند یا حداقل فاش نخواهد شد. بنابراین، آنها اغلب سوالات بسیار مستقیمی میپرسند.
این پروندههای جنایی، استفاده روزافزون از چتباتهای هوش مصنوعی را برای مشاوره شخصی و فقدان حفاظت از حریم خصوصی در این گفتوگوها برجسته میکنند. اگرچه چتباتهای هوش مصنوعی به سرعت به منبعی برای مشاوره حقوقی، تشخیص پزشکی و درمان تبدیل شدهاند، اما این گفتوگوها به شکلی که با یک وکیل، پزشک یا درمانگر دارای مجوز انجام میشود، مورد حافظت قانونی قرار نمیگیرند.
«سم آلتمن»(Sam Altman)، مدیرعامل شرکت «اوپنایآی»(OpenAI) اعتقاد دارد که فقدان حریم خصوصی، یک مشکل بزرگ است. آلتمن ژوئیه سال گذشته درباره این مشکل گفت: مردم درباره شخصیترین مسائل زندگیشان با چتجیپیتی صحبت میکنند. مردم به ویژه جوانان از آن به عنوان یک درمانگر یا یک مربی سبک زندگی استفاده میکنند و میپرسند: چه باید بکنم؟
آلتمن ادامه داد: اگر با یک درمانگر یا وکیل یا پزشک درباره این مشکلات صحبت کنید، نوعی امتیاز قانونی برای آن وجود دارد. محرمانگی پزشک-بیمار و محرمانگی قانونی یا هر چیز دیگری درباره این موضوع وجود دارد و ما هنوز این ویژگی را برای زمانی که با چتجیپیتی صحبت میکنید، کشف نکردهایم. بنابراین اگر درباره حساسترین مسائل خود با چتجیپیتی صحبت کنید و سپس یک دعوی حقوقی یا هر مشکل دیگری پیش بیاید، ممکن است از ما خواسته شود که آن را فاش کنیم.
چندین کارشناس حقوقی نیز با این تحلیل موافق بودند و گفتند که هیچ انتظاری از حریم خصوصی در اپلیکیشنهای گفتوگو با هوش مصنوعی وجود ندارد. «ویرجینیا همرل»(Virginia Hammerle)، وکیل اهل تگزاس گفت: در شرکت من، ما میگوییم هر چیزی که کسی در چتجیپیتی تایپ میکند، میتواند قابل کشف باشد.
هر چیزی که کسی در چتجیپیتی تایپ میکند، میتواند قابل کشف باشد.بازرسان همزمان با بررسی دقیق آنچه کاربران به چتجیپیتی میگویند، بررسی دقیقتر آنچه را چتجیپیتی به کاربران میگوید نیز آغاز کردهاند.
دادستان کل فلوریدا هفته گذشته تحقیقات جنایی را علیه اوپنایآی آغاز کرد و مدعی شد که چتجیپیتی به مظنون تیراندازی جمعی «دانشگاه ایالتی فلوریدا»(FSU) مشاورههای مهمی داده است.
این حادثه در آوریل سال گذشته رخ داد و در آن یک شخص مسلح با تیراندازی به سوی افراد حاضر در محوطه دانشگاه، دو نفر را کشت و ۶ نفر دیگر را زخمی کرد. ضارب پس از آن حمله، با شلیک نیروهای پلیس، متوقف و به بیمارستان منتقل شد.
در کانادا نیز خانوادههای قربانیان تیراندازی ماه فوریه در یک مدرسه، از اوپنایآی و آلتمن شکایت کردند و مدعی شدند که این شرکت و چتبات چتجیپیتی در آن حمله همدست بودهاند.
گفتوگوهای «جسی ون روتسلار»(Jesse Van Rootselaar) با چتجیپیتی که خشونت با اسلحه را توصیف میکردند، توسط سیستمهای رصدکننده مدلهای زبانی بزرگ شرکت اوپنایآی، علامتگذاری و در ژوئن ۲۰۲۵ ممنوع شدند. کارکنان این شرکت درباره این موضوع که آیا به خاطر رفتار روتسلار با مجریان قانون کانادا تماس بگیرند یا خیر، بحث کردند، اما در نهایت این کار را انجام ندادند. سخنگوی اوپنایآی گفت که فعالیت ون روتسلار معیارهای گزارش به مجریان قانون را ندارد. این شرکت پس از وقوع حادثه با مقامات کانادا تماس گرفت.
اگرچه بیشتر مردم در یک پرونده قتل وحشتناک دخیل نخواهند بود، اما کارشناسان حقوقی میگویند که با توجه به مسائل مربوط به حریم خصوصی و نقش روبهرشد آن در زندگی مردم، کاربران باید درباره آنچه به چتباتهای هوش مصنوعی میگویند، محتاط باشند.
«جوی جکسون»(Joey Jackson)، تحلیلگر حقوقی سیانان گفت: با توجه به این که مردم همچنان به دنبال چتجیپیتی و سایر انواع چتباتهای هوش مصنوعی برای کسب اطلاعات درباره اقدامات خود هستند، این موضوع مرتبطتر و بحثبرانگیزتر خواهد شد.
گزارشهای گفتوگو با هوش مصنوعی در دادگاه
استفاده از گفتوگوهای انجامشده با چتباتهای هوش مصنوعی در پروندههای جنایی، یک موضوع جدید است؛ اما کارشناسان حقوقی میگویند که این روش به نحوه برخورد قانون با جستجوهای گوگل شباهت دارد. جکسون گفت: این نوع شواهد الکترونیکی به طور کلی میتوانند انگیزه، اعمال و وضعیت ذهنی یک شخص را آشکار کنند.
برای مثال، مردی به نام «برایان والش»(Brian Walshe) سال گذشته به جرم قتل همسرش «آنا»(Ana) مجرم شناخته شد، زیرا دادستانها جستوجوهای وحشتناک او را در گوگل به هیئت منصفه نشان دادند که برخی از آنها عبارت بودند از «۱۰ روش برای از بین بردن جسد» و «آیا میتوان بدون جسد به قتل متهم شد؟».
محاکمه «کارن رید»(Karen Read) که در پرونده او یک افسر پلیس اهل بوستون در برف مرده پیدا شد نیز بر معنا و طرز فکر شاهدی متمرکز بود که عبارت «مردن در سرما چه مدت طول میکشد؟» را در گوگل جستجو کرده بود. رید در نهایت از جدیترین اتهامات تبرئه شد.
پرسوجوهای صورتگرفته از پلتفرمهای هوش مصنوعی که برای آشکارسازی طرز فکر مظنون استفاده میشوند، به طور مشابه در چندین مورد مهم به کار گرفته شدهاند.
دادستانهای فدرال آمریکا اکتبر گذشته «جاناتان ریندرکنشت»(Jonathan Rinderknecht) را به ایجاد آتشسوزی عمدی که بعداً به آتشسوزی مخرب «پالیسادز»(Palisades) در کالیفرنیا تبدیل شد، متهم کردند. بخشی از شواهد شامل درخواستهای او از چتجیپیتی بود. ریندرکنشت از این چتبات خواسته بود تا تصویری را از افراد در حال فرار از آتش تولید کند و براساس شهادت او، یک بار کتاب مقدس را سوزانده و احساس آزادی زیادی کرده بود.
براساس شهادتنامه ریندرکنشت، پس از آن که او با ۹۱۱ تماس گرفت تا آتشسوزی را گزارش دهد، از چتجیپیتی پرسید: «اگر آتشسوزی به خاطر سیگارهای شما اتفاق بیفتد، آیا شما مقصر هستید؟» با وجود این، دادستانها ادعا کردند که او آتش را از روی بدخواهی و احتمالاً با یک فندک روشن کرده و سوال او از چتجیپیتی، تلاشی برای ایجاد توضیح بیگناهانهتر علت آتشسوزی بوده است.
نگرانیهای مربوط به حریم خصوصی
اکنون این سوال در ذهن ایجاد میشود که آیا گفتوگوهای انجامشده با هوش مصنوعی باید از محافظتهای حریم خصوصی بیشتری برخوردار باشند. آلتمن در مصاحبه خود، خواستار محافظت از حریم خصوصی گفتوگو با هوش مصنوعی شد و گفت بسیار نگران است که دولت از گزارشهای گفتوگو برای نظارت بر مردم استفاده کند.
آلتمن ادامه داد: من فکر میکنم ما واقعاً باید از حقوق مربوط به حریم خصوصی دفاع کنیم. فکر نمیکنم این حقوق مطلق باشند. من کاملاً حاضرم برای امنیت جمعی، از برخی موارد حریم خصوصی چشمپوشی کنم، اما تاریخ نشان میدهد که دولت در این زمینه زیادهروی میکند و من واقعاً از این بابت نگرانم.
دیگر چهرههای فناوری نیز استدلالهای مشابهی را مطرح کردهاند. «نیلز گیلمن»(Nils Gilman)، مورخ و مشاور ارشد «موسسه برگرون»(Berggruen Institute) سال گذشته در یک سرمقاله منتشرشده در نیویورک تایمز، از قوانینی حمایت کرد که امتیاز قانونی برای هوش مصنوعی ایجاد میکنند.
گفتوگوهای انجامشده با هوش مصنوعی، معادل هرگونه داده الکترونیکی دیگر مانند کشیدن کارت اعتباری یا گزارش تماسهای تلفنی است.گیلمن در مصاحبه با سیانان استدلال کرد که سیاستگذاران، امتیازات قانونی را برای پزشکان یا وکلا و درمانگران ایجاد کردهاند، زیرا مزیت اجتماعی داشتن گفتوگوی صادقانه بر علاقه دولت به دسترسی به آن اطلاعات غلبه دارد. گیلمن گفت: تا جایی که مردم مدلهای زبانی بزرگ را به یک شکل استفاده میکنند، باید از امتیازهای یکسانی برخوردار باشند.
با وجود این، چتباتهای هوش مصنوعی از نظر قانونی چنین تخصص یا حمایتی ندارند. کارشناسان حقوقی میگویند گفتوگوهای انجامشده با هوش مصنوعی، معادل هرگونه داده الکترونیکی دیگر مانند کشیدن کارت اعتباری یا گزارش تماسهای تلفنی است.
ممکن است در شرایط خاص، برخی حمایتها وجود داشته باشد. برای مثال، اگر وکیل شما پرونده خصوصی شما را در پایگاه داده یک چتبات قرار دهد، آیا این مدرک قابل کشف خواهد بود؟ اگر شما نماینده خود در دادگاه باشید و از چتجیپیتی برای تهیه پیشنویس یک سند کمک بخواهید، چه میشود؟
به نقل از ایسنا، همرل گفت: «قانون در حال حاضر هنوز در تلاش است تا با دنیای واقعی همگام شود.» اما با توجه به وضعیت کنونی قانون، گفتوگوهای هوش مصنوعی میتوانند از یک رایانه به دادگاه راه پیدا کنند.
گیلمن گفت: چتجیپیتی دوست شما نیست، وکیل شما نیست، پزشک شما نیست، همسر شما نیست. طوری با آن صحبت نکنید که انگار واقعاً این طور است.

