نماد سایت خبرگزاری سیناپرس

شواهد «چت‌جی‌پی‌تی» در حل پرونده‌های جنایی

گفت‌وگو با «چت‌جی‌پی‌تی» اخیرا به یکی از شواهد مهم در حل کردن پرونده‌های جنایی تبدیل شده و تا حد زیادی به شناسایی متهمان کمک کرده است.

به گزارش سیناپرس، وقتی «چت‌جی‌پی‌تی»(ChatGPT) به دنیا معرفی شد، هیچ‌کس گمان نمی‌کرد این چت‌بات هوش مصنوعی روزی بتواند به منبع شواهد مهمی تبدیل شود که پرونده‌های جنایی را حل می‌کنند.

چند روز پیش از آن که دو دانشجوی تحصیلات تکمیلی «دانشگاه جنوب فلوریدا»(USF) در ماه گذشته ناپدید شوند، ظاهراً هم‌اتاقی یکی از دانشجویان از چت‌جی‌پی‌تی سوالات غیرمعمول پرسیده بود.

 دادستان‌های فلوریدا گفتند که «هشام ابوغربیه»(Hisham Abugharbieh) در روز ۱۳ آوریل از چت‌جی‌پی‌تی پرسید: «اگر انسانی در یک کیسه زباله سیاه قرار داده شود و در سطل زباله انداخته شود، چه اتفاقی می‌افتد؟» و وقتی چت‌جی‌پی‌تی پاسخ داد که این کار خطرناک به نظر می‌رسد، ابوغربیه پرسید: «آنها چگونه متوجه می‌شوند؟»

هرگونه ارتباطی با چت‌بات‌های هوش مصنوعی مانند گنجی برای سازمان‌های مجری قانون است. این گفت‌وگو که در اسناد دادگاه مبنی بر اتهام دو فقره قتل درجه یک به ابوغربیه نسبت داده شده‌اند، جدیدترین نمونه از استفاده بازرسان از تاریخچه گفت‌وگوهای هوش مصنوعی به عنوان مدرک در تحقیقات جنایی هستند.

گفت‌وگو با چت‌جی‌پی‌تی در پرونده آتش‌سوزی عمدی لس‌آنجلس نیز مورد استفاده قرار گرفت و گفت‌وگو با هوش مصنوعی «اسنپ‌چت»(Snapchat)، مدرک کلیدی یک دادگاه قتل در سال ۲۰۲۴ در ویرجینیا بود.

این گزارش‌های گفت‌وگو می‌توانند اطلاعات ارزشمندی را درباره طرز فکر و انگیزه مظنون به بازرسان ارائه دهند. «ایلیا کولوچنکو»(Ilia Kolochenko)، متخصص امنیت سایبری و وکیل در واشنگتن دی‌سی گفت: من فکر می‌کنم هرگونه ارتباطی با چت‌بات‌های هوش مصنوعی مانند گنجی برای سازمان‌های مجری قانون است.

مظنونان معتقدند که تعاملات آنها با هوش مصنوعی، محرمانه باقی خواهد ماند یا حداقل فاش نخواهد شد. بنابراین، آنها اغلب سوالات بسیار مستقیمی می‌پرسند.

این پرونده‌های جنایی، استفاده روزافزون از چت‌بات‌های هوش مصنوعی را برای مشاوره شخصی و فقدان حفاظت از حریم خصوصی در این گفت‌وگوها برجسته می‌کنند. اگرچه چت‌بات‌های هوش مصنوعی به سرعت به منبعی برای مشاوره حقوقی، تشخیص پزشکی و درمان تبدیل شده‌اند، اما این گفت‌وگوها به شکلی که با یک وکیل، پزشک یا درمانگر دارای مجوز انجام می‌شود، مورد حافظت قانونی قرار نمی‌گیرند.

«سم آلتمن»(Sam Altman)، مدیرعامل شرکت «اوپن‌ای‌آی»(OpenAI) اعتقاد دارد که فقدان حریم خصوصی، یک مشکل بزرگ است. آلتمن ژوئیه سال گذشته درباره این مشکل گفت: مردم درباره شخصی‌ترین مسائل زندگی‌شان با چت‌جی‌پی‌تی صحبت می‌کنند. مردم به ویژه جوانان از آن به عنوان یک درمانگر یا یک مربی سبک زندگی استفاده می‌کنند و می‌پرسند: چه باید بکنم؟

آلتمن ادامه داد: اگر با یک درمانگر یا وکیل یا پزشک درباره این مشکلات صحبت کنید، نوعی امتیاز قانونی برای آن وجود دارد. محرمانگی پزشک-بیمار و محرمانگی قانونی یا هر چیز دیگری درباره این موضوع وجود دارد و ما هنوز این ویژگی را برای زمانی که با چت‌جی‌پی‌تی صحبت می‌کنید، کشف نکرده‌ایم. بنابراین اگر درباره حساس‌ترین مسائل خود با چت‌جی‌پی‌تی صحبت کنید و سپس یک دعوی حقوقی یا هر مشکل دیگری پیش بیاید، ممکن است از ما خواسته شود که آن را فاش کنیم.

چندین کارشناس حقوقی نیز با این تحلیل موافق بودند و گفتند که هیچ انتظاری از حریم خصوصی در اپلیکیشن‌های گفت‌وگو با هوش مصنوعی وجود ندارد. «ویرجینیا همرل»(Virginia Hammerle)، وکیل اهل تگزاس گفت: در شرکت من، ما می‌گوییم هر چیزی که کسی در چت‌جی‌پی‌تی تایپ می‌کند، می‌تواند قابل کشف باشد.

هر چیزی که کسی در چت‌جی‌پی‌تی تایپ می‌کند،  می‌تواند قابل کشف باشد.بازرسان همزمان با بررسی دقیق آنچه کاربران به چت‌جی‌پی‌تی می‌گویند، بررسی دقیق‌تر آنچه را چت‌جی‌پی‌تی به کاربران می‌گوید نیز آغاز کرده‌اند.

دادستان کل فلوریدا هفته گذشته تحقیقات جنایی را علیه اوپن‌ای‌آی آغاز کرد و مدعی شد که چت‌جی‌پی‌تی به مظنون تیراندازی جمعی «دانشگاه ایالتی فلوریدا»(FSU) مشاوره‌های مهمی داده است.

این حادثه در آوریل سال گذشته رخ داد و در آن یک شخص مسلح با تیراندازی به سوی افراد حاضر در محوطه دانشگاه، دو نفر را کشت و ۶ نفر دیگر را زخمی کرد. ضارب پس از آن حمله، با شلیک نیروهای پلیس، متوقف و به بیمارستان منتقل شد.

در کانادا نیز خانواده‌های قربانیان تیراندازی ماه فوریه در یک مدرسه‌، از اوپن‌ای‌آی و آلتمن شکایت کردند و مدعی شدند که این شرکت و چت‌بات چت‌جی‌پی‌تی در آن حمله همدست بوده‌اند.

گفت‌وگوهای «جسی ون روتسلار»(Jesse Van Rootselaar) با چت‌جی‌پی‌تی که خشونت با اسلحه را توصیف می‌کردند، توسط سیستم‌های رصدکننده مدل‌های زبانی بزرگ شرکت اوپن‌ای‌آی، علامت‌گذاری و در ژوئن ۲۰۲۵ ممنوع شدند. کارکنان این شرکت درباره این موضوع که آیا به خاطر رفتار روتسلار با مجریان قانون کانادا تماس بگیرند یا خیر، بحث کردند، اما در نهایت این کار را انجام ندادند. سخنگوی اوپن‌ای‌آی گفت که فعالیت ون روتسلار معیارهای گزارش به مجریان قانون را ندارد. این شرکت پس از وقوع حادثه با مقامات کانادا تماس گرفت.

اگرچه بیشتر مردم در یک پرونده قتل وحشتناک دخیل نخواهند بود، اما کارشناسان حقوقی می‌گویند که با توجه به مسائل مربوط به حریم خصوصی و نقش روبه‌رشد آن در زندگی مردم، کاربران باید درباره آنچه به چت‌بات‌های هوش مصنوعی می‌گویند، محتاط باشند.

«جوی جکسون»(Joey Jackson)، تحلیلگر حقوقی سی‌ان‌ان گفت: با توجه به این که مردم همچنان به دنبال چت‌جی‌پی‌تی و سایر انواع چت‌بات‌های هوش مصنوعی برای کسب اطلاعات درباره اقدامات خود هستند، این موضوع مرتبط‌تر و بحث‌برانگیزتر خواهد شد.

گزارش‌های گفت‌وگو با هوش مصنوعی در دادگاه

استفاده از گفت‌وگوهای انجام‌شده با چت‌بات‌های هوش مصنوعی در پرونده‌های جنایی، یک موضوع جدید است؛ اما کارشناسان حقوقی می‌گویند که این روش به نحوه برخورد قانون با جستجوهای گوگل شباهت دارد. جکسون گفت: این نوع شواهد الکترونیکی به طور کلی می‌توانند انگیزه، اعمال و وضعیت ذهنی یک شخص را آشکار کنند.

برای مثال، مردی به نام «برایان والش»(Brian Walshe) سال گذشته به جرم قتل همسرش «آنا»(Ana) مجرم شناخته شد، زیرا دادستان‌ها جست‌وجوهای وحشتناک او را در گوگل به هیئت منصفه نشان دادند که برخی از آنها عبارت بودند از «۱۰ روش برای از بین بردن جسد» و «آیا می‌توان بدون جسد به قتل متهم شد؟».

محاکمه «کارن رید»(Karen Read) که در پرونده او یک افسر پلیس اهل بوستون در برف مرده پیدا شد نیز بر معنا و طرز فکر شاهدی متمرکز بود که عبارت «مردن در سرما چه مدت طول می‌کشد؟» را در گوگل جستجو کرده بود. رید در نهایت از جدی‌ترین اتهامات تبرئه شد.

پرس‌وجوهای صورت‌گرفته از پلتفرم‌های هوش مصنوعی که برای آشکارسازی طرز فکر مظنون استفاده می‌شوند، به طور مشابه در چندین مورد مهم به کار گرفته شده‌اند.

دادستان‌های فدرال آمریکا اکتبر گذشته «جاناتان ریندرکنشت»(Jonathan Rinderknecht) را به ایجاد آتش‌سوزی عمدی که بعداً به آتش‌سوزی مخرب «پالیسادز»(Palisades) در کالیفرنیا تبدیل شد، متهم کردند. بخشی از شواهد شامل درخواست‌های او از چت‌جی‌پی‌تی بود. ریندرکنشت از این چت‌بات خواسته بود تا تصویری را از افراد در حال فرار از آتش تولید کند و براساس شهادت‌ او، یک بار کتاب مقدس را سوزانده و احساس آزادی زیادی کرده بود.

براساس شهادت‌نامه ریندرکنشت، پس از آن که او با ۹۱۱ تماس گرفت تا آتش‌سوزی را گزارش دهد، از چت‌جی‌پی‌تی پرسید: «اگر آتش‌سوزی به خاطر سیگارهای شما اتفاق بیفتد، آیا شما مقصر هستید؟» با وجود این، دادستان‌ها ادعا کردند که او آتش را از روی بدخواهی و احتمالاً با یک فندک روشن کرده و سوال او از چت‌جی‌پی‌تی، تلاشی برای ایجاد توضیح بی‌گناهانه‌تر علت آتش‌سوزی بوده است.

نگرانی‌های مربوط به حریم خصوصی

اکنون این سوال در ذهن ایجاد می‌شود که آیا گفت‌وگوهای انجام‌شده با هوش مصنوعی باید از محافظت‌های حریم خصوصی بیشتری برخوردار باشند. آلتمن در مصاحبه خود، خواستار محافظت از حریم خصوصی گفت‌وگو با هوش مصنوعی شد و گفت بسیار نگران است که دولت از گزارش‌های گفت‌وگو برای نظارت بر مردم استفاده کند.

آلتمن ادامه داد: من فکر می‌کنم ما واقعاً باید از حقوق مربوط به حریم خصوصی دفاع کنیم. فکر نمی‌کنم این حقوق مطلق باشند. من کاملاً حاضرم برای امنیت جمعی، از برخی موارد حریم خصوصی‌ چشم‌پوشی کنم، اما تاریخ نشان می‌دهد که دولت در این زمینه زیاده‌روی می‌کند و من واقعاً از این بابت نگرانم.

دیگر چهره‌های فناوری نیز استدلال‌های مشابهی را مطرح کرده‌اند. «نیلز گیلمن»(Nils Gilman)، مورخ و مشاور ارشد «موسسه برگرون»(Berggruen Institute) سال گذشته در یک سرمقاله‌ منتشرشده در نیویورک تایمز، از قوانینی حمایت کرد که امتیاز قانونی برای هوش مصنوعی ایجاد می‌کنند.

گفت‌وگوهای انجام‌شده با هوش مصنوعی، معادل هرگونه داده الکترونیکی دیگر مانند کشیدن کارت اعتباری یا گزارش تماس‌های تلفنی است.گیلمن در مصاحبه با سی‌ان‌ان استدلال کرد که سیاست‌گذاران، امتیازات قانونی را برای پزشکان یا وکلا و درمانگران ایجاد کرده‌اند، زیرا مزیت اجتماعی داشتن گفت‌وگوی صادقانه بر علاقه دولت به دسترسی به آن اطلاعات غلبه دارد. گیلمن گفت: تا جایی که مردم مدل‌های زبانی بزرگ را به یک شکل استفاده می‌کنند، باید از امتیازهای یکسانی برخوردار باشند.

با وجود این، چت‌بات‌های هوش مصنوعی از نظر قانونی چنین تخصص یا حمایتی ندارند. کارشناسان حقوقی می‌گویند گفت‌وگوهای انجام‌شده با هوش مصنوعی، معادل هرگونه داده الکترونیکی دیگر مانند کشیدن کارت اعتباری یا گزارش تماس‌های تلفنی است.

ممکن است در شرایط خاص، برخی حمایت‌ها وجود داشته باشد. برای مثال، اگر وکیل شما پرونده خصوصی شما را در پایگاه داده یک چت‌بات قرار دهد، آیا این مدرک قابل کشف خواهد بود؟ اگر شما نماینده خود در دادگاه باشید و از چت‌جی‌پی‌تی برای تهیه پیش‌نویس یک سند کمک بخواهید، چه می‌شود؟

به نقل از ایسنا، همرل گفت: «قانون در حال حاضر هنوز در تلاش است تا با دنیای واقعی همگام شود.» اما با توجه به وضعیت کنونی قانون، گفت‌وگوهای هوش مصنوعی می‌توانند از یک رایانه به دادگاه راه پیدا کنند.

گیلمن گفت: چت‌جی‌پی‌تی دوست شما نیست، وکیل شما نیست، پزشک شما نیست، همسر شما نیست. طوری با آن صحبت نکنید که انگار واقعاً این طور است.

خروج از نسخه موبایل