از وکالت تا همانندسازی مردگان/ هوش مصنوعی داخل دادگاهها شد_آینده
به گزارش آینده
از پروندههای ساختگی ناشی از «توهمات» مدلهای زبانی گرفته تا ویدیوهای دیپفیک، هوش مصنوعی کمکم راهش را به دادگاهها باز کرده است. اکنون، در یکی از شگفتترین موارد، این فناوری برای برگشت دادن مقتولان به ظاهر از مرگ منفعت گیری شده است.
این هفته، خانوادهی یکی از قربانیان جرم، ویدیویی مختصر در دادگاهی در ایالت آریزونا اراعه کردند که در آن، نسخهای هوشمصنوعی از «کریس پلکی» ۳۷ ساله، خطاب به متهم سخن بگویید میکرد. پلکی در سال ۲۰۲۱ در جریان یک درگیری جادهای به ضرب گلوله کشته شد. اکنون، چهار سال سپس، «کلون» تولیدشده با هوش مصنوعی بهطور مجازی رو به قاتل احتمالیاش ایستاد. به گزارش شبکهی محلی ABC۱۵، این نخستین مورد شناختهشده از منفعت گیری از یک دیپفیک تولیدشده با هوش مصنوعی در بیانیهی تأثیر جرم قربانی (victim impact statement) است.
در ویدیو، نسخهی بازسازیشدهی پلکی به متهم میگوید: «گابریل اورکاسیتاس، مردی که به من شلیک کردی، مایهی تأسف است که ما آن روز و در آن شرایط همدیگر را دیدیم. احتمالا در زندگیای دیگر، میتوانستیم دوست باشیم.»
در این ویدیو، پلکی، سرباز قدیمیکار ارتش با هیکلی درشت و ریش پرپشت با هودی سبز و کلاهی طوسی ظاهر میشود. خانوادهاش این ویدیو را با منفعت گیری از مدل هوش مصنوعی آموزشدیده بر پایه کلیپهای قدیمی از او تشکیل کردهاند. فیلتر «پیری» نیز بر چهرهاش اعمال شده تا نشان دهد او ممکن می بود امروز چه شکلی باشد. در نهایت، قاضی، گابریل اورکاسیتاس را به ۱۰.۵ سال زندان به جرم قتل غیرعمد محکوم کرد، تصمیمی که به حرف هایی خودش، تا حدی تحت تأثیر بیانیهی تولیدشده با هوش مصنوعی گرفته شد.
دیپفیک پلکی در آخر او گفت: «این بهترین چیزیست که میتوانم به تو بدهم از این که اگر زمان داشتم پیر شوم، چطور میبودم. به یاد داشته باش، پیر شدن نعمتیست که نصیب همه نمیشود. بعد قدرش را بدان و دلواپس چین و چروکها نباش.»
منفعت گیریی یک متهم نیویورکی از دیپفیک برای دفاع شخصی
تنها یک ماه پیش، یک متهم دیگر در ایالت نیویورک نیز از ویدیوی دیپفیک برای دفاع از خود منفعت گیری کرد. «جروم دیوالد» ۷۴ ساله، در جریان رسیدگی به پروندهی اختلاف قراردادی با کارفرمای سابقش، ویدیویی اراعه کرد که در آن، مردی با ژاکت و پیراهن آبی مستقیم به دوربین نگاه میکرد و سخن میاو گفت. قاضی، که از ویدیو سردرگم شده می بود، از دیوالد سوال کرد که آیا فرد در عکس، وکیل اوست. اما حقیقت این می بود که ویدیو، کاملاً ساختگی و توسط هوش مصنوعی تشکیل شده می بود.
به گزارش نیویورک تایمز، دیوالد در جواب او گفت: «من این ویدیو را تشکیل کردم. آن فرد واقعی نیست.»
قاضی از این که دیوالد منفعت گیری از ابزار هوش مصنوعی را افشا نکرده می بود، ابراز نارضایتی کرد و او را توبیخ نمود. دیوالد بعدها به نیویورک تایمز او گفت که تصمیم گمراهکردن دادگاه را نداشته و تنها تلاش کرده تا دفاعیهاش را به شکل آشکارتری اراعه دهد. او گفت که در ابتدا تصمیم داشت چهرهی دیپفیک را همانند خودش بسازد اما به علت مشکلات فنی، به نسخهی جانشین روی آورد.
دیوالد در نامهای به قضات نوشت: «تصمیم من هیچ زمان فریب نبوده است، بلکه فقط میخواستم دلایلهایم را به مؤثرترین شکل ممکن گفتن کنم.»
از پروندههای ساختگی تا دادخواستهای علیه چتباتها
این دو پرونده تازه ترین مثالها از وجود فزایندهی هوش مصنوعی مولد در دادگاهها می باشند. این روال از چند سال پیش، همزمان با همهگیر شدن چتباتهایی همانند ChatGPT اغاز شد. تعداد بسیاری از وکلا در سراسر ایالات متحده از مدلهای زبانی بزرگ برای نوشتن دادخواستها و جمعآوری اطلاعات منفعت گیری کردهاند. اما این کار در مواردی تبدیل اشتباهات فاجعهبار شده—از جمله تشکیل پروندههای حقوقی کاملاً ساختگی و نقل قول از منابعی که اصلاً وجود ندارند.
در سال ۲۰۲۳، دو وکیل در نیویورک بهعلت اراعهی یک لایحهی حقوقی شامل شش مورد استناد به پروندههای جعلی تولیدشده توسط ChatGPT، با مجازات قضایی مواجه شدند. «مایکل کوهن»، وکیل شخصی اسبق دونالد ترامپ نیز reportedly پروندههای ساختگی تولیدشده با هوش مصنوعی را برای وکیلش فرستاده می بود که در نهایت در یک دادخواست به دادگاه فدرال ارسال شد. یک وکیل دیگر در کلرادو هم به علت اراعهی مستندات جعلی تولیدشده با AI، با تعلیق روبه رو شد. حتی یک مجری رادیویی در جورجیا، از OpenAI شکایت کرده و مدعی شده می بود که ChatGPT او را بهنادرست به شراکت در یک پروندهی اختلاس نسبت داده که هیچ ارتباطی با آن نداشته است.
آیندهای مبهم اما اجتنابناپذیر
با این که برخی از دادگاهها وکلا و متهمان را بهعلت منفعت گیریی فریبکارانه از هوش مصنوعی مجازات کردهاند، تا این مدت قوانین روشنی درموردی منفعت گیریی مجاز یا ممنوع این ابزارها در روندهای حقوقی وجود ندارد. هفتهی قبل، یک هیئت قضایی فدرال با رأی ۸ به ۱ تصمیم گرفت تا نظر عمومی را درموردی پیشنویس قانونی جویا شود که مقصد آن، مطمعن از این است که شواهد تولیدشده با هوش مصنوعی همان استانداردهایی را داشته باشند که از شاهدان انسانی انتظار میرود.
رئیس دیوان عالی آمریکا، جان رابرتس، نیز در گزارش سالانهی خود در سال ۲۰۲۳ به این نوشته پرداخت. او ضمن اشاره به مزایای بالقوهی منفعت گیری از هوش مصنوعی برای افرادی با منبع های مالی محدود، هشدار داد که این فناوری امکان پذیر به «نقض حریم خصوصی» و «غیرانسانیکردن حقوق» منجر شود.
اما یک چیز قطعی است: وجود دیپفیکها در دادگاهها تازه اغاز شده است.
دسته بندی مطالب
اخبار کسب وکارها