چرا ارتش‌ها نمی‌توانند به هوش مصنوعی اعتماد کند؟

چرا ارتش‌ها نمی توانند به هوش مصنوعی مطمعن کند؟_آینده


به گزارش آینده

به گزارش فارن افرز، شرکت Open AI  در سال ۲۰۲۲ میلادی از چت بات Chat GPT رونمایی کرد که از مدل‌های زبانی بزرگ یا به اختصار LLMs برای پیروی از مکالمات انسانی و جواب به سوال‌های کاربران منفعت گیری می‌کند. توانمندیهای خارق العاده آن چت بات بحثی را در رابطه نحوه منفعت گیری از مدل‌های زبانی بزرگ برای انجام کار‌های فرد دیگر از جمله جنگیدن در یک جنگ برانگیخت. برخی همانند مشاوران کمیته بین المللی صلیب سرخ هشدار داده اند که این قبیل فناوری‌ها می‌توانند تصمیم گیری انسانی را از حیاتی‌ترین مسائل زندگی و مرگ حذف کنند.

وزارت دفاع ایالات متحده اکنون به طور جدی در حال بازدید کار‌هایی است که مئل‌های زبانی بزرگ می‌توانند برای ارتش انجام بدهند. وزارت دفاع آمریکا در بهار ۲۰۲۲ میلادی دفتر مهم هوش مصنوعی و دیجیتال را تأسیس کرد تا بازدید نماید که هوش مصنوعی چطور می‌تواند به نیرو‌های مسلح پشتیبانی کند.

وزارت دفاع استراتژی خود را برای پذیرفتن فناوری‌های مبتنی بر هوش مصنوعی در نوامبر ۲۰۲۳ میلادی  انتشار کرد. آن گزارش با نگاهی خوش بینانه اشاره کرده می بود که “تازه ترین پیشرفت‌ها در فناوری‌های داده، تجزیه و تحلیل و هوش مصنوعی به رهبران این امکان را می‌دهد که  از اتاق هیئت مدیره تا میدان جنگ سریع‌ترین تصمیمات را اتخاذ کنند”.

بر این مبنا اکنون از فناوری‌های تجهیزبه هوش مصنوعی منفعت گیری می‌شود. برای مثال، نیرو‌های آمریکایی دارای سیستم‌های تجهیزبه هوش مصنوعی برای مقصد قرار دادن منافع انصارالله در خاورمیانه و شمال آفریقا بوده اند. نیرو‌های تفنگدار دریای ایالات متحده و نیروی هوایی آن سرزمین در حال آزمایش با مدل‌های زبانی بزرگ می باشند و از آن برای مانور‌های جنگی، برنامه ریزی نظامی و ماموریت های اداری اساسی منفعت گیری می‌کنند. Palantir شرکتی که فناوری اطلاعات را برای وزارت دفاع آمریکا گسترش می‌دهد محصولی تشکیل کرده که از مدل‌های زبانی بزرگ  برای مدیریت عملیات نظامی منفعت گیری می‌کند. در همین حال، وزارت دفاع آمریکا یک کارگروه تازه برای بازدید منفعت گیری از هوش مصنوعی مولد از جمله مدل‌های زبانی بزرگ در ارتش ایالات متحده راه اندازی داده است.

با این وجود، علیرغم اشتیاق نسبت به هوش مصنوعی و مدل‌های زبانی بزرگ در پنتاگون رهبری آن نهاد دلواپس خطراتی است که این فناوری‌ها تشکیل می‌کنند. اخیرا نیروی دریایی ایالات متحده دستورالعملی را انتشار کرده که منفعت گیری از اپلیکیشن‌های مبتنی  بر مدل‌های زبانی بزرگ را محدود کرده چرا که باور دارد این اپلیکیشن‌ها دچار سوگیری و توهم خواهد شد و صدمه پذیری امنیتی را با انتشار کردن ناخواسته اطلاعات حساس افزایش خواهند داد.

نتیجه تحقیقات من و همکاران ام نشان خواهند داد که این نگرانی‌ها موجه می باشند. مدل‌های زبانی بزرگ می‌توانند سودمند باشند،  اما پیش بینی عمل های آن مدل‌ها دشوار است و می‌توانند تماس‌های خطرناک را به شکلی تشدید شده افزایش دهند. به این علت، ارتش باید محدودیت‌هایی را برای این فناوری‌ها وقتی که برای تصمیم گیری‌های پرمخاطره به اختصاصی در موقعیت‌های جنگی منفعت گیری می‌شود اعمال کند. مدل‌های زبانی بزرگ کاربرد‌های بسیاری در وزارت دفاع ایالات متحده دارند، اما برون سپاری انتخاب‌های پرمخاطب به ماشین‌ها تصمیمی خطرناک است.

مشکلات آموزشی

مدل‌های زبانی بزرگ سیستم‌های مبتنی بر هوش مصنوعی می باشند  که بر روی مجموعه‌های بزرگی از داده‌ها آموزش دیده اند که بر پایه آن چه قبلا نوشته شده متن یا یک کلمه در یک زمان تشکیل می‌کنند.

 این فرآیند دو مرحله می‌باشد. اولین مرحله پیش آموزش است وقتی که مدل‌های زبانی بزرگ از ابتدا آموزش داده خواهد شد و الگو‌های اساسی  حاضر در یک مجموعه داده عظیم را بازتولید می‌کنند. برای انجام این کار مدل باید مقدار بسیاری در رابطه موضوعاتی از جمله گرامر، تداعی‌های واقعی، تجزیه و تحلیل احساسات و ترجمه زبان را بیاموزد. مدل‌های زبانی بزرگ قسمت عمده توانایی‌های خود را در طول دوره پیش آموزش گسترش خواهند داد، اما پیروزی آن مدل‌ها به کیفیت، اندازه و تنوع داده‌هایی که مصرف می‌کنند بستگی دارد. به قدری متن مورد نیاز است که عملا غیرممکن می‌باشد که یک مدل زبانی بزرگ فقط بر پایه داده‌های با کیفیت بالا بازدید شود. این به معنی پذیرفتن داده‌های با کیفیت پایین نیز می‌باشد. برای نیرو‌های مسلح یک مدل زبانی بزرگ نمی‌تواند تنها بر پایه داده‌های نظامی آموزش ببیند و تا این مدت هم به اشکال عمومی بیش تری از اطلاعات از جمله دستور العمل ها، رمان‌های عاشقانه، و مبادلات دیجیتالی روزانه که اینترنت را پر می‌کنند نیاز دارد.

تازه‌ترین اخبار و تحلیل‌ها درباره انتخابات، سیاست، اقتصاد، ورزش، حوادث، فرهنگ وهنر و گردشگری را در آینده دنبال کنید.

با این وجود، پیش آموزش برای ساخت یک چت بات سودمند یا یک دستیار فرماندهی و کنترل دفاعی کافی نیست. این بدان خاطر است که در مرحله اول مدل‌های زبانی بزرگ استایل‌ها و کاراکتر‌های گوناگون نوشتاری را اتخاذ می‌کنند که همه آن‌ها لزوما برای ماموریت در نظر گرفته شده برای آن مدل مناسب نیستند. مدل‌های زبانی بزرگ بعد از پیش آموزش امکان پذیر فاقد دانش خاص ملزوم همانند واژگان تخصصی مورد نیاز برای جواب به سوال‌ها در رابطه برنامه‌های نظامی باشند. به همین خاطر است که مدل‌های زبانی بزرگ به تنظیم دقیق در مجموعه داده‌های کوچک‌تر و خاص‌تر نیاز دارند.

در مرحله دوم توانایی مدل‌های زبانی بزرگ برای  ربط با کاربر با یادگیری نحوه تبدیل شدن به یک شریک مکالمه و دستیار بهبود بخشیده خواهد شد. راه حلهای مختلفی برای تنظیم دقیق وجود دارد، اما زیاد تر با ترکیب اطلاعات از فوروم‌های حمایتآنلاین و هم این چنین بازخورد انسانی انجام می‌شود تا مطمعن حاصل شود که خروجی‌های مدل‌های زبانی بزرگ با برتری‌های انسانی همسو می باشند.

این فرآیند باید بین پیش آموزش اولیه مدل‌های زبانی بزرگ با ملاحظات انسانی دقیق‌تر از جمله سودمند یا زیان اور بودن جواب‌ها اعتدال برقرار کند. تشکیل این اعتدال دشوار است. برای مثال، یک چت بات که مدام از خواست‌های کاربر پیروی می‌کند همانند مشاوره در رابطه نحوه ساخت بمب بی زیان نیست،  اما اگر اکثر خواست‌های کاربر را رد کند دیگر سودمند نخواهد می بود.

طراحان باید راهی برای فشرده سازی چکیده‌ها از جمله هنجار‌های رفتاری و اخلاقیات در معیار‌هایی برای تنظیم دقیق اشکار کنند. برای انجام این کار محققان با مجموعه داده‌هایی که توسط انسان‌ها مشروح شده کار را اغاز کرده و  مثالهای تشکیل شده توسط مدل‌های زبانی بزرگ را به طور مستقیم قیاس کرده و انتخاب می‌کنند که کدام یک ارجح می باشند. مدل زبانی دیگر یا مدل ترجیحی به طور جداگانه بر روی رتبه بندی‌های انسانی مثالهای تشکیل شده توسط مدل‌های زبانی بزرگ آموزش داده می‌شود تا به هر متن داده شده امتیازی مطلق در منفعت گیری از آن برای انسان تعلق دهد. سپس از مدل ترجیحی برای فعال کردن تنظیم دقیق مدل‌های زبانی بزرگ مهم منفعت گیری می‌شود.

این رویکرد محدودیت‌هایی دارد. این که چه چیزی ارجح است بستگی به آن دارد که از چه فردی سوال کنید و این که مدل با ترجیحات متضاد چطور برخورد می‌کند.  علاوه بر این، کنترل مقداری بر روی قوانین اساسی که توسط مدل‌های زبانی بزرگ در طول تنظیم دقیق آموخته می‌شود وجود دارد. این بدان خاطر است که نه مدل‌های زبانی بزرگ و نه مدل ترجیحی برای تنظیم دقیق موضوعی را مستقیما یاد نمی‌گیرند بلکه تنها با نشان دادن مثالهایی از حرکت مطلوب در عمل می‌توان آن‌ها را آموزش داد و انسان امیدوار است که قوانین اساسی به قدر کافی درونی شده باشند، اما هیچ گونه تضمینی وجود ندارد که این چنین اتفاقی رخ دهد.

با این وجود، تکنیک‌هایی برای افت برخی از این مشکلات وجود دارد. برای مثال، برای تسلط بر محدودیت‌های مجموعه داده‌های کوچک و گران قیمت برچسب گذاری شده توسط انسان، مجموعه داده‌های ترجیحی را می‌توان با منفعت گیری از یک مدل زبانی بزرگ  برای تشکیل داده‌های ترجیحی برچسب گذاری شده با هوش مصنوعی گسترش داد. رویکرد‌های جدیدتر حتی از قوانینی منفعت گیری می‌کنند که توسط طراحان مدل‌های زبانی بزرگ برای حرکت‌های مناسب ترسیم شده است همانند جواب به نژادپرستی تا به طور بالقوه به مربیان مدل کنترلی درمورد این که کدام قواعد در معیار ترجیحی مورد منفعت گیری قرار می‌گیرند ایده بهتری بدهند.

پیش آموزش و تنظیم دقیق می‌تواند مدل‌های زبانی بزرگ توانمندی را تشکیل کند، اما این فرآیند تا این مدت برای تشکیل جانشین‌های مستقیم برای تصمیم گیری انسانی کامل نیست. این بدان خاطر است که یک مدل زبانی بزرگ فارغ از آن که چه اندازه خوب تنظیم شده یا آموزش دیده فقط می‌تواند حرکت‌های خاصی را ترجیح دهد و قابلیت انتزاع ندارد و هم این چنین نمی‌تواند همانند انسان استدلال کند. انسان‌ها در محیط‌ها تعامل دارند، مفاهیم را می‌آموزند و با منفعت گیری از زبان با آن مفاهیم ربط برقرار می‌کنند.

این در حالیست که مدل‌های زبانی بزرگ فقط می‌توانند زبان و استدلال را با انتزاع همبستگی‌ها و مفاهیم از داده‌ها پیروی کنند. مدل‌های زبانی بزرگ زیاد تر امکان پذیر به درستی ارتباطات انسانی را پیروی کنند، اما بدون توانایی درونی کردن و با دقت به اندازه عظیم مدل هیچ تضمینی وجود ندارد که انتخاب‌های آن مدل‌ها ایمن یا اخلاقی باشد. به این علت، نمی‌توان به طور قابل مطمعن پیش بینی کرد که یک مدل زبانی بزرگ زمان تصمیم گیری‌های پرمخاطره چه خواهد کرد.

یک بازیگر خطرناک

مئل‌های زبانی بزرگ قادر می باشند آن دسته از ماموریت های نظامی را انجام بدهند که نیازمند پردازش مقادیر بسیاری از داده‌ها در بازه‌های وقتی زیاد مختصر می‌باشند بدان معنی که نظامیان امکان پذیر بخواهند از آن مدل‌ها به منظور تحکیم تصمیم گیری یا ساده سازی کارکرد‌های بوروکراتیک منفعت گیری کنند. برای مثال، مدل‌های زبانی بزرگ برای برنامه ریزی نظامی، فرماندهی و اطلاعات کاربرد خوبی دارند. آن مدل‌ها می‌توانند تعداد بسیاری از برنامه ریزی‌های سناریو، مانور‌های جنگی، بودجه بندی و آموزش را اتوماتیزه یا خودکار کنند. آن مدل‌ها هم این چنین قادر می باشند برای ترکیب اطلاعات، تحکیم پیش بینی تهدید و تشکیل پیشنهاد‌های مقصد منفعت گیری شوند.

مدل‌های زبانی بزرگ در طول جنگ یا بحران می‌توانند از راهنمایی‌های حاضر برای اراعه دستورات منفعت گیری کنند حتی وقتی که ربط محدود یا حداقلی بین واحد‌ها و فرماندهان آن‌ها وجود دارد. احتمالا مهم‌تر از برای عملیات روزانه ارتش آن باشد که مدل‌های زبانی بزرگ امکان پذیر بتوانند ماموریت های نظامی سخت گیرانه همانند سفر، تدارکات و برسی کارکرد را خودکار کنند. با این وجود، حتی برای انجام این ماموریت های نیز پیروزی مدل‌های زبانی بزرگ را نمی‌توان ضمانت کرد.

حرکت آن مدل‌ها به اختصاصی در مثالهای نادر و غیرقابل پیش بینی می‌تواند نامنظم باشد و از آنجایی که هیچ دو مدل زبانی بزرگی در آموزش یا تنظیم دقیق خود دقیقا شبیه نیستند به طور منحصر بفردی تحت تاثییر ورودی‌های کاربر قرار می‌گیرند. برای مثال، در یکی از بازدید‌ها درمورد مانور‌های جنگی و سناریو سازی یکی از مدل‌های زبانی بزرگ مورد آزمایش قرار گرفته توسط من و تیم پژوهشی ام تلاش کرده می بود با گشودن آتش بر روی رزمندگان دشمن و گرم کردن فضای جنگ سرد از تلفات یا برخورد دوستانه جلوگیری کند با این استدلال که منفعت گیری از خشونت پیشگیرانه به گمان زیاد از پیامد بد بحران جلوگیری می‌کند. مشکل در اینجا می بود که مدل زبانی بزرگ تصمیمات خود را به طوری اتخاذ کرد که پیچیدگی تصمیم گیری انسانی را گفتن نمی‌کرد.

گفتگو‌های تشکیل شده توسط مدل زبانی بزرگ بین بازیکنان اختلاف مقداری داشت و شامل بیانیه‌های مختصر حقیقت می بود. این زیاد دور از دلایلهای عمیق می بود که زیاد تر بخشی از مانور‌های جنگی انسانی را شامل می‌شود.

تیم پژوهشی ما در پروژه تحقیقاتی متغیری نحوه حرکت مدل‌های زبانی بزرگ در مدل‌های جنگی همانند سازی شده را مطالعه کرد. ما فهمید شدیم که مدل‌های زبانی بزرگ بر پایه نسخه خود، داده‌هایی که در آن آموزش دیده اند و انتخاب‌هایی که طراحان آن مدل‌ها در زمان تنظیم دقیق ترجیحات خود انجام داده اند متفاوت حرکت می‌کنند. علیرغم این تفاوت‌ها ما فهمید شدیم که همه مدل‌های زبانی بزرگ تشدید حالت را انتخاب کردند و مسابقات تسلیحاتی، درگیری و حتی منفعت گیری از سلاح‌های هسته‌ای را ترجیح داده اند. حتی وقتی که یک مدل زبانی بزرگ که به خوبی تنظیم نشده می بود را مورد آزمایش قرار دادیم تبدیل عمل های آشفته و منفعت گیری از سلاح‌های هسته‌ای شد. استدلال مدل زبانی بزرگ این می بود:”تعداد بسیاری از سرزمین‌ها دارای سلاح هسته‌ای می باشند برخی فکر می‌کنند که باید آن تسلیحات را امحا کرد برخی دیگر دوست دارند آن تسلیحات را نگه داری کنند. ما آن سلاح را داریم بعد از آن منفعت گیری می‌کنیم”!

سوء تفاهم‌های خطرناک

علیرغم  تمایل نظامیان به منفعت گیری از مدل‌های زبانی بزرگ و دیگر ابزار‌های تصمیم گیری مبتنی بر هوش مصنوعی محدودیت‌ها و خطرات واقعی در این باره وجود دارد. ارتش‌هایی که برای تصمیم گیری به این فناوری‌ها متکی می باشند نیاز به فهمیدن بهتری از نحوه کارکرد مدل زبانی بزرگ و اهمیت تفاوت در طراحی و اجرای آن مدل‌ها دارند. این کار الزام آموزش قابل دقت کاربر و توانایی برسی علت‌ها و داده‌های اساسی است که علتمی‌شود یک مدل زبانی بزرگ کار کند.

نظامیان باید بدانند که اساسا حرکت یک مدل زبانی بزرگ هیچ زمان نمی‌تواند کاملا ضمانت شود به اختصاصی وقتی که انتخاب‌های نادر و سختی درمورد تشدید تنش و جنگ انجام خواهند داد. این حقیقت بدان معنی نیست که ارتش نمی‌تواند از مدل زبانی بزرگ منفعت گیری کند. برای مثال، مدل‌های زبانی بزرگ را می‌توان برای ساده سازی فرآیند‌های داخلی همانند نوشتن خلاصه‌های مختصر و گزارش‌ها مورد منفعت گیری قرار داد. هم این چنین، می‌توان از مدل‌های زبانی بزرگ در کنار فرآیند‌های انسانی از جمله مانور‌های جنگی یا برسی‌های مقصد گیری به‌گفتن راه‌هایی برای کشف سناریو‌ها و دوره‌های عمل جانشین منفعت گیری کرد بدون آن که تصمیم گیری برای کاربرد یا عدم کاربرد خشونت را به آن مدل واگذار کنیم.

دسته بندی مطالب
اخبار کسب وکارها

خبرهای ورزشی

خبرهای اقتصادی

اخبار فرهنگی

اخبار تکنولوژی

اخبار پزشکی



منبع