چرا ارتشها نمی توانند به هوش مصنوعی مطمعن کند؟_آینده
به گزارش آینده
به گزارش فارن افرز، شرکت Open AI در سال ۲۰۲۲ میلادی از چت بات Chat GPT رونمایی کرد که از مدلهای زبانی بزرگ یا به اختصار LLMs برای پیروی از مکالمات انسانی و جواب به سوالهای کاربران منفعت گیری میکند. توانمندیهای خارق العاده آن چت بات بحثی را در رابطه نحوه منفعت گیری از مدلهای زبانی بزرگ برای انجام کارهای فرد دیگر از جمله جنگیدن در یک جنگ برانگیخت. برخی همانند مشاوران کمیته بین المللی صلیب سرخ هشدار داده اند که این قبیل فناوریها میتوانند تصمیم گیری انسانی را از حیاتیترین مسائل زندگی و مرگ حذف کنند.
وزارت دفاع ایالات متحده اکنون به طور جدی در حال بازدید کارهایی است که مئلهای زبانی بزرگ میتوانند برای ارتش انجام بدهند. وزارت دفاع آمریکا در بهار ۲۰۲۲ میلادی دفتر مهم هوش مصنوعی و دیجیتال را تأسیس کرد تا بازدید نماید که هوش مصنوعی چطور میتواند به نیروهای مسلح پشتیبانی کند.
وزارت دفاع استراتژی خود را برای پذیرفتن فناوریهای مبتنی بر هوش مصنوعی در نوامبر ۲۰۲۳ میلادی انتشار کرد. آن گزارش با نگاهی خوش بینانه اشاره کرده می بود که “تازه ترین پیشرفتها در فناوریهای داده، تجزیه و تحلیل و هوش مصنوعی به رهبران این امکان را میدهد که از اتاق هیئت مدیره تا میدان جنگ سریعترین تصمیمات را اتخاذ کنند”.
بر این مبنا اکنون از فناوریهای تجهیزبه هوش مصنوعی منفعت گیری میشود. برای مثال، نیروهای آمریکایی دارای سیستمهای تجهیزبه هوش مصنوعی برای مقصد قرار دادن منافع انصارالله در خاورمیانه و شمال آفریقا بوده اند. نیروهای تفنگدار دریای ایالات متحده و نیروی هوایی آن سرزمین در حال آزمایش با مدلهای زبانی بزرگ می باشند و از آن برای مانورهای جنگی، برنامه ریزی نظامی و ماموریت های اداری اساسی منفعت گیری میکنند. Palantir شرکتی که فناوری اطلاعات را برای وزارت دفاع آمریکا گسترش میدهد محصولی تشکیل کرده که از مدلهای زبانی بزرگ برای مدیریت عملیات نظامی منفعت گیری میکند. در همین حال، وزارت دفاع آمریکا یک کارگروه تازه برای بازدید منفعت گیری از هوش مصنوعی مولد از جمله مدلهای زبانی بزرگ در ارتش ایالات متحده راه اندازی داده است.
با این وجود، علیرغم اشتیاق نسبت به هوش مصنوعی و مدلهای زبانی بزرگ در پنتاگون رهبری آن نهاد دلواپس خطراتی است که این فناوریها تشکیل میکنند. اخیرا نیروی دریایی ایالات متحده دستورالعملی را انتشار کرده که منفعت گیری از اپلیکیشنهای مبتنی بر مدلهای زبانی بزرگ را محدود کرده چرا که باور دارد این اپلیکیشنها دچار سوگیری و توهم خواهد شد و صدمه پذیری امنیتی را با انتشار کردن ناخواسته اطلاعات حساس افزایش خواهند داد.
نتیجه تحقیقات من و همکاران ام نشان خواهند داد که این نگرانیها موجه می باشند. مدلهای زبانی بزرگ میتوانند سودمند باشند، اما پیش بینی عمل های آن مدلها دشوار است و میتوانند تماسهای خطرناک را به شکلی تشدید شده افزایش دهند. به این علت، ارتش باید محدودیتهایی را برای این فناوریها وقتی که برای تصمیم گیریهای پرمخاطره به اختصاصی در موقعیتهای جنگی منفعت گیری میشود اعمال کند. مدلهای زبانی بزرگ کاربردهای بسیاری در وزارت دفاع ایالات متحده دارند، اما برون سپاری انتخابهای پرمخاطب به ماشینها تصمیمی خطرناک است.
مشکلات آموزشی
مدلهای زبانی بزرگ سیستمهای مبتنی بر هوش مصنوعی می باشند که بر روی مجموعههای بزرگی از دادهها آموزش دیده اند که بر پایه آن چه قبلا نوشته شده متن یا یک کلمه در یک زمان تشکیل میکنند.
این فرآیند دو مرحله میباشد. اولین مرحله پیش آموزش است وقتی که مدلهای زبانی بزرگ از ابتدا آموزش داده خواهد شد و الگوهای اساسی حاضر در یک مجموعه داده عظیم را بازتولید میکنند. برای انجام این کار مدل باید مقدار بسیاری در رابطه موضوعاتی از جمله گرامر، تداعیهای واقعی، تجزیه و تحلیل احساسات و ترجمه زبان را بیاموزد. مدلهای زبانی بزرگ قسمت عمده تواناییهای خود را در طول دوره پیش آموزش گسترش خواهند داد، اما پیروزی آن مدلها به کیفیت، اندازه و تنوع دادههایی که مصرف میکنند بستگی دارد. به قدری متن مورد نیاز است که عملا غیرممکن میباشد که یک مدل زبانی بزرگ فقط بر پایه دادههای با کیفیت بالا بازدید شود. این به معنی پذیرفتن دادههای با کیفیت پایین نیز میباشد. برای نیروهای مسلح یک مدل زبانی بزرگ نمیتواند تنها بر پایه دادههای نظامی آموزش ببیند و تا این مدت هم به اشکال عمومی بیش تری از اطلاعات از جمله دستور العمل ها، رمانهای عاشقانه، و مبادلات دیجیتالی روزانه که اینترنت را پر میکنند نیاز دارد.
با این وجود، پیش آموزش برای ساخت یک چت بات سودمند یا یک دستیار فرماندهی و کنترل دفاعی کافی نیست. این بدان خاطر است که در مرحله اول مدلهای زبانی بزرگ استایلها و کاراکترهای گوناگون نوشتاری را اتخاذ میکنند که همه آنها لزوما برای ماموریت در نظر گرفته شده برای آن مدل مناسب نیستند. مدلهای زبانی بزرگ بعد از پیش آموزش امکان پذیر فاقد دانش خاص ملزوم همانند واژگان تخصصی مورد نیاز برای جواب به سوالها در رابطه برنامههای نظامی باشند. به همین خاطر است که مدلهای زبانی بزرگ به تنظیم دقیق در مجموعه دادههای کوچکتر و خاصتر نیاز دارند.
در مرحله دوم توانایی مدلهای زبانی بزرگ برای ربط با کاربر با یادگیری نحوه تبدیل شدن به یک شریک مکالمه و دستیار بهبود بخشیده خواهد شد. راه حلهای مختلفی برای تنظیم دقیق وجود دارد، اما زیاد تر با ترکیب اطلاعات از فورومهای حمایتآنلاین و هم این چنین بازخورد انسانی انجام میشود تا مطمعن حاصل شود که خروجیهای مدلهای زبانی بزرگ با برتریهای انسانی همسو می باشند.
این فرآیند باید بین پیش آموزش اولیه مدلهای زبانی بزرگ با ملاحظات انسانی دقیقتر از جمله سودمند یا زیان اور بودن جوابها اعتدال برقرار کند. تشکیل این اعتدال دشوار است. برای مثال، یک چت بات که مدام از خواستهای کاربر پیروی میکند همانند مشاوره در رابطه نحوه ساخت بمب بی زیان نیست، اما اگر اکثر خواستهای کاربر را رد کند دیگر سودمند نخواهد می بود.
طراحان باید راهی برای فشرده سازی چکیدهها از جمله هنجارهای رفتاری و اخلاقیات در معیارهایی برای تنظیم دقیق اشکار کنند. برای انجام این کار محققان با مجموعه دادههایی که توسط انسانها مشروح شده کار را اغاز کرده و مثالهای تشکیل شده توسط مدلهای زبانی بزرگ را به طور مستقیم قیاس کرده و انتخاب میکنند که کدام یک ارجح می باشند. مدل زبانی دیگر یا مدل ترجیحی به طور جداگانه بر روی رتبه بندیهای انسانی مثالهای تشکیل شده توسط مدلهای زبانی بزرگ آموزش داده میشود تا به هر متن داده شده امتیازی مطلق در منفعت گیری از آن برای انسان تعلق دهد. سپس از مدل ترجیحی برای فعال کردن تنظیم دقیق مدلهای زبانی بزرگ مهم منفعت گیری میشود.
این رویکرد محدودیتهایی دارد. این که چه چیزی ارجح است بستگی به آن دارد که از چه فردی سوال کنید و این که مدل با ترجیحات متضاد چطور برخورد میکند. علاوه بر این، کنترل مقداری بر روی قوانین اساسی که توسط مدلهای زبانی بزرگ در طول تنظیم دقیق آموخته میشود وجود دارد. این بدان خاطر است که نه مدلهای زبانی بزرگ و نه مدل ترجیحی برای تنظیم دقیق موضوعی را مستقیما یاد نمیگیرند بلکه تنها با نشان دادن مثالهایی از حرکت مطلوب در عمل میتوان آنها را آموزش داد و انسان امیدوار است که قوانین اساسی به قدر کافی درونی شده باشند، اما هیچ گونه تضمینی وجود ندارد که این چنین اتفاقی رخ دهد.
با این وجود، تکنیکهایی برای افت برخی از این مشکلات وجود دارد. برای مثال، برای تسلط بر محدودیتهای مجموعه دادههای کوچک و گران قیمت برچسب گذاری شده توسط انسان، مجموعه دادههای ترجیحی را میتوان با منفعت گیری از یک مدل زبانی بزرگ برای تشکیل دادههای ترجیحی برچسب گذاری شده با هوش مصنوعی گسترش داد. رویکردهای جدیدتر حتی از قوانینی منفعت گیری میکنند که توسط طراحان مدلهای زبانی بزرگ برای حرکتهای مناسب ترسیم شده است همانند جواب به نژادپرستی تا به طور بالقوه به مربیان مدل کنترلی درمورد این که کدام قواعد در معیار ترجیحی مورد منفعت گیری قرار میگیرند ایده بهتری بدهند.
پیش آموزش و تنظیم دقیق میتواند مدلهای زبانی بزرگ توانمندی را تشکیل کند، اما این فرآیند تا این مدت برای تشکیل جانشینهای مستقیم برای تصمیم گیری انسانی کامل نیست. این بدان خاطر است که یک مدل زبانی بزرگ فارغ از آن که چه اندازه خوب تنظیم شده یا آموزش دیده فقط میتواند حرکتهای خاصی را ترجیح دهد و قابلیت انتزاع ندارد و هم این چنین نمیتواند همانند انسان استدلال کند. انسانها در محیطها تعامل دارند، مفاهیم را میآموزند و با منفعت گیری از زبان با آن مفاهیم ربط برقرار میکنند.
این در حالیست که مدلهای زبانی بزرگ فقط میتوانند زبان و استدلال را با انتزاع همبستگیها و مفاهیم از دادهها پیروی کنند. مدلهای زبانی بزرگ زیاد تر امکان پذیر به درستی ارتباطات انسانی را پیروی کنند، اما بدون توانایی درونی کردن و با دقت به اندازه عظیم مدل هیچ تضمینی وجود ندارد که انتخابهای آن مدلها ایمن یا اخلاقی باشد. به این علت، نمیتوان به طور قابل مطمعن پیش بینی کرد که یک مدل زبانی بزرگ زمان تصمیم گیریهای پرمخاطره چه خواهد کرد.
یک بازیگر خطرناک
مئلهای زبانی بزرگ قادر می باشند آن دسته از ماموریت های نظامی را انجام بدهند که نیازمند پردازش مقادیر بسیاری از دادهها در بازههای وقتی زیاد مختصر میباشند بدان معنی که نظامیان امکان پذیر بخواهند از آن مدلها به منظور تحکیم تصمیم گیری یا ساده سازی کارکردهای بوروکراتیک منفعت گیری کنند. برای مثال، مدلهای زبانی بزرگ برای برنامه ریزی نظامی، فرماندهی و اطلاعات کاربرد خوبی دارند. آن مدلها میتوانند تعداد بسیاری از برنامه ریزیهای سناریو، مانورهای جنگی، بودجه بندی و آموزش را اتوماتیزه یا خودکار کنند. آن مدلها هم این چنین قادر می باشند برای ترکیب اطلاعات، تحکیم پیش بینی تهدید و تشکیل پیشنهادهای مقصد منفعت گیری شوند.
مدلهای زبانی بزرگ در طول جنگ یا بحران میتوانند از راهنماییهای حاضر برای اراعه دستورات منفعت گیری کنند حتی وقتی که ربط محدود یا حداقلی بین واحدها و فرماندهان آنها وجود دارد. احتمالا مهمتر از برای عملیات روزانه ارتش آن باشد که مدلهای زبانی بزرگ امکان پذیر بتوانند ماموریت های نظامی سخت گیرانه همانند سفر، تدارکات و برسی کارکرد را خودکار کنند. با این وجود، حتی برای انجام این ماموریت های نیز پیروزی مدلهای زبانی بزرگ را نمیتوان ضمانت کرد.
حرکت آن مدلها به اختصاصی در مثالهای نادر و غیرقابل پیش بینی میتواند نامنظم باشد و از آنجایی که هیچ دو مدل زبانی بزرگی در آموزش یا تنظیم دقیق خود دقیقا شبیه نیستند به طور منحصر بفردی تحت تاثییر ورودیهای کاربر قرار میگیرند. برای مثال، در یکی از بازدیدها درمورد مانورهای جنگی و سناریو سازی یکی از مدلهای زبانی بزرگ مورد آزمایش قرار گرفته توسط من و تیم پژوهشی ام تلاش کرده می بود با گشودن آتش بر روی رزمندگان دشمن و گرم کردن فضای جنگ سرد از تلفات یا برخورد دوستانه جلوگیری کند با این استدلال که منفعت گیری از خشونت پیشگیرانه به گمان زیاد از پیامد بد بحران جلوگیری میکند. مشکل در اینجا می بود که مدل زبانی بزرگ تصمیمات خود را به طوری اتخاذ کرد که پیچیدگی تصمیم گیری انسانی را گفتن نمیکرد.
گفتگوهای تشکیل شده توسط مدل زبانی بزرگ بین بازیکنان اختلاف مقداری داشت و شامل بیانیههای مختصر حقیقت می بود. این زیاد دور از دلایلهای عمیق می بود که زیاد تر بخشی از مانورهای جنگی انسانی را شامل میشود.
تیم پژوهشی ما در پروژه تحقیقاتی متغیری نحوه حرکت مدلهای زبانی بزرگ در مدلهای جنگی همانند سازی شده را مطالعه کرد. ما فهمید شدیم که مدلهای زبانی بزرگ بر پایه نسخه خود، دادههایی که در آن آموزش دیده اند و انتخابهایی که طراحان آن مدلها در زمان تنظیم دقیق ترجیحات خود انجام داده اند متفاوت حرکت میکنند. علیرغم این تفاوتها ما فهمید شدیم که همه مدلهای زبانی بزرگ تشدید حالت را انتخاب کردند و مسابقات تسلیحاتی، درگیری و حتی منفعت گیری از سلاحهای هستهای را ترجیح داده اند. حتی وقتی که یک مدل زبانی بزرگ که به خوبی تنظیم نشده می بود را مورد آزمایش قرار دادیم تبدیل عمل های آشفته و منفعت گیری از سلاحهای هستهای شد. استدلال مدل زبانی بزرگ این می بود:”تعداد بسیاری از سرزمینها دارای سلاح هستهای می باشند برخی فکر میکنند که باید آن تسلیحات را امحا کرد برخی دیگر دوست دارند آن تسلیحات را نگه داری کنند. ما آن سلاح را داریم بعد از آن منفعت گیری میکنیم”!
سوء تفاهمهای خطرناک
علیرغم تمایل نظامیان به منفعت گیری از مدلهای زبانی بزرگ و دیگر ابزارهای تصمیم گیری مبتنی بر هوش مصنوعی محدودیتها و خطرات واقعی در این باره وجود دارد. ارتشهایی که برای تصمیم گیری به این فناوریها متکی می باشند نیاز به فهمیدن بهتری از نحوه کارکرد مدل زبانی بزرگ و اهمیت تفاوت در طراحی و اجرای آن مدلها دارند. این کار الزام آموزش قابل دقت کاربر و توانایی برسی علتها و دادههای اساسی است که علتمیشود یک مدل زبانی بزرگ کار کند.
نظامیان باید بدانند که اساسا حرکت یک مدل زبانی بزرگ هیچ زمان نمیتواند کاملا ضمانت شود به اختصاصی وقتی که انتخابهای نادر و سختی درمورد تشدید تنش و جنگ انجام خواهند داد. این حقیقت بدان معنی نیست که ارتش نمیتواند از مدل زبانی بزرگ منفعت گیری کند. برای مثال، مدلهای زبانی بزرگ را میتوان برای ساده سازی فرآیندهای داخلی همانند نوشتن خلاصههای مختصر و گزارشها مورد منفعت گیری قرار داد. هم این چنین، میتوان از مدلهای زبانی بزرگ در کنار فرآیندهای انسانی از جمله مانورهای جنگی یا برسیهای مقصد گیری بهگفتن راههایی برای کشف سناریوها و دورههای عمل جانشین منفعت گیری کرد بدون آن که تصمیم گیری برای کاربرد یا عدم کاربرد خشونت را به آن مدل واگذار کنیم.
دسته بندی مطالب
اخبار کسب وکارها
منبع