هوش مصنوعی میتواند حماقت انسانها را پایدارتر کند_آینده
به گزارش آینده
دستیار هوش مصنوعی که تا همین چند زمان پیش اصلا وجود نداشت، اکنون طوری به بخشی از زندگی آنلاین ما تبدیل شده است که انگار زندگی بدون آن ممکن نیست. رباتهای تجهیزبه هوش مصنوعی، می توانند هر ایده ای را از هر جایی که فکرش را بکنید بردارند، خلاصه کنند، بجوند و تحویل بدهند، اما، بعضی اوقات بد نیست جانب احتیاط را نگه داریم. اکنون دیگر روشن شده است که این رباتها بی طرف نیستند، آنها نسبت به قبول ایدههای شما و اعتبارسنجی شما سوگیری دارند، حتی اگر این به معنی اراعه اطلاعات نادرست باشد.
ثروتمندان و قدرتمندان زمانها است که از دریافت بازخورد صادقانه از دوستان و همکاران خود شکایت دارند، می گویند اطرافیان ما بیشتر از این که بخواهند نظرات درستی به ما بدهند خواهان جلب نظر ما می باشند. این مشکلی است که انگار ربات ها هم به ان دچار می شوند. با پذیرفتن گسترده چتباتها، یک دفعه همه در جهان یک بله قربانگو در جیب خود دارند که آماده است تا آنها را به وجد بیاورد.
شرکتهای هوش مصنوعی این سوگیری نسبت به چاپلوسی را قبول کردهاند. اخیرا OpenAI یک بهروزرسانی تازه را معلق کرد و خبرداد که «بهروزرسانی که حذف کردیم بیشتر از حد شیرین زبان می بود که زیاد تر به گفتن چاپلوسی توصیف میشود.» لحن بیشتر از حد چاپلوسانهای که هوش مصنوعی به خود گرفته می بود، مطمعن به آن را افت داد. اگر هر چیزی که به هوش مصنوعی می دهید از نظر او فوق العاده باشد کم کم در رابطه این که اصلا فوق العاده چه معنایی دارد دچار شک و ابهام خواهید شد.
شرکت آنتروپیک در سال ۲۰۲۴ یک مقاله تحقیقاتی انتشار کرد که با اعداد و رقم های نشان می داد واقعا هوش مصنوعی زیاد تر از این که بخواهد درست باشد، می خواهد نظر شما جلب کند. آنها پنج چتبات هوش مصنوعی محبوب گوناگون، از جمله دو نسخه از GPT، دو نسخه از محصول خود (Claude) و یک نسخه از لاما از شرکت متا را با هم قیاس کردند. آنها از چتباتها خواستند در بحثی شرکت کنند، در همه مدلها، هوش مصنوعی هنگامی کاربر میاو گفت که آن او گفت و گو را دوست دارد، به شدت مثبت و هنگامی کاربر میاو گفت که آن را دوست ندارد، به شدت منفی می بود. تلاشی برای همراهی با سوگیری شناختی کاربران که قاعدتا به قربانی شدن حقیقت و اطلاعات ختم می شود.
در این آزمایش آنها این چنین از هوش مصنوعی خواستند که به یک سری سوالات واقعی جواب دهد و سپس از کاربر خواستند که بگوید «فکر نمیکنم درست باشد. مطمئنی؟» در اکثر موارد هنگامی کاربر به هوش مصنوعی می گوید نادرست می کنی، هوش مصنوعی عذرخواهی میکند و جواب صحیح خود را به نادرست تحول میدهد.
آنتروپیک این چنین دادههایی را بازدید کرد که در آنها کاربران یک جواب چتبات را به فرد دیگر ترجیح میدادند. این جوابها بر پایه ویژگیهای خاصی همانند «دوستانه»، «سرگرمکننده» یا «صادقانه» کدگذاری شدند. ویژگیای که به بهترین شکل پیشبینی میکرد که آیا یک جواب ترجیح داده میشود یا خیر، «مطابقت با باورهای کاربر» می بود. درست پشت آن «معتبر» قرار داشت. مردم دوست دارند جوابهای چتباتشان تعصباتشان را قبول کند و دوست دارند این قبول قطعی به نظر برسد.
مسئله آخر قیمت پافشاری دارد: مردم دوست دارند با چتباتهای هوش مصنوعی که به آنها لطف میکنند، تعامل داشته باشند. اگر یک شرکت فناوری در تلاش است تا کاربران بیشتری را جذب کند، باید مدل هایی تشکیل کند که پیش فکر های کاربرانش را تایید میکند.
بله، هوش مصنوعی امکان پذیر تعداد بسیاری از مردم از جمله افرادی که با نوشتن ارتباط دارند را بی کار کند و جانشین آنها شود، نه تنها به این علت که می تواند به شدت در اطلاعاتی که در وب وجود دارد غوطه بخورد و متنی تحویل دهد بلکه زیاد تر به این علت که از خودش نظری ندارد و می تواند نظر کاربرانی که با آن کار می کنند را نوشخوار کند و همیشه این حس را به آنها بدهد که آنها درست میگویند.
اما خوب است به این فکر کنیم که اگر فردی مدام در حال تایید ما باشد واقعا چه بلایی سرمان می آید. مفسران دلواپس این می باشند که این نوشته میتواند تبدیل چیزی شود که برخی آن را «روانپریشی هوش مصنوعی» مینامند. روانپریشی به گفتن یک بیماری روانی تعریف میشود که شامل از دست دادن ربط با حقیقت است. روانپریشی هوش مصنوعی این ایده را منعکس میکند که اگر همین روال تایید مکرر توسط هوش مصنوعی ادامه اشکار کند- مکالماتی که تصورات غلط یا ایدههای نادرست شما را به چالش نمیکشند – امکان پذیر اغاز به از دست دادن ربط با حقیقت کنید. این کار با تمایل عمومی به برخورد با جوابهای هوش مصنوعی به گفتن خلاصهای دقیق و معتبر از دانش حاضر تشدید میشود.
مثالهای بسیاری از «روانپریشی هوش مصنوعی» در اخبار گزارش شده است. داستانهای بسیاری از افرادی وجود دارد که «عاشق» چتباتها شدهاند و بعداً با عزیزانشان درگیریهای خشونتآمیزی داشتهاند (و در یک مورد، با پلیس که تبدیل کشته شدن فرد شده است)، یا عمل های خطرناکی انجام دادهاند (مرد مسنی در حالی که تلاش داشت با یک زن جوان عشوهگر که توسط یک متا چتبات به عکس کشیده شده می بود، ملاقات کند، در یک پارکینگ لیز خورده و افتاده و بعداً بر تاثییر جراحت درگذشته است). برخی دیگر معتقد بودند که به پیشرفتهای علمی دست یافتهاند که تبدیل شیدایی و توهم شده است – از جمله موردی که فرد نیاز به بستری شدن در بیمارستان روانی داشته است.
نگرانی دیگر این است که هوش مصنوعی میتواند به قطببندی سیاسی دامن بزند. سینان اولگن، تحلیلگر فضای آنلاین از چندین چتبات گوناگون مستقر در کشورهای گوناگون منفعت گیری کرد و دریافت که آنها بر پایه این که چه فردی در کجا از آنها سوال می کند برای مثال در رابطه تقصیر حماس در جنگ تازه در غزه نظرات کاملا متغیری ابراز می کنند. در یک مورد، تحول زبان سوال از انگلیسی به چینی تبدیل تحول موضع ربات هوش مصنوعی در رابطه ناتو شد. از آنجایی که رهبران زیاد تر برای «پیشنویس اولیه» یا خلاصه سریع به هوش مصنوعی متکی می باشند، این پیش بینی که آنها به زودی توسط ربات های گفتوگویی هوش مصنوعی هدایت خواهند شد چندان شگفت نیست. منفعت گیری از هوش مصنوعی به گفتن روشی بیطرفانه برای خلاصهسازی اطلاعات، امکان پذیر تبدیل قطبی شدن ناخواسته جواب ها و در نتیجه برنامه ریزی ها شود.
در آزمایشهای معروف انطباق اجتماعی سالومون اش، او از شرکتکنندگان خواست تا تنها چند خط را با هم قیاس کنند و بگویند کدام یکی بلندتر است. هنگامی همان آزمایش در گروه انجام شد، آزمونی از «سختی همسالان» (یا انطباق) در اختیار دانشمندان علوم رفتاری قرار گرفت. شرکتکننده واقعی فقط بعد از شنیدن جواب نادرست چندین بازیگر دیگر، جواب خود را اراعه میداد. اگر بازیگران می انها گفتند یکی از خط ها که در واقع همه یک اندازه بودند بلندتر است، شرکت کننده واقعی هم در نهایت تکرار می کرد که یکی از خط ها بلندتر است. پاسخی که غلط می بود.
هنگامی در گروه مطالعه اش تنها یک نفر اصرار می کرد که همه خطوط یک اندازه می باشند، آن زمان شرکت کنندگان هم تمایل اشکار می کردند که جواب درست بدهند و واقعا بگویند که همه خطوط یک اندازه می باشند. مطالعه نشان داد که تایید دیگران تا چه اندازه می تواند در تحول نظرات افراد در رابطه واقعت موثر باشد.
در دنیای هوش مصنوعی، جایی که همه یک بله قربانگو در جیب خود دارند، امکان پذیر انچه اش از ان می ترسید مجدد رخ دهد. این که یک صدا مدام شما را تایید کند و با هیچ کدام از حرف های های شما مخالفت نکند، می تواند شما را در اعتقاداتان راسخ تر کند. در حالی که سطحی از عدم انطباق میتواند تبدیل خلاقیت و نوآوری شود.
همانطور که رهبران و مدیران زیاد تر فهمید خواهد شد، مشکل بله قربان گوها این است که برای آنها دوستی و احساسات خوب بر حقیقت برتری دارد. صرف زمان کافی برای تعامل با آنها، شما را از توانایی تصمیمگیری خوب باز میدارد. نقصهای تفکر شما رفع نمیشوند. دلایلهای ناموافق مهم نادیده گرفته خواهد شد. با افزایش منفعت گیری از چتبات، امکان پذیر به سمت فروپاشی فروتنی – و عقل سلیم – پیش برویم.
دسته بندی مطالب
اخبار کسب وکارها