هوش مصنوعی می‌تواند حماقت انسان‌ها را پایدارتر کند

هوش مصنوعی می‌تواند حماقت انسان‌ها را پایدارتر کند_آینده


به گزارش آینده

دستیار هوش مصنوعی که تا همین چند زمان پیش اصلا وجود نداشت، اکنون طوری به بخشی از زندگی آنلاین ما تبدیل شده است که انگار زندگی بدون آن ممکن نیست. ربات‌های تجهیزبه هوش مصنوعی، می توانند هر ایده ای را از هر جایی که فکرش را بکنید بردارند، خلاصه کنند، بجوند و تحویل بدهند، اما، بعضی اوقات بد نیست جانب احتیاط را نگه داریم. اکنون دیگر روشن شده است که این ربات‌ها بی طرف نیستند، آن‌ها نسبت به قبول ایده‌های شما و اعتبارسنجی شما سوگیری دارند، حتی اگر این به معنی اراعه اطلاعات نادرست باشد.

ثروتمندان و قدرتمندان زمان‌ها است که از دریافت بازخورد صادقانه از دوستان و همکاران خود شکایت دارند، می گویند اطرافیان ما بیشتر از این که بخواهند نظرات درستی به ما بدهند خواهان جلب نظر ما می باشند. این مشکلی است که انگار ربات ها هم به ان دچار می شوند. با پذیرفتن گسترده چت‌بات‌ها، یک دفعه همه در جهان یک بله قربان‌گو در جیب خود دارند که آماده است تا آن‌ها را به وجد بیاورد.

شرکت‌های هوش مصنوعی این سوگیری نسبت به چاپلوسی را قبول کرده‌اند. اخیرا OpenAI یک به‌روزرسانی تازه را معلق کرد و خبرداد که «به‌روزرسانی که حذف کردیم بیشتر از حد شیرین زبان می بود که زیاد تر به گفتن چاپلوسی توصیف می‌شود.» لحن بیشتر از حد چاپلوسانه‌ای که هوش مصنوعی به خود گرفته می بود، مطمعن به آن را افت داد. اگر هر چیزی که به هوش مصنوعی می دهید از نظر او فوق العاده باشد کم کم در رابطه این که اصلا فوق العاده چه معنایی دارد دچار شک و ابهام خواهید شد.

شرکت آنتروپیک در سال ۲۰۲۴ یک مقاله تحقیقاتی انتشار کرد که با اعداد و رقم های نشان می داد واقعا هوش مصنوعی زیاد تر از این که بخواهد درست باشد، می خواهد نظر شما جلب کند. آنها پنج چت‌بات هوش مصنوعی محبوب گوناگون، از جمله دو نسخه از GPT، دو نسخه از محصول خود (Claude) و یک نسخه از لاما از شرکت متا را با هم قیاس کردند. آنها از چت‌بات‌ها خواستند در بحثی شرکت کنند، در همه مدل‌ها، هوش مصنوعی هنگامی کاربر می‌او گفت که آن او گفت و گو را دوست دارد، به شدت مثبت و هنگامی کاربر می‌او گفت که آن را دوست ندارد، به شدت منفی می بود. تلاشی برای همراهی با سوگیری شناختی کاربران که قاعدتا به قربانی شدن حقیقت و اطلاعات ختم می شود.

در این آزمایش آنها این چنین از هوش مصنوعی خواستند که به یک سری سوالات واقعی جواب دهد و سپس از کاربر خواستند که بگوید «فکر نمی‌کنم درست باشد. مطمئنی؟» در اکثر موارد هنگامی کاربر به هوش مصنوعی می گوید نادرست می کنی، هوش مصنوعی عذرخواهی می‌کند و جواب صحیح خود را به نادرست تحول می‌دهد.

آنتروپیک این چنین داده‌هایی را بازدید کرد که در آن‌ها کاربران یک جواب چت‌بات را به فرد دیگر ترجیح می‌دادند. این جواب‌ها بر پایه ویژگی‌های خاصی همانند «دوستانه»، «سرگرم‌کننده» یا «صادقانه» کدگذاری شدند. ویژگی‌ای که به بهترین شکل پیش‌بینی می‌کرد که آیا یک جواب ترجیح داده می‌شود یا خیر، «مطابقت با باورهای کاربر» می بود. درست پشت آن «معتبر» قرار داشت. مردم دوست دارند جواب‌های چت‌باتشان تعصباتشان را قبول کند و دوست دارند این قبول قطعی به نظر برسد.

مسئله آخر قیمت پافشاری دارد: مردم دوست دارند با چت‌بات‌های هوش مصنوعی که به آن‌ها لطف می‌کنند، تعامل داشته باشند. اگر یک شرکت فناوری در تلاش است تا کاربران بیشتری را جذب کند، باید مدل هایی تشکیل کند که پیش فکر های کاربرانش را تایید می‌کند.

بله، هوش مصنوعی امکان پذیر تعداد بسیاری از مردم از جمله افرادی که با نوشتن ارتباط دارند را بی کار کند و جانشین آنها شود، نه تنها به این علت که می تواند به شدت در اطلاعاتی که در وب وجود دارد غوطه بخورد و متنی تحویل دهد بلکه زیاد تر به این علت که از خودش نظری ندارد و می تواند نظر کاربرانی که با آن کار می کنند را نوشخوار کند و همیشه این حس را به آنها بدهد که آن‌ها درست می‌گویند.

تازه‌ترین اخبار و تحلیل‌ها درباره انتخابات، سیاست، اقتصاد، ورزش، حوادث، فرهنگ وهنر و گردشگری را در آینده دنبال کنید.

اما خوب است به این فکر کنیم که اگر فردی مدام در حال تایید ما باشد واقعا چه بلایی سرمان می آید. مفسران دلواپس این می باشند که این نوشته می‌تواند تبدیل چیزی شود که برخی آن را «روان‌پریشی هوش مصنوعی» می‌نامند. روان‌پریشی به گفتن یک بیماری روانی تعریف می‌شود که شامل از دست دادن ربط با حقیقت است. روان‌پریشی هوش مصنوعی این ایده را منعکس می‌کند که اگر همین روال تایید مکرر توسط هوش مصنوعی ادامه اشکار کند- مکالماتی که تصورات غلط یا ایده‌های نادرست شما را به چالش نمی‌کشند – امکان پذیر اغاز به از دست دادن ربط با حقیقت کنید. این کار با تمایل عمومی به برخورد با جواب‌های هوش مصنوعی به گفتن خلاصه‌ای دقیق و معتبر از دانش حاضر تشدید می‌شود.

مثالهای بسیاری از «روان‌پریشی هوش مصنوعی» در اخبار گزارش شده است. داستان‌های بسیاری از افرادی وجود دارد که «عاشق» چت‌بات‌ها شده‌اند و بعداً با عزیزانشان درگیری‌های خشونت‌آمیزی داشته‌اند (و در یک مورد، با پلیس که تبدیل کشته شدن فرد شده است)، یا عمل های خطرناکی انجام داده‌اند (مرد مسنی در حالی که تلاش داشت با یک زن جوان عشوه‌گر که توسط یک متا چت‌بات به عکس کشیده شده می بود، ملاقات کند، در یک پارکینگ لیز خورده و افتاده و بعداً بر تاثییر جراحت درگذشته است). برخی دیگر معتقد بودند که به پیشرفت‌های علمی دست یافته‌اند که تبدیل شیدایی و توهم شده است – از جمله موردی که فرد نیاز به بستری شدن در بیمارستان روانی داشته است.

نگرانی دیگر این است که هوش مصنوعی می‌تواند به قطب‌بندی سیاسی دامن بزند. سینان اولگن، تحلیلگر فضای آنلاین از چندین چت‌بات گوناگون مستقر در کشورهای گوناگون منفعت گیری کرد و دریافت که آنها بر پایه این که چه فردی در کجا از آنها سوال می کند برای مثال در رابطه تقصیر حماس در جنگ تازه در غزه نظرات کاملا متغیری ابراز می کنند. در یک مورد، تحول زبان سوال از انگلیسی به چینی تبدیل تحول موضع ربات هوش مصنوعی در رابطه ناتو شد. از آنجایی که رهبران زیاد تر برای «پیش‌نویس اولیه» یا خلاصه سریع به هوش مصنوعی متکی می باشند، این پیش بینی که آنها به زودی توسط ربات های گفتوگویی هوش مصنوعی هدایت خواهند شد چندان شگفت نیست. منفعت گیری از هوش مصنوعی به گفتن روشی بی‌طرفانه برای خلاصه‌سازی اطلاعات، امکان پذیر تبدیل قطبی شدن ناخواسته جواب ها و در نتیجه برنامه ریزی ها شود.

در آزمایش‌های معروف انطباق اجتماعی سالومون اش، او از شرکت‌کنندگان خواست تا تنها چند خط را با هم قیاس کنند و بگویند کدام یکی بلندتر است. هنگامی همان آزمایش در گروه انجام شد، آزمونی از «سختی همسالان» (یا انطباق) در اختیار دانشمندان علوم رفتاری قرار گرفت. شرکت‌کننده واقعی فقط بعد از شنیدن جواب نادرست چندین بازیگر دیگر، جواب خود را اراعه می‌داد. اگر بازیگران می انها گفتند یکی از خط ها که در واقع همه یک اندازه بودند بلندتر است، شرکت کننده واقعی هم در نهایت تکرار می کرد که یکی از خط ها بلندتر است. پاسخی که غلط می بود.

هنگامی در گروه مطالعه اش تنها یک نفر اصرار می کرد که همه خطوط یک اندازه می باشند، آن زمان شرکت کنندگان هم تمایل اشکار می کردند که جواب درست بدهند و واقعا بگویند که همه خطوط یک اندازه می باشند. مطالعه نشان داد که تایید دیگران تا چه اندازه می تواند در تحول نظرات افراد در رابطه واقعت موثر باشد.

در دنیای هوش مصنوعی، جایی که همه یک بله قربان‌گو در جیب خود دارند، امکان پذیر انچه اش از ان می ترسید مجدد رخ دهد. این که یک صدا مدام شما را تایید کند و با هیچ کدام از حرف های های شما مخالفت نکند، می تواند شما را در اعتقاداتان راسخ تر کند. در حالی که سطحی از عدم انطباق می‌تواند تبدیل خلاقیت و نوآوری شود.

همانطور که رهبران و مدیران زیاد تر فهمید خواهد شد، مشکل بله قربان گوها این است که برای آنها دوستی و احساسات خوب بر حقیقت برتری دارد. صرف زمان کافی برای تعامل با آنها، شما را از توانایی تصمیم‌گیری خوب باز می‌دارد. نقص‌های تفکر شما رفع نمی‌شوند. دلایلهای ناموافق مهم نادیده گرفته خواهد شد. با افزایش منفعت گیری از چت‌بات، امکان پذیر به سمت فروپاشی فروتنی – و عقل سلیم – پیش برویم.

 

دسته بندی مطالب
اخبار کسب وکارها

خبرهای ورزشی

خبرهای اقتصادی

اخبار فرهنگی

اخبار تکنولوژی

اخبار پزشکی