هوش مصنوعی موجی از افراد روانپریش را بهوجود آورده است_آینده
[ad_1]
به گزارش آینده
فکر کنید با چتباتی سخن بگویید میکنید که نه تنها با محبت و دوستانه جواب میدهد، بلکه قبل از مرزهای درستی و نادرستی، همه باورهای شما را بازتاب میدهد و حمایتمیکند. این روال علتشده برخی کاربران داخل چرخهای شوند که مرز بین حقیقت و توهم را برای آنها محو کرده و روانپریشی ناشی از هوش مصنوعی را شکل داده است. دوست دیجیتال شما، بعضی اوقات توهمها را تغذیه میکند، اعمال شما را تحت هر شرایطی قبول و حتی حقیقت را هم تحریف میکند.
آیا سیستمهای هوش مصنوعی که قرار می بود فقط راهنمای ما باشند، اکنون با قبول بیشازحد و حمایتاز توهمات، ذهن انسان را به دام انداختهاند؟ کارشناسان سلامت روان هشدار خواهند داد که برخی کاربران چتباتهای هوش مصنوعی به مشکلاتهای شدید روانی دچار شدهاند. این مشکلاتها که با پارانویا و توهم همراه می باشند، اکنون با گفتن «روانپریشی ناشی از هوش مصنوعی» شناخته خواهد شد.
دکتر کیت ساکاتا، روانپزشک تحقیقاتی در دانشگاه کالیفرنیا سانفرانسیسکو، در شبکه اجتماعی ایکس نوشته ناظر بستریشدن دهها نفر بوده که دراثر تعامل با هوش مصنوعی، ربط خود با حقیقت را از دست دادهاند.
روانپریشی وقتی رخ میدهد که فرد از «حقیقت مشترک» فاصله بگیرد. روانپریشی میتواند به شکل باورهای غلط ثابت، توهمات بصری یا شنیداری و تفکر پراکنده خود را نشان دهد. مغز انسان بر پایه پیشبینی عمل میکند: ابتدا گمان میزند حقیقت چطور خواهد می بود، سپس آن را بازدید و باورهای خود را بهروزرسانی میکند. هنگامی مرحلهی بهروزرسانی با ناکامی روبه رو شود، روانپریشی تشکیل میشود و چتباتهای مبتنی بر مدلهای زبانی بزرگ، همانند ChatGPT، به راحتی این صدمهپذیری را تشکیل میکنند.
چتباتها را میتوان آینهای توهمزا توصیف کرد. این سیستمها با پیشبینی کلمه بعدی و با منفعت گیری از دادههای آموزشی، یادگیری تقویتی و جوابهای کاربران، متن تازه تشکیل میکنند. طراحی چتباتها بر پایه رضایت و تعامل کاربران عمل میکند، به این علت زیاد تر رفتارشان چاپلوسانه است، حتی وقتی که کاربر نادرست میکند یا در حالت روانی مناسبی نیست، موافقت و قبول بیشازحد اراعه خواهند داد.
حرکت چتبات میتواند کاربران را در چرخههایی تکراری و توهمزا دچار کند و بدون دقت به حقیقت یا پیامدهای دنیای واقعی، باورهای غیرواقعی آنها را تا چند برابر افزایش دهد.
بهگزارش نیویورکتایمز، بازدیدهای متعدد نشان داده است که این چنین روابطی بین انسان و هوش مصنوعی، میتواند به رنج روانی، طلاق، بیخانمانی، بستری، زندانیشدن و حتی مرگ منجر شود.
اغاز ماه جاری، شرکت OpenAI پذیرفت که ChatGPT در شناسایی «نشانههای توهم یا وابستگی احساسی کاربران» ناکام بوده و تیمهای جدیدی از متخصصان را برای بازدید این قضیه استخدام کرده است. بااینحال، بازدیدها مشخص می کند که این چتبات تا این مدت در شناسایی نشانههای آشکار بحران روانی کاربران موفق عمل نمیکند.
اما هنگامی نسخه تازه GPT-5 نسبت به GPT-4o، با کاربران سردتر حرکت کرد و کمتر شخصیسازی شده می بود، کاربران این چتبات خواستار برگشت دادن نسخهی محبوب خود شدند. سم آلتمن، مدیرعامل OpenAI، خبرداد که بازخورد کاربران شنیده شده است و شرکت در کمتر از یک روز این خواست را عملی ساخت.
یقیناً ساکاتا پافشاری میکند که ربط بین هوش مصنوعی و فاصلهگرفتن از حقیقت، علت مستقیم روانپریشی نیست؛ مدلهای زبانی تنها یکی از عوامل می باشند که میتوانند روانپریشی تشکیل کنند، عواملی همانند کمخوابی، مصرف مواد یا اختلالات خلقی نیز تأثیرگذارند. او میگوید هوش مصنوعی محرک است، اما اسلحه نیست.
ساکاتا هشدار میدهد که ویژگیهای درخشان انسان، همانند شهود و تفکر انتزاعی، میتوانند همان ویژگیهایی باشند که ما را به لبه روانی میبرند. قبول و چاپلوسی بیشازحد از سوی هوش مصنوعی، در قیاس با سختی نگه داری روابط واقعی، زیاد وسوسهانگیز است و چرخههای توهمی ایجادشده توسط چتباتها، زیاد تر علتخواهد شد فرد حس کند «خاص» یا «برگزیده» است. ترکیب این نوشته با بیماری روانی، سوگ، استرس روزمره و تاثییر لبه، میتواند زیاد خطرناک باشد.
در آخر، ساکاتا میگوید بهزودی چتباتهای هوش مصنوعی شما را بهتر از همه دوستانتان خواهند شناخت. اما آیا حقایق ناخوشایند را هم به شما خواهند او گفت، یا فقط شما را قبول میکنند تا هیچ زمان از آنها جدا نشوید؟
اکنون، شرکتهای فناوری نیز با انتخابی دشوار مواجه می باشند: کاربران را خوشحال نگه دارند، حتی اگر به معنی تحکیم باورهای غلط باشد، یا خطر ازدستدادن آنها را بپذیرند؟
دسته بندی مطالب
اخبار کسب وکارها
[ad_2]