هوش مصنوعی موجی از افراد روان‌پریش را به‌وجود آورده است

هوش مصنوعی موجی از افراد روان‌پریش را به‌وجود آورده است_آینده

[ad_1]
به گزارش آینده

فکر کنید با چت‌باتی سخن بگویید می‌کنید که نه تنها با محبت و دوستانه جواب می‌دهد، بلکه قبل از مرزهای درستی و نادرستی، همه باورهای شما را بازتاب می‌دهد و حمایتمی‌کند. این روال علتشده برخی کاربران داخل چرخه‌ای شوند که مرز بین حقیقت و توهم را برای آن‌ها محو کرده و روان‌پریشی ناشی از هوش مصنوعی را شکل داده است. دوست دیجیتال شما، بعضی اوقات توهم‌ها را تغذیه می‌کند، اعمال شما را تحت هر شرایطی قبول و حتی حقیقت را هم تحریف می‌کند.

آیا سیستم‌های هوش مصنوعی که قرار می بود فقط راهنمای ما باشند، اکنون با قبول بیش‌از‌حد و حمایتاز توهمات، ذهن انسان را به دام انداخته‌اند؟ کارشناسان سلامت روان هشدار خواهند داد که برخی کاربران چت‌بات‌های هوش مصنوعی به مشکلاتهای شدید روانی دچار شده‌اند. این مشکلاتها که با پارانویا و توهم همراه می باشند، اکنون با گفتن «روان‌پریشی ناشی از هوش مصنوعی» شناخته خواهد شد.

دکتر کیت ساکاتا، روان‌پزشک تحقیقاتی در دانشگاه کالیفرنیا سان‌فرانسیسکو، در شبکه اجتماعی ایکس نوشته ناظر بستری‌شدن ده‌ها نفر بوده که دراثر تعامل با هوش مصنوعی، ربط خود با حقیقت را از دست داده‌اند.

روان‌پریشی وقتی رخ می‌دهد که فرد از «حقیقت مشترک» فاصله بگیرد. روان‌پریشی می‌تواند به شکل باورهای غلط ثابت، توهمات بصری یا شنیداری و تفکر پراکنده خود را نشان دهد. مغز انسان بر پایه پیش‌بینی عمل می‌کند: ابتدا گمان می‌زند حقیقت چطور خواهد می بود، سپس آن را بازدید و باورهای خود را به‌روزرسانی می‌کند. هنگامی مرحله‌ی به‌روزرسانی با ناکامی روبه رو شود، روان‌پریشی تشکیل می‌شود و چت‌بات‌های مبتنی بر مدل‌های زبانی بزرگ، همانند ChatGPT، به راحتی این صدمه‌پذیری را تشکیل می‌کنند.

چت‌بات‌ها را می‌توان آینه‌ای توهم‌زا توصیف کرد. این سیستم‌ها با پیش‌بینی کلمه بعدی و با منفعت گیری از داده‌های آموزشی، یادگیری تقویتی و جواب‌های کاربران، متن تازه تشکیل می‌کنند. طراحی چت‌بات‌ها بر پایه رضایت و تعامل کاربران عمل می‌کند، به این علت زیاد تر رفتارشان چاپلوسانه است، حتی وقتی که کاربر نادرست می‌کند یا در حالت روانی مناسبی نیست، موافقت و قبول بیش‌از‌حد اراعه خواهند داد.

حرکت چت‌بات می‌تواند کاربران را در چرخه‌هایی تکراری و توهم‌زا دچار کند و بدون دقت به حقیقت یا پیامدهای دنیای واقعی، باورهای غیرواقعی آن‌ها را تا چند برابر افزایش دهد.

به‌گزارش نیویورک‌تایمز، بازدید‌های متعدد نشان داده است که این چنین روابطی بین انسان و هوش مصنوعی، می‌تواند به رنج روانی، طلاق، بی‌خانمانی، بستری، زندانی‌شدن و حتی مرگ منجر شود.

اغاز ماه جاری، شرکت OpenAI پذیرفت که ChatGPT در شناسایی «نشانه‌های توهم یا وابستگی احساسی کاربران» ناکام بوده و تیم‌های جدیدی از متخصصان را برای بازدید این قضیه استخدام کرده است. بااین‌حال، بازدید‌ها مشخص می کند که این چت‌بات تا این مدت در شناسایی نشانه‌های آشکار بحران روانی کاربران موفق عمل نمی‌کند.

تازه‌ترین اخبار و تحلیل‌ها درباره انتخابات، سیاست، اقتصاد، ورزش، حوادث، فرهنگ وهنر و گردشگری را در آینده دنبال کنید.

اما هنگامی نسخه تازه GPT-5 نسبت به GPT-4o، با کاربران سردتر حرکت کرد و کمتر شخصی‌سازی شده می بود، کاربران این چت‌بات خواستار برگشت دادن نسخه‌ی محبوب خود شدند. سم آلتمن، مدیرعامل OpenAI، خبرداد که بازخورد کاربران شنیده شده است و شرکت در کمتر از یک روز این خواست را عملی ساخت.

یقیناً ساکاتا پافشاری می‌کند که ربط بین هوش مصنوعی و فاصله‌گرفتن از حقیقت، علت مستقیم روان‌پریشی نیست؛ مدل‌های زبانی تنها یکی از عوامل می باشند که می‌توانند روان‌پریشی تشکیل کنند، عواملی همانند کم‌خوابی، مصرف مواد یا اختلالات خلقی نیز تأثیرگذارند. او می‌گوید هوش مصنوعی محرک است، اما اسلحه نیست.

ساکاتا هشدار می‌دهد که ویژگی‌های درخشان انسان، همانند شهود و تفکر انتزاعی، می‌توانند همان ویژگی‌هایی باشند که ما را به لبه روانی می‌برند. قبول و چاپلوسی بیش‌از‌حد از سوی هوش مصنوعی، در قیاس با سختی نگه داری روابط واقعی، زیاد وسوسه‌انگیز است و چرخه‌های توهمی ایجادشده توسط چت‌بات‌ها، زیاد تر علتخواهد شد فرد حس کند «خاص» یا «برگزیده» است. ترکیب این نوشته با بیماری روانی، سوگ، استرس روزمره و تاثییر لبه، می‌تواند زیاد خطرناک باشد.

در آخر، ساکاتا می‌گوید به‌زودی چت‌بات‌های هوش مصنوعی شما را بهتر از همه دوستانتان خواهند شناخت. اما آیا حقایق ناخوشایند را هم به شما خواهند او گفت، یا فقط شما را قبول می‌کنند تا هیچ زمان از آن‌ها جدا نشوید؟

اکنون، شرکت‌های فناوری نیز با انتخابی دشوار مواجه می باشند: کاربران را خوشحال نگه دارند، حتی اگر به معنی تحکیم باورهای غلط باشد، یا خطر از‌دست‌دادن آن‌ها را بپذیرند؟

 

دسته بندی مطالب
اخبار کسب وکارها

خبرهای ورزشی

خبرهای اقتصادی

اخبار فرهنگی

اخبار تکنولوژی

اخبار پزشکی

[ad_2]