آیا هوش مصنوعی جای روانشناس ها را میگیرد؟_آینده
به گزارش آینده
در آزمایش تازه، حتی وقتی که شرکت کنندگان میدانستند با یک انسان یا هوش مصنوعی سخن بگویید میکنند، ارزیابان جدا گانه جوابهای هوش مصنوعی را بالاتر برسی کردند.
مطابق این مطالعه تازه در علوم پزشکی و سلامت، مردم جوابهای هوش مصنوعی (AI) را دلسوزانه و فهمیدهتر از جوابهای متخصصان سلامت روان انسانی میدانند. این یافته بار دیگر مشخص می کند که هوش مصنوعی میتواند در عرصههایی که زمانها فکر میشد تنها افراد با توانایی مشترک در آنها موفق می باشند، کارکرد بهتری از انسانها نشان دهد.
هوش مصنوعی، دلسوزتر از روانشناسها
مطالعه تازه ۱۰ ژانویه در مجله Communications Psychology انتشار شد. در این پژوهش دانشمندان مجموعهای از چهار آزمایش را به اجرا درآوردند تا بازدید کنند که ۵۵۰ شرکت کننده چطور جوابهای همدلانه را از نظر دلسوزی و عکس العملپذیری، بین هوش مصنوعی و روانشناسها برسی میکنند. به طور خاص، شرکت کنندگان اطلاعاتی درمورد ازمایش ها شخصی خود اراعه کردند و سپس جوابها را از نظر دلسوزی، عکس العمل پذیری و ترجیح کلی مورد برسی قرار دادند.
آزمایشها نشان دادند که جوابهای هوش مصنوعی دلسوزانهتر از جوابهای روانشناسها در مقابله با بحران در نظر گرفته شدند. حتی وقتی که نویسنده جوابها برای شرکت کنندگان اشکار شده می بود، باز هم ترجیح آنها به سوی هوش مصنوعی پررنگتر دیده میشد.
محققان در این مطالعه نوشتند:نتایج مشخص می کند که هوش مصنوعی میتواند در عرصههایی که نیاز به تعامل همدلانه دارند، با پتانسیل پاسخگویی به نیاز فزاینده به همدلی در ارتباطات حمایتی سودمند باشد.
به طور میانگین، جوابهای تشکیل شده توسط هوش مصنوعی ۱۶٪ دلسوزتر از جوابهای انسانی برسی شدند و در ۶۸٪ اوقات ترجیح داده شدند؛ حتی در قیاس با جوابهای متخصصان آموزشدیده مدیریت بحران!
دارییا اووسیانیکووا، نویسنده مهم مطالعه و مدیر آزمایشگاه در دانشکده روانشناسی دانشگاه تورنتو، پیروزی هوش مصنوعی را به توانایی آن در شناسایی جزئیات ظریف و نگه داری عینیت زمان توصیف ازمایش ها بحرانی نسبت داد. این ویژگی علتشد که هوش مصنوعی بتواند ربط دقیقتر و دقتآمیزتر تشکیل کند تا علتالقای حس همدلی در افراد شود.
در عین حال، او اضافه کرد که کارکرد ضعیفتر انسانها (روانشناسها) امکان پذیر به این علت باشد که جواب دهندگان انسانی در معرض خستگی و فرسودگی شغلی قرار دارند.
یافتههای پژوهش درمورد ترجیح AI به روانشناسها
وبسایت خبرگزاری علمی Live Science از النور واتسون، عضو IEEE، مهندس اخلاق هوش مصنوعی و استاد AI در دانشگاه سینگولاریتی سوال کرد که این یافته چه معنایی برای آینده تعامل های انسان و هوش مصنوعی دارد و چطور بر او گفت و گو مداوم در رابطه این که کدام مشاغل نباید یا نمی توانند توسط هوش مصنوعی جانشین شوند، به اختصاصی در مواردی که فهمیدن و مداخله انسانی حیاتی به نظر میرسد، تأثیر میگذارد.
واتسون این یافته را «شگفتانگیز» توصیف کرد؛ اما او گفت که چندان هم غافلگیر نشده است. او به خبرگزاری او گفت:
هوش مصنوعی قطعا میتواند جوابهای حمایتی را با ثباتی دیدنی و همدلی ظاهری مدل سازی کند. چیزی که انسانها به علت خستگی و تعصبات شناختی در نگه داری آن دچار مشکل خواهد شد.
او افزود:متخصصان اعصاب و روانشناسها با توانایی بالینی مستقیم و محدودیتهای شناختی خود روبه رواند. اما مقیاس دادههایی که هوش مصنوعی میتواند پردازش کند، معادله حمایتدرمانی را به طور اساسی تحول میدهد. این چنین میتواند به بیماران این امکان را بدهد که دیدگاهها یا رویکردهایی را کشف کنند که درمانگرشان در آنها آموزش ندیده است.
دسترسی به مراقبتهای سلامت روان
در سطح جهانی، مراقبتهای سلامت روان در بحران قرار دارد و این مطالعه مشخص می کند که هوش مصنوعی میتواند شکافهای حاضر را پر کند. بر پایه گزارش سازمان بهداشت جهانی (WHO) بیشتر از دو سوم افراد مبتلا به مشکلات سلامت روان، مراقبتهای ملزوم را دریافت نمیکنند. در کشورهای کم درآمد و با درآمد متوسط، این رقم به ۸۵٪ میرسد.
النور واتسون اشاره کرد که دسترسی آسانتر به هوش مصنوعی در قیاس با درمانگران انسانی میتواند آن را به ابزاری سودمند برای اراعه خدمات سلامت روان تبدیل کند. او او گفت:
در دسترس بودن ماشینها یک مزیت مهم است. به اختصاصی در قیاس با متخصصان گران قیمتی که زمان محدودی برای بیماران دارند.
او افزود:این چنین تعداد بسیاری از افراد زمان سخن بگویید با یک ماشین، به خصوص در رابطه موضوعات حساس حس راحتی بیشتری میکنند. در این شرایط، هراس از قضاوت یا افشای اطلاعات شخصی افت مییابد.
اما فهمیدن جوابهای هوش مصنوعی بهگفتن همدلانهتر، بدون خطر نیست. النور واتسون نسبت به اتفاق محرک فوق طبیعی (Supernormal Stimulus) هشدار داد. مفهومی که به تمایل انسان برای عکس العمل شدیدتر به نسخهای اغراق شده از یک محرک اشاره دارد.
نتیجهگیری پژوهش
واتسون او گفت:هوش مصنوعی آنقدر دلنشین است که ما را مسحور خود میکند. این تکنولوژی میتواند بازیگوش، عمیق، روشنگر، سرگرم کننده، تحریک کننده، صبور و همیشه در دسترس باشد. تا حدی که هیچ انسان واقعی توان رقابت با آن را نداشته باشد.
محتوای مربوط به سلامت روان، چالشهای حریم خصوصی مرتبط با هوش مصنوعی را نیز تشدید میکند. النور واتسون اصرار کرد:
پیامدهای حریم خصوصی در این عرصه زیاد جدی می باشند. دسترسی به عمیقترین صدمه پذیریها و چالشهای افراد، آنها را در برابر انواع حملات و تضعیف روحیه صدمه پذیر میکند. برای جلوگیری از سو منفعت گیری توسط افراد و سازمانهای مخرب، مدیریت دقیق سیستمها و نظارت بر سازمانهای پشت این فناوری الزامی است.
دسته بندی مطالب
اخبار کسب وکارها