هوش مصنوعی همه ما را همانند به هم میکند_آینده
به گزارش آینده
به نقل از نیچر، تعداد رو به رشدی از مقالات گزارش خواهند داد که افراد تمایل دارند الگوهای نوشتاری، راه حلهای استدلال و حتی دیدگاهها را از مدلهای زبانی بزرگی (LLM) که منفعت گیری میکنند، دریافت کنند. برخی پژوهشگران میگویند این تأثیر میتواند به نوعی یکنواختی در نوشتار انسانی منجر شود و هشدار خواهند داد که این تاثییر حتی امکان پذیر به متونی که توسط افرادی نوشته میشود که مستقیما از هوش مصنوعی منفعت گیری نمیکنند نیز سرایت کند.
ژیوار سوراتی، دانشمند علوم رایانه در دانشگاه کالیفرنیای جنوبی در لسآنجلس و یکی از نویسندگان مقالهای در این مورد استدلال میکند که مدلهای زبانی بزرگ در حال همگنسازی گفتمان انسانی می باشند و میگوید: اگر اطرافیان شما با این مدلها تعامل داشته باشند و سبک نوشتاری، دیدگاهها و روشهای استدلال آنها را بپذیرند، در نهایت این الگوها آنقدر شما را احاطه میکنند که به نظر میرسد این روش، شکل اجتماعیِ درست برای گفتن اطلاعات است.
با این حال، برخی دیگر اعتقاد دارند ذهن انسان امکان پذیر هم چنان در برابر این تاثییر هموارکننده هوش مصنوعی مقاومت کند. در یک مطالعه که در ماه نوامبر به صورت پیشچاپ در سرور arXiv انتشار شد، نویسندگان گروههایی از نویسندگان را شناسایی کردند که «نشانههای سبکی نزدیک و انسانی» خود را نگه داری میکنند و به گمان زیادً اصالت را به سود کارایی اراعه شده توسط هوش مصنوعی ترجیح خواهند داد. این مطالعه تا این مدت قضاوت همتا نشده است.
بازدید عمیقتر نوشته
در یک پیشچاپ دیگر که سال قبل در arXiv انتشار شد و تا این مدت قضاوت نشده، سوراتی و همکارانش پستهای ردیت، محتوای خبری و مطالعات پیشچاپ را پیش و بعد از راهاندازی چت جیپیتی در سال ۲۰۲۲ تحلیل کردند. گروه پژوهشی دریافت که متنهای منتشرشده بعد از اراعه این پلتفرم، از نظر سبک نوشتاری تنوع کمتری نسبت به متنهای قبل دارند.
در مقالهای تازه، نویسندگان استدلال میکنند که این اتفاق بر دیدگاهها و روشهای استدلال افراد نیز تأثیر میگذارد. آنها به یک پیشچاپ بدون قضاوت در سال ۲۰۲۳ اشاره میکنند که در آن شرکتکنندگان با مدلهای زبانیای تعامل داشتند که دیدگاههای مثبت یا منفی درمورد شبکههای اجتماعی گفتن میکردند. بعد از این روبه رو، دیدگاههای خود شرکتکنندگان به سمت دیدگاههای تولیدشده توسط مدلها تحول کرد.
اولیور هاوزر، پژوهشگر اقتصاد و هوش مصنوعی در دانشگاه اکستر بریتانیا، میگوید نویسندگان مسئله قابل قبولی نقل میکنند که افراد میتوانند از هوش مصنوعی سود ببرند و آن این است که به شما پشتیبانی میکند بهتر بنویسید و برای دیگران قابلفهمیدنتر باشید. اما او هشدار میدهد: بهمحض این که این پذیرفتن فراگیر شود، این جمع است که بیشترین صدمه را میبیند.
ورود به عرصه سیاست
در مطالعهای که به تازگی در مجله Science Advances انتشار شده، پژوهشگران دریافتند که دیدگاههای افراد درمورد مسائل اجتماعی اغاز به بازتاب دیدگاههایی میکند که از یک ابزار هوش مصنوعی دریافت کردهاند. شرکتکنندگان از دستیارهای هوش مصنوعی برای نوشتن درمورد موضوعات اجتماعی-سیاسی همانند مجازات اعدام منفعت گیری کردند. بعد از آن، نگرشهای آنها زیاد تر به آنچه مدلهای زبانی نوشته بودند در قیاس با گروه کنترل که از هوش مصنوعی منفعت گیری نکرده بودند، همانند شد.
استرلینگ ویلیامز-سسی، یکی از نویسندگان این مطالعه و دانشمند اطلاعات در دانشگاه کرنل در ایتاکا، نیویورک، میگوید این تاثییر میتواند در نهایت تنوع دیدگاههای سیاسی را نیز افت دهد. یقیناً مقدار این تأثیر به گرایشهایی بستگی دارد که مدلهای گوناگون زبانی از خود نشان خواهند داد.
مسئله مهم این است که شرکتکنندگان فهمید نشدند که تحت تأثیر چتباتها قرار گرفتهاند. حتی وقتی که به آنها حرف های شد هوش مصنوعی امکان پذیر دیدگاههایشان را سوگیرانه کند، نتایج تغییری نکرد. ویلیامز-سسی میگوید: اکنون نمیدانیم چطور میتوان از این نوشته جلوگیری کرد. و به گمان زیادً راهحل به سادگی اراعه یک هشدار ساده به کاربران نیست.
هاوزر این چنین میگوید یکنواختی تحمیل شده توسط ابزارهای هوش مصنوعی میتواند تفکر علمی را نیز محدود کند: امکان پذیر یک ایده دیوانهوار را از دست بدهیم که در ابتدا غیرمنطقی به نظر میرسد، اما در نهایت همان چیزی است که برای یک جهش علمی به آن نیاز داریم. مقالهای که در ژانویه در نیچر انتشار شد نشان داد دانشمندانی که از ابزارهای هوش مصنوعی در پژوهشهای خود منفعت گیری میکنند، نسبت به افرادی که منفعت گیری نمیکنند، تمایل دارند روی مجموعه محدودتری از حوزهها تمرکز کنند.
سبک شخصی
با این حال، همه مطالعات نشان نمیدهند که منفعت گیری از هوش مصنوعی به یکنواختی منجر میشود. مقالهای در ماه نوامبر گزارش داد که نویسندگان انسانی زمان تعامل با هوش مصنوعی به روشهای متغیری تکامل اشکار میکنند. نوشتار برخی افراد واقعاً به مدل هوش مصنوعی همانندتر میشود؛ در حالی که دیگران سبک شخصی خود را نگه داری میکنند یا حتی سبکی تشکیل میکنند که بیشتر از پیش از هوش مصنوعی نزدیک است.
مطالعاتی که نگرانیهایی درمورد از بین رفتن تنوع در نوشتار انسانی نقل کردهاند، علتتردید یون وان، پژوهشگر همکاری انسان و هوش مصنوعی در دانشگاه هیوستون-داونتاون تگزاس، شد. او میگوید: ما فکر کردیم احتمالا اینطور نباشد.
وان و همکارانش ۱۰ شخصیت هوش مصنوعی بی همتا با پیشینههای فرهنگی و سبکهای فکری متفاوت تشکیل کردند که مطرح داستانهایی تشکیل میکردند و شرکتکنندگان انسانی بر پایه آنها داستانهای خلاقانه مینوشتند. تحلیل نویسندگان که سال قبل بهصورت پیشچاپ انتشار شد و تا این مدت قضاوت نشده، نشان داد که داستانهای حاصل، سطحی از تنوع شبیه داستانهایی را داشتند که بدون پشتیبانی هوش مصنوعی نوشته شده بودند. وان میگوید به علت همین جوابهای متنوع، این شخصیتهای سفارشی میتوانند راهی برای افت یکنواختی باشند.
دسته بندی مطالب
اخبار کسب وکارها