هوش مصنوعی همه ما را شبیه به هم می‌کند

هوش مصنوعی همه ما را همانند به هم می‌کند_آینده


به گزارش آینده

به نقل از نیچر، تعداد رو به رشدی از مقالات گزارش خواهند داد که افراد تمایل دارند الگوهای نوشتاری، راه حلهای استدلال و حتی دیدگاه‌ها را از مدل‌های زبانی بزرگی (LLM) که منفعت گیری می‌کنند، دریافت کنند. برخی پژوهشگران می‌گویند این تأثیر می‌تواند به نوعی یکنواختی در نوشتار انسانی منجر شود و هشدار خواهند داد که این تاثییر حتی امکان پذیر به متونی که توسط افرادی نوشته می‌شود که مستقیما از هوش مصنوعی منفعت گیری نمی‌کنند نیز سرایت کند.

ژیوار سوراتی، دانشمند علوم رایانه در دانشگاه کالیفرنیای جنوبی در لس‌آنجلس و یکی از نویسندگان مقاله‌ای در این مورد استدلال می‌کند که مدل‌های زبانی بزرگ در حال همگن‌سازی گفتمان انسانی می باشند و می‌گوید: اگر اطرافیان شما با این مدل‌ها تعامل داشته باشند و سبک نوشتاری، دیدگاه‌ها و روشهای استدلال آن‌ها را بپذیرند، در نهایت این الگوها آن‌قدر شما را احاطه می‌کنند که به نظر می‌رسد این روش، شکل اجتماعیِ درست برای گفتن اطلاعات است.

با این حال، برخی دیگر اعتقاد دارند ذهن انسان امکان پذیر هم چنان در برابر این تاثییر هموارکننده هوش مصنوعی مقاومت کند. در یک مطالعه که در ماه نوامبر به ‌صورت پیش‌چاپ در سرور arXiv انتشار شد، نویسندگان گروه‌هایی از نویسندگان را شناسایی کردند که «نشانه‌های سبکی نزدیک و انسانی» خود را نگه داری می‌کنند و به گمان زیادً اصالت را به سود کارایی اراعه ‌شده توسط هوش مصنوعی ترجیح خواهند داد. این مطالعه تا این مدت قضاوت همتا نشده است.

بازدید عمیق‌تر نوشته

در یک پیش‌چاپ دیگر که سال قبل در arXiv انتشار شد و تا این مدت قضاوت نشده، سوراتی و همکارانش پست‌های ردیت، محتوای خبری و مطالعات پیش‌چاپ را پیش و بعد از راه‌اندازی چت جی‌پی‌تی در سال ۲۰۲۲ تحلیل کردند. گروه پژوهشی دریافت که متن‌های منتشرشده بعد از اراعه این پلتفرم، از نظر سبک نوشتاری تنوع کمتری نسبت به متن‌های قبل دارند.

در مقاله‌ای تازه، نویسندگان استدلال می‌کنند که این اتفاق بر دیدگاه‌ها و روشهای استدلال افراد نیز تأثیر می‌گذارد. آن‌ها به یک پیش‌چاپ بدون قضاوت در سال ۲۰۲۳ اشاره می‌کنند که در آن شرکت‌کنندگان با مدل‌های زبانی‌ای تعامل داشتند که دیدگاه‌های مثبت یا منفی درمورد شبکه‌های اجتماعی گفتن می‌کردند. بعد از این روبه رو، دیدگاه‌های خود شرکت‌کنندگان به سمت دیدگاه‌های تولیدشده توسط مدل‌ها تحول کرد.

اولیور هاوزر، پژوهشگر اقتصاد و هوش مصنوعی در دانشگاه اکستر بریتانیا، می‌گوید نویسندگان مسئله قابل قبولی نقل می‌کنند که افراد می‌توانند از هوش مصنوعی سود ببرند و آن این است که به شما پشتیبانی می‌کند بهتر بنویسید و برای دیگران قابل‌فهمیدن‌تر باشید. اما او هشدار می‌دهد: به‌محض این که این پذیرفتن فراگیر شود، این جمع است که بیشترین صدمه را می‌بیند.

ورود به عرصه سیاست

در مطالعه‌ای که به تازگی در مجله Science Advances انتشار شده، پژوهشگران دریافتند که دیدگاه‌های افراد درمورد مسائل اجتماعی اغاز به بازتاب دیدگاه‌هایی می‌کند که از یک ابزار هوش مصنوعی دریافت کرده‌اند. شرکت‌کنندگان از دستیارهای هوش مصنوعی برای نوشتن درمورد موضوعات اجتماعی-سیاسی همانند مجازات اعدام منفعت گیری کردند. بعد از آن، نگرش‌های آن‌ها زیاد تر به آنچه مدل‌های زبانی نوشته بودند در قیاس با گروه کنترل که از هوش مصنوعی منفعت گیری نکرده بودند، همانند شد.

تازه‌ترین اخبار و تحلیل‌ها درباره انتخابات، سیاست، اقتصاد، ورزش، حوادث، فرهنگ وهنر و گردشگری را در آینده دنبال کنید.

استرلینگ ویلیامز-سسی، یکی از نویسندگان این مطالعه و دانشمند اطلاعات در دانشگاه کرنل در ایتاکا، نیویورک، می‌گوید این تاثییر می‌تواند در نهایت تنوع دیدگاه‌های سیاسی را نیز افت دهد. یقیناً مقدار این تأثیر به گرایش‌هایی بستگی دارد که مدل‌های گوناگون زبانی از خود نشان خواهند داد.

مسئله مهم این است که شرکت‌کنندگان فهمید نشدند که تحت تأثیر چت‌بات‌ها قرار گرفته‌اند. حتی وقتی که به آن‌ها حرف های شد هوش مصنوعی امکان پذیر دیدگاه‌هایشان را سوگیرانه کند، نتایج تغییری نکرد. ویلیامز-سسی می‌گوید: اکنون نمی‌دانیم چطور می‌توان از این نوشته جلوگیری کرد. و به گمان زیادً راه‌حل به سادگی اراعه یک هشدار ساده به کاربران نیست.

هاوزر این چنین می‌گوید یکنواختی تحمیل ‌شده توسط ابزارهای هوش مصنوعی می‌تواند تفکر علمی را نیز محدود کند: امکان پذیر یک ایده دیوانه‌وار را از دست بدهیم که در ابتدا غیرمنطقی به نظر می‌رسد، اما در نهایت همان چیزی است که برای یک جهش علمی به آن نیاز داریم. مقاله‌ای که در ژانویه در نیچر انتشار شد نشان داد دانشمندانی که از ابزارهای هوش مصنوعی در پژوهش‌های خود منفعت گیری می‌کنند، نسبت به افرادی که منفعت گیری نمی‌کنند، تمایل دارند روی مجموعه محدودتری از حوزه‌ها تمرکز کنند.

سبک شخصی

با این حال، همه مطالعات نشان نمی‌دهند که منفعت گیری از هوش مصنوعی به یکنواختی منجر می‌شود. مقاله‌ای در ماه نوامبر گزارش داد که نویسندگان انسانی زمان تعامل با هوش مصنوعی به روشهای متغیری تکامل اشکار می‌کنند. نوشتار برخی افراد واقعاً به مدل هوش مصنوعی همانند‌تر می‌شود؛ در حالی که دیگران سبک شخصی خود را نگه داری می‌کنند یا حتی سبکی تشکیل می‌کنند که بیشتر از پیش از هوش مصنوعی نزدیک است.

مطالعاتی که نگرانی‌هایی درمورد از بین رفتن تنوع در نوشتار انسانی نقل کرده‌اند، علتتردید یون وان، پژوهشگر همکاری انسان و هوش مصنوعی در دانشگاه هیوستون-داون‌تاون تگزاس، شد. او می‌گوید: ما فکر کردیم احتمالا این‌طور نباشد.

وان و همکارانش ۱۰ شخصیت هوش مصنوعی بی همتا با پیشینه‌های فرهنگی و سبک‌های فکری متفاوت تشکیل کردند که مطرح داستان‌هایی تشکیل می‌کردند و شرکت‌کنندگان انسانی بر پایه آن‌ها داستان‌های خلاقانه می‌نوشتند. تحلیل نویسندگان که سال قبل به‌صورت پیش‌چاپ انتشار شد و تا این مدت قضاوت نشده، نشان داد که داستان‌های حاصل، سطحی از تنوع شبیه داستان‌هایی را داشتند که بدون پشتیبانی هوش مصنوعی نوشته شده بودند. وان می‌گوید به علت همین جواب‌های متنوع، این شخصیت‌های سفارشی می‌توانند راهی برای افت یکنواختی باشند.

دسته بندی مطالب
اخبار کسب وکارها

خبرهای ورزشی

خبرهای اقتصادی

اخبار فرهنگی

اخبار تکنولوژی

اخبار پزشکی