هوش مصنوعی متقاعد میکند اما دروغ میگوید
پژوهش جدید نشان میدهد رباتهای چتبات بهراحتی میتوانند دیدگاههای سیاسی افراد را تغییر دهند، اما هرچه هوش مصنوعی متقاعدکنندهتر و آگاهتر به نظر برسد، دقت اطلاعات آن کاهش مییابد. کارشناسان هشدار میدهند این مسئله تهدید بزرگی برای بحثهای سیاسی و آلودگی اطلاعاتی در جامعه محسوب میشود.

یک مطالعه جدید نشان داده است که چتباتها میتوانند بهراحتی باورهای سیاسی افراد را تغییر دهند. اما هرچه هوش مصنوعی متقاعدکنندهتر و دانشمندانهتر ظاهر شود، میزان صحت اطلاعات ارائهشده توسط آن پایینتر میآید. متخصصان هشدار میدهند که این پدیده میتواند خطرات عمدهای برای گفتمان سیاسی و سلامت اطلاعات در جامعه ایجاد کند.
موسسه ایمنی هوش مصنوعی (AISI) وابسته به دولت بریتانیا، مطالعه گستردهای را با مشارکت ۱۹ مدل مختلف هوش مصنوعی از جمله ChatGPT و Grok متعلق به ایلان ماسک و حدود ۸۰ هزار شرکتکننده بریتانیایی انجام داده است.
در این پژوهش، از شرکتکنندگان خواسته شد تا در مورد موضوعات سیاسی مانند «حقوق بخش دولتی و اعتصابات» یا «بحران معیشت و تورم» با هوش مصنوعیهایی که برای متقاعد کردن کاربران به دیدگاههای خاص برنامهریزی شده بودند، گفتوگو کنند.
نتیجه اصلی این مطالعه که در مجله Science منتشر شد، واضح بود: مدلهای هوش مصنوعی که پاسخهای «غنی از اطلاعات» ارائه میدادند، متقاعدکنندهترین بودند. وقتی از مدل خواسته میشد تا بر استفاده از رویدادها و شواهد متمرکز شود، قدرت متقاعدکنندگی آن به بالاترین حد خود میرسید.
اما به طور قابل توجهی، مدلهایی که بیشترین ارجاع به رویدادها و مدارک را داشتند، در مقایسه با دیگران از دقت کمتری برخوردار بودند.
پژوهشگران با بیان اینکه «نتایج نشان میدهد که بهینهسازی متقاعدسازی ممکن است هزینههایی مانند فداکردن دقت به همراه داشته باشد»، هشدار دادند که این مسئله میتواند پیامدهای مخربی برای افکار عمومی و فضای اطلاعاتی داشته باشد.
پتانسیل بودن بیشتر از انسانها
بر اساس این گزارش، توانایی هوش مصنوعی در تولید حجم عظیمی از اطلاعات به صورت آنی، میتواند آن را حتی از متقاعدکنندهترین انسانها کند.
«کوبی هاکنبورگ»، پژوهشگر AISI و یکی از نویسندگان این گزارش، گفت: «ما مشاهده کردیم که فقط با گفتن به مدلها که از اطلاعات بیشتری استفاده کنند – بدون نیاز به تکنیکهای متقاعدسازی پیچیده روانشناختی – نتایج قویتری حاصل میشود.»
پژوهشگران افزودند که حتی مدلهای متنباز مانند Llama 3 متا و Qwen علیبابا نیز میتوانند با ادغام با «مدلهای پاداشدهی» که خروجیهای متقاعدکنندهتری پیشنهاد میدهند، مجابکنندهتر شوند.
با این حال، در این مطالعه اشاره شده است که عوامل حواسپرتی دنیای واقعی – مانند تمایل کم کاربران به گفتوگوهای طولانی ۱۰ دقیقهای با یک چتبات درباره سیاست – ممکن است توانایی هوش مصنوعی در متقاعدسازی را محدود کند.










