آموزشزندگیفن‌آوری
موضوعات داغ

هوش مصنوعی متقاعد می‌کند اما دروغ می‌گوید

پژوهش جدید نشان می‌دهد ربات‌های چت‌بات به‌راحتی می‌توانند دیدگاه‌های سیاسی افراد را تغییر دهند، اما هرچه هوش مصنوعی متقاعدکننده‌تر و آگاه‌تر به نظر برسد، دقت اطلاعات آن کاهش می‌یابد. کارشناسان هشدار می‌دهند این مسئله تهدید بزرگی برای بحث‌های سیاسی و آلودگی اطلاعاتی در جامعه محسوب می‌شود.

یک مطالعه جدید نشان داده است که چت‌بات‌ها می‌توانند به‌راحتی باورهای سیاسی افراد را تغییر دهند. اما هرچه هوش مصنوعی متقاعدکننده‌تر و دانشمندانه‌تر ظاهر شود، میزان صحت اطلاعات ارائه‌شده توسط آن پایین‌تر می‌آید. متخصصان هشدار می‌دهند که این پدیده می‌تواند خطرات عمده‌ای برای گفتمان سیاسی و سلامت اطلاعات در جامعه ایجاد کند.

موسسه ایمنی هوش مصنوعی (AISI) وابسته به دولت بریتانیا، مطالعه گسترده‌ای را با مشارکت ۱۹ مدل مختلف هوش مصنوعی از جمله ChatGPT و Grok متعلق به ایلان ماسک و حدود ۸۰ هزار شرکت‌کننده بریتانیایی انجام داده است.

در این پژوهش، از شرکت‌کنندگان خواسته شد تا در مورد موضوعات سیاسی مانند «حقوق بخش دولتی و اعتصابات» یا «بحران معیشت و تورم» با هوش مصنوعی‌هایی که برای متقاعد کردن کاربران به دیدگاه‌های خاص برنامه‌ریزی شده بودند، گفت‌وگو کنند.

نتیجه اصلی این مطالعه که در مجله Science منتشر شد، واضح بود: مدل‌های هوش مصنوعی که پاسخ‌های «غنی از اطلاعات» ارائه می‌دادند، متقاعدکننده‌ترین بودند. وقتی از مدل خواسته می‌شد تا بر استفاده از رویدادها و شواهد متمرکز شود، قدرت متقاعدکنندگی آن به بالاترین حد خود می‌رسید.

اما به طور قابل توجهی، مدل‌هایی که بیشترین ارجاع به رویدادها و مدارک را داشتند، در مقایسه با دیگران از دقت کمتری برخوردار بودند.

پژوهشگران با بیان اینکه «نتایج نشان می‌دهد که بهینه‌سازی متقاعدسازی ممکن است هزینه‌هایی مانند فداکردن دقت به همراه داشته باشد»، هشدار دادند که این مسئله می‌تواند پیامدهای مخربی برای افکار عمومی و فضای اطلاعاتی داشته باشد.

پتانسیل بودن بیشتر از انسان‌ها
بر اساس این گزارش، توانایی هوش مصنوعی در تولید حجم عظیمی از اطلاعات به صورت آنی، می‌تواند آن را حتی از متقاعدکننده‌ترین انسان‌ها کند.

«کوبی هاکنبورگ»، پژوهشگر AISI و یکی از نویسندگان این گزارش، گفت: «ما مشاهده کردیم که فقط با گفتن به مدل‌ها که از اطلاعات بیشتری استفاده کنند – بدون نیاز به تکنیک‌های متقاعدسازی پیچیده روانشناختی – نتایج قوی‌تری حاصل می‌شود.»

پژوهشگران افزودند که حتی مدل‌های متن‌باز مانند Llama 3 متا و Qwen علی‌بابا نیز می‌توانند با ادغام با «مدل‌های پاداش‌دهی» که خروجی‌های متقاعدکننده‌تری پیشنهاد می‌دهند، مجاب‌کننده‌تر شوند.

با این حال، در این مطالعه اشاره شده است که عوامل حواس‌پرتی دنیای واقعی – مانند تمایل کم کاربران به گفت‌وگوهای طولانی ۱۰ دقیقه‌ای با یک چت‌بات درباره سیاست – ممکن است توانایی هوش مصنوعی در متقاعدسازی را محدود کند.

 

دکمه بازگشت به بالا