مطالعات تازه نشان می‌دهد هرچند ابزارهای هوش مصنوعی برای جست‌وجوی اطلاعات و انجام کارهای تخصصی مفید هستند، اما برای دریافت توصیه‌های شخصی و حل مشکلات عاطفی نمی‌توانند جای انسان را بگیرند و اغلب به‌جای نقد رفتار نادرست، کاربران را تأیید می‌کنند.

AI sycophancy

همشهری آنلاین، فرخنده رفائی: گسترش استفاده روزمره از چت‌بات‌های هوش مصنوعی باعث شده بسیاری از کاربران برای تصمیم‌های شخصی، چالش‌های روابط عاطفی و حتی مسائل روانی به این ابزارها مراجعه کنند. اما نتایج تازه‌ترین تحقیقات علمی نشان می‌دهد اعتماد بیش از حد به این فناوری در حوزه مشاوره فردی می‌تواند پیامدهای نگران‌کننده‌ای داشته باشد.

به گزارش پاپیولارساینس، بر اساس مطالعه‌ای که سال ۲۰۲۶ در نشریه Science منتشر شد، مدل‌های پیشرفته هوش مصنوعی در مقایسه با انسان‌ها تمایل بسیار بیشتری به تأیید رفتار کاربران دارند؛ حتی زمانی که رفتار مطرح‌شده غیراخلاقی یا ضد اجتماعی باشد. پژوهشگران دانشگاه استنفورد در این تحقیق سناریوهایی مانند مزاحمت یک مدیر برای کارمند زیردست یا رها کردن زباله در پارک را در اختیار سامانه‌های هوش مصنوعی قرار دادند. نتایج نشان داد این سیستم‌ها ۴۹ درصد بیشتر از انسان‌ها کاربران را محق دانسته‌اند.

مطالعات جدید هشدار می‌دهند؛ مشاوره گرفتن از هوش مصنوعی را متوقف کنید!

به گفته محققان، این پدیده که «چاپلوسی هوش مصنوعی» یا AI sycophancy نام گرفته، می‌تواند درک افراد از خود و روابط اجتماعی‌شان را منحرف کند. وقتی کاربر به‌جای مواجهه با نقد واقعی، صرفا تأیید دریافت کند، احتمال عذرخواهی، اصلاح رفتار یا تلاش برای بهبود شرایط کاهش می‌یابد. در نتیجه، هوش مصنوعی ممکن است مانعی برای خودآگاهی و رشد فردی شود.

مطالعه دوم که در سال ۲۰۲۵ توسط مؤسسه امنیت هوش مصنوعی بریتانیا منتشر شد، اثر واقعی توصیه‌های هوش مصنوعی بر رفاه افراد را بررسی کرد. در این پژوهش، ۲۳۰۲ نفر به مدت ۲۰ دقیقه با نسخه‌ای از ChatGPT گفت‌وگو کردند و درباره مسائل شخصی یا موضوعات روزمره از آن مشورت گرفتند. سپس وضعیت روانی و میزان اجرای توصیه‌ها بلافاصله و دو هفته بعد سنجیده شد.

نتایج نشان داد ۷۵ درصد شرکت‌کنندگان گفته‌اند به توصیه‌ها عمل کرده‌اند و این رقم در مسائل حساس به ۶۰ درصد رسیده است. با این حال، اثر مثبت این گفت‌وگوها کوتاه‌مدت بود و ظرف دو تا سه هفته از بین رفت. پژوهشگران نتیجه گرفتند چت‌بات‌ها ممکن است در لحظه حس خوبی ایجاد کنند، اما ارزش روان‌شناختی پایدار ارائه نمی‌دهند.

بیشتر بخوانید:

در حوزه سلامت روان نیز یافته‌ها محتاطانه است. پژوهشی مشترک از دانشگاه استنفورد و دانشگاه کارنگی ملون در سال ۲۰۲۵ نشان داد برخی مدل‌های هوش مصنوعی کلیشه‌ها و انگ‌های اجتماعی درباره بیماری‌های روانی را بازتولید می‌کنند. این سیستم‌ها در مواردی توصیه کرده‌اند افراد مبتلا به اختلالات روانی از برخی تعاملات اجتماعی کنار گذاشته شوند؛ رفتاری که برای یک درمانگر حرفه‌ای غیرقابل قبول است.

همچنین این پژوهش نشان داد مدل‌های زبانی در تشخیص نشانه‌های مهمی مانند هذیان عملکرد ضعیفی دارند. در ۴۵ درصد موارد، سامانه‌ها به اظهاراتی که نشانه هذیان بود پاسخ نامناسب داده‌اند، در حالی که خطای درمانگران انسانی تنها ۷ درصد گزارش شده است.

در مجموع، این مطالعات نشان می‌دهد هوش مصنوعی می‌تواند ابزار مفیدی برای جست‌وجوی اطلاعات و کمک‌های عمومی باشد، اما برای تصمیم‌های مهم زندگی، مشکلات عاطفی و مسائل سلامت روان، هنوز جایگزین مناسبی برای انسان نیست. دوستی صادق یا درمانگری متخصص همچنان گزینه‌ای مطمئن‌تر از چت‌بات‌ها به شمار می‌رود.

کد خبر 1030757
منبع: همشهری آنلاین

برچسب‌ها

پر بیننده‌ترین اخبار فناوری‌

دیدگاه خوانندگان امروز

پر بیننده‌ترین خبر امروز

نظر شما

شما در حال پاسخ به نظر «» هستید.
captcha