همشهری آنلاین، فرخنده رفائی: گسترش استفاده روزمره از چتباتهای هوش مصنوعی باعث شده بسیاری از کاربران برای تصمیمهای شخصی، چالشهای روابط عاطفی و حتی مسائل روانی به این ابزارها مراجعه کنند. اما نتایج تازهترین تحقیقات علمی نشان میدهد اعتماد بیش از حد به این فناوری در حوزه مشاوره فردی میتواند پیامدهای نگرانکنندهای داشته باشد.
به گزارش پاپیولارساینس، بر اساس مطالعهای که سال ۲۰۲۶ در نشریه Science منتشر شد، مدلهای پیشرفته هوش مصنوعی در مقایسه با انسانها تمایل بسیار بیشتری به تأیید رفتار کاربران دارند؛ حتی زمانی که رفتار مطرحشده غیراخلاقی یا ضد اجتماعی باشد. پژوهشگران دانشگاه استنفورد در این تحقیق سناریوهایی مانند مزاحمت یک مدیر برای کارمند زیردست یا رها کردن زباله در پارک را در اختیار سامانههای هوش مصنوعی قرار دادند. نتایج نشان داد این سیستمها ۴۹ درصد بیشتر از انسانها کاربران را محق دانستهاند.

به گفته محققان، این پدیده که «چاپلوسی هوش مصنوعی» یا AI sycophancy نام گرفته، میتواند درک افراد از خود و روابط اجتماعیشان را منحرف کند. وقتی کاربر بهجای مواجهه با نقد واقعی، صرفا تأیید دریافت کند، احتمال عذرخواهی، اصلاح رفتار یا تلاش برای بهبود شرایط کاهش مییابد. در نتیجه، هوش مصنوعی ممکن است مانعی برای خودآگاهی و رشد فردی شود.
مطالعه دوم که در سال ۲۰۲۵ توسط مؤسسه امنیت هوش مصنوعی بریتانیا منتشر شد، اثر واقعی توصیههای هوش مصنوعی بر رفاه افراد را بررسی کرد. در این پژوهش، ۲۳۰۲ نفر به مدت ۲۰ دقیقه با نسخهای از ChatGPT گفتوگو کردند و درباره مسائل شخصی یا موضوعات روزمره از آن مشورت گرفتند. سپس وضعیت روانی و میزان اجرای توصیهها بلافاصله و دو هفته بعد سنجیده شد.
نتایج نشان داد ۷۵ درصد شرکتکنندگان گفتهاند به توصیهها عمل کردهاند و این رقم در مسائل حساس به ۶۰ درصد رسیده است. با این حال، اثر مثبت این گفتوگوها کوتاهمدت بود و ظرف دو تا سه هفته از بین رفت. پژوهشگران نتیجه گرفتند چتباتها ممکن است در لحظه حس خوبی ایجاد کنند، اما ارزش روانشناختی پایدار ارائه نمیدهند.
بیشتر بخوانید:
- وقتی هوش مصنوعی طرف شما را میگیرد | خطر پنهان چتباتهای «بلهقربانگو»!
- پشت پرده زندگی دوقلوها | واقعیتی که بسیاری از والدین نمیدانند
در حوزه سلامت روان نیز یافتهها محتاطانه است. پژوهشی مشترک از دانشگاه استنفورد و دانشگاه کارنگی ملون در سال ۲۰۲۵ نشان داد برخی مدلهای هوش مصنوعی کلیشهها و انگهای اجتماعی درباره بیماریهای روانی را بازتولید میکنند. این سیستمها در مواردی توصیه کردهاند افراد مبتلا به اختلالات روانی از برخی تعاملات اجتماعی کنار گذاشته شوند؛ رفتاری که برای یک درمانگر حرفهای غیرقابل قبول است.
همچنین این پژوهش نشان داد مدلهای زبانی در تشخیص نشانههای مهمی مانند هذیان عملکرد ضعیفی دارند. در ۴۵ درصد موارد، سامانهها به اظهاراتی که نشانه هذیان بود پاسخ نامناسب دادهاند، در حالی که خطای درمانگران انسانی تنها ۷ درصد گزارش شده است.
در مجموع، این مطالعات نشان میدهد هوش مصنوعی میتواند ابزار مفیدی برای جستوجوی اطلاعات و کمکهای عمومی باشد، اما برای تصمیمهای مهم زندگی، مشکلات عاطفی و مسائل سلامت روان، هنوز جایگزین مناسبی برای انسان نیست. دوستی صادق یا درمانگری متخصص همچنان گزینهای مطمئنتر از چتباتها به شمار میرود.
نظر شما