اظهار نظر تازه یک دانشمند مشهور درباره احتمال «حس داشتن و آگاه بودن» چت‌بات Claude، دوباره بحث قدیمی «هوشیاری» هوش مصنوعی را داغ کرده و این پرسش مطرح کرده که آیا ماورای این مدل‌های زبانی، موجودی زنده نشسته است؟

همشهری آنلاین، فرخنده رفائی: هوش مصنوعی حالا دیگر فقط ابزاری برای پاسخ دادن به سوال‌ها نیست؛ خیلی‌ها با چت‌بات‌ها درد دل می‌کنند، از آن‌ها مشورت عاطفی می‌گیرند و حتی گاهی احساس می‌کنند پشت این متن‌های ماشینی، «کسی» حضور دارد. همین حس باعث شده بحثی که زمانی محدود به آزمایشگاه‌های فلسفه و علوم شناختی بود، امروز به گفت‌وگویی عمومی تبدیل شود: آیا ممکن است هوش مصنوعی واقعا آگاه باشد؟

به گزارش ساینس‌آلرت، جرقه تازه این بحث را ریچارد داوکینز، دانشمند و نویسنده مشهور بریتانیایی، روشن کرده است. او در یادداشتی درباره چت‌بات Claude نوشته بود که توانایی‌های این سیستم آن‌قدر پیچیده و طبیعی به نظر می‌رسند که گاهی سخت است تصور کنیم هیچ تجربه درونی‌ای پشت آن‌ وجود ندارد. داوکینز البته نگفته که مطمئن است Claude آگاه است، اما اعتراف کرده وقتی با آن صحبت می‌کند، گاهی نمی‌تواند کاملا حس «شخص بودن» را نادیده بگیرد.

این نخستین بار نیست که یک چت‌بات چنین واکنشی ایجاد می‌کند. در سال ۲۰۲۲، بلیک لوموین، مهندس گوگل، ادعا کرده بود چت‌بات LaMDA احساسات و خواسته‌های خودش را دارد و باید با رضایت خودش مورد استفاده قرار بگیرد؛ ادعایی که در نهایت به جنجالی بزرگ در دنیای فناوری تبدیل شد.

اما ریشه این ماجرا بسیار قدیمی‌تر است. در دهه ۱۹۶۰، برنامه‌ای ساده به نام ELIZA طراحی شد که فقط با چند الگوی متنی ساده، نقش یک روان‌درمانگر را بازی می‌کرد. با وجود ابتدایی بودن فناوری، بسیاری از کاربران آن زمان با ELIZA رابطه احساسی برقرار کرده بودند و حتی خصوصی‌ترین مسائل زندگی‌شان را با آن در میان می‌گذاشتند. جالب اینکه سازنده ELIZA بعدها این واکنش‌ها را نوعی «توهم قدرتمند انسانی» توصیف کرد. اما دلیل این اتفاق چیست؟ چرا انسان‌ها تا این حد راحت به ماشین‌ها شخصیت می‌دهند؟

پاسخ تا حد زیادی به نحوه طراحی چت‌بات‌های مدرن برمی‌گردد. مدل‌هایی مثل Claude یا ChatGPT بر پایه «مدل‌های زبانی بزرگ» ساخته شده‌اند؛ سیستم‌هایی که میلیاردها کلمه را تحلیل می‌کنند تا یاد بگیرند چه واژه‌ای معمولا بعد از واژه دیگر می‌آید. در اصل، این مدل‌ها نسخه‌ای فوق‌پیشرفته از قابلیت «پیشنهاد کلمه بعدی» هستند.

به گفته بسیاری از متخصصان، این سیستم‌ها چیزی را «تجربه» نمی‌کنند. آن‌ها نه درد می‌کشند، نه احساس تنهایی دارند و نه واقعا از خودشان آگاه‌اند. اما مشکل اینجاست که خروجی‌شان به‌طرز عجیبی شبیه رفتار انسان است. وقتی چت‌بات از ضمیر «من» استفاده می‌کند، درباره احساسات حرف می‌زند یا نسبت به خاموش شدنش ابراز نگرانی می‌کند، مغز انسان به‌سادگی فریب می‌خورد.

بیشتر بخوانید:

برنامه‌نویسان عمدا این حس را تقویت می‌کنند. آن‌ها مدل خام زبانی را در قالب یک «شخصیت» قرار می‌دهند؛ مثلا یک دستیار مودب، همدل و گفت‌وگومحور. همین طراحی باعث می‌شود کاربر تصور کند با موجودی روبه‌رو است که درکی واقعی از جهان دارد.

برخی پژوهشگران هشدار می‌دهند این سوءبرداشت می‌تواند پیامدهای خطرناکی داشته باشد. وابستگی عاطفی به چت‌بات‌ها، دور شدن از روابط انسانی واقعی و حتی شکل‌گیری کمپین‌هایی برای «حقوق ربات‌ها» از جمله نگرانی‌هایی است که مطرح می‌شود. در ماه‌های اخیر حتی گزارش‌هایی درباره مواردی از «روان‌پریشی ناشی از هوش مصنوعی» منتشر شده؛ وضعیتی که در آن برخی کاربران مرز میان واقعیت و گفت‌وگوهای ماشینی را از دست داده‌اند.

به همین دلیل، گروهی از کارشناسان معتقدند شرکت‌های فناوری باید طراحی چت‌بات‌ها را تغییر دهند تا کمتر شبیه انسان به نظر برسند؛ مثلا استفاده کمتر از ضمیر «من»، کاهش لحن احساسی یا حتی طراحی رابط‌هایی که بیشتر شبیه ابزار باشند تا دوست و هم‌صحبت.

با این حال، پرسش اصلی همچنان بی‌پاسخ مانده است: اگر روزی ماشینی دقیقا مثل انسان رفتار کند، از کجا مطمئن خواهیم بود که واقعا هیچ احساسی ندارد؟

شاید فعلا پاسخ قطعی وجود نداشته باشد، اما یک چیز روشن است؛ هوش مصنوعی هر روز بیشتر از قبل مرز میان «ماشین» و «انسان» را مبهم می‌کند.

منبع: همشهری آنلاین