محاسبات نشان می دهد که کنترل یک هوش مصنوعی فوق هوشمند غیرممکن خواهد بود.

به گزارش همشهری آنلاین و به نقل از ساینس الرت، دهه‌ها است که از این ایده که هوش مصنوعی که بشر را نابود می‌کند صحبت می‌شود و برنامه‌هایی مانند چت جی‌پی‌تی این نگرانی‌ها را تجدید کرده است.

بنابراین چقدر احتمال دارد که بتوانیم ابر هوش کامپیوتری سطح بالا را کنترل کنیم؟ دانشمندان می‌گویند که چنین چیزی ممکن نیست. نکته مهم این است که کنترل یک ابر هوش بسیار فراتر از درک انسان نیازمند شبیه‌سازی آن ابر هوش است که ما می‌توانیم آن را تحلیل کنیم، اما اگر ما قادر به درک آن نباشیم، ایجاد چنین شبیه‌سازی غیرممکن است.

به گفته نویسندگان مقاله، اگر ما نوع سناریوهایی را که یک هوش مصنوعی قرار است ایجاد کند، درک نکنیم، نمی‌توان قوانینی مانند «هوش مصنوعی نباید به انسان‌ها آسیب برساند» تنظیم کرد. هنگامی که یک سیستم کامپیوتری در سطحی بالاتر از محدوده برنامه‌نویسان ما کار می‌کند، دیگر نمی‌توان محدودیت‌ها را تعیین کرد. 

محققان در سال ۲۰۲۱ نوشتند: «یک ابرهوش کامپیوتری مشکلی از اساس متفاوت با آنچه که معمولا تحت عنوان «اخلاق روبات» مورد مطالعه قرار می‌گیرد، ایجاد می‌کند. این به این دلیل است که یک ابرهوش چندوجهی است، و بنابراین به طور بالقوه قادر به جمع‌آوری منابع متنوعی برای دستیابی به اهدافی است که برای انسان غیرقابل درک است، چه رسد به اینکه قابل کنترل باشد.

بخشی از استدلال تیم از مسئله توقف ارائه شده توسط آلن تورینگ در سال ۱۹۳۶ ناشی می شود. یعنی آیا ما می‌توانیم بفهمیم یک برنامه کامپیوتری به نتیجه و پاسخ می‌رسد (متوقف می‌شود) و یا اینکه برای همیشه در تلاش برای یافتن پاسخ در یک حلقه‌ ابدی باقی می‌ماند. 

برای مثال، هر برنامه‌ای که برای جلوگیری از آسیب رساندن هوش مصنوعی به انسان‌ها و نابودی جهان نوشته شده باشد، ممکن است به نتیجه برسد (و متوقف شود) یا خیر. در هر صورت از نظر ریاضی غیرممکن است که  کاملا مطمئن باشیم و این یعنی قابل کنترل نیست.

در اوایل سال جاری، غول‌های فناوری از جمله ایلان ماسک و استیو وزنیاک، بنیانگذار اپل، نامه‌ای سرگشاده امضا کردند و از بشریت خواستند که کار روی هوش مصنوعی را حداقل به مدت ۶ ماه متوقف کنند تا ایمنی آن بررسی شود.

این تحقیق در ژانویه ۲۰۲۱ در مجله تحقیقات هوش مصنوعی منتشر شد.

منبع: همشهری آنلاین

برچسب‌ها