همشهری آنلاین: موسسه حیات آینده نامه‌ای سرگشاده را که هزار نفر از محققان روباتیک و هوش مصنوعی آن را امضا کرده‌اند، منتشر کرده و در آن از سازمان ملل متحد درخواست کرده مانع از تولید هوش مصنوعی مسلح با قابلیت کشتار انسان‌ها شود.

براساس گزارش گيزمگ، اين نامه در كنفرانس بين‌المللي هوش مصنوعي ارائه شده و از سوي دانشمندان و رهبران تجاري برجسته‌اي از قبيل استفان هاوكينگ، الون ماسك، استيو وزنياك و نوام چامسكي به تاييد رسيده‌است.

هوش مصنوعي مسلح و خودكار در نظر برخي از افراد مفهومي خيالي است كه به قلمرو بازي‌هاي رايانه‌اي و علمي‌تخيلي محدود مي‌شود. با اين‌همه اخطار هراس‌آوري كه در اين نامه سرگشاده مطرح شده‌است تاكيد مي‌كند كه اين تكنولوژي طي سال‌هاي آينده و نه دهه‌هاي آينده، آماده بهره‌برداري خواهد‌بود و اگر بشر قصد دارد مانع از تولد گونه‌اي جديد از سلاح‌هاي مدرن شود، منع توليد آن هم‌اكنون بايد عملي شود.

براساس اين نامه، امروزه بسياري هوش مصنوعي مسلح يا سلاح‌هاي هوشمند را پس از باروت و سلاح‌هاي اتمي، انقلاب سوم در صنعت اسلحه‌سازي مدرن مي‌پندارند. براي دو نمونه پيشين همواره بازدارنده‌هاي قدرتمندي براي ممانعت از استفاده از تكنولوژي وجود داشته‌است، براي استفاده از يك تفنگ بايد سربازي وجود داشته باشد كه آن را حمل كرده و شليك كند،‌و اين يعني به خطر انداختن جان سربازها و نوعي محدوديت در استفاده از تفنگ.

در بخش توليد سلاح‌هاي اتمي نيز بايد طبيعت پرهزينه و پيچيده دست‌يابي به مواد اوليه و نياز به متخصص براي ساخت بمب را درنظر گرفت، علاوه بر اين استفاده از چنين سلاح‌هايي هزينه گزافي در پي خواهد داشت، از نابودي طيف گسترده‌اي از انسان‌ها گرفته تا محكوميت‌هاي شديدي بين‌المللي. اين عوامل بازدارنده باعث شده‌اند از زمان ساخت بمب‌هاي اتمي تاكنون تنها دو بمب طي درگيري‌ها منفجر شوند.

خطر حقيقي درمورد ماشين‌هاي جنگي هوش مصنوعي عدم وجود بازدارنده‌ها است. روبات‌هاي هوشمند و مسلح مي‌توانند خطر جاني موجود براي سربازارن در ميدان‌هاي جنگ را برطرف ساخته و استفاده از آنها به اندازه بمب اتمي جوامع بين‌المللي را خشمگين نخواهد‌ساخت. علاوه بر اين‌ها،‌براساس اين نامه،‌ توليد انبوه پهپاد‌هاي خودكار هوش‌مصنوعي و مسلح با قابليت شكار و كشتن انسان‌ها فرايندي بسيار ارزان و ساده‌است.

چنين تكنولوژيي مي‌تواند هجوم‌هاي نظامي را كم‌هزينه‌تر و تاثيرگذارتر ساخته و به ويژه آغاز درگيري‌ها را ساده‌تر سازد. علاوه‌بر‌اين خارج كردن قدرت تصميم‌گيري درمورد كشتن انساني ديگر از دست انسان به صورت طبيعي عوامل استدلال و ترحم را حذف خواهد‌كرد.

ديگر وجه ترسناك فناوري هوش مصنوعي مسلح كه در نامه به آن اشاره شده‌ اين است كه شايد اين فناوري و تجهيزات نظامي به دست افرادي مستبد و ظالم بيافتد كه حتي يك لحظه نيز درباره استفاده از اين ماشين‌هاي مرگ به عنوان ابزاري براي سركوبي معترضين و يا حتي پاكسازي نژادي ترديد به دل راه نخواهند داد.

توبي والش استاد هوش مصنوعي دانشگاه نيو‌ساوث‌ولز مي‌گويد: بسياري از دانشمندان مطرح جهان در زمينه هوش مصنوعي اين نامه را امضا كرده‌اند. اميدواريم با انتشار اين نامه سرگشاده بتوانيم نسبت به موضوعي بسيار وخيم كه بدون شك بر كل بشر تاثيري مرگبار خواهد داشت، جلب توجه كنيم. مي‌توانيم در همين مراحل اوليه مانع از آن شويم يا مي‌توانيم بي‌توجه در گوشه‌اي ايستاده و شاهد ظهور نسلي جديد از سلاح‌هاي مرگبار شويم و صادقانه بگويم،‌اين چيزي نيست كه اكثر انسان‌ها در انتظار ديدن آن باشند. درخواست اقدام ما بسيار ساده‌است: مانع از توليد سلاح‌هاي خودكار مخرب شويد و در اين راستا آينده‌اي ايمن را براي انسان‌ها رقم بزنيد.

کد خبر 302319

برچسب‌ها

دیدگاه خوانندگان امروز

پر بیننده‌ترین خبر امروز

نظر شما

شما در حال پاسخ به نظر «» هستید.
captcha