همشهری آنلاین: ابدی نبودن جهان هستی حقیقتی است که همه ادیان و اقوام به آن ایمان دارند، اما چگونگی پایان یافتن آن موضوعی است که ذهن دانشمندان و نظریه‌پردازان زیادی را به خود مشغول کرده و هریک برای آن فرضیه‌ای ارائه می‌کنند.

روبات

براساس گزارش ساينس الرت،‌ ممكن است 6 ميليارد سال ديگر خورشيد به مرحله غول‌پيكري خود رسيده و به جرمي غول‌پيكر و سرخ و متورم تبديل شود و اتمسفر زمين را تبخير كرده، پوسته و گوشته سياره را از هم دريده و هسته آن را فروببلعد. با اين‌همه تا آن زمان شايد انساني روي زمين باقي نمانده باشد تا اين فصل پاياني سياره‌اي كه زماني زيستگاه ميليون‌ها موجود زنده بود را به تماشا بنشيند.

احتمال اينكه حيات روي زمين بسيار سريعتر از مرگ خورشيد و در نتيجه نابودي كل سياره زمين از بين برود،‌ در ميان دانشمندان از اهميت زيادي برخوردار است. اوايل سال 2015 محققان سوئدي بنياد چالش‌هاي جهاني با همكاري با دانشگاه آكسفورد گزارشي را منتشر كردند كه در آن به 12 خطر جهاني اشاره شده بود كه از توانايي نابودي حيات در آينده‌اي نزديك برخوردارند. نويسندگان اين خطرها را پايان تمدن بشر و يا حيات بشر توصيف كرده‌اند، سناريوهايي كه هريك به گونه‌اي آخرالزمان را توصيف مي‌كنند.

در ميان اين خطرهاي جهاني مواردي مانند شيوع جهاني بيماري، فروپاشي اقتصادي، جنگ‌هاي اتمي، برخورد سيارك بزرگ و تغييرات اقليمي به چشم مي‌خورند. محاسباتي كه به به انجام چنين مطالعاتي ختم مي‌شوند بسيار حساس بوده و به ناشناخته‌هاي غيرقابل پيش‌بيني زيادي وابسته‌اند. اما اين امكان وجود دارد كه شدت احتمال هريك از اين سناريو‌ها را تخمين زد،‌كاري كه محققان با استفاده از اطلاعات موجود براي 100 سال آينده بشر انجام داده‌اند.

نتيجه اين بررسي‌هاي آماري نشان مي‌دهد آنچه شانس بيشتري دارد كه به تمدن يا حيات بشر پايان دهد هوش مصنوعي است. براساس گزارش چالش‌هاي جهاني، طي 100 سال آينده احتمال اينكه بشر سيستم‌هاي هوش مصنوعي بسازد كه به راحتي خود را از دست انسان رهايي ببخشد زيرا به وجود انسان نيازي نخواهد داشت، يك به 10 است. با اين‌همه محقق شدن اين سناريو نيز كار چندان ساده‌اي نيست. در سال‌هاي اخير متخصصان هوش مصنوعي به اين نتيجه رسيده‌اند درصورتي كه فكر شده عمل كنند، رايانه‌هاي فوق هوشمند بيشتر از آنكه مساله ايجاد كنند،‌مي‌توانند مسائل بشر را حل كنند.

با اين همه در گزارش عنوان شده كه همين توانايي هوش مصنوعي را به خطري بي‌نظير تبديل كرده‌ است كه از يك سو مي‌توان از آن براي مقابله با ديگر خطرها استفاده كرد و از سويي ديگر ابزاري است كه خود مي‌تواند انسان را تهديد كند. در اين صورت،‌ يك روبات قاتل در اين سناريو به اندازه‌اي يكسان مي‌تواند خطرناك و بي‌خطر باشد.

خطر ديگري كه شانس وقوع آن و در نتيجه نابودي نسل بشر در 100 سال آينده بسيار بالا است، آغاز شيوع جهاني يك بيماري يا جنگ هسته‌است. همچنين تغييرات اقليمي نيز درصورتي كه مهار نشود، تا 200 سال آينده تيشه به ريشه بشريت خواهد كوبيد. نويسندگان اين گزارش خطراتي كه انسان قادر به مهار آنها نيست،‌ مانند انفجارهاي گاما در نزديكي زمين و به آتش كشيدن كل سياره را در نظر نگرفته‌اند.

خطر برخورد سيارك با زمين و نابودي آن نيز يك در 10 هزار تخمين زده شده‌است، به بياني ديگر احتمال اينكه پيش از برخورد سنگ فضايي پنج كيلومتري با زمين،‌انسان‌ها به ويروسي آلوده شده و نابود شوند بيشتر است.

کد خبر 319532

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
9 + 0 =

دیدگاه خوانندگان