شنبه ۹ خرداد ۱۳۸۸ - ۰۹:۱۸
۰ نفر

ترجمه - ساناز سرابی زاده: علم اخلاق ماشینی که از پیوند فلسفه اخلاق، معرفت‌شناسی و فناوری روباتیک شکل گرفته، در جست‌وجوی پاسخی برای پرسش‌هایی از این دست است.

آیا ماشین‌ها ابزارهایی هستند که در مقام کارگزار بتوانند تصمیمات اخلاقی بگیرند؟ اگر پاسخ مثبت است، چرا و اگر منفی است، باز چرا؟ آیا تصمیمات اخلاقی می‌توانند از قواعد رایانه‌ای و روباتیک پیروی کنند؟ آیا ماشین‌ها دارای احساس هستند که بتوانند تصمیمات اخلاقی متناسب با آن بگیرند؟‌ آیا اصلاً انسان می‌پذیرد که روزی ماشین‌ها قادر به این کار (تصمیم‌گیری اخلاقی) بشوند؟ اگر پاسخ مثبت است، چه هنگام و چگونه؟ و در نهایت اینکه چه نوع تصمیمات اخلاقی‌ای باید عملی شوند یا به مرحله اجرا درآیند؟

بی‌تردید هر یک از پرسش‌های یادشده، چالش‌های زیادی را در حوزه فلسفه اخلاق و حتی انسان‌شناسی پدید آورده است. با این حال، بیشتر پژوهشگران با این نکته که ماشین بتواند خودآگاهانه و برخوردار از احساسی مشابه انسان عمل کند و تصمیم بگیرد، مخالفند.

با این حال، هر روز شاهد افزایش روبات‌های مستقلی هستیم که تأثیرات مثبت و منفی زیادی بر زندگی فردی و شاید اجتماعی انسان‌ها می‌گذارند. به همین علت، اخیراً عده‌ای به این فکر افتاده‌اند که روبات‌هایی بسازند که قادر باشند تصمیمات اخلاقی و عقلانی بگیرند. طراحی چنین سامانه‌های روباتیکی که به انسان آسیب نرساند، خود بزرگترین چالش علمی معاصر است. در این وضعیت، نظریه‌پردازان و فیلسوفان اخلاق ماشینی وارد گود شده‌اند و به دانشمندان در فهم این پدیده جدید یاری می‌رسانند. گرچه پیدایی چنین حوزه‌ای، خود آنها را نیز رویاروی چالش‌های بی‌شماری کرده است.مطلب حاضر باتوجه به مباحث اخیر در حوزه اخلاق ماشینی و پرسش از امکان پیدایی چنین مبحثی، به بررسی و نقد مسیرهایی که می‌توانند به چنین اخلاقی مدد رسانند، می‌پردازد.

علم اخلاق ماشینی وجوهی چندگانه دارد که شامل ورودی‌ها ی رایانه‌ای محققان، فلاسفه،  محققان جامعه شناس، تئوری پردازان قانون و غیره است. این گروه چند وجهی برای طراحی یک کارگزار مصنوعی به جنبه‌های مختلف تصمیم‌گیری اخلاقی می‌پردازند. یک فیلسوف اخلاق اهمیت تحلیل سامانه‌های رایانه‌ای را برای عملی ساختن تئوری‌های اخلاقی همانند تئوری‌های کانتی در یک روبات خاطر نشان می‌سازد. یک روان شناس تکاملی (زیستی) راه‌هایی را بررسی می‌کند که سیر تکاملی تمایلات درونی رفتار اجتماعی انسان و شاید حتی قواعد اخلاق درونی را پدیدآورده است. یک روان شناس پرورشی در جست‌وجوی راه‌هایی برای تعلیم روبات است تا با ساختن یک مرحله پس از دیگری به ملاحظات اخلاقی حساس و پایبند باشد.

یک مادر نیز در طرف دیگر این ماجرا ضرورت ماشین را در همدردی و مراقبت ذکر می‌کند و بررسی و دستیابی به موارد قانونی و تفسیر آن در شرایط گوناگون در حیطه این مسئله از دیدگاه یک وکیل یا قانونگذار حائز اهمیت است. همچنین بسیار مهم است که سیستم رایانه‌ای بتواند اعمال خویش را تحلیل کرده و از گذشته خویش درس عبرت بگیرد. در واقع یک سازنده روبات می‌خواهد بداند که چگونه یک کارگزار مصنوعی اطلاعات لازم را برای تصمیم‌گیری به‌دست می‌آورد. به چه حسگرها و یا حافظه‌ای نیاز دارد؟ چگونه تمام اطلاعات موجود را به هم ربط داده و واکنش مناسب را در هر شرایطی بروز می‌دهد؟ پاسخ‌هایی را که در طبیعت تبلوریافته چگونه می‌توان در سیستم روباتیک گنجاند ؟ و چگونه او چالش‌های موجود را که نیاز به تامل دارد تشخیص خواهد داد ؟

مهندسان سازنده روبات مدل‌های گوناگون و یا زیر مجموعه‌هایی برای راه‌اندازی هریک از وظایف روبات، طراحی خواهند کرد. به‌هرگونه ادغام این زیر مجموعه‌ها در سیستمی‌واحد که عملی مطمئن داشته و تابع ارزش‌های انسانی است نیازمند درک درستی از مکانیسم ذهنی تصمیم‌گیری وجدانی و اخلاقی کنونی آدمی‌است. انسان‌ها کما بیش جایزالخطا هستند اما اگر روبات‌های اخلاقی نیاز به نوعی از هوش هیجانی داشته باشند لزوما بدین معنا نیست که آنها نیز باید نیازمند خصائلی نظیر آرزو،  غرور وترس باشند و به همین خاطر این احتمال افزایش می‌یابد که موجودات مصنوعی اخلاقی‌تر از انسان عمل کنند.

از سوی دیگر روبات‌ها ممکن است در انتخاب واکنش مورد نظر به تنگناهایی که باید براساس وجدان و اخلاق تصمیم‌گیری شود محدودیت کمتری داشته باشند. همچنین آنها ممکن است عکس‌العمل‌های مناسب‌تری نسبت به همکاران انسانی خویش بروز دهند. با این حال گفته می‌شود تصمیم‌گیری مبنی بر وجدانیات در آدمی‌توسط فرایند‌هایی تسهیل می‌شود،  پدیده‌ای که قابل شبیه‌سازی‌ در عنصر وجودی روبات‌ها نیست.

برخی از تئوریسین‌ها اذعان داشته‌اند، روبات‌ها به دلایلی نظیر عدم‌وجود وجدان،  حساسیت‌های اخلاقی و هدف، قادر به تصمیم‌گیری وجدانی و اخلاقی نیستند. به هرحال اگر این تفاسیر حقیقت داشته باشد نیز نمی‌توان از لزوم به کارگیری برخی از حیطه‌های تصمیم‌گیری براساس ارزش‌های انسانی در روبات‌ها گذشت ؛ زیراتحقق این امر ما را از صحت انتخاب‌ها و اعمال آنها و ضرر نرساندن به انسان‌ها و موجودات زنده دیگر مطمئن می‌سازد.

آینده علم اخلاق ماشینی

سرانجام ممکن است روزی سامانه‌های‌های مصنوعی هوشمندی برابر با انسان داشته باشیم،  موضوعی که موج عظیمی‌از توجه و گاهی نگرانی را پدید می‌آورد و پیش‌بینی آنکه  روزی این روبات‌ها بخواهند از قید و بند محدودیت‌ها رها شوند ایجاب می‌کند تا تمایلات اخلاقی در ساختار اصلی و پیچیده این سیستم‌ها نهادینه شود و نباید به‌عنوان خصوصیتی که از اهمیت کمتری برخوردار است به آن توجه شود.

ملاحظه تمامی‌احتمالات می‌تواند به‌عنوان تجربه‌های فکری جالب توجه و راه‌گشا عمل کند.به‌عنوان مثال فلاسفه و حقوقدانان به این نتیجه رسیده‌اند که محدوده‌ای برای شناسایی حقوق و مسئولیت‌های این کارگزاران باید در نظر گرفته شود.

تحقیقات ابتدایی هوش مصنوعی نشان داده است که ساخت ماشین اخلاق گرا از ریسک بسیار بالایی برخوردار است. با این وجود این حدسیات بیشتر درون مایه‌ای همانند  داستان‌های علمی‌- تخیلی دارند. برای نمونه ترس از آنکه روزی ابر روبات‌ها حیات  انسانی را به خطر خواهند انداخت نمودار ترسی اجتماعی است که علم را غیرقابل اعتماد و تکنولوژی را نیرویی ویرانگر و غیرقابل کنترل می‌‌پندارد.

در آینده نزدیک، تحقیقات علم اخلاق ماشینی بر پایه تکنولوژی حاضر و یا قریب الوقوع خواهد بود. این حیطه از طریق پی‌جویی انبوه پرسش و پاسخ‌هایی در باب آینده رایانه‌ای کردن تصمیمات وجدانی که به دو مسیرفرعی «عملی» و «فلسفی» تقسیم می‌شود، پیشرفت‌های شایانی خواهد داشت و در آن زمان که این عنصر نوظهور پا به عرصه وجود گذارد بازارهای جدید به این موجود باهوش خوش آمد خواهند گفت.

ساخت ماشین‌های اخلاق گرا سکویی برای تحقیقات تجربی در حوزه تصمیم‌گیری و اخلاق است. تفاوت و شباهت بین راه‌های تصمیم‌گیری انسان و روبات به ما می‌آموزد که ما انسان‌ها چگونه باید عمل کنیم یا نکنیم و بیش از آن به ما خاطر نشان می‌سازد که عنصر وجودی ما چیست و یا ما چه هستیم ؟

کد خبر 82455

برچسب‌ها

دیدگاه خوانندگان امروز

پر بیننده‌ترین خبر امروز