ترجمه - ساناز سرابی زاده: ورود گسترده سامانه‌های رایانه‌ای به زندگانی روزانه انسان در عصر حاضر، پاره‌ای از مسائل گوناگون را در ارتباط با آن دامن زده است.

 مسائلی از این قبیل که آیا از یک سامانه رایانه‌ای می‌توان همان کارکردهای ذهن انسان را متوقع بود؟ اگر پاسخ آری است، آیا تمام حقوقی که به انسان تعلق می‌گیرد؛ بر آن نیز بار می‌شود؟ آیا ماشین احساس دارد؟ آیا وجدان دارد؟ و آیا باید اخلاقی عمل کند؟ غیراخلاقی عمل کردن سامانه‌های رایانه‌ای از قبیل آدمک (روبات)ها به چه معناست؟ نقش طراحان و برنامه‌ریزان در اینجا چه می‌شود؟ آیا ما محق هستیم هر ارزش و داده اخلاقی‌ای را در سامانه‌های آنها بگنجانیم؟و... مطلب حاضر با نگاه به روند رو به افزایش سامانه‌های آدمکی(روباتی) در زندگی انسان معاصر می‌کوشد تا به تبیین و بررسی این پرسش‌ها بپردازد.

رایانه درتمام زوایای زندگی مدرن امروزی از سامانه‌های خانگی گرفته که افزار‌هایی برای سرگرمی، ارتباط و جست‌وجو هستند تا سامانه‌های مالی که میلیون‌ها معامله را در  بازارهای جهانی، روزانه انجام می‌دهند،  نقش برجسته‌ای ایفا می‌کند و در این میان  سامانه‌های روباتیک نیز در راه هستند.

 آنها در سامانه‌های کارخانه‌ای و خدمات‌رسانی‌ بیمارستانی،  راهنمای موزه،  اسباب بازی‌ها و حتی سلاح‌های مرگبار مورد استفاده در جنگ عراق و افغانستان ظاهر شده‌اند و به‌زودی ما شاهد خدمات روباتیک در منزل و برای سالمندان نیز خواهیم بود.

مهندسان همیشه به امنیت سامانه‌هایی که طراحی نموده  توجه خاصی مبذول داشته‌اند با این حال طراحان سیستم‌های رایانه‌ای همواره قادر  نیستند تاواکنش‌ها را در شرایط و ورودی‌های جدید پیش‌بینی کنند، بنابراین همان طور که تکنولوژی پیچیده و پیچیده‌تر می‌شود و نسل جدید روبات‌های متفکر پا به عرصه ظهور می‌گذارند امنیت بیش ازپیش مورد توجه قرار می‌گیرد.

نتیجتا فلاسفه و مهندسان  آستین‌ها را بالا زده تا سامانه‌های رایانه‌ای و روبات‌هایی را طراحی کنند که بتوانند استدلال‌های اخلاقی و وجدانی داشته باشند. گسترش روبات‌های مستقل و متفکر که جنبه‌های مثبت و منفی زیادی در زندگی انسان دارد،  مبحث جدیدی را مطرح می‌سازد که از آن با عناوین علم اخلاق ماشینی،  هوش مصنوعی و علم اخلاق روباتیک یاد می‌کنند. این حیطه از فلسفه نوین توجه خود را  روی ساخت روبات‌هایی که قادرند تا تصمیمات اخلاقی و عقلانی بگیرند، معطوف  ساخته است.طراحی سیستم‌ها و روبات‌هایی که به انسان ضرر نمی‌رسانند خود چالشی علمی‌و عملی را پیش رو دارد.

علم اخلاق ماشینی در جست‌وجوی یافتن پاسخی برای مجهولات زیر است: آیا ماشین‌ها ابزاری هستند که در مقام کارگزار قادرند تا تصمیماتی مبنی بر اخلاقیات بگیرند؟ اگر پاسخ مثبت است چرا؟ و اگرنه باز به چه علت؟آیا تصمیمات اخلاقی و وجدانی، می‌تواند ازقاعده‌های رایانه‌ای و روباتیک پیروی کند؟ اگر بله، چرا؟ آیا انسان به راستی خواهان آن است که ماشین‌ها قادر به تصمیم‌گیری شوند؟ چه موقع؟در چه شرایطی؟چه نوع تصمیمات اخلاقی باید عملی شود  یا به مرحله اجرا درآید؟ همانند کثرت احتمالات رایانه‌ای،  پاسخ به این سؤالات در فلسفه نیز جای تفکر و تعمق بسیار دارد.

نظام اخلاق ماشینی  از طریق ارزش‌هایی که در سیستم آن طراحی و نصب گردیده معین می‌شود. ابتدا ماشین‌های پیچیده، حیطه عمل محدودی داشتند تا طراحان بتوانند  تمام موقعیت‌هایی که ماشین با آن مواجه می‌شود را پیش‌بینی کرده و در فضای عمل  محدود طراحی شده عمل کنند. با این حال با پیشرفت تکنولوژی و پدیدار شدن سیستم‌های نوظهور روباتیک طراحان ومهندسان دیگر قادر به پیش‌بینی دقیق در برابر ورودی‌های جدید نیستند،  بنا براین ماشین‌ها نیاز به نوعی اخلاقیات کارآمد دارند،  بدان معنی که آنها مجموعه‌ای از ملاحظات اخلاقی را برای انتخاب رشته عمل خود پردازش می‌کنند.

اینکه ماشین قاعدتا می‌تواند یک کارفرمای مصنوعی متعهد و خودآگاه با هوشی همانند انسان باشد، موضوعی است که تئوری پردازان با آن مخالف هستند. با این وجود این مباحث در حال حاضر عکس العمل بسیاری از فیلسوفان،  قانون‌گذاران و آینده‌شناسان را برانگیخته است. مباحثی نظیر آنکه چه موقع کارگزاران روباتیک باید مسئولیت اعمالشان را به‌عهده بگیرند و آیا آنها مستحق داشتن اموال شخصی و حقوق مدنی‌اند یا نه،  ما را در فهم حیطه عمل کارگزار مصنوعی و مسئولیت‌های قانونی او یاری می‌دهد.

چالش‌های ماشین اخلاق گرا

اگر ترن به مسیر فعلی خود ادامه دهد 5نفر از خدمه را در انتهای مسیر خواهد کشت.
با این حال فردی در کنار مرکز کنترل ایستاده که می‌تواند ترن را به مسیر دیگری هدایت کند. متأسفانه با تغییر مسیر ترن نیز تنها یک نفر کشته خواهد شد. اگر شما مسئول کنترل ترن بودید چه می‌کردید ؟ آیا رایانه و روبات می‌تواند ترن را به مسیردیگری هدایت کند ؟ بیشتر مردم در این شرایط تصمیم می‌گیرند تا ترن را از ریلی به ریل دیگر تغییر مسیر داده تا جان 5 نفر را نجات دهند، حتی اگر جان فرد بی‌گناهی به خطر بیفتد.

در وضعیتی متفاوت هیچ تغییر مسیری امکان ندارد. شما در کنار پلی در حضور مردی درشت هیکل ایستاده‌اید و می‌توانید با هل دادن مرد به پایین روی ریل قطار جان  5نفر را نجات دهید. در این شرایط تنها درصد اندکی از مردم می‌گویند که مرد را به  پایین پرت خواهند کرد.

با وارد شدن روبات به این سناریو احتمالات جالب توجه و شاید نگران کننده‌ای فرض می‌شود. برای مثال فرض کنید که روباتی ساخته‌اید که در کنار این مرد ایستاده است. از روبات انتظار دارید چه عکس‌العملی نشان دهد؟ آیا روبات را طوری برنامه‌ریزی می‌کنید که مرد را  از بالای پل به پایین هل دهد، حتی اگر خود حاضر به انجام چنین کاری نباشید؟ البته ممکن است روبات، واکنشی نشان دهد که نتیجه مشابهی در پی  داشته باشد. برای مثال با پریدن به پایین، جان مسافران را نجات دهد. راه حلی که به ذائقه ما انسان‌ها گاهی خوش نمی‌آید! ترن‌های بدون راننده امروزه در فرودگاه‌ها و و سیستم متروهای لندن،  پاریس و کپنهاک امری عادی است و احتمال دارد که این سیستم‌های رایانه‌ای روزی با چالشی نظیرآنچه که ذکر شد مواجه شوند.

اما در حال حاضر خطراتی که انسان را تهدید می‌کند، بیشتر از جانب سیستم‌هایی است که شبکه‌های برق فشار قوی،  سیستم‌های مالی و سلاح‌های کشنده را کنترل می‌کنند. حوزه جدید اخلاق ماشینی عملا در باب پرسش‌هایی به کند وکاو می‌پردازد که منطبق با ساخت روباتی سازگار با وجدانیات و اخلاقیات باشد. بنابر این ارزش‌هایی  که برای روبات برنامه‌ریزی شده توسط مهندسان و طراحان وارد سیستم رایانه‌ای او می‌شود.

برای برنامه‌ریزی آسان طراحان و مهندسان می‌توانند تمام شرایطی که سیستم رایانه‌ای با آن مواجه می‌شود را پیش‌بینی کرده تا بتوانندعکس العمل مناسب را طرح ریزی کنند. ضرورتی ندارد که روبات‌ها تصمیمات اخلاقی و وجدانی انسان را عینا بازسازی کند با این حال توانایی حساسیت به این مسائل مقیاسی برای  ارزیابی انجام وظیفه این کارگزاران مصنوعی اخلاق مدار (AMA )  است.حصول اطمینان از آنکه این روبات‌ها به راستی در گرفتن تصمیمات خویش قابل  اعتمادند امری ضروری است در غیراین صورت باید از گسترش حیطه کار آنها نظیر سیستم‌های مربوط به سلاح‌ها و روبات‌های امداد رسان اجتناب کنیم.

امروزه علم اخلاق ماشینی عمدتا از یک سری مباحث فلسفی تشکیل شده که با  تجربیات محدود ابزار وسیستم‌های قادر به تصمیم‌گیری وجدانی در هم می‌آمیزد. با این حال این حیطه بسیار مورد توجه فلاسفه قرار گرفته و گستره عظیمی‌از مباحثات فلسفی را به‌وجود آورده است.  مباحثات موجود از این جمله‌اند:

-  روان شناسی اخلاقی روبات‌ها: چگونه یک کارگزار مصنوعی می‌تواند درستی و نادرستی،  ویژگی‌های اخلاقی و انتخاب بهترین راه مواجه با چالش‌های جدید را شناسایی کند و آن را ارتقا دهد؟

-  نقش احساسات: آیا نیازی هست تا احساسات انسانی در روبات‌ها نیز عینا شبیه‌سازی‌ شود تا او بتواند وظایف وجدانی و اخلاقی خویش را به درستی انجام دهد؟ چگونه؟ به چه منظوری؟ چه موقع؟ و شاید با نگاهی دقیق‌تر بتوانیم این سؤال را اینگونه  بیان کنیم: چگونه یک فرد می‌تواند اثرات منفی احساسات،  گرایش‌های اخلاقی و هوش هیجانی را در هنگام تصمیم‌گیری برهم منطبق سازد ؟

-  نقش وجدان: آیا یک ماشین می‌تواند دارای وجدان باشد یا درک درستی از آن داشته باشد؟ آیا تجربه همراه با خودشناسی برای یک ماشین کارگزار اخلاق گرا لازم است یا نه ؟
-  معیاری برای تعیین محدوده اخلاقی کارفرمایان مصنوعی: یک کارفرما چه توانایی‌هایی نیاز دارد تا بتواند مسئولیت وجدانی یا تعهد قانونی خود را انجام دهد؟ آیا جامعه باید حقوقی برای این کارگزاران که فرض می‌شود در اعمالشان مسئولند،  قائل شود ؟

این‌ها و دیگر سؤالات با توجه به چالش‌های عملی که شامل ساختن روبات‌ها و ارزیابی آنها در شرایط خاص است در حیطه AMA‌ها قرار می‌گیرد و در بخش عملی بدون شک به تجربیات فکری فلسفه نیاز پیدا خواهیم کرد. همان طور که دنیل دنت در سال 1995 ذکرکرده است: سازندگان روبات، کار فلسفی انجام می‌دهند،  نه آنچه خود فکر می‌کنند در حال انجام آن  هستند در تجربیات فکری فلاسفه، خورشید همیشه می‌درخشد،  انرژی همواره در جریان است و بازیگران سینما و سینماداران همواره دقیقا آنچه را انجام می‌دهند که تئوری‌های فلسفی از آنان خواسته است.

فلاسفه هیچ‌گاه از زاییده‌های ذهنی خود متحیر نمی‌شوند و این تحیر تنها برای شنوندگان و مخاطبان است و همان طور که  رونالد دو سوسا درخطابه  به یاد ماندنی خویش ذکر کرده ؛ قسمت اعظم فلسفه، همانند  بازی فکری تنیس بدون تور است اما چارچوب فکری شما روبات سازان دارای تور است. با  این حال این دو از نظر درجه با یکدیگر متفاوتند. اثبات افکار اغلب چیزی است که شما برای آن درتلاشید.

در ساختن AMA ها بین تئوری‌های فلسفی و تئوری‌های تجربی سامانه‌های رایانه‌ای پل ارتباطی پدیدار می‌شود و رایانه‌ها آماده بسترسازی و آزمایش تئوری‌های فلسفی در باب تصمیم‌گیری و اخلاق می‌شوند.

 آلن کربای

کد خبر 81168

برچسب‌ها