مسئلهی تراموا یک آزمایش فکری مشهور هست در زمینهی اخلاق. به طور خلاصه فرض کنین تراموا داره روی ریل حرکت میکنه، جلوتر روی ریل پنج نفر به ریل بسته شدن. شما ازشون دورین و نمیتونین به موقع نجاتشون بدین. ولی اهرم تغییر ریل تراموا کنارتون هست و میتونین ازش کمک بگیریم.
ولی روی ریل دیگه هم یه نفر رو بستن. طوری که اگه از اهرم استفاده کنین اون یه نفر میمیره. چی کار میکنین؟[1]
راجع به این مسئله آزمایشها و نظرسنجیهای مختلفی انجام شده که نشون میده انسانها معمولا در عمل که قرار میگیرن، به هر دلیلی انتخاب متفاوتی دارن.
رعایت اخلاق در تکنولوژی
شما اگه طراح خودروهای بدون راننده بودین، چه برنامهای به این ماشینها برای موقعیت مشابه میدادین؟ یعنی وقتی ماشین امکان انتخاب بین ادامه ی مسیر و کشتن ۵ نفر یا تغییر مسیر و کشتن یه نفر که قبلا تو مسیر نبوده، رو داره؛ بهش کدوم انتخاب رو میدین و چرا؟
فوری نگین اهرم رو میکشم. چون تو حالت دوم شما به شکل عاملانه انتخاب کردین که یه نفر رو بکشین در حالی که در حالت اول اون پنج نفر اگه شما نبودین هم میمردن. ↩︎
من برنامهای به ماشین میدادم که تحت هر شرایطی خسارتهای جانی و مالی کمینه شوند. دلیلم هم این است که: بیشینه کردن خسارت که کار سختی نیست بلکه کمینه کردناش است که کار سخت و چالش برانگیزی است. به نظرم حالت دیگری وجود ندارد.
راستش بستگی داره که اون 5 نفر چه کسایی باشن و اون 1 نفر چه کسی باشه، اگر به هر دلیلی جون فرد خاصی در بین 5 نفر برام مهم باشه که مجموع ارزشیش برام بیشتر از اون 1 نفر باشه تغییر مسیر میدم در غیر این صورت نه.
در مورد خودرو بدون سرنشین یک کم کار پیچیده میشه و فکر کنم بای دیفالت باید جوری طراحی بشه که اون یک نفر رو زیر بگیره.
خیلی منطقی بهش برنامه دادید و کلا اخلاق رو گذاشتین کنار
برا اینکه کمی سخت ترش کنم: فرض کنین اون پنج نفر تو خیابون و در جایی که نباید باشن هستن و اون یه نفر بنده خدا تو پیاده رو هست، باز هم با محاسبه هزینهها پیش میرین؟
البته در نهایت انتخابی که هر دو مطرح کردید به نظرم معقول میاد، فقط همون طور که در صورت سوال هم مطرحه مسئله اخلاق این وسط در میونه؛ پنج نفر در مسیر ماشین/تراموا هستن در حالی که اون یه نفر فقط در صورتی ممکنه محکوم به مرگ باشه که راننده تصمیم بگیره و از روی عمد انتخاب کنه. چرا مهندس چنین ماشینی حق داشته باشه انتخاب کنه که احتمال مرگ من بره بالا، حتی با وجود اینکه من ممکنه کار اشتباهی نکنم؟
خیلی دوست دارم از دید حقوق و علوم انسانی هم این مسئله (حتی خود مسئله و قبل از ارائه راهکار) رو بیشتر متوجه شم. @Fatemeh-law ممنون میشم در این باره دیدگاهتون رو مطرح کنین.
به اضافه این که جای خودرو در خیابان است نه در پیادهرو یعنی خودرو نباید جوری برنامهریزی شود که یک نفر را به خاطر اشتباه پنج نفر دیگر قربانی کند. البته گفتناش راحت است.
این مثال خیلی کمک میکنه به یه جنبه مهم از داستان جدا از اخلاق: آیا من حق دارم براساس معیاری در مورد مرگ و زندگی بقیه قضاوت کنم؟ آیا جامعه این حق رو به من داده؟
در مسئله ترآموا، این حق تفویض نشده، مگر اینکه طرف به طور رسمی مسئول اینکار باشه. ولی در مسئله راننده، قانون به نحوی این تصمیم رو گرفته، به طور تلویحی در قانون این بیان میشه که شما وقتی از پیاده رو رد میشید، به زندگی خودتون احترام گذاشتید و وقتی از قانون تبیعت نمیکنید باید تنبیه بشید. من فرک میکنم اگر این انتخاب غلط باشه و به قانونشکن حق زندگی داده بشه، در طولانیمدت افراد بسیار بیشتری در جامعه دچار آسیب خواهند شد.
با اینکه میدونستم هدف از پرسیدن این سئوال فقط فکر کردن بوده و نه گشتن دنبال جوابهای موجود :–) ، گشتم و هیچ جوابی وجود نداشت. یعنی هنوز کسی به جواب قطعی در مورد این مسئله و مسئلههای مشابه نرسیده. دلیل اینکه خودروسازها به این سئوالات جواب نمیدن اینطوری گفته شده:
They don’t want to answer questions about how their self-driving cars would respond to weird, no-win emergencies. This is understandable, since any answer can be criticized—there’s no obvious solution to a true dilemma, so why play that losing game?
«وقتی جواب قطعی برای این معما وجود نداره، چرا باید بازی رو که تهش باخته، بازی کنند؟»
و هرچند شرکتهایی مثل تسلا، راهحلهای پیشنهادی خودشون رو ارائه دادن، که لینکش رو در ادامه میذارم.
قبل از اینکه دنبال جواب بگردم، یه موضوعی به ذهن خودم رسید که این بود:
سختترین مسائل در هوشمصنوعی، دقیقاً بدیهیات و مسائل مربوط به حس و درک انسانی هستن، یعنی مواردی که انجام دادنشون برای انسان خیلی ساده اتفاق میافته، اما بهراحتی قادر به توضیح و توصیفش در یک قالب نظاممند نیست. در صورتیکه پیچیدهترین مسائلی که چندصد صفحه محاسبات ریاضی دارن، سالها قبل براحتی برای رباتها برنامهریزی شدن و هوشمصنوعی توی اونها پیشرفت زیادی کرد. مثلاْ یکی از این موارد که هنوز هم چالشی در Computer Vision است، درک و نامگذاری رنگهاست و تشخیص تضاد و تفاوت بین رنگها برای شبیهسازی محیط واقعی.
به همین دلیل، من سعی میکنم تو مسیری فکر کنم که بتونم درک کنم که انسان وقتی که قبلاً واقعاً در شرایط مشابهی قرار گرفته (که احتمالاً موارد زیادی باید در اسناد مربوط به تصادفات ثبت شده باشه)، چه تصمیم سریعی گرفته! و برای فهمیدن این موضوع نیاز به دادههای بیشتری داریم. شاید بشه از رانندههای باتجربه خواست که اگر تصادفات مشابهی داشتن، حس و درک اون لحظهشون از موقعیت تصادف رو بیان کنند تا بتونیم به درک بهتری از عملکرد مغز انسان در شرایط مشابه برسیم.
راهحل شرکت تسلا این بود که «اتومبیل تسلا، اگر در مسیر خودش باشه و گروهی از انسانها در اون مسیر ایستاده باشن، مسیرش رو تغییر نمیده. چون اگر اتومبیل طوری برنامهریزی بشه که مسیرش رو عوض کنه، باعث بوجود اومدن تصادف جدیدی میشه که براش مسئولیت و تبعات قانونی شدیدی داره، حتی اگر تصادف جدید اهمیت کمتری داشته باشه. در حالیکه در اینصورت فقط نتونسته از تصادفی که مسئولش نیست، جلوگیری کنه. با اینحال، هرچند این موضوع غیرمنطقی نیست، اما متضاد با هدف کمینه کردن مرگ و خسارات جانی است (چیزی که در تدبیرهای امنیتی تسلا ادعا شده.)»
مساله ی ترموا و فروض ارائه شده در سخنرانی TED نمونه هایی هستند در پی بیان موضوعی مهم و بسیار زیبا تحت عنوان تعارض اخلاق (وجدان) با قانون. به عنوان مثال آیا می توان با پیوند اعضای یک فرد سالم اما نه چندان موثر یا تحصیلکرده و … به ۵ پزشک بسیار خبره در حال مرگ، آنها را نجات داد و …
واقعیت این است که آموزه های اخلاقی هر اندازه مهم و انسان دوستانه تا وقتی که به صورت قواعد حقوقی تغییر نیابند هیچ گونه ضمانت اجرایی ندارند. مثلا دروغ یا خودکشی عملی زشت و بعضا غیراخلاقی است اما تا زمانی که جرم انگاری نشود داری ضمانت اجرا نبوده و قابل مجازات نیست یا نجات جان همنوع عملی اخلاقی و مورد تحسین است اما اگر قانون نشود افراد را مکلف نمی کند پس انجام ندادن آن ترک فعل و جرم تلقی نمی شود چه بسا نجات در برخی شرایط خود عملی مجرمانه باشد.
بنابراین من به تمامی فروض مطرح شده فقط از منظر قانون نگاه می کنم و قضاوت بین افراد در عملکردشان از نظر وجدان یا رعایت اخلاق را به حوزه خود واگذار می کنم.
حق حیات یک حق بنیادین (Fudamental Right ) است بنابراین هیچ انسانی تحت هیچ شرایطی اجازه سلب این حق و کشتن انسان دیگر را ندارد مگر در شرایطی خاص که قانون تعیین نموده است؛ مثلا در دفاع مشروع (ماده ۱۵۶ قانون مجازات اسلامی) حتی اگر به فردی گفته شود اگر X را نکشی خودت را خواهم کشت تهدید شونده حق کشتن دیگری را ندارد و اگر این کار را بکند قصاص می شود(ماده ۳۷۵قانون مجازات اسلامی)
براین اساس در فروض مطرح شده در مساله تراموا بسته به اینکه راننده تا چه حد مقصر باشد آیا می توانسته و سیله ی نقلیه را کنترل کند آیا وسیله نقلیه موثر در وقوع جنایت بوده یا نه و …با کشتن افراد مرتکب جرم قتل شده است فقط شدت و ضعف عمل مجرمانه و مجازات آن با توجه به اینکه قتل عمد باشد یا شبه عمد یا خطای محض متفاوت خواهد بود.
در مورد نجات دادن جان مثلا ۵ نفر در برابر ۱ نفر و موارد نظیر آن فقط در چارچوب قانون باید رفتار شود و ما هرگز صلاحیت تصمیم گیری در مورد مرگ یا زندگی افراد را نداریم چه بسا ۵ نفر دیوانه باشند و آن یک نفر دانشمند. کما اینکه در فرض عکس هم چنین اختیاری نداریم. مثلا در مرگ مغزی قانون اجازه داده است که پزشک مرگ کامل را تحت شرایط خاص اعمال کند و اعضای بدن ۱ نفر در صورت جمع دیگر شرایط برای نجات چند نفر استفاده شود.
بحث جالبی است در حیطه اخلاق ، که چند بعد یک انسان را در مقابل هم قرار میدهد (عقل و احساس). داستایوفسکی نیز در رمان جنایت و مکافات گریزی به همین مسئله میزند با این موضوع که آیا کشتن انسانهای بد که مخل اجتماع اند کار اخلاقی و خوبی هست یا نه ؟!
اصلا همین ترامو را بدون ترمز فرض کنیم که قادر به توقف نیست. حال کدام مسیر باید انتخاب شود؟ یک نفر قربانی شود یا 5نفر؟ اگر آن یک نفر از دوستانمان باشد چه؟ اگر آن یک نفر یک شخص خیلی معروف و مشهور باشد چه؟
هر تغییری جریان تصمیمگیری را عوض میکند و مسئله جالبی است ، این تضادی که در انسان شکل میگیرد.
مشابه همین بحث در تریاژ پزشکی وجود دارد و جالب است که آنجا پروتکلهای مدونی وجود داره.
اونجا هنگام نجات افراد این بحث که کی جونش ارزشمندتره وجود نداره فقط به ترتیبی عمل میشه که محتمل هست جون بیشترین تعداد نجات داده بشه