به گزارش علمی نیوز و به نقل از Psychology Today، ایزاک آسیموف، نویسنده داستان های علمی تخیلی، با تصور آینده ای از هوش مصنوعی، قرن بیست و یکم را تحت سیطره روبات های انسان نما تصویر کرد. او شاید بیشتر به دلیل سه قانون رباتیک خود شناخته شده است، که هدف آنها هدایت تصمیم گیری اخلاقی این «مردان مکانیکی» بود.
اکنون که در آینده ای هستیم که آسیموف سعی کرد تصور کند، می بینیم که ربات های انسان نما و همه منظوره هنوز هم بیشتر یک خیال هستند تا واقعیت، و به جای آنها، دستگاه های روزمره خود را به جای آن، گوشی های خود را «هوشمند» کرده ایم. بارزترین مثال بودن با این حال، با خودروهای خودران در افق، این سوال که چگونه می توان این وسایل نقلیه خودران را برای حل مسائل اخلاقی در جاده ها برنامه ریزی کرد، مطرح شده است.
فرض کنید ماشین خودران شما در آینده نزدیک با موقعیتی روبرو می شود که در آن باید یا به یک دختر دوچرخه سوار یا یک مرد بی خانمان برخورد کند. برای نجات دیگری باید کدام زندگی را برای نابودی انتخاب کند؟ این نوع معضل اخلاقی در میان فیلسوفان و روانشناسان علاقه مند به حوزه هوش مصنوعی بسیار مورد بحث قرار گرفته است. با این حال، همانطور که جولیان دی فریتاس، روانشناس هاروارد و همکارانش در یک مقاله نظری اخیری که در مجله Perspectives on Psychological Science منتشر کردند، استدلال می کنند، این بحث مسائل واقعاً مهم در مورد تعامل بین انسان ها و ماشین های خودران را از دست می دهد.
تفکر مردم در مورد معضلات اخلاقی اغلب با استفاده از نسخهای از به اصطلاح «مشکل چرخ دستی» بررسی میشود. تصور کنید یک واگن برقی خارج از کنترل در مسیر خود در حال مسابقه دادن است، و در جلوی آن پنج کارگر قرار دارند که در اثر برخورد با آن کشته خواهند شد. در کنار شما یک سوئیچ قرار دارد، و اگر آن را بکشید، چرخ دستی به یک مسیر جانبی متصل می شود و در عوض به یک کارگر برخورد می کند و می کشد. سوئیچ را می کشی یا نه؟
این وضعیت یک معضل ایجاد می کند، زیرا دو چارچوب اخلاقی در تضاد قرار می گیرند. از یک سو، رویکرد سودگرایانه، بیشترین خیر را برای بیشترین تعداد می طلبد. از منظر سودمندی، باید اجازه دهید یک کارگر بمیرد تا پنج نفر را نجات دهد.
از سوی دیگر، رویکرد دئونتولوژیک اخلاق را بر اساس آنچه که فرد باید در یک موقعیت خاص انجام دهد یا نباید انجام دهد، تعریف می کند. ده فرمان ممکن است شناخته شده ترین نمونه از یک کد اخلاقی دئونتولوژیک باشد. با این حال، فیلسوفان از آن زمان به بعد به طور مفصل تری درباره این سوال که ما چگونه باید رفتار کنیم، فکر کرده اند.
از آنجایی که اخلاق ریشهشناختی در بیشتر موارد به ما اجازه نمیدهد فرد دیگری را بکشیم، ما را به این پذیرش منفعل سوق میدهد که پنج کارگر در نتیجه انفعال ما خواهند مرد نه تصمیم فعال برای کشتن یک نفر به خاطر دیگران. هنگامی که با مشکل تریلی مواجه میشوند، اکثر مردم به جای رویکرد فایدهگرایانه (یکی را بکش تا پنج نفر را نجات بدهند) رویکرد دئونتولوژیک (اجازه دهید پنج مرد بمیرند) را انتخاب میکنند.
اما، دی فریتاس و همکارانش می پرسند، واقعاً چند وقت یکبار با یک نوع معضل اخلاقی «مشکل چرخ دستی» مواجه می شویم، به خصوص وقتی پشت فرمان ماشین هستیم؟ بیایید به مثال قبلی خود برگردیم. به جای اینکه ماشین شما خودش رانندگی کند، خودتان در حال رانندگی هستید که ناگهان متوجه یک دختر دوچرخه سوار و یک مرد بی خانمان روی شانه می شوید. چه خواهید کرد؟
پاسخ باید واضح باشد - شما سعی خواهید کرد از ضربه زدن به هر یک از آنها اجتناب کنید. به ندرت با انتخاب اجباری بین دو جایگزین بد، چه در زندگی روزمره و چه در جاده مواجه می شویم. و از آنجایی که چنین موقعیتهایی بسیار نادر هستند، دی فریتاس و همکارانش استدلال میکنند، واقعاً نیازی به صرف تلاش زیادی برای یافتن اینکه چگونه میتوانیم ماشینهای بدون راننده خود را برای تصمیمگیری اخلاقی درست در این موارد فرضی برنامهریزی کنیم، وجود ندارد.
علاوه بر این، محققان استدلال می کنند که درک معضلات «ترولی» مانند مواردی که در اینجا ارائه شده است، عملاً غیرممکن است که در زمان واقعی درک شوند. این به این دلیل است که واکنشهای چند ثانیهای که هنگام رانندگی مورد نیاز است، اجازه بررسی اخلاقی متفکرانه را نمیدهد. بلکه بر اساس رفتارهای آموخته شده ای که چنان در ما ریشه دوانده است به طور خودکار واکنش نشان می دهیم که تصمیمات ما هرگز به سطح هوشیاری نمی رسد. قبل از اینکه حتی آگاهانه از دختر دوچرخه سوار و مرد روی شانه آگاه شویم، پای ما روی ترمز است.
در تئوری، حداقل، خودروهای بدون راننده دانش کامل تری از محیط اطراف خود دارند، زمان واکنش سریعتر و بدون نقص توجه دارند. تا جایی که بتوان این موارد را در عمل محقق کرد، خودروهای بدون راننده ایمن تر از رانندگان انسانی خواهند بود، بنابراین استفاده از آنها منجر به تلفات ترافیکی کمتری خواهد شد. چه رویکردی فایدهگرایانه یا ریشهشناسانه به اخلاق داشته باشید، بدون شک موافقید که ما باید تا حد امکان جان انسانها را نجات دهیم.
در نهایت، این موضوع وجود دارد که چگونه تصمیمگیری اخلاقی را در وهله اول برنامهریزی میکنیم. زمانی که آیزاک آسیموف سه قانون روباتیک خود را پیشنهاد کرد، هوش مصنوعی هنوز بیشتر یک رویا بود تا واقعیت. در آن زمان تصور می شد که انسان ها باید کدی را بنویسند که روبات هایشان از آن پیروی می کنند.
در دهه 1980، این به اصطلاح "هوش مصنوعی خوب قدیمی" متوقف شد. رویکرد از بالا به پایین برای طراحی دستگاههای هوشمند محدودیتهای زیادی دارد، شاید مهمترین آنها این واقعیت باشد که ما اغلب نمیدانیم انسانها چگونه کارهای پیش پا افتادهای مانند رانندگی ماشین را انجام میدهند. این بدان معناست که ما نیز نمی توانیم به رایانه بگوییم چگونه این کار را انجام دهد.
در عوض، پیشرفتهای سریع هوش مصنوعی که در 30 سال گذشته شاهد آن بودهایم، عمدتاً به دلیل استفاده از شبکههای عصبی مصنوعی است. این ساختارهای محاسباتی مغز مانند، به جای اینکه از قبل به آنها گفته شود چه کاری انجام دهند، از تجربیات خود یاد می گیرند. به عبارت دیگر، ماشینهای خودران رانندگی را به همان روشی که انسانها انجام میدهند، یاد میگیرند: با مواجهه با طیف گستردهای از موقعیتهای ترافیکی و به خاطر سپردن نتایج تصمیمهایی که گرفتهاند.
در مجموع، دی فریتاس و همکارانش معتقدند که بحث در مورد عوامل خودمختار که در زمان واقعی تصمیمات اخلاقی می گیرند، یک شاه ماهی قرمز است. این به این دلیل است که انسان ها نیز نمی توانند چنین تصمیماتی را در چند ثانیه اتخاذ کنند. در عوض، محققان استدلال میکنند، مهندسان باید تلاشهای خود را بر بهبود ایمنی خودروهای بدون راننده متمرکز کنند، در حالی که محققان حقوقی باید مسئولیت آن چند تصادفی را که اتفاق میافتد، تعیین کنند. هنگامی که داده ها نشان می دهد که اتومبیل های بدون راننده جان تعداد قابل توجهی از افراد را نجات می دهند، تصمیم اخلاقی برای استفاده از آنها مشخص خواهد شد.