چکیده:
این موضوع که فاعل های اخلاقی هوشمند قطعا روزی وجود خواهند داشت، باعث شده است متخصان اخلاق تحقیقات گسترده ای را در این زمینه آغاز کنند. رشته اخلاق ماشین، در پی آن است که روبات های اخلاقی خلق کند. به این منظور چارچوب های اخلاقی ای را پیشنهاد می کند تا در ماشین ها به کار گرفته شود و متضمن رفتار اخلاقی آنها باشد. این مقاله به بررسی چگونگی پیاده سازی و اجرای اخلاق وظیفه گرایانه کانتی در ماشین ها می پردازد و نقاط قوت و ضعف این رویکرد را بیان کرده، پیچیدگی ها و مشکلات این پیاده سازی را بررسی می کند.
خلاصه ماشینی:
"حقیقـت آن اسـت کـه نمی تـوان اطلاعـات سـه هـزار سـاله فیلسـوفان دربـاره رفتارهـای اخلاقـی انسـان ها را بــر یـک نظریـه اخلاقــی منطبـق کــرد و تصـدیق کـرد کــه همـه ایــن اطلاعــات و دانــش اخلاقــی ، بــا یــک نظریــه ســازگار هســتند؛ بنــابراین ، بــه نظــر می رســد نمی توان گفت رویکردهای از بالا بـه پـایین بـه تنهـایی قادرنـد تمـام پیچیـدگی هـای اخلاقـی یک موجود هوشمند را پوشش دهند (٤٦٥ :٢٠٠٨ ,Wallach).
طبق نظر کانت ، اعمـال اخلاقـی اعمـالی هسـتند کـه مطـابق امـر مطلـق باشـند (قـانون عینی اخلاق )، بر حسـب وظیفـه انجـام شـده باشـند (بـه خـاطر اخـلاق )، و موجـوداتی آنهـا را انجــام داده باشــند کــه عقلانــی و آزاد هســتند (فاعل هــای اخلاقــی ).
معنای دقیـق و کـاربرد نظریـه کانـت بـین فیلسـوفان بحـث برانگیـز اسـت ، امـا مهندسـی کــه در حــال ســاخت یــک autonomous moral agent( AMA) اســت از امــر مطلــق ، چــه چیــزی می فهمــد؟ نخســتین تخمــین معقــول ایــن ایــده اســت کــه روبات هــایی کــه از بــین گزینـه های مختلــف گزینــه ای را انتخــاب می کننــد، بایــد بررسـی شــوند، تــا ببینــیم کــه اگــر فاعل هـای مشـابه دیگـر هـم بـه همـین روش در تطـابق بـا موقعیت هـا عمـل می کردنـد، آیـا می توانستند به اهداف خود برسـند.
ایــن اســتدلال ها همــه در جهــت بــرآورده کــردن اهــداف انســانی هســتند؛ در جهــت حمایـت از انسـان ها در مقابـل اشـتباه های اخلاقـی ، توسـعه درک انسـان ها از اخـلاق ، سـاخت روبات هــا بــه عنــوان مشــاور اخلاقــی انســان ها، و خلــق ماشــین هایی بــرای افــزایش لــذت انسان ها و غیره ؛ و هیچ تـوجهی بـه ماشـین بـه مثابـه چیـزی کـه خـودش یـک هـدف اسـت ندارند."