Mobil otonom akan segera mendominasi jalanan. Teknologi merupakan sebuah hambatan, namun masalah etika jauh lebih besar.

Bisakah mobil saya membunuh saya? Ini adalah kendaraan penelitian otonom baru F 015 “Luxury in Motion” dari Mercedes-Benz

Ini adalah salah satu pertanyaan paling terkenal dalam etika dan yurisprudensi: “Sebuah kereta api lepas kendali dan mengancam akan membunuh lima orang. Mereka dapat diselamatkan dengan menekan tombol, tetapi orang lain yang tidak terlibat akan mati. Bagaimana Anda harus memutuskannya?”

Sejauh ini masalahnya hanya terbatas pada serangan teroris saja Pengadilan Federal memutuskan dengan jelas pada tahun 2006misalnya tidak boleh menembak jatuh pesawat yang dibajak karena tidak sesuai dengan “…hak hidup menurut Pasal 2 Ayat 2 Kalimat 1 GG juncto jaminan harkat dan martabat manusia dalam Pasal 1 Ayat 1 GG” . Masalahnya adalah produsen mobil kini menghadapi pertanyaan ini.

Komputer di dalam mobil harus dilengkapi dengan perangkat lunak yang memecahkan masalah ini atau mengambil keputusan. Apakah saya menabrak satu orang, menabrak sekelompok orang, atau membahayakan nyawa pengemudi saya? Seorang pilot manusia juga nantinya harus mempertanggungjawabkan perbuatannya di pengadilan. Tapi siapa yang akan Anda bawa ke pengadilan jika mobil melaju sendirian?

Dari sudut pandang hukum murni, pertanyaannya mudah dijawab: Ada tanggung jawab produsen. Volvo, Mercedes dan Google kini telah mengumumkan bahwa mereka menerima tanggung jawab atas kecelakaan yang melibatkan kendaraan yang sepenuhnya otonom ingin mengambil alih. Namun, ini berarti pabrikan hanya turun tangan setelah terjadi kecelakaan jika sudah jelas bahwa pengemudi tidak pernah memiliki kesempatan untuk campur tangan dalam pengambilan keputusan mobil.

Namun apa jadinya jika Anda membalikkan contoh di atas? Jadi bagaimana jika seorang pengemudi dengan niat membunuh mengejar lima orang dan perangkat elektronik kemudian turun tangan? Bisakah dia memutuskan bahwa kematian satu orang lebih bisa diterima daripada kematian lima orang? Contoh lain: Jika seseorang melompat ke jalan dengan niat bunuh diri, apakah kendaraannya boleh berbelok dan berpotensi membahayakan pengemudinya? Bagaimana elektronik bisa mengetahui bahwa seseorang ingin bunuh diri? Pada akhirnya, pertanyaannya adalah apakah elektronik dapat mengganggu keputusan seseorang.

Fakta bahwa sebuah mobil dapat mengambil keputusan untuk membunuh pengemudinya daripada menabrak sekelompok anak-anak membuat banyak produsen khawatir. Karena siapa yang mau membeli mobil seperti itu? Di sebuah Sekolah Ekonomi Versuch der Toulouse Beberapa ratus orang ditanya apakah mereka akan mendukung keputusan kendaraan yang membiarkan pengemudinya meninggal. Sebagian besar menjawab ya, tetapi juga menjelaskan bahwa mereka tidak akan membeli mobil seperti itu.

Namun pertanyaan yang juga muncul adalah apakah mungkin untuk memprogram seperangkat aturan etis. Bisakah Anda memasukkan sistem nilai ke dalam algoritma yang kemudian mengambil semua keputusan? Bagaimana jika moral atau etika berubah? Filsuf terkenal Julian Nida-Rümelin merasa meresahkan ketika mesin membuat keputusan moral yang rumit. Dia mendapat ide tentang generator acak, di mana perangkat lunak secara acak memutuskan apa yang akan dilakukan selanjutnya.

Artinya terkadang dia mengemudikan mobilnya ke dalam kelompok yang terdiri dari lima orang, terkadang dia mengemudikan mobil sedemikian rupa hingga pengemudinya meninggal. Unsur takdir akan terus mendominasi, sehingga produsen tidak perlu lagi memprogram algoritma untuk menentukan kerusakan mana yang paling kecil. Namun, pihak produser belum memutuskan apa yang ingin mereka lakukan. Waktu adalah hal yang sangat penting, karena kendaraan otonom pertama diperkirakan akan hadir di jalan raya pada awal tahun 2018.

Gambar: Daimler AG

Result SGP