Belum ada jawaban atas setiap pertanyaan hukum mengenai kecerdasan buatan – misalnya, apakah kecerdasan buatan dapat menyelesaikan kontrak atau menyebabkan kerugian.
Kecerdasan buatan dapat menyiapkan laporan pajak, memeriksa kontrak untuk masalah hukum, dan mendiagnosis kanker paru-paru – dan terkadang lebih baik daripada manusia. Hal yang tidak dapat dilakukan oleh kecerdasan buatan (AI): Bertanggung jawab atas kesalahan – seperti kesalahan diagnosis. Sebuah teknologi tidak bisa membayar kompensasi dan tentunya tidak bisa dipenjara.
Namun pertanyaan tentang tanggung jawab bukanlah satu-satunya hal yang berperan dalam AI, kata pengacara Torsten Kraul. Pengacara Munich mengkhususkan diri pada perusahaan yang membutuhkan nasihat hukum di bidang Internet of Things, blockchain, software-as-a-service atau AI. Dia menjelaskan kepada kami situasi hukum saat ini mengenai kecerdasan buatan.
Bisakah kecerdasan buatan membuat kontrak?
Katakanlah mesin manufaktur pintar dilatih untuk menyusun ulang bahan tertentu ketika habis. Karena sistemnya cerdas, sistem ini dapat dan harus menentukan sendiri berapa banyak material yang dibutuhkan. Sekarang mesin ini memesan empat ton kayu berdasarkan perhitungannya dan pemasok kayu mengirimkannya. Apa yang tidak diketahui mesin tersebut: Perusahaan tempatnya berada tidak memiliki ruang untuk empat ton kayu. Apa sekarang?
“Di sini kita awalnya dihadapkan pada pertanyaan apakah perintah tersebut efektif,” kata Kraul. “Kontrak sebenarnya dibuat oleh manusia. Haruskah kontrak yang dibuat oleh sistem otonom diakui demikian?” Pada dasarnya: Ya. Menurut Kraul, hingga saat ini pihak yang menggunakan mesin tersebut bertanggung jawab atas penjelasannya.
Hal ini mungkin berubah di masa depan. “Pendekatan ini menjadi lebih penting ketika hasil pernyataan yang dibuat oleh AI semakin menjauh dari kemungkinan kendali operator.” Untuk mengatasi masalah ini, Parlemen Uni Eropa mengusulkan untuk mengklasifikasikan kecerdasan buatan sebagai “e-persons”. “Setidaknya untuk robot otonom paling canggih” “status sebagai manusia elektronik” harus ditetapkan, katanya dalam laporan Parlemen. E-person harus digunakan dalam kasus “di mana robot membuat keputusan independen atau berinteraksi dengan pihak ketiga secara independen”.
Siapa yang bertanggung jawab jika AI melakukan kesalahan?
Sekalipun kerugian terjadi karena kecerdasan buatan, pengenalan manusia elektronik akan masuk akal, lanjut laporan UE. Oleh karena itu, mereka “bertanggung jawab untuk memberikan kompensasi atas segala kerusakan yang disebabkan oleh mereka”. Namun kecerdasan buatan belum memiliki kepribadian elektronik.
Jika terjadi kerusakan saat menggunakan produk dengan kecerdasan buatan, hal berikut ini berlaku: Asalkan operator telah menggunakan dan memelihara sistem dengan benar, ia umumnya tidak bertanggung jawab. “Namun ini bukanlah solusi ideal untuk masa depan AI,” kata Kraul. “Mari kita bayangkan sebuah sistem medis yang membuat diagnosis berdasarkan pengetahuan ilmiah. Jika sistem ini membuat kesalahan yang merugikan pasien, dokter cukup mengatakan “Saya menggunakan sistem dengan benar” – dan pasien tidak akan tahu apa-apa. Artinya, orang yang terkena dampak tidak akan menerima kompensasi apa pun.
Apakah ini benar – tidak ada seorang pun yang bertanggung jawab atas kerugian yang disebabkan oleh AI? Ya, bisa, jelas Kraul. “Sistem hukum pertanggungjawaban kita didasarkan pada asas kesalahan. Artinya, seseorang bertanggung jawab jika dituduh melakukan perbuatan dengan sengaja atau lalai.” “Jika seseorang tidak dapat disalahkan atas kesengajaan atau kelalaiannya, kerugian yang paling serius dapat terjadi namun tidak seorang pun dapat bertanggung jawab,” kata Kraul. Kerusakan tersebut kemudian akan masuk dalam kategori “risiko kehidupan umum”. Contoh klasik dari hal ini adalah kerusakan yang disebabkan oleh alam, misalnya ketika sebuah batu pecah saat mendaki gunung dan melukai pendaki. Ini pada dasarnya adalah risiko hidup yang umum dan tidak ada seorang pun yang bertanggung jawab atas hal itu.
Kasus khusus kendaraan otonom
Karena kecelakaan yang melibatkan mobil pintar lebih sering terjadi, situasi hukum di sini lebih spesifik. Jika kendaraan otonom menyebabkan kerusakan pada seseorang, biasanya polis asuransi kendaraan pemilik kendaraan akan menanggung kerusakan tersebut. Pabrikan hanya bertanggung jawab jika kerusakan yang terjadi pada mobil disebabkan oleh cacat pada kendaraan – seperti kesalahan perangkat lunak.
Operator AI sebagai “wali sah”?
Ada banyak saran tentang cara mengatasi kerusakan yang disebabkan oleh AI dengan lebih baik, kata Kraul. “Bisa dibayangkan operator bertanggung jawab kepada sistem seperti wali sah atau pemilik hewan,” jelasnya. Atau siapa pun yang menggunakan sistem cerdas harus menerima bahwa kerugian dapat terjadi – dan oleh karena itu bertanggung jawab, apa pun kesalahannya, jika terjadi sesuatu. Namun, apa yang disebut “tanggung jawab ketat umum” ini belum ada ketika kecerdasan buatan digunakan.
Yang mendasari semua ini, kata Kraul, adalah satu pertanyaan: Bagaimana kita sebagai masyarakat menyikapi fenomena AI? “Apakah kita menginginkan AI atau tidak? Jika kita menginginkannya, kita harus menciptakan kondisi kerangka agar dapat digunakan.”