Melinda Sue Gordon/Paramount/”Terminator Genisys”

Adalah hal yang baik untuk berjanji tidak akan pernah membuat robot pembunuh.

Hal itulah yang dilakukan oleh para pemimpin teknologi seperti Elon Musk, CEO Tesla dan pendiri DeepMind, perusahaan kecerdasan buatan Google, minggu lalu ketika mereka menghadiri konferensi tersebut. Konferensi Gabungan Internasional tentang Kecerdasan Buatan menandatangani deklarasi.

Mereka menyatakan bahwa mereka tidak akan pernah mengembangkan “senjata otonom yang mematikan” dan memberikan dua alasan penting untuk hal ini. Pertama, dari sudut pandang mereka, menyerahkan keputusan untuk membunuh manusia kepada mesin adalah hal yang tercela secara moral.

Alasan kedua adalah mereka percaya bahwa senjata otonom dapat “mengganggu kestabilan yang berbahaya bagi setiap negara dan setiap orang.”

Mengutuk robot pembunuh tidak tepat sasaran

Business Insider berbicara dengan Mariarosaria Taddeo dari Oxford Internet Institute. Dia mengungkapkan kekhawatirannya tentang janji itu.

“Ini patut dipuji – ini adalah inisiatif yang baik,” katanya. “Tetapi menurut saya pendekatan mereka terlalu sederhana.”

“Mereka tidak menyebutkan penggunaan kecerdasan buatan secara langsung dan berdampak dalam konteks konflik internasional,” lanjut Taddeo.

“Kekhawatiran saya adalah mereka mengalihkan perhatian kita dengan hanya berfokus pada kasus ekstrem, robot pembunuh yang mengambil alih dunia dan hal-hal seperti itu. Mereka mengalihkan perhatian dan perdebatan dari isu-isu yang lebih bernuansa namun mendasar yang perlu ditangani.”

Apakah AI tidak seseram di medan perang dibandingkan di komputer?

Militer AS membedakan antara AI yang bergerak (misalnya, AI yang digunakan dalam robot) dan AI yang diam, yang ditemukan dalam perangkat lunak.

Robot pembunuh termasuk dalam kategori AI yang sedang bergerak dan beberapa negara sudah menggunakan aplikasi perangkat keras AI ini. Angkatan Laut AS punya satu kapal perang otonom dan drone Israel mampu melakukannya mengidentifikasi dan menyerang target secara mandiri, meskipun saat ini mereka membutuhkan setidaknya satu orang untuk memberikan sinyal start.

Pemburu Laut

Sea Hunter, kapal laut tak berawak kelas baru diluncurkan di Sungai Willamette setelah upacara pembaptisan di Portland, Oregon.
Angkatan Laut AS/John F. Williams

Namun AI yang menurut Taddeo patut untuk dicermati lebih dekat—yaitu, penggunaan AI untuk pertahanan siber nasional.

“Konflik dunia maya semakin meningkat frekuensinya, dampaknya, dan tingkat kecanggihannya,” ujarnya. “Negara-negara semakin bergantung pada mereka dan AI adalah kemampuan baru yang mulai digunakan oleh negara-negara dalam konteks ini.”

Virus WannaCry, yang menyerang Layanan Kesehatan Nasional Inggris pada tahun 2017, telah dikaitkan dengan Korea Utara, dan pemerintah Inggris dan AS bersama-sama menyalahkan Rusia atas serangan ransomware NotPetya, yang menelan biaya lebih dari $1,2 miliar.

Taddeo mengatakan penggunaan sistem pertahanan AI dapat mengubah sifat perang siber secara serius.

Baca juga: Sekelompok ilmuwan yakin: 2050 bisa jadi akhir umat manusia

“AI pada dasarnya mampu mempertahankan sistem ketika dikerahkan, namun juga dapat secara mandiri menargetkan target dan merespons serangan yang datang dari mesin lain,” katanya. “Kalau dilihat dalam konteks konflik dalam rumah tangga, bisa menimbulkan banyak kerugian. Mudah-mudahan hal ini tidak menyebabkan terbunuhnya banyak orang, namun dapat dengan mudah menyebabkan eskalasi konflik dan kerusakan serius pada infrastruktur penting nasional.”

Tidak ada penyebutan AI jenis ini dalam janji tersebut, yang menurut Taddeo merupakan kelalaian yang mencolok.

“AI bukan hanya tentang robotika,” katanya. “AI juga menangani dunia maya, non-fisik. Dan itu tidak mengurangi permasalahannya.”

Sistem AI yang saling bertarung bisa menjadi masalah besar

Saat ini, sistem AI yang saling menyerang belum menyebabkan kerusakan fisik, namun hal tersebut dapat berubah, Taddeo memperingatkan.

“Semakin masyarakat kita bergantung pada AI, semakin besar kemungkinan serangan antar sistem AI kita akan menyebabkan kerusakan fisik,” ujarnya. “Pada bulan Maret tahun ini, AS mengumumkan bahwa Rusia telah menyerang infrastruktur penting negara tersebut selama berbulan-bulan. Jadi anggaplah Anda dapat menyebabkan pemadaman listrik secara nasional atau merusak sistem kendali udara.”

“Ketika kita mulai memiliki sistem AI yang dapat menyerang secara mandiri dan bertahan secara mandiri, kita dapat dengan mudah menemukan diri kita berada dalam dinamika yang semakin meningkat yang tidak dapat kita kendalikan,” tambahnya. Di dalam sebuah artikel untuk “Alam” Taddeo memperingatkan risiko “perlombaan senjata dunia maya”.

Donald Trump dan Vladimir Putin
Donald Trump dan Vladimir Putin
Chris McGrath/Getty Images

“Meskipun negara-negara sudah menggunakan AI yang agresif ini, namun belum ada pedomannya,” katanya. “Tidak ada norma yang mengatur perilaku pemerintah di dunia maya. Dan kami tidak tahu harus mulai dari mana.”

Pada tahun 2004, PBB mengumpulkan sekelompok ahli untuk memahami dan mendefinisikan prinsip-prinsip tentang bagaimana negara harus berperilaku di dunia maya, namun pada tahun 2017 mereka gagal mencapai kesepakatan apa pun.

Meski begitu, dia yakin bahwa kesepakatan untuk tidak membuat robot pembunuh adalah hal yang baik. “Jangan salah paham – ini sikap yang baik,” katanya. “Ini adalah tindakan yang menurut saya tidak akan berdampak banyak terhadap kebijakan dan regulasi. Dan hal-hal tersebut membawa risiko dan tidak ada yang salah dengan itu. Tapi masalahnya lebih besar.”

uni togel