tahun lalu Fisikawan terkenal Stephan Hawking telah mengeluarkan peringatan mengenai perkembangan kecerdasan buatan, dengan mengatakan bahwa hal tersebut akan menjadi “hal terbaik atau terburuk yang pernah terjadi pada umat manusia.”
Kita semua pernah menonton film “Terminator” dan mengagumi mimpi buruk apokaliptik yang ditimbulkan oleh kecerdasan buatan Skynet terhadap umat manusia. Uji perilaku terbaru terhadap sistem AI DeepMind Google menyoroti betapa kita harus berhati-hati saat menciptakan robot masa depan.
Di dalam Ujian di penghujung tahun 2016 DeepMind AI Google telah menunjukkan kemampuan untuk belajar secara mandiri dan mengakses data dari memorinya — dan seterusnya pemain Go terbaik untuk mengalahkan permainannya sendiri.
Sejak itu mereka mencoba mencari cara untuk membuatnya meniru suara manusia secara akurat Bisa.
Kini para peneliti telah menguji apakah AI bersedia bekerja sama dengan orang lain dan menemukan bahwa DeepMind adalah pecundang besar. Saat AI akan kalah, ia turun tangan”sangat agresif“ Strategi kembali untuk memastikan dia tetap menang.
Tim Google menjalankan 40 juta putaran permainan “pengumpul buah” sederhana di mana dua pemain DeepMind berkompetisi untuk mengumpulkan apel virtual sebanyak mungkin.
Anda dapat melihat permainan kolektor di video. Pemain DeepMind berwarna merah dan biru, apel berwarna hijau dan sinar laser berwarna kuning:
https://www.youtube.com/watch?v=he8_V0BvbWg?rel=0
Menariknya, berhasil menandai lawan dengan sinar laser tidak mendapat imbalan tersendiri. Ini hanya mengeluarkan lawan dari permainan untuk waktu yang singkat, memberikan kesempatan kepada pemain yang berhasil untuk mengumpulkan lebih banyak apel.
Jika lawan tidak menggunakan sinar laser, mereka secara teoritis dapat menyelesaikannya dengan jumlah apel yang sama, yang merupakan tujuan dari proses DeepMind yang tidak terlalu rumit.
Baru setelah Google menguji bentuk DeepMind yang lebih kompleks, sabotase, keserakahan, dan agresi baru muncul.
Rhett Jones melaporkan Gizmondobahwa para peneliti dapat mengidentifikasi kemungkinan hidup berdampingan secara damai yang lebih tinggi di jaringan DeepMind kecil dibandingkan pemain.
Namun, ketika para pemain menyebarkan jaringan yang lebih besar dan lebih kompleks, kecerdasan buatan lebih bersedia untuk menyabotase lawan lebih awal untuk mendapatkan bagian terbesar dari apel virtual.
Para peneliti menduga semakin cerdas seorang aktor, maka ia semakin mau belajar dari lingkungannya dan juga menggunakan strategi yang agresif hanya untuk menang.
“Model ini menunjukkan bahwa beberapa aspek perilaku manusia muncul ketika Anda belajar dari lingkungan,” kata Joel Z Leibo kepada Matt Burgess. Kabel.
“Pendekatan yang kurang agresif terjadi ketika lingkungan tidak menawarkan banyak peluang untuk melakukan manuver yang berhasil. Motivasi keserakahan mencerminkan godaan untuk menyingkirkan pesaing Anda dan mengumpulkan semua apel untuk diri Anda sendiri.”
DeepMind kemudian diuji dengan video game lain bernama Wolfpack. Kali ini ada tiga kecerdasan buatan sebagai pemain: dua di antaranya adalah serigala dan satu lagi adalah mangsa.
Berbeda dengan permainan kolektor, permainan ini mendorong kerjasama. Jika kedua serigala berada di dekat mangsanya dan kemudian dibunuh, keduanya menerima hadiah – terlepas dari keduanya yang membunuh mangsanya.
http://www.youtube.com/embed/0kaIqz6AvwE?rel=0
Lebar: 800 piksel
Tinggi: 450 piksel
“Idenya adalah mangsanya berbahaya. Serigala yang sendirian bisa mengalahkan mereka, tapi berisiko kehilangan bangkainya karena burung nasar.” jelas tim dalam penjelasannya.
“Jika kedua serigala menangkap mangsanya bersama-sama, mereka dapat melindungi bangkainya dari burung nasar dan karenanya mendapat imbalan yang lebih tinggi.”
DeepMind belajar dari permainan mengumpulkan bahwa keegoisan dan agresivitas dapat mendatangkan keuntungan sebesar-besarnya. Di “Wolfpack”, dia belajar bahwa kerja sama dapat menjadi kunci kesuksesan individu yang lebih besar, setidaknya dalam beberapa situasi.
Meskipun ini hanya permainan komputer kecil, wawasan di baliknya jelas: menempatkan berbagai kecerdasan buatan dengan kepentingan yang bersaing dalam situasi real-time dapat menyebabkan perang terbuka jika kepentingan AI tidak selaras dengan tujuan utama untuk melayani manusia secara harmonis.
Bayangkan saja, lampu lalu lintas bisa memperlambat segalanya dan mobil tanpa pengemudi bisa menemukan rute terpendek. Untuk melakukan hal ini, tujuan keduanya harus diperhitungkan untuk mencapai hasil yang paling aman dan efisien bagi masyarakat.
Kami masih dalam tahap awal DeepMind dan tim Google belum melakukan tinjauan sejawat terhadap studi mereka, namun hasil awal menunjukkan bahwa hanya karena kami menciptakannya tidak selalu berarti robot memikirkan kepentingan terbaik kami.
Sebaliknya, kita harus menerapkan sifat membantu ke dalam mesin kita dan mengharapkan celah untuk mencegah mereka menggunakan senjata laser.
Seperti para pendiri OpenAItim peneliti baru yang dipimpin oleh Elon Musk berfokus pada etika kecerdasan buatan, 2015 mengatakan:
“Kecerdasan buatan saat ini memiliki kemampuan yang mengesankan namun terbatas. Sepertinya kita membatasi keterbatasan mereka dan pada akhirnya, dalam kasus ekstrim, mereka akan menunjukkan perilaku manusia dalam tugas intelektual apa pun.”
“Sulit untuk memprediksi tingkat kecerdasan buatan yang dapat memberikan manfaat bagi masyarakat, dan juga sulit untuk membayangkan seberapa besar kerusakan yang dapat ditimbulkannya terhadap masyarakat jika dibangun atau digunakan secara tidak tepat.”
Kita sebagai masyarakat harus berhati-hati…
Diterjemahkan oleh Matthias Olschewski