Tidak masalah apakah itu Google, Tesla atau Amazon – mereka semua mengandalkan semikonduktor yang mereka produksi sendiri.
Alex Wong/Stephanie Keith/Justin Sullivan/Getty Images/BI

Amazon kini mengembangkan microchipnya sendiri untuk kecerdasan buatan (AI). Anak perusahaan cloud, Amazon Web Services, baru-baru ini mengumumkan hal ini pada konferensi pengguna AWS Re:Invent di Las Vegas. Chip yang disebut “Inferentia” dijadwalkan memasuki pasar pada tahun 2019 dan dirancang untuk menganalisis data dalam jumlah besar. Hal ini dimaksudkan untuk menawarkan kepada peneliti AI “kinerja tinggi dengan biaya rendah” dan tersedia bagi pelanggan melalui cloud AWS.

Amazon kemudian bergabung dengan daftar panjang perusahaan teknologi yang membangun microchip khusus untuk aplikasi kecerdasan buatan. Ini termasuk Google, Tesla, Facebook, Microsoft, Baidu dan Alibaba. Menurut pengamat industri, perkembangan ini merupakan revolusi chip yang sesungguhnya.

Alasannya: Aplikasi AI saat ini memerlukan banyak operasi komputasi simultan yang tidak dirancang untuk prosesor biasa (CPU). “Perangkat lunak dengan kecerdasan buatan meniru otak manusia,” kata Dirk Timmermann dari Ketua Mikroelektronika di Universitas Rostock dalam sebuah wawancara dengan Business Insider. “Jaringan saraf manusia dicirikan oleh fakta bahwa sejumlah besar operasi komputasi dilakukan secara bersamaan. Ia bekerja dengan cara yang sama dengan jaringan saraf tiruan. Meskipun sekitar satu juta kali lebih cepat daripada simpul saraf di otak, CPU klasik hanya dapat melakukan satu operasi aritmatika per unit waktu; itu tidak dirancang untuk komputasi paralel.”

Dalam hal kecerdasan buatan, prosesor grafis sudah mencapai batasnya

Alih-alih prosesor klasik, prosesor grafis (GPU) sering digunakan untuk aplikasi AI. Berkat arsitekturnya yang terdiri dari banyak inti prosesor paralel, mereka mampu melakukan banyak langkah komputasi secara bersamaan. Oleh karena itu, mereka tidak hanya cocok untuk perhitungan grafis, tetapi juga untuk aplikasi AI. Produsen chip grafis terkemuka kini juga telah mengembangkan perangkat keras yang dirancang khusus untuk AI. Misalnya Tesla V100 dari Nvidia atau Radeon Vega Frontier Edition dari AMD.

Chip AI Google generasi ketiga dapat mempercepat dan melatih AI.

Chip AI Google generasi ketiga dapat mempercepat dan melatih AI.
Google

Namun prosesor grafis juga mencapai batasnya dalam hal AI. “GPU sebenarnya cukup bodoh,” jelas Dirk Timmermann. “Untuk mencapai kecepatan lebih dengan paralelisme maksimum operasi komputer, perusahaan teknologi besar kini mulai mengembangkan microchip mereka sendiri. Di satu sisi, teknologi ini memungkinkan penggunaan di pusat data yang besar, namun di sisi lain, teknologi ini juga dapat digunakan di perangkat yang lebih kecil seperti ponsel pintar atau peralatan rumah tangga yang cerdas, di mana aplikasi kecerdasan buatan menjadi semakin penting,” ujar sang ahli.

Salah satu perusahaan perangkat lunak pertama yang mulai mengembangkan perangkat keras AI mereka sendiri adalah Google. Perusahaan meluncurkan versi pertama TensorFlow Processing Unit (TPU) pada tahun 2016. Ini adalah prosesor khusus yang digunakan, misalnya, untuk permintaan pencarian Google baru atau untuk pemrosesan suara oleh Asisten Google. Perangkat keras ini dirancang khusus untuk mempercepat jaringan saraf tiruan.

Pada konferensi pengembang I/O tahun ini di bulan Mei, Google menghadirkan TPU generasi ketiga. Microchip baru ini mencapai kekuatan komputasi 100 petaflops yang luar biasa. Mereka digunakan di pusat data Google dan dapat digunakan untuk mempercepat jaringan saraf dan melatihnya menggunakan data dalam jumlah besar. Mereka tidak hanya mendukung aplikasi seperti layanan peta Google Street View dan layanan terjemahan Google Translate di latar belakang, namun juga tersedia untuk pelanggan bisnis melalui layanan cloud Google. Hal ini memungkinkan perusahaan untuk mengembangkan dan melatih kecerdasan buatan untuk aplikasi mereka sendiri.

Tesla juga mengembangkan chipnya sendiri untuk kecerdasan buatan

Namun tidak hanya perusahaan perangkat lunak yang mengembangkan semikonduktornya sendiri, pembuat mobil listrik Tesla juga sedang mengerjakan chip AI miliknya sendiri untuk meningkatkan fungsi sistem “autopilot” miliknya. Elon Musk, bos Tesa, mengatakan hal ini dalam panggilan telepon dengan investor pada bulan Agustus, di mana ia juga mengumumkan bahwa perusahaan tersebut telah mengakhiri kerja samanya dengan Nvidia. Pembuat kartu grafis tersebut sebelumnya merupakan pemasok perangkat keras AI yang digunakan pada komputer on-board Tesla.

“Saya penggemar berat Nvidia, mereka melakukan hal-hal hebat. Namun menggunakan GPU pada dasarnya adalah emulasi,” Musk menjelaskan langkah tersebut. Di bidang TI, emulator adalah sistem yang mereplikasi sistem lain dalam aspek tertentu. “Selama dua hingga tiga tahun terakhir, kami telah mengerjakan Tesla secara diam-diam. komputer, tapi saya pikir sekarang adalah waktu yang tepat untuk melepaskan diri dari masalah ini,” kata Musk.

Tesla V100 Nvidia mempercepat jaringan saraf.

Tesla V100 Nvidia mempercepat jaringan saraf.
Nvidia

Chip AI milik perusahaan dimaksudkan untuk membantu komputer terpasang Tesla mengevaluasi dan memahami data dari kamera kendaraan, radar, dan sensor lainnya. Menurut Musk, meskipun teknologi Nvidia hanya memungkinkan komputer Tesla memproses 200 gambar individu (frame) per detik, chip yang dikembangkan secara khusus akan menghasilkan 2.000 frame per detik. “Jika Anda benar-benar merancang apa yang Anda butuhkan, Anda akan mendapatkan hasil yang jauh lebih baik,” kata Jim Keller, wakil presiden sistem autopilot Tesla, pada konferensi AI pada bulan Agustus.

Namun, Nvidia membantah solusi yang dikembangkan Tesla lebih baik dari miliknya. “Perbandingannya dengan microchip yang saat ini mereka gunakan pada mobil mereka yang berumur sepuluh tahun. Semikonduktor terbaru Nvidia setidaknya sepuluh kali lebih cepat, setara dengan Tesla,” jelas Danny Shapiro, direktur divisi otomotif di Nvidia, kepada portal teknologi “Wired”.

Intel mengumumkan chip AI untuk akhir tahun 2019

“Perusahaan teknologi besar mengembangkan chip AI mereka sendiri karena mereka tidak punya pilihan lain,” jelas Michael Hübner, ketua teknik komputer di Universitas Teknologi Brandenburg kepada Business Insider. “Prosesor grafis hanya sedikit yang cocok untuk aplikasi kecerdasan buatan dan hampir tidak ada microchip yang dirancang khusus untuk AI di pasaran. Hal ini mungkin disebabkan karena kebutuhannya yang belum cukup besar. Biaya pengembangan sistem chip semacam itu sangat tinggi, sehingga hanya menguntungkan jika diproduksi dalam jumlah yang sangat besar.”

“GPU sangat kuat dan telah berkembang menjadi berbagai macam
“Aplikasi AI telah membuktikan diri berkat kekuatan komputasi yang luar biasa,” kata Torsten Klie dari Interdisciplinary Center for Embedded Systems di Universitas Erlangen-Nuremberg dalam sebuah wawancara dengan Business Insider. “Namun, performa tinggi sering kali harus dibayar dengan konsumsi energi yang relatif tinggi, sehingga membatasi jangkauan aplikasi yang memungkinkan
Perangkat sehari-hari mempersulit hal ini.”

Prosesor jaringan saraf dari Intel.

Prosesor jaringan saraf dari Intel.
Intel

Rolf Drechsler dari Pusat Penelitian Kecerdasan Buatan Jerman (DFKI) melihat alasan lain bagi upaya raksasa teknologi untuk mengembangkan chip AI mereka sendiri: Jika Anda memerlukan perangkat keras untuk tugas yang sangat spesifik di bidang AI, mereka belum tentu menginginkannya. memiliki. dari Kutub mereka. Misalnya, jika Google menghubungi Nvidia dan mengatakan kami memerlukan fungsi tambahan tertentu pada chip AI Anda, maka produk tersebut juga akan tersedia untuk dibeli melalui perusahaan lain seperti Amazon atau Facebook. Dengan demikian, Google akan menanggung risiko mentransfer pengetahuan ke pesaing. Area perangkat keras AI menjadi terlalu penting untuk hal seperti itu.”

Namun demikian, waktu untuk memasarkan chip AI secara massal tampaknya sudah dekat. Dalam beberapa tahun terakhir, Intel telah mengakuisisi beberapa perusahaan di bidang kecerdasan buatan. Pada tahun 2016 misalnya, Nervana, sebuah startup untuk proses pembelajaran mendalam, serta spesialis chip AI Movidius, dan pada tahun 2017, startup Mobileye yang berspesialisasi dalam pengenalan gambar dan teknologi kamera. Tahun lalu, Intel menghadirkan prototipe chip AI, Nervana Neural Network Processor (NNP), yang dikembangkan oleh perusahaan dengan nama yang sama.

Baca juga: Amazon telah membangun kecerdasan buatan untuk aplikasi yang mendiskriminasi perempuan

Pada akhir tahun 2019, Intel mengumumkan chip AI pertama untuk pasar yang luas, Nervana Neural Net L-1000. Hal ini, bersama dengan langkah-langkah lainnya, adalah “bagian dari strategi yang koheren dan jelas untuk memasukkan kemampuan pelatihan AI terbaru ke dalam portofolio semikonduktor Intel,” kata Wakil Presiden Intel Naveen Rao dalam sebuah pengumuman pada bulan Mei. Masih harus dilihat apakah raksasa semikonduktor ini akan berhasil dalam hal ini.

lagutogel