Kesepakatan Google dengan Anthropic merupakan “validasi yang sangat kuat untuk TPUs,” yang dapat mendorong lebih banyak perusahaan untuk mencobanya, kata analis Seaport Jay Goldberg. “Banyak orang sudah memikirkan hal ini, dan kemungkinan besar lebih banyak orang lagi yang memikirkannya sekarang.”
Unit pemrosesan grafis atau GPU, bagian dari pasar chip yang didominasi oleh Nvidia, awalnya diciptakan untuk mempercepat rendering grafis — terutama dalam permainan video dan aplikasi efek visual lainnya — tetapi ternyata sangat cocok untuk melatih model AI karena mampu menangani jumlah data dan perhitungan yang besar. TPUs, di sisi lain, adalah jenis produk khusus yang dikenal sebagai sirkuit terpadu khusus aplikasi (ASIC), atau microchip yang dirancang untuk tujuan tertentu.
Google mulai mengembangkan TPU pertamanya pada tahun 2013 dan merilisnya dua tahun kemudian. Awalnya, TPU digunakan untuk mempercepat mesin pencari web perusahaan dan meningkatkan efisiensi. Google mulai memasang TPUs di platform cloud-nya pada tahun 2018, memungkinkan pelanggan untuk mendaftar layanan komputasi yang berjalan di atas teknologi yang sama yang telah mempercepat mesin pencari.
Hal ini juga diadaptasi sebagai akselerator untuk tugas-tugas kecerdasan buatan (AI) dan pembelajaran mesin (machine learning) dalam aplikasi Google sendiri. Karena Google dan unit DeepMind-nya mengembangkan model AI terdepan seperti Gemini, perusahaan ini dapat mengambil pelajaran dari tim AI dan membagikannya kepada para desainer chip, sementara kemampuan untuk menyesuaikan chip telah memberikan manfaat bagi tim AI.
“Ketika kami membangun sistem berbasis TPU pertama kami lebih dari 10 tahun yang lalu, tujuannya benar-benar untuk mengatasi beberapa tantangan skalabilitas internal yang kami hadapi,” kata Mark Lohmeyer, VP Google Cloud dan GM Infrastruktur AI dan Komputasi, dalam pidato konferensi pada September.
“Kemudian ketika kami memberikan daya komputasi tersebut kepada peneliti kami di Google DeepMind dan lainnya, hal itu secara langsung memfasilitasi penemuan arsitektur transformer,” ujarnya, merujuk pada arsitektur AI inovatif yang diusulkan Google dan menjadi dasar bagi model-model saat ini.
Chip Nvidia telah menjadi ‘gold standard’ di pasar AI karena perusahaan telah memproduksi GPU lebih lama daripada siapa pun, plus chipnya bertenaga, sering diperbarui, menawarkan rangkaian software terkait lengkap, dan cukup serbaguna untuk digunakan dalam berbagai tugas. Namun, akibat permintaan yang melonjak, chip ini juga mahal dan, dalam beberapa tahun terakhir, selalu dalam kondisi kekurangan pasokan.
TPUs, di sisi lain, sering kali dapat berkinerja lebih baik untuk beban kerja AI karena dirancang khusus untuk tujuan tersebut, kata Goldberg dari Seaport, yang memiliki rating jual langka untuk saham Nvidia. Hal itu berarti perusahaan dapat “menghilangkan banyak bagian lain dari chip” yang tidak dirancang khusus untuk AI, katanya. Saat ini, Google telah memasuki generasi ketujuh produknya, di mana mereka telah meningkatkan kinerja chip, membuatnya lebih powerful, dan mengurangi energi yang dibutuhkan untuk menggunakannya, sehingga lebih murah untuk dioperasikan.
Pelanggan TPU saat ini termasuk Safe Superintelligence — startup yang didirikan tahun lalu oleh Ilya Sutskever, salah satu pendiri OpenAI, serta Salesforce Inc. dan Midjourney, bersama dengan Anthropic.
Saat ini, perusahaan yang ingin menggunakan Google TPUs harus mendaftar untuk menyewa daya komputasi di cloud Google. Namun, hal itu mungkin segera berubah — kesepakatan dengan Anthropic membuat ekspansi ke cloud lain lebih mungkin, kata analis Bloomberg Intelligence.
“Kesepakatan potensial Google dengan Anthropic menunjukkan komersialisasi lebih lanjut dari unit pemrosesan tensor Google di luar Google Cloud ke cloud-cloud baru,” tulis Mandeep Singh dan Robert Biggar dari BI dalam catatan pada Rabu, merujuk pada perusahaan-perusahaan kecil yang menawarkan daya komputasi untuk AI.
Benar adanya, tidak ada pihak — termasuk Google — yang saat ini berencana untuk menggantikan GPU Nvidia sepenuhnya; laju perkembangan AI saat ini membuat hal itu tidak mungkin dilakukan. Google tetap menjadi salah satu pelanggan terbesar Nvidia meskipun memiliki chip sendiri, karena Google harus menjaga fleksibilitas untuk pelanggan, kata Gaurav Gupta, seorang analis di Gartner. Jika algoritma atau model pelanggan berubah, GPU lebih cocok untuk menangani berbagai jenis beban kerja.
Analis Key Banc, Justin Patterson, setuju, mengatakan bahwa TPU “kurang serbaguna” dibandingkan GPU yang lebih umum. Namun, kesepakatan dengan Anthropic menunjukkan bahwa Google Cloud sedang memperluas pangsa pasarnya dan bahwa TPU “secara strategis penting,” tulis Patterson dalam catatan kepada klien.
Versi terbaru TPU Google, yang disebut Ironwood, diperkenalkan pada April. Unit ini didinginkan dengan cairan dan dirancang untuk menjalankan beban kerja inferensi AI — artinya menggunakan model AI daripada melatihnya. Unit ini tersedia dalam dua konfigurasi — pod dengan 256 chip atau konfigurasi yang lebih besar dengan 9.216 chip.
Para veteran pengembangan TPU di Google kini memimpin startup chip atau proyek kunci di perusahaan AI besar lainnya. Startup chip inferensi Groq dipimpin oleh Jonathan Ross, yang memulai beberapa pekerjaan yang menjadi dasar TPU. Orang lain yang bekerja pada TPU Google termasuk Richard Ho, wakil presiden hardware di OpenAI (pengembang ChatGPT), dan Safeen Huda, yang bergabung dengan OpenAI untuk bekerja pada desain hardware dan software, menurut profil LinkedIn-nya.
Dengan mengakomodasi TPUs berkembang sebagai mesin kerja AI, para mantan karyawan Google ini terus memperluas pengaruh perusahaan internet tersebut di industri AI. Para karyawan Google mengklaim bahwa kerja keras selama bertahun-tahun menjadi faktor kunci kesuksesan produk mereka.
“Tidak ada pengganti untuk tingkat pengalaman ini,” kata Lohmeyer dari Google pada bulan September.
(bbn)































