Setelah mengungkapkan CPU pusat data 128-core dan GPU Maia 100 untuk beban kerja kecerdasan buatan, Microsoft telah memulai pengembangan kartu jaringannya sendiri dalam upaya untuk mengurangi ketergantungannya pada perangkat keras Nvidia dan mempercepat pusat datanya, lapor The Information. Jika perusahaan berhasil, perusahaan dapat melanjutkan untuk mengoptimalkan infrastruktur Azure dan mendiversifikasi tumpukan teknologinya. Menariknya, pihak perusahaan secara tidak langsung telah mengkonfirmasi upaya tersebut.
Microsoft mengakuisisi Fungible, pengembang unit pemrosesan data (DPU) yang bersaing dengan divisi Pensando milik AMD dan Mellanox milik Nvidia, sekitar setahun yang lalu. Artinya, perusahaan jelas memiliki teknologi jaringan dan IP yang diperlukan untuk merancang perlengkapan jaringan tingkat pusat data yang sesuai untuk beban kerja pelatihan AI yang membutuhkan bandwidth. Pradeep Sindhu, salah satu pendiri Juniper Networks dan pendiri Fungible yang memiliki segudang pengalaman di bidang peralatan jaringan, kini bekerja di Microsoft dan memimpin pengembangan prosesor jaringan pusat data perusahaan.
Kartu jaringan baru ini diharapkan dapat meningkatkan kinerja dan efisiensi server Azure Microsoft, yang saat ini menjalankan CPU Intel dan GPU Nvidia, namun pada akhirnya juga akan mengadopsi CPU dan GPU milik Microsoft sendiri. Informasi mengklaim bahwa proyek tersebut penting bagi Microsoft, itulah sebabnya Satya Nadella, pimpinan perusahaan, menunjuk Sindhu sendiri untuk proyek tersebut.
“Sebagai bagian dari pendekatan sistem kami terhadap infrastruktur Azure, kami fokus pada pengoptimalan setiap lapisan tumpukan kami,” kata juru bicara Microsoft. Informasi. “Kami secara rutin mengembangkan teknologi baru untuk memenuhi kebutuhan pelanggan kami, termasuk chip jaringan.”
Perlengkapan jaringan berkinerja tinggi sangat penting bagi pusat data, terutama ketika menangani sejumlah besar data yang diperlukan untuk pelatihan AI oleh klien seperti OpenAI. Dengan mengurangi kemacetan lalu lintas jaringan, komponen server baru dapat mempercepat pengembangan model AI, menjadikan prosesnya lebih cepat dan lebih hemat biaya.
Langkah Microsoft ini sejalan dengan tren industri menuju silikon khusus, karena penyedia cloud lainnya termasuk Amazon Web Services (AWS) dan Google juga mengembangkan AI dan prosesor serba guna serta perlengkapan jaringan pusat data mereka sendiri.
Pengenalan kartu jaringan Microsoft berpotensi berdampak pada penjualan perlengkapan jaringan server Nvidia, yang diproyeksikan menghasilkan lebih dari $10 miliar per tahun. Jika berhasil, kartu tersebut dapat secara signifikan meningkatkan efisiensi pusat data Azure secara umum dan pelatihan model OpenAI pada khususnya, serta mengurangi waktu dan biaya yang terkait dengan pengembangan AI, klaim laporan tersebut.
Silikon khusus memerlukan banyak waktu untuk dirancang dan diproduksi, yang berarti hasil awal dari upaya ini mungkin masih memakan waktu bertahun-tahun. Dalam jangka pendek, Microsoft akan terus mengandalkan perangkat keras dari vendor lain, namun hal itu mungkin berubah di tahun-tahun mendatang.