Maret 14, 2026

Saham Amazon (AMZN): AWS Gunakan Chip Cerebras untuk Menyaingi Nvidia dalam Kecepatan Inferensi

By Daring

TLDR

  • AWS akan menggunakan chip Wafer-Scale Engine dari Cerebras di pusat data mereka untuk inferensi AI.
  • Kesepakatan ini bersifat multi-tahun; rincian finansial tidak diungkapkan.
  • Cerebras mengklaim chip mereka memproses tugas inferensi hingga 25 kali lebih cepat daripada GPU Nvidia.
  • OpenAI menandatangani kesepakatan terpisah senilai lebih dari $10 miliar dengan Cerebras pada Januari 2026.
  • Cerebras mengumpulkan dana $1 miliar pada Februari 2026, dengan valuasi startup sekitar $23 miliar.

(SeaPRwire) –   Amazon Web Services telah menandatangani kemitraan multi-tahun dengan startup chip Cerebras Systems untuk menggunakan prosesor Wafer-Scale Engine mereka di pusat data AWS. Chip ini akan digunakan secara khusus untuk inferensi AI — proses di mana model AI merespons permintaan pengguna.

AWS adalah penyedia cloud terbesar di dunia. Secara historis, AWS mengandalkan chip internalnya sendiri, yang dikenal sebagai Trainium, yang dikembangkan oleh unit semikonduktornya Annapurna Labs. Berdasarkan kesepakatan baru ini, AWS berencana untuk menggabungkan Trainium dengan chip Cerebras untuk membangun penawaran inferensi yang lebih cepat.

Amazon.com, Inc., AMZN
AMZN Stock Card

Cerebras mengatakan Wafer-Scale Engine mereka dapat menangani fase “decode” inferensi — saat model benar-benar menghasilkan responsnya — hingga 25 kali lebih cepat daripada GPU Nvidia.

Layanan ini akan diposisikan sebagai penawaran premium. “Jika Anda menginginkan inferensi yang lambat, akan ada cara yang lebih murah,” kata CEO Cerebras Andrew Feldman. AWS mengonfirmasi bahwa mereka masih akan menawarkan solusi inferensi berbiaya lebih rendah menggunakan Trainium saja.

Minggu yang Besar untuk Cerebras

Kesepakatan ini datang hanya beberapa bulan setelah OpenAI mencapai kesepakatan terpisah dengan Cerebras pada Januari 2026, yang dilaporkan bernilai lebih dari $10 miliar. Kesepakatan itu dirancang untuk memberdayakan ChatGPT OpenAI dengan prosesor Cerebras, dengan OpenAI berupaya mengerahkan kapasitas komputasi hingga 750 megawatt.

Pada Februari 2026, Cerebras mengumpulkan $1 miliar dalam putaran pendanaan baru, membawa total penggalangan dana menjadi $2,6 miliar dan menilai perusahaan tersebut sekitar $23 miliar. Para pendukung termasuk Fidelity Management, Benchmark, Tiger Global, dan Coatue.

Cerebras telah mengajukan IPO pada September 2024 tetapi menarik pengajuan tersebut sekitar setahun kemudian.

Tekanan pada Nvidia

Kemitraan AWS-Cerebras menambah daftar tantangan yang terus bertambah bagi Nvidia di pasar inferensi. Industri AI telah beralih dari pelatihan model, di mana GPU Nvidia mendominasi, ke beban kerja inferensi yang menuntut lebih banyak kecepatan.

Nvidia tidak tinggal diam. Pada Desember 2025, mereka menandatangani kesepakatan lisensi senilai $20 miliar dengan startup chip Groq. Perusahaan ini juga berencana untuk meluncurkan sistem pemrosesan baru yang dibangun di sekitar teknologi Groq dalam waktu dekat.

Nafea Bshara dari AWS, salah satu pendiri Annapurna Labs, mengatakan kemitraan Cerebras berfokus pada peningkatan kecepatan dan penurunan biaya. “Tugas kami adalah mendorong kecepatan dan menurunkan harga,” katanya.

Saham AMZN Amazon turun 0,44% pada saat pelaporan.

Artikel ini disediakan oleh penyedia konten pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberikan jaminan atau pernyataan sehubungan dengan hal tersebut.

Sektor: Top Story, Daily News

SeaPRwire menyediakan distribusi siaran pers real-time untuk perusahaan dan lembaga, menjangkau lebih dari 6.500 toko media, 86.000 editor dan jurnalis, dan 3,5 juta desktop profesional di 90 negara. SeaPRwire mendukung distribusi siaran pers dalam bahasa Inggris, Korea, Jepang, Arab, Cina Sederhana, Cina Tradisional, Vietnam, Thailand, Indonesia, Melayu, Jerman, Rusia, Prancis, Spanyol, Portugis dan bahasa lainnya.