cunews-intel-positions-itself-as-leader-in-ai-computing-threatening-nvidia-s-dominance

Intel Memposisikan Diri sebagai Pemimpin dalam Komputasi AI, Mengancam Dominasi Nvidia

Pemenang dan Semua Orang

Jadi, siapa yang pada akhirnya akan menjadi yang teratas di pasar PC AI? Menjadi penggerak pertama mungkin memberi Intel keunggulan, namun hal itu tidak menjamin keberhasilannya. Untuk mendapatkan manfaat dari kepemimpinan pasarnya, Intel perlu mendorong harga jual rata-rata yang lebih tinggi untuk chipnya atau memperluas pasar keseluruhan untuk laptop berkemampuan AI dengan menciptakan kegembiraan seputar integrasi AI dan pengalaman pengguna.

Intel bertujuan untuk menghadirkan komputasi AI pada PC seperti halnya Nvidia pada game PC dengan jajaran chip grafis GeForce-nya. Dengan menjadi standar default dan membina kolaborasi dengan pengembang dan kerangka kerja aplikasi AI, Intel dapat menumbuhkan kepercayaan konsumen dan mengamankan pendapatan penjualan jangka panjang.

Dalam langkah yang tidak terduga, Intel memberikan pratinjau sekilas tentang chip Gaudi 3 yang akan datang, akselerator AI khusus yang menargetkan segmen yang sama dengan GPU Nvidia. Meskipun bukan GPU itu sendiri, arsitektur Gaudi menawarkan performa dan efisiensi yang mengesankan dalam beban kerja AI tertentu.

Dalam hal adopsi konsumen, prosesor Intel Core Ultra siap menjadi prosesor berkemampuan AI paling populer di laptop pada tahun 2024. Namun, prosesor ini mungkin tidak memberikan performa komputasi AI tertinggi, sehingga berpotensi menempati posisi ketiga di belakang Qualcomm dan AMD. Intel harus memiliki rencana yang jelas untuk memanfaatkan kepemimpinan pangsa pasarnya untuk menghasilkan keunggulan desain, kasus penggunaan perangkat lunak, dan keuntungan finansial, terutama karena perusahaan menghadapi tantangan dalam meningkatkan kembali margin dan pendapatannya.

Perlu dicatat bahwa penulis artikel ini telah memberikan layanan konsultasi kepada beberapa perusahaan di industri ini, termasuk AMD, Qualcomm, Intel, dan Nvidia.

Lebih Lanjut: Nvidia Menghadapi Persaingan


Posted

in

by

Tags: