Qualcomm kini mengumumkan dua cip AI baharu bagi mencabar dominasi Nvidia dalam pasaran semikonduktor AI.
Qualcomm AI200 direka khusus untuk inferens AI di pusat data dengan fokus kepada kos pemilikan lebih rendah dan prestasi yang dioptimumkan untuk model bahasa raya dan multimodal (LLM, LMM), serta pelbagai tugasan AI lain.
Ia menyokong sehingga 768GB LPDDR bagi setiap kad, menjadikannya lebih fleksibel dan mampu menangani skala inferens yang lebih tinggi pada kos memori lebih rendah.
Bagi AI250 pula, ia dilengkapi seni bina memori baharu berasaskan teknologi near-memory computing. Teknologi ini memberi peningkatan besar dari segi kecekapan dan prestasi untuk tugasan inferens AI, dengan lebih 10 kali ganda lebar jalur (bandwidth) memori dan penggunaan kuasa yang lebih rendah.
Pendekatan ini juga membolehkan pemprosesan AI dijalankan secara disaggregated, memastikan penggunaan perkakasan lebih efisien sambil memenuhi keperluan prestasi dan kos pelanggan.

Kedua-dua sistem rak ini menyokong penyejukan cecair untuk pengurusan haba yang lebih efisien, sambungan PCIe bagi menambah skala dalam satu sistem, serta Ethernet untuk sambungan merentasi pelbagai sistem.
Ia turut dilengkapi confidential computing untuk keselamatan data, dengan penggunaan kuasa sehingga 160 kW bagi setiap rak.
Dari segi pelancaran, Qualcomm AI200 dijangka akan mula dipasarkan pada 2026, manakala AI250 akan menyusul pada 2027.
{suggest}
