DeepSeek, pemain baru dalam dunia kecerdasan buatan, terus mencuri perhatian dengan terobosan besar dalam pengembangan large language model (LLM). Terbaru, mereka mengklaim berhasil menciptakan LLM yang lebih efisien dan hemat biaya dibandingkan model-model sejenis, seperti yang digunakan oleh ChatGPT. Kehebohan ini bermula setelah DeepSeek mengungkapkan penggunaan chip Nvidia H800 yang lebih rendah kemampuannya dibandingkan dengan chip Nvidia H100, yang banyak digunakan oleh pengembang AI terkemuka.
Menurut DeepSeek, hanya dengan memanfaatkan 2.000 unit chip Nvidia H800, mereka berhasil melatih model AI mereka dengan biaya yang relatif rendah, sekitar USD 6 juta. Namun, kejutan baru datang ketika terungkap bahwa selain menggunakan chip Nvidia, DeepSeek juga melibatkan chip Huawei untuk proses inferensi.
Alexander Doria, salah seorang tokoh penting di balik DeepSeek, mengungkapkan bahwa meskipun DeepSeek R1 LLM dilatih menggunakan chip Nvidia H800, untuk proses inferensi mereka beralih menggunakan chip Huawei Ascend 910C. Proses inferensi ini merupakan tahap di mana AI yang telah dilatih digunakan untuk menjawab pertanyaan atau membuat prediksi berdasarkan data yang diberikan oleh pengguna.
“Inference adalah proses penggunaan AI yang sudah dilatih untuk membuat prediksi atau keputusan berbasis data yang baru diberikan,” jelas Doria melalui akun Twitter-nya, @Dorialexander. “LLM ini tidak menggunakan chip Ascend 910C untuk proses pelatihannya, melainkan hanya untuk inference. Artinya, kemampuan komputasi yang dibutuhkan oleh DeepSeek ini memang tidak terlalu tinggi.”
Meskipun Ascend 910C memiliki kemampuan komputasi yang lebih rendah dibanding chip Nvidia H800, Huawei tetap berharap bahwa chip Ascend 920 yang sedang dikembangkan akan mampu bersaing dengan chip Nvidia Blackwell B200. Hal ini menunjukkan bahwa DeepSeek, meskipun menggunakan chip yang lebih terjangkau, tetap mampu menghasilkan hasil yang mengesankan berkat kombinasi teknologi yang cerdas.
Muncul pula kabar sebelumnya yang mengindikasikan bahwa DeepSeek memiliki puluhan ribu chip Nvidia H100 yang disembunyikan. Hal ini menambah spekulasi terkait strategi mereka dalam menggunakan chip AI canggih. Beberapa pihak menduga bahwa perusahaan ini memanfaatkan kombinasi chip canggih dari Nvidia dengan chip yang lebih terjangkau dari Huawei untuk menghindari pembatasan ekspor yang diterapkan oleh Amerika Serikat pada chip-chip tertentu, termasuk Nvidia H100.
Menurut CEO Scale AI, Alexandr Wang, DeepSeek diduga memiliki sekitar 50 ribu unit chip Nvidia H100, meskipun mereka tidak membicarakan hal ini secara terbuka. “Pemahaman saya adalah DeepSeek punya sekitar 50 ribu H100, yang tentu saja tidak bisa mereka bicarakan karena itu berlawanan dengan kontrol ekspor yang dilakukan Amerika Serikat,” ungkap Wang. “Saya pikir memang benar mereka punya lebih banyak chip dari yang diperkirakan orang.”
Nvidia H100 dikenal sebagai chip favorit untuk aplikasi AI karena kemampuannya dalam menangani data dalam jumlah besar dengan kecepatan tinggi. Namun, harga per unitnya yang mencapai USD 25 ribu membuatnya menjadi salah satu chip paling mahal di pasaran. Sementara itu, penggunaan chip seperti Ascend 910C dengan harga yang lebih terjangkau memungkinkan DeepSeek untuk mengoptimalkan biaya tanpa mengorbankan kualitas model yang dihasilkan.
Dengan strategi yang terencana dan pemanfaatan chip canggih dari berbagai sumber, DeepSeek berhasil menunjukkan bahwa mereka mampu bersaing dengan perusahaan-perusahaan AI besar, meskipun dengan anggaran yang lebih terbatas. Kombinasi teknologi dari Nvidia dan Huawei memberikan DeepSeek keunggulan tersendiri, memungkinkan mereka untuk terus berkembang dan memberikan jawaban-jawaban cerdas melalui model AI mereka.