Peneliti Tiongkok baru saja membangun saingan sumber terbuka untuk ChatGPT dalam dua bulan. Silicon Valley ketakutan.

Cina telah merilis pesaing open-source yang murah untuk ChatGPT OpenAI, dan hal ini membuat beberapa ilmuwan bersemangat dan Silicon Valley khawatir.
DeepSeek, orang Cina kecerdasan buatan (AI) laboratorium di balik inovasi ini, meluncurkan model bahasa besar (LLM) DeepSeek-V3 gratis pada akhir Desember 2024 dan mengklaimnya dibangun dalam waktu dua bulan hanya dengan biaya $5,58 juta — jauh lebih sedikit waktu dan biaya yang dibutuhkan oleh para pesaingnya di Silicon Valley.
Mengikuti jejaknya adalah model yang lebih baru bernama DeepSeek-R1, yang dirilis Senin (20 Januari). Dalam tes benchmark pihak ketiga, DeepSeek-V3 cocok dengan kemampuan GPT-4o dari OpenAI dan Claude Sonnet 3.5 dari Anthropic, sementara mengungguli yang lain, seperti Llama 3.1 dari Meta dan Qwen2.5 dari Alibaba, dalam tugas-tugas yang mencakup pemecahan masalah, pengkodean, dan matematika.
Sekarang, R1 juga punya terlampaui Model o1 terbaru ChatGPT dalam banyak pengujian yang sama. Performa mengesankan ini dengan biaya yang jauh lebih murah dibandingkan model lain, sifatnya yang semi-open-source, dan pelatihan pada unit pemrosesan grafis (GPU) yang jauh lebih sedikit telah memukau para pakar AI dan mengangkat momok model AI Tiongkok yang melampaui model-model AS.
“Kita harus memperhatikan perkembangan yang terjadi di Tiongkok dengan sangat serius,” Satya NadellaCEO Microsoft, mitra strategis OpenAI, mengatakan di Forum Ekonomi Dunia di Davos, Swiss, pada 22 Januari..
Terkait: AI kini dapat mereplikasi dirinya sendiri — sebuah pencapaian yang membuat para ahli ketakutan
Sistem AI belajar menggunakan data pelatihan yang diambil dari masukan manusia, yang memungkinkan mereka menghasilkan keluaran berdasarkan probabilitas berbagai pola yang muncul dalam kumpulan data pelatihan tersebut.
Untuk model bahasa besar, data ini berupa teks. Misalnya, GPT-3.5 OpenAI, yang dirilis pada tahun 2023, dilatih pada sekitar 570 GB data teks dari repositori Perayapan Umum — yang berjumlah sekitar 300 miliar kata — diambil dari buku, artikel online, Wikipedia, dan halaman web lainnya.
Model penalaran, seperti R1 dan o1, adalah versi upgrade dari LLM standar yang menggunakan metode yang disebut “rantai pemikiran” untuk menelusuri kembali dan mengevaluasi kembali logika merekayang memungkinkan mereka menangani tugas yang lebih kompleks dengan akurasi lebih tinggi.
Hal ini membuat model penalaran populer di kalangan ilmuwan yang ingin mengintegrasikan AI ke dalam pekerjaan mereka.
Namun tidak seperti o1 ChatGPT, DeepSeek adalah model “bobot terbuka” yang (walaupun data pelatihannya tetap merupakan hak milik) memungkinkan para ilmuwan untuk mengintip ke dalam dan memodifikasi algoritmanya. Yang sama pentingnya adalah pengurangan harga bagi pengguna — 27 kali lebih kecil dari o1.
Selain kinerjanya, popularitas DeepSeek berasal dari efisiensi biayanya; anggaran ketat model ini sangat kecil dibandingkan dengan puluhan juta hingga ratusan juta yang dikeluarkan perusahaan pesaing untuk melatih pesaingnya.
Selain itu, kontrol ekspor AS, yang membatasi akses perusahaan Tiongkok terhadap chip komputasi AI terbaik, memaksa pengembang R1 untuk membangun algoritme yang lebih cerdas dan hemat energi untuk mengimbangi kekurangan daya komputasi mereka. ChatGPT dilaporkan membutuhkan 20.000 GPU Nvidia untuk melakukannya memproses data pelatihannyaInsinyur DeepSeek mengatakan mereka mencapai hasil serupa hanya dengan 2.000.
Seberapa besar hal ini akan menghasilkan aplikasi ilmiah dan teknis yang berguna, atau apakah DeepSeek hanya melatih modelnya agar dapat unggul dalam pengujian benchmark, masih harus dilihat – namun para ilmuwan dan investor AI sedang mengamati dengan cermat.