fost-nepal.org – Weibo, perusahaan media sosial terkemuka di Tiongkok, baru saja meluncurkan model bahasa besar open source bernama VibeThinker-1.5B. Dengan 1,5 miliar parameter, model ini menawarkan kinerja yang mengesankan pada tugas-tugas pemrograman dan matematika. Dirilis pada akhir tahun 2025, VibeThinker-1.5B telah disempurnakan dari model pesaing, Qwen2.5-Math-1.5B milik Alibaba. Untuk meningkatkan akses, model ini dapat diunduh secara gratis dengan lisensi MIT.
Meskipun ukuran VibeThinker lebih kecil dibandingkan model lain seperti DeepSeek R1, yang memiliki 671 miliar parameter, kinerjanya dalam hal pemecahan masalah dan penalaran mampu menyaingi atau bahkan mengungguli model yang jauh lebih besar. Biaya pelatihan pasca-model ini hanya sekitar 7.800 USD, jauh lebih rendah dibandingkan biaya yang biasanya mencapai ratusan ribu dolar untuk model serupa. Proses pelatihannya terdiri dari dua fase: pelatihan awal dan pelatihan lanjutan yang menggunakan dataset berkualitas lebih kecil untuk mengajarkan model cara memberikan respons yang lebih baik.
Weibo memanfaatkan prinsip Spectrum-to-Signal dalam pendekatan pelatihannya, yang membuat model ini lebih efisien dalam mengeksplorasi ruang penalaran. VibeThinker-1.5B telah berhasil menunjukkan bahwa model kecil dapat memiliki kinerja yang setara dengan sistem yang lebih besar dalam tugas-tugas logis.
Seiring berkembangnya kebutuhan AI di Tiongkok, peluncuran VibeThinker-1.5B mencerminkan ambisi Weibo untuk terlibat dalam pengembangan teknologi selanjutnya. Dengan lebih dari 600 juta pengguna aktif bulanan, Weibo beradaptasi dengan tren kreasi konten dan streaming langsung, meskipun menghadapi tantangan persaingan dari platform lain. Menurut pengamat pasar, fokus perusahaan ini pada riset dan pengembangan AI akan menjadi langkah strategis untuk menghadapi tantangan di masa depan.