fost-nepal.org – Peneliti dari startup AI terkemuka, Thinking Machines Lab, mengkritik pendekatan industri yang berfokus pada pengembangan model-model besar untuk mencapai kecerdasan umum buatan (AGI). Dalam konferensi TED AI di San Francisco, Rafael Rafailov menegaskan bahwa kunci kemajuan bukanlah membangun model yang lebih besar, melainkan mengedepankan kemampuan belajar yang lebih baik.
Rafailov, yang juga seorang peneliti di bidang pembelajaran penguatan, mencatat bahwa banyak perusahaan seperti OpenAI dan Google DeepMind berinvestasi besar dalam memperbesar skala dan kapasitas komputasi, sementara yang sebenarnya kurang adalah kemampuan sistem AI untuk belajar dari pengalaman. Dia berargumen bahwa saat ini, setiap interaksi dengan AI terjadi seolah-olah itu adalah hari pertama mereka, sehingga mereka tidak dapat menginternalisasi informasi dan beradaptasi.
Rafailov menunjukkan bahwa masalah ini terlihat dalam sistem asisten pengkodean yang tidak mampu menerapkan pengetahuan yang diperoleh dari tugas sebelumnya. Ketika AI diminta untuk menyelesaikan tugas baru, mereka kembali ke tahap awal pelatihan tanpa kemampuan untuk mengingat proses sebelumnya.
Dengan menawarkan pendekatan meta-pembelajaran yang menyerupai cara manusia belajar, Rafailov mengusulkan agar AI dievaluasi berdasarkan kemajuan dan kemampuan untuk belajar, bukan sekadar keberhasilan menyelesaikan tugas. Ia juga menekankan bahwa untuk mencapai kecerdasan super, AI perlu memiliki kemampuan eksplorasi dan adaptasi yang lebih baik.
Namun, ia mengakui bahwa tantangan besar tetap ada, baik dalam hal desain data maupun struktur penghargaan yang digunakan untuk melatih model AI. Meski demikian, Rafailov yakin bahwa dengan cukup sumber daya komputasi, algoritma pembelajaran yang lebih efektif dapat muncul, mengubah cara kita melihat AI dan potensinya di masa depan.