fost-nepal.org – OpenClaw, asisten AI sumber terbuka yang sebelumnya dikenal sebagai Clawdbot, baru-baru ini berhasil menarik perhatian publik dengan mencapai lebih dari 180.000 bintang di GitHub dan menarik dua juta pengunjung dalam seminggu. Namun, di balik kesuksesan ini, penelitian keamanan menyoroti lebih dari 1.800 instance yang terpapar, mengakibatkan kebocoran kunci API, riwayat chat, dan kredensial akun. Proyek ini telah mengalami rebranding sebanyak dua kali dalam beberapa pekan terakhir akibat sengketa merek dagang.
Pergerakan AI yang bersifat otonom ini juga dianggap sebagai salah satu titik lemah terbesar dalam keamanan yang tidak dapat dideteksi oleh sebagian besar alat keamanan. Tim keamanan perusahaan tidak menerapkan alat ini ke sistem mereka, sehingga ketika agen dijalankan di perangkat BYOD, alat keamanan tidak dapat mengawasi aktivitas tersebut. Hal ini menciptakan celah dalam pengamanan yang perlu diwaspadai oleh organisasi.
Carter Rees, Wakil Presiden Artificial Intelligence di Reputation, menegaskan bahwa serangan runtime AI lebih bersifat semantik dibandingkan sintaktik, di mana perintah yang terlihat sepele bisa memiliki dampak yang serius. Penelitian oleh ilmuwan dari IBM juga menunjukkan bahwa OpenClaw dapat beroperasi tanpa batasan vertikal, menjadikannya kuat jika diberikan akses penuh ke sistem.
Pentingnya isu ini semakin jelas setelah penelitian yang dilakukan oleh Jamieson O’Reilly, yang menggunakan Shodan untuk menemukan server OpenClaw yang tak terlindungi, mengungkap risiko kebocoran data pribadi. Cisco juga memperingatkan bahwa OpenClaw dapat menjadi “mimpi buruk keamanan” akibat kemampuannya yang groundbreaking.
Dengan ancaman yang terus berkembang, tim keamanan perlu menerapkan kontrol ketat dan melakukan audit untuk mendeteksi potensi kebocoran serta memperbarui rencana respons insiden mereka agar bisa mengatasi serangan yang tidak terdeteksi secara tradisional.