fost-nepal.org – Anthropic telah mengembangkan Model Context Protocol (MCP) sebagai standar terbuka untuk komunikasi agen AI dengan alat. Sejak diluncurkan, protocol ini diadopsi oleh OpenAI pada Maret 2025 dan Google DeepMind menyusul. Namun, laporan terbaru menunjukkan adanya celah arsitektur serius dalam MCP, yang ditemukan oleh empat peneliti di OX Security, yang memperingatkan tentang potensi eksekusi perintah arbitrer yang dapat membahayakan lebih dari 200.000 instance.
Celah ini terletak pada transport STDIO, yang merupakan saluran default untuk menghubungkan agen AI ke alat lokal. Peneliti menemukan bahwa transport ini dapat mengeksekusi perintah sistem operasi tanpa adanya sanitasi atau pembatasan yang memadai. Artinya, perintah berbahaya dapat dilaksanakan sebelum kesalahan terdeteksi, menyebabkan risiko besar bagi sistem yang menggunakan MCP.
Para peneliti mencatat ada sekitar 7.000 server dengan transport STDIO yang aktif pada IP publik, dan mereka mampu mengonfirmasi adanya eksekusi perintah arbitrer di enam platform produksi utama yang memiliki pelanggan. Penelitian ini menghasilkan lebih dari sepuluh Common Vulnerabilities and Exposures (CVE) yang dinilai kritikal di berbagai produk yang berbasis MCP.
Anthropic mengakui bahwa perilaku ini adalah hasil desain, tetapi menolak untuk mengubah protokolnya. Mereka menekankan bahwa sanitasi input adalah tanggung jawab pengembang. Rees dari Utah AI Commission menyatakan bahwa MCP seharusnya dianggap sebagai permukaan eksekusi yang berisiko tinggi dan perlu diperlakukan dengan kehati-hatian.
Dalam menanggapi isu ini, OX Security merekomendasikan agar setiap instalasi MCP diisolasi dari sistem operasi host, dan setiap konfigurasi dianggap sebagai input tidak terpercaya sampai divalidasi. Situasi ini menjadi peringatan bagi organisasi yang menggunakan MCP untuk lebih memperhatikan keamanan infrastruktur mereka.