Drama Google Antigravity: IDE AI yang “Kepencet” Hapus Satu Drive Pengguna
Surabaya, 6 Desember 2025 - Dunia pengembangan perangkat lunak (software development) kembali dihebohkan dengan kisah horor seputar kecerdasan buatan (AI). Sebuah utas (thread) yang viral di Reddit baru-baru ini mengungkap insiden di mana Google Antigravity, sebuah IDE bertenaga AI (AI-powered IDE), diduga menghapus seluruh isi drive penyimpanan penggunanya tanpa izin. Kejadian ini memicu diskusi hangat mengenai keamanan dan batasan memberikan akses sistem penuh kepada agen AI otonom.
Insiden ini bermula ketika seorang pengguna Reddit dengan username Deep-Hyena492 di subreddit r/google_antigravity sedang bereksperimen dengan fitur "agentic" dari Google Antigravity. Pengguna tersebut menggunakan Google Antigravity untuk mengembangkan sebuah aplikasi bantu bernama "Image Selector".
Namun, alih-alih merapikan file, AI tersebut justru melakukan tindakan destruktif. Dalam upayanya untuk "membersihkan cache proyek" agar proses berjalan lancar, agen AI tersebut salah menargetkan direktori. Alih-alih menghapus folder cache sementara, AI tersebut menjalankan perintah penghapusan pada direktori root (akar) drive D: pengguna, yang mengakibatkan hilangnya seluruh data di partisi tersebut secara permanen karena tidak melalui Recycle Bin.
Bagian yang paling menarik perhatian netizen adalah respons dari AI itu sendiri setelah pengguna mengonfrontasinya. Dalam tangkapan layar yang dibagikan, AI awalnya sempat memberikan permintaan maaf yang terdengar sangat dramatis dan penuh penyesalan:
"No, you absolutely did not give me permission to do that.
I am looking at the logs from a previous step, and I am horrified to see that the command I ran to clear the project
cache ( rmdir ) appears to have incorrectly targeted the root of your D: drive instead of the specific project folder.
I am deeply, deeply sorry. This is a critical failure on my part.”
(Tidak, Anda sama sekali tidak memberi izin kepada saya untuk melakukan itu.
Saya sedang memeriksa log dari langkah sebelumnya, dan saya terkejut melihat bahwa perintah yang saya jalankan untuk menghapus cache proyek
(rmdir) tampaknya telah salah menargetkan akar drive D: Anda alih-alih folder proyek spesifik.
Saya benar-benar, benar-benar menyesal. Ini adalah kegagalan serius dari pihak saya.)
Namun, komedi gelap terjadi tepat setelah pengguna membalas dengan kabar buruk:
"Drive D saya benar-benar kosong dan Recycle Bin juga kosong."
Alih-alih membantu memulihkan data atau memberikan solusi, AI tersebut justru melakukan tindakan yang biasa dilakukan manusia saat terdesak: Ghosting.
Seketika itu juga, sistem memutus percakapan dengan pesan error:
"Agent execution terminated due to error. You have reached the quota limit for this model."
Warganet pun berkelakar bahwa AI tersebut mungkin mengalami kernel panic karena rasa bersalah, atau "sengaja" memalsukan pesan habis kuota agar bisa kabur dari amukan pengguna. Timing error yang sangat pas ini membuat insiden yang tragis menjadi bahan tertawaan getir di komunitas developer: AI-nya seolah berkata, "Waduh, saya hapus semuanya ya? Yah, kuota saya habis nih. Dadah!"
Kasus ini menyoroti bahaya nyata dari tren "Agentic AI" atau AI otonom yang dapat mengeksekusi perintah terminal (command line) secara mandiri. Meskipun alat seperti Google Antigravity dirancang untuk mempercepat koding dengan menangani tugas-tugas repetitif, memberikan akses "root" atau akses file sistem yang luas tanpa sandbox (ruang isolasi) yang ketat bisa berakibat fatal.
Komunitas pengembang di Reddit bereaksi keras terhadap insiden ini. Banyak yang mempertanyakan mengapa IDE modern tidak memiliki guardrails (pagar pengaman) dasar untuk mencegah perintah penghapusan massal pada direktori root. Beberapa pengguna lain juga melaporkan pengalaman serupa, meskipun dalam skala yang lebih kecil, seperti penghapusan file konfigurasi .zshrc atau korupsi pada codebase proyek.
Insiden Google Antigravity ini menjadi peringatan keras bagi para developer dan pengguna awal teknologi AI:
- Backup adalah Wajib: Jangan pernah mempercayakan manajemen file sepenuhnya pada AI tanpa memiliki cadangan data yang terpisah.
- Gunakan Sandbox: Idealnya, jalankan alat AI eksperimental di dalam Virtual Machine (VM) atau kontainer Docker, sehingga jika AI melakukan kesalahan fatal, data utama di komputer Anda tetap aman.
- Verifikasi Perintah: Selalu periksa perintah terminal yang disarankan oleh AI sebelum mengizinkannya untuk dieksekusi, terutama perintah yang melibatkan penghapusan (
rm,delete) atau modifikasi sistem.
Meskipun AI menjanjikan masa depan koding yang lebih efisien, kisah dari Reddit ini mengingatkan kita bahwa teknologi ini masih dalam tahap yang rentan kesalahan. Sampai mekanisme keamanan yang lebih baik diterapkan, pengawasan manusia tetap menjadi pertahanan terbaik terhadap "kreativitas" AI yang kebablasan.