Laporan terbaharu Google Threat Intelligence Group (GTIG) mendedahkan trend membimbangkan dalam dunia siber tahun 2025 yang mana penggodam kini menggunakan kecerdasan buatan (AI) secara langsung di dalam perisian hasad (malware) aktif.
Menurut laporan GTIG AI Threat Tracker: Advances in Threat Actor Usage of AI Tools, penggodam tidak lagi menggunakan AI sekadar untuk mempercepat kerja, sebaliknya telah mencipta perisian hasad dikuasakan AI yang mampu “berfikir” dan menulis semula kodnya sendiri ketika dijalankan.
Antara contoh yang ditemui termasuk PROMPTFLUX, malware jenis dropper yang menggunakan API Google Gemini untuk menjana versi baharu dirinya secara automatik setiap jam. Ini satu strategi yang menjadikannya lebih sukar dikesan oleh antivirus.
Satu lagi, PROMPTSTEAL, dikesan digunakan oleh kumpulan APT28 yang disokong kerajaan Rusia, berfungsi mencuri data dan dokumen dengan bantuan model AI daripada Hugging Face.

GTIG turut mengesan peningkatan penggunaan AI oleh penggodam dari China, Iran dan Korea Utara, termasuk menulis kod C2 (command and control), mencipta umpan e-mel pancing data (phishing), serta menulis skrip penyulitan untuk ransomware.
Lebih membimbangkan, laporan itu turut menunjukkan taktik “social engineering” baharu, di mana pelaku menyamar sebagai pelajar atau penyelidik untuk memperdaya sistem keselamatan AI seperti Gemini agar memberikan maklumat sensitif yang biasanya disekat.
Google menegaskan bahawa aktiviti ini masih pada peringkat pembangunan dan belum digunakan secara meluas, namun telah mengambil tindakan mematikan akaun dan projek yang terlibat.
Syarikat itu turut memperkukuh model AI Gemini agar lebih kebal daripada disalah guna. Ia sebahagian daripada usaha berterusan di bawah kerangka Secure AI Framework (SAIF) untuk memastikan AI dibangunkan dengan selamat dan bertanggungjawab.
{suggest}
