Laporan GenAI Code Security Report 2025 oleh Veracode mendedahkan bahawa 45% kod yang dihasilkan oleh lebih 100 model AI besar (LLMs) mengandungi kelemahan keselamatan.
Kajian ke atas 80 tugasan pengekodan menunjukkan bahawa walaupun kod yang dihasilkan berfungsi, AI kerap memilih kaedah yang tidak selamat.
Bahasa Java adalah yang paling terdedah dengan kadar kegagalan keselamatan melebihi 70%, diikuti Python, C#, dan JavaScript.
Laporan juga mendapati AI gagal mencegah kelemahan seperti cross-site scripting (86%) dan log injection (88%).
Masalah ini dianggap sistemik, kerana pengekodan daripada model besar tidak menunjukkan prestasi keselamatan yang lebih baik daripada model kecil.
Veracode memberi amaran bahawa pembangunan kod berasaskan AI tanpa penekanan pada keselamatan (kini dikenali sebagai “vibe coding“) boleh menambah risiko besar kepada organisasi.
Ia menyeru organisasi agar melaksanakan langkah proaktif seperti analisis statik, kawalan kualiti kod automatik, pakej firewall dan panduan pembaikan berasaskan AI untuk mengelakkan isu keselamatan yang besar.
{suggest}