Apabila rakyat Filipina menggunakan chatbot berkuasa AI untuk mengesahkan foto tular seorang ahli politik yang terlibat dalam skandal rasuah, alat tersebut didapati gagal mengesan bahawa foto itu adalah palsu — walaupun AI itu sendiri yang telah menjana imej tersebut.
Pengguna internet semakin bergantung pada chatbot untuk mengesahkan imej secara masa nyata, tetapi alat ini sering gagal, menimbulkan persoalan tentang keupayaan mereka membongkar isu visual ketika platform teknologi besar mengurangkan usaha pemeriksaan fakta oleh manusia.
Dalam banyak kes, alat ini tersalah mengenal pasti imej sebagai nyata walaupun ia dijana menggunakan model generatif yang sama, sekali gus semakin mengeruhkan landskap maklumat dalam talian yang sudah dipenuhi imej palsu berasaskan AI.
Antara contohnya ialah imej palsu yang beredar di media sosial memaparkan Elizaldy Co, bekas ahli politik Filipina yang didakwa terlibat dalam skandal rasuah kawalan banjir bernilai berbilion-bilion dolar yang mencetuskan protes besar-besaran di negara tersebut.
Imej Co — lokasi sebenarnya tidak diketahui sejak siasatan rasmi bermula — kelihatan menunjukkan beliau berada di Portugal.
Apabila penyiasat internet bertanya kepada mod AI baharu Google sama ada imej itu tulen, ia tersilap menyatakan bahawa imej tersebut adalah asli.
Pemeriksa fakta AFP mengesan penciptanya dan mengesahkan bahawa imej itu dijana menggunakan AI Google.
“Model-model ini dilatih terutamanya pada corak bahasa dan kekurangan pemahaman visual khusus yang diperlukan untuk mengenal pasti imej yang dijana AI atau dimanipulasi dengan tepat,” kata Alon Yamin, Ketua Pegawai Eksekutif platform pengesanan kandungan AI Copyleaks, kepada AFP.
“Dengan chatbot AI, walaupun imej berasal daripada model generatif serupa, chatbot sering memberikan penilaian yang tidak konsisten atau terlalu umum, menjadikannya tidak boleh dipercayai untuk tugas seperti pemeriksaan fakta atau pengesahan ketulenan.”
Google tidak menjawab permintaan komen AFP..
‘Tidak dapat dibezakan daripada realiti’
AFP menemui contoh lain alat AI yang gagal mengesahkan ciptaan mereka sendiri.
Semasa protes maut bulan lalu berhubung manfaat lumayan untuk pegawai kanan di Kashmir yang ditadbir Pakistan, pengguna media sosial berkongsi imej palsu kononnya menunjukkan lelaki berarak dengan bendera dan obor.
Analisis AFP mendapati ia dijana menggunakan model AI Gemini Google.
Namun Gemini dan Microsoft Copilot salah mengenal pasti imej itu sebagai gambar asli protes berkenaan.
“Ketidakupayaan untuk mengenal pasti imej AI dengan betul berpunca daripada fakta bahawa model AI hanya diprogramkan untuk meniru dengan baik,” kata Rossine Fallorina dari Sigla Research Center.
“Dalam erti kata lain, AI hanya boleh menghasilkan sesuatu yang menyerupai. Ia tidak boleh memastikan sama ada persamaan itu benar-benar dapat dibezakan daripada realiti.”
Awal tahun ini, Pusat Tow Columbia University menguji tujuh chatbot AI — termasuk ChatGPT, Perplexity, Grok, dan Gemini — untuk mengesahkan 10 imej fotojurnalistik peristiwa berita.
Kesemua tujuh model gagal mengenal pasti asal-usul foto dengan tepat, menurut kajian itu.
‘Terkejut’
AFP mengesan pencipta foto Co yang meraih lebih sejuta tontonan di media sosial — seorang pembangun web pertengahan usia di Filipina yang mengatakan dia membuatnya “sekadar suka-suka” menggunakan Nano Banana, penjana imej AI Gemini.
“Malangnya, ramai yang mempercayainya,” katanya kepada AFP, meminta identiti dirahsiakan bagi mengelakkan kecaman.
“Saya telah mengubah suntingan siaran saya — dan menambah ‘dijana AI’ untuk menghentikan penyebaran — kerana saya terkejut dengan jumlah perkongsian.”
Kes sedemikian menunjukkan bagaimana foto dijana AI yang membanjiri platform sosial boleh kelihatan hampir sama seperti imej sebenar.
Trend ini menimbulkan kebimbangan kerana tinjauan menunjukkan pengguna internet semakin beralih daripada enjin carian tradisional kepada alat AI untuk mendapatkan dan mengesahkan maklumat.
Peralihan ini berlaku ketika Meta mengumumkan awal tahun ini bahawa ia menamatkan program pemeriksaan fakta pihak ketiga di Amerika Syarikat, menyerahkan tugas membanteras maklumat palsu kepada pengguna biasa melalui model “Community Notes”.
Pemeriksaan fakta manusia telah lama menjadi isu panas dalam masyarakat yang sangat terpolarisasi, di mana kumpulan konservatif menuduh pemeriksa fakta profesional mempunyai bias liberal — dakwaan yang mereka nafikan.
AFP kini bekerja dalam 26 bahasa melalui program pemeriksaan fakta Meta, termasuk di Asia, Amerika Latin dan Kesatuan Eropah.
Penyelidik berkata model AI boleh membantu pemeriksa fakta profesional, misalnya dalam menggeolokasi imej dengan cepat dan mengesan petunjuk visual untuk menentukan ketulenan.
Tetapi mereka menegaskan bahawa kerja pemeriksa fakta manusia terlatih tidak boleh digantikan.
“Kita tidak boleh bergantung kepada alat AI untuk melawan AI dalam jangka panjang,” kata Fallorina.
– AFP.
{suggest}
