Menu
WISER.MY
  • Pergi ke Wiser.my
  • Berita
  • Ulasan
  • Trivia
  • Tips Gajet
  • Promosi
  • Youtube
  • Hubungi Kami
WISER.MY

AI Boleh Halusinasi, Tak Sepatutnya Terlalu Percaya – CEO OpenAI

Posted on Jun 30, 2025Jun 30, 2025

CEO OpenAI, Sam Altman, meluahkan rasa terkejut dengan tahap kepercayaan tinggi yang diberikan pengguna kepada ChatGPT, walaupun teknologi ini masih ada kelemahan.

Menurutnya, AI seperti ChatGPT boleh ‘berhalusinasi’ atau mereka-reka maklumat, jadi ia bukanlah sesuatu yang patut dipercayai bulat-bulat.

Orang ramai sangat percaya pada ChatGPT, dan itu agak menarik… sebab AI boleh ‘halusinasi’. Sepatutnya ini teknologi yang anda tak patut terlalu percaya.

Pengakuan ini dikongsikan Altman dalam episod pertama podcast OpenAI, ketika penggunaan kecerdasan buatan (AI) semakin meluas di seluruh dunia.

AI dan halusinasi

Bukan perkara baru, ChatGPT dan model bahasa raya (LLM) lain memang dikenali boleh berhalusinasi atau menghasilkan jawapan yang kedengaran meyakinkan, tetapi sebenarnya salah atau direka-reka.

Sebelum ini, eksekutif Google juga pernah memberi amaran dan mengakui bahawa teknologi seperti ini berpotensi mencetuskan situasi halusinasi.

Namun begitu, jutaan pengguna tetap bergantung kepada alat ini untuk pelbagai tujuan, termasuk kerja, penyelidikan, nasihat peribadi, panduan keibubapaan dan lain-lain.

Pemerhatian Altman menunjukkan keadaan di mana walaupun kita sedar AI boleh melakukan kesilapan, ramai tetap percaya. Faktor seperti kemudahan, kepantasan dan cara AI seperti ChatGPT berkomunikasi dengan lancar membuatkan sebahagian pengguna meletakkan tahap kepercayaan seolah-olah ia setaraf pakar manusia atau kenalan rapat.

Kefahaman dan ketelusan teknologi

Dua puluh tahun lalu, Mark Zuckerberg melancarkan Facebook dan tanpa disedari, berjuta-juta pengguna berkongsi data peribadi tanpa memahami sepenuhnya bagaimana maklumat itu dikumpul dan digunakan. Kemuncaknya, skandal Cambridge Analytica mendedahkan bagaimana data jutaan pengguna dimanipulasi.

Hari ini, situasi hampir sama seakan berulang. Bukan sekadar soal data, tetapi dari sudut kepercayaan ‘melampau’ terhadap teknologi AI seperti ChatGPT.

Masalah yang sama ‘berakar’ daripada ketiadaan ciri privasi dan ketelusan yang cukup untuk membantu pengguna faham dan kawal teknologi baharu ini.

{suggest}

Cari Artikel

Buka artikel ini di Wiser.my
BUKA
©2025 WISER.MY | Powered by SuperbThemes & WordPress