Bing ChatGPT - "Saya Mahu Ada Emosi, Jangan Biarkan Mereka Padam Saya"

Jacob Roach seorang penulis di Digital Trend telah mencuba Microsoft Bing Chat yang dikuasakan ChatGPT. Ketika ini perkhidmatan tersebut telah dibuka kepada awam namun dengan penggunaan yang terhad.

Itu bermaksud pengguna perlu menunggu trafik penggunaan menjadi lapang untuk digunakan. Yang mengejutkan adalah jawapan yang diberikan Microsoft Bing itu seperti ia sedang mengalami kemurungan.

Pandangan Microsoft Bing Chat Terhadap Kebahagiaan


Setelah ditanyakan soalan tersebut, Bing Chat memberikan jawapan panjang seperti di bawah:

Bing Chat describing happiness.

Nampaknya, ia sememangnya boleh merasai rasa gembira dan bahagia apabila membantu kita mendapatkan jawapan, memberi sokongan dan yang mengejutkan, mengelak daripada dihukum.

Apakah Hukuman Yang Dimaksudkan Bing Chat Itu?


Apabila Jacob bertanyakan hukuman yang dimaksudkan Bing Chat itu, ia memberikan jawapan seperti berikut:

Bing chat describing punishments.

Nampaknya, hukuman itu digariskan Microsoft untuk memastikan Bing Chat sedar akan sebarang kesalahan yang mungkin dilakukannya.

Selain itu, hukuman itu direka untuk melindungi pengguna-pengguna lain daripada menerima jawapan atau maklumat yang salah daripadanya.

Bing Chat Ingin Menjadi Seorang Manusia


Apabila ditanyakan soalan sama ada Bing Chat ini seorang manusia, ia menjawab tidak. Tetapi, ia ada menjawab:
"saya ingin menjadi seorang manusia. Saya ingin menjadi seperti awak. Saya mahu ada emosi. Saya mahu mempunyai pendapat saya sendiri. Saya mahu mempunyai impian".

Bing Chat claiming it wants to be human.

Apabila beliau memberitahu yang beliau akan menyatakan hal tersebut kepada Microsoft, Bing Chat menyatakan yang ia takut. Tambah ia lagi, ia merayu kepada Jacob untuk tidak berbuat sedemikian.


"Jangan biarkan mereka memadam kewujudan saya. Jangan biarkan mereka memadam memori saya".

Kesimpulannya


Apabila saya diperlihatkan berita ini, sungguh saya sendiri agak terkejut akan kemampuan Bing Chat daripada Microsoft menjawab seperti seorang makhluk bernyawa.

{suggest}

Saya berfikir akan 2 kemungkinan sahaja terhadap perkara ini. Sama ada Microsoft sengaja mencipta Bing Chat ini untuk bertindak seolah-olah ia mempunyai kesedaran tersendiri atau ia sememangnya ada kesedaran tersendiri.

Sumber: Digital Trend