Sekumpulan penyelidik dari UC Berkeley dan UC San Francisco telah mencipta satu kaedah baharu dalam bidang antara muka otak-komputer (brain-computer interfaces, BCI) yang membolehkan individu dengan kelumpuhan teruk untuk menghasilkan pertuturan semula jadi secara hampir masa nyata.
Teknologi inovatif ini mengatasi cabaran lama dalam BCI pertuturan, iaitu kelewatan (latency) antara percubaan bercakap oleh pengguna dengan bunyi yang dihasilkan oleh peranti.
Dengan menggunakan model kecerdasan buatan (AI) yang canggih, pasukan ini berjaya mencipta kaedah penstriman pertuturan secara langsung daripada isyarat otak, menjadikan komunikasi lebih lancar, semula jadi, dan intuitif.
Pendekatan baharu ini memanfaatkan ciptaan terkini dalam AI, serupa dengan teknologi yang digunakan dalam sistem kawalan suara seperti Alexa dan Siri.
Kaedah ini berfungsi dengan merekodkan aktiviti otak pengguna secara langsung daripada korteks motor yang mengawal pertuturan, kemudian menterjemahkan data neural ini kepada pertuturan boleh didengar.
Pengguna boleh menghasilkan bunyi pertuturan kurang daripada satu saat selepas berniat untuk bercakap, suatu peningkatan ketara daripada kaedah terdahulu yang mengambil masa kira-kira lapan saat untuk ayat tunggal.
Selain itu, teknologi ini mampu menyesuaikan diri dengan pelbagai jenis peranti pengesan aktiviti otak, termasuk pengimejan invasif dan bukan invasif, sekali gus membuktikan fleksibiliti dan potensi penggunaannya secara meluas.
Para penyelidik juga berjaya menunjukkan bahawa model mereka boleh mensintesis perkataan yang tidak pernah dilatih sebelumnya, membuktikan bahawa algoritma AI ini benar-benar mempelajari asas pertuturan, bukan sekadar menghafal corak data.
Teknologi ini bakal memberikan impak besar kepada kualiti hidup individu yang kehilangan kemampuan bercakap akibat kelumpuhan teruk, dengan matlamat masa depan untuk turut menambah ekspresi suara seperti intonasi, nada, dan kelantangan bagi menjadikan komunikasi lebih semula jadi.
{suggest}
Sumber: UC Berkeley Engineering