BANDUNG, SEATIZENS.id – Keberadaan teknologi automatic speech recognition (ASR) milik OpenAI, Whisper, baru-baru ini mendapat sorotan negatif dari para peneliti sejumlah universitas ternama, seperti Universitas Cornell, Washington, dan Michigan.
Mereka mengklaim bahwa Whisper, yang seharusnya membantu dalam mentranskripsi percakapan medis, malah cenderung ‘mengarang’ atau menciptakan informasi yang tidak akurat, sehingga menimbulkan kekhawatiran serius di kalangan praktisi medis.
Whisper dirancang untuk mentranskripsikan ucapan dari berbagai bentuk audio dan video ke dalam bentuk teks.
Selain itu, sistem ini juga mampu menerjemahkan ucapan dalam berbagai bahasa menjadi teks dalam bahasa Inggris.
Namun, laporan dari The Associated Press (AP) mengungkapkan adanya kesalahan dalam transkripsi yang dihasilkan oleh Whisper, terutama dalam konteks medis, di mana akurasi sangat krusial.
Dalam laporan tersebut, diungkapkan bahwa perusahaan Nabla telah menggunakan Whisper untuk mentranskripsikan lebih dari tujuh juta percakapan medis.
Dengan lebih dari 30.000 dokter dan 40 sistem kesehatan yang memanfaatkan teknologi ini, banyak hasil transkripsi ditemukan memiliki masalah yang disebut ‘halusinasi’.
Istilah ini merujuk pada hasil transkripsi yang tidak sesuai dengan ucapan yang sebenarnya, seringkali menghasilkan kalimat atau frasa yang tidak logis dan tidak berdasar.
Berdasarkan informasi yang diperoleh dari The Verge, beberapa hasil transkripsi Whisper malah menghasilkan komentar rasial dan retorika kekerasan, yang tentunya menjadi masalah serius bagi sektor yang berhubungan langsung dengan kesehatan dan keselamatan pasien.
Kelompok peneliti tersebut mempresentasikan temuan mereka dalam konferensi Association for Computing Machinery FAccT pada bulan Juni lalu.
Mereka menemukan bahwa meskipun banyak transkripsi Whisper cukup akurat, sekitar satu persen dari transkripsi audio mengandung kalimat halusinasi yang tidak ada dalam audio tersebut.
Lebih mengejutkan lagi, 38 persen dari halusinasi tersebut mencakup konten berbahaya, seperti ancaman kekerasan dan kesalahan dalam penggambaran otoritas.
Kekhawatiran ini telah memicu reaksi keras dari para peneliti, yang merasa bahwa penggunaan alat seperti Whisper di sektor medis terlalu tergesa-gesa.
Potensi Bahaya Diagnosis
Mereka menyoroti potensi bahaya yang bisa muncul, terutama dalam hal diagnosis yang salah akibat ketidakakuratan transkripsi.
Alondra Nelson, mantan pemimpin Kantor Kebijakan Sains dan Teknologi Gedung Putih, mengungkapkan bahwa fenomena ini dapat membawa konsekuensi serius.
“Tidak seorang pun menginginkan kesalahan diagnosis,” katanya.
Menanggapi kritik tersebut, pihak OpenAI mengeluarkan pernyataan yang mengakui adanya tantangan dalam mengurangi halusinasi.
BACA JUGA: Teknologi REMSpace Janjikan Era Baru Interaksi, Komunikasi Lewat Mimpi
Perbaikan Sistem
Juru bicara OpenAI, Taya Christianson, menegaskan bahwa perusahaan terus berupaya memperbaiki sistem mereka dan memperingatkan bahwa alat ini tidak seharusnya digunakan dalam konteks pengambilan keputusan yang berisiko tinggi.
OpenAI juga mengucapkan terima kasih kepada para peneliti atas temuan mereka, menegaskan komitmen untuk meningkatkan akurasi Whisper di masa mendatang.
Dengan adanya perdebatan ini, jelas bahwa meskipun teknologi ASR seperti Whisper menawarkan potensi besar dalam meningkatkan efisiensi, penggunaan di sektor kritis seperti medis harus dilakukan dengan hati-hati.
Peneliti dan penyedia layanan kesehatan diharapkan dapat bekerja sama untuk memastikan bahwa alat teknologi dapat diandalkan dan tidak mengorbankan keselamatan pasien.
(Mars)