Alat Transkripsi AI Whisper OpenAI Dikritik Kerana Menghasilkan Halusinasi Berbahaya Dalam Bidang Perubatan

BigGo Editorial Team
Alat Transkripsi AI Whisper OpenAI Dikritik Kerana Menghasilkan Halusinasi Berbahaya Dalam Bidang Perubatan

Alat transkripsi Whisper oleh OpenAI menghadapi kritikan hebat kerana menghasilkan kandungan palsu dalam bidang perubatan, menimbulkan kebimbangan serius tentang keselamatan pesakit dan ketepatan data dalam persekitaran penjagaan kesihatan.

Krisis Halusinasi

Whisper, alat transkripsi OpenAI yang digunakan secara meluas, telah didapati kerap menghasilkan kandungan palsu atau halusinasi dalam transkripsinya. Walaupun OpenAI mendakwa ketepatan setara manusia, penyelidik telah menemui kadar kandungan rekaan yang membimbangkan dalam pelbagai aplikasi. Yang paling membimbangkan ialah penggunaannya dalam bidang kesihatan, di mana ketepatan rekod adalah penting untuk penjagaan pesakit.

Penggunaan Meluas Dalam Perubatan Walaupun Ada Amaran

Walaupun terdapat amaran jelas daripada OpenAI untuk tidak menggunakan Whisper dalam domain berisiko tinggi, sektor perubatan telah menggunakan teknologi ini secara meluas. Nabla, sebuah syarikat Franco-Amerika, telah mengimplementasi alat berasaskan Whisper di 40 sistem kesihatan, melibatkan lebih 30,000 pengamal perubatan. Alat ini telah digunakan untuk mentranskripsikan kira-kira 7 juta lawatan perubatan, tanpa cara untuk mengesahkan ketepatan kerana rakaman asal dipadamkan atas sebab keselamatan data.

Penyelidikan Mendedahkan Kadar Ralat Yang Membimbangkan

Beberapa kajian bebas telah mendedahkan keseriusan masalah halusinasi Whisper. Penyelidik dari Universiti Michigan mendapati halusinasi dalam 80% transkripsi mesyuarat awam, manakala analisis lain terhadap 26,000 transkrip menunjukkan hampir semua mengandungi kandungan rekaan. Satu kajian yang membimbangkan oleh Universiti Cornell dan Universiti Virginia mendapati 40% halusinasi berpotensi berbahaya, termasuk rawatan perubatan rekaan dan kandungan keganasan palsu.

Implikasi Privasi dan Keselamatan

Pelaksanaan transkripsi AI dalam penjagaan kesihatan telah menimbulkan kebimbangan tambahan tentang privasi. Pesakit semakin kerap berhadapan dengan borang persetujuan yang membenarkan perkongsian konsultasi perubatan mereka dengan vendor pihak ketiga, menimbulkan persoalan tentang perlindungan data dan kerahsiaan pesakit. Ini telah menyebabkan sesetengah pesakit, termasuk ahli undang-undang California, Rebecca Bauer-Kahan, menolak untuk menandatangani perjanjian sedemikian.

Kesan Industri dan Kebimbangan Masa Depan

Pengaruh Whisper melampaui aplikasi perubatan, dengan alat ini diintegrasikan ke dalam ChatGPT dan platform awan utama seperti Oracle dan Microsoft. Dengan lebih 4.2 juta muat turun dalam satu bulan dari HuggingFace, potensi untuk penyebaran maklumat palsu adalah signifikan. Bekas jurutera OpenAI, William Saunders, mencadangkan isu-isu ini boleh diselesaikan jika diberi keutamaan, tetapi situasi semasa menimbulkan risiko serius, terutamanya dalam persekitaran penjagaan kesihatan yang kritikal.