Halusinasi AI telah melepasi ambang yang membimbangkan apabila OpenAI berdepan dengan tindakan undang-undang kerana ChatGPT mereka telah mencipta jenayah yang mengerikan. Apa yang berlaku apabila bot perbualan AI bukan sahaja mencipta fakta remeh yang tidak berbahaya, tetapi secara palsu menuduh anda membunuh anak-anak anda sendiri? Seorang lelaki Norway mendapati dirinya berada di tengah-tengah senario yang menakutkan ini, menimbulkan persoalan serius tentang kebertanggungjawaban AI dan perlindungan data.
Insiden Yang Membimbangkan
Arve Hjalmar Holmen, seorang warganegara Norway, terkejut apabila dia membuat pertanyaan tentang dirinya kepada ChatGPT. AI tersebut dengan yakin menjawab dengan cerita rekaan yang mendakwa Holmen telah membunuh dua orang anaknya dan cuba membunuh anak ketiganya. Bot perbualan itu bahkan menyatakan bahawa Holmen telah dijatuhi hukuman penjara 21 tahun atas jenayah rekaan ini. Apa yang menjadikan halusinasi ini sangat membimbangkan adalah ChatGPT dengan tepat mengenal pasti beberapa butiran peribadi tentang kehidupan Holmen, termasuk bilangan dan jantina anak-anaknya, anggaran umur mereka, dan kampung halamannya. Maklumat peribadi yang tepat ini muncul bersama tuduhan jenayah yang sepenuhnya direka.
Butiran Halusinasi ChatGPT:
- Membuat tuduhan palsu bahawa Arve Hjalmar Holmen membunuh dua orang anak lelakinya
- Membuat kenyataan palsu bahawa beliau cuba membunuh anak lelaki ketiga
- Membuat kenyataan palsu bahawa beliau menjalani hukuman penjara selama 21 tahun
- Mengenal pasti dengan betul maklumat peribadi termasuk bilangan anak, jantina mereka, dan kampung halaman
Tindak Balas Undang-undang dan Implikasi GDPR
Berikutan insiden yang membimbangkan ini, Holmen menghubungi kumpulan advokasi hak privasi Noyb, yang kini telah memfailkan aduan rasmi kepada Datatilsynet, Pihak Berkuasa Perlindungan Data Norway. Aduan tersebut mendakwa bahawa OpenAI telah melanggar Peraturan Perlindungan Data Umum (GDPR), khususnya Artikel 5(1)(d), yang memerlukan syarikat yang memproses data peribadi untuk memastikan ketepatannya. Apabila data tidak tepat, peraturan tersebut mewajibkan ia diperbetulkan atau dipadamkan.
Artikel GDPR yang Disebut dalam Aduan:
- Artikel 5(1)(d): Memerlukan data peribadi menjadi tepat dan diperbetulkan/dihapuskan jika tidak
- Artikel 15: Memberikan hak kepada individu untuk mengakses data peribadi mereka
Masalah Kekekalan
Walaupun model asas ChatGPT telah dikemas kini dan tidak lagi mengulangi dakwaan fitnah tentang Holmen, Noyb berpendapat ini tidak menyelesaikan isu asas. Menurut aduan mereka, data yang tidak tepat mungkin masih kekal sebagai sebahagian daripada set data model bahasa besar tersebut. Memandangkan ChatGPT memasukkan semula data pengguna ke dalam sistemnya untuk tujuan latihan, tiada jaminan bahawa maklumat palsu itu telah dibuang sepenuhnya dari model tersebut melainkan ia menjalani latihan semula yang lengkap. Ketidakpastian ini terus menyebabkan kesusahan bagi Holmen, yang tidak pernah dituduh atau disabitkan dengan sebarang jenayah.
Isu Pematuhan Yang Lebih Luas
Aduan Noyb juga menyoroti isu yang lebih luas berkenaan pematuhan ChatGPT terhadap Artikel 15 GDPR, yang memberikan individu hak untuk mengakses data peribadi mereka. Sifat model bahasa besar menjadikan ia hampir mustahil bagi pengguna untuk melihat atau mengingati semua data tentang diri mereka yang mungkin telah dimasukkan ke dalam set data latihan. Batasan asas ini menimbulkan persoalan serius tentang sama ada sistem AI seperti ChatGPT boleh mematuhi sepenuhnya peraturan perlindungan data yang sedia ada.
Tindak Balas Terhad OpenAI
Pada masa ini, pendekatan OpenAI untuk menangani halusinasi seperti ini nampaknya minimal. Syarikat itu memaparkan penafian kecil di bahagian bawah setiap sesi ChatGPT yang menyatakan, ChatGPT boleh melakukan kesilapan. Pertimbangkan untuk menyemak maklumat penting. Pengkritik berpendapat ini sangat tidak mencukupi memandangkan potensi bahaya yang boleh terhasil daripada kepalsuan yang dihasilkan oleh AI, terutamanya apabila ia melibatkan tuduhan jenayah serius terhadap individu yang boleh dikenal pasti.
![]() |
---|
OpenAI mengakui kemungkinan ralat dalam respons ChatGPT walaupun ia mungkin membawa kesan yang serius |
Jalan Ke Hadapan
Noyb meminta Pihak Berkuasa Perlindungan Data Norway untuk mengarahkan OpenAI memadamkan data yang tidak tepat tentang Holmen dan memastikan ChatGPT tidak dapat menghasilkan kandungan fitnah yang serupa tentang orang lain pada masa hadapan. Walau bagaimanapun, memandangkan sifat kotak hitam model bahasa besar, pelaksanaan perlindungan sedemikian menimbulkan cabaran teknikal yang ketara. Ketika sistem AI semakin terintegrasi dalam kehidupan seharian, kes ini menyoroti keperluan mendesak untuk rangka kerja peraturan yang lebih mantap dan penyelesaian teknikal untuk mencegah halusinasi AI daripada menyebabkan kemudaratan dunia nyata kepada individu.