Dalam perkembangan yang membimbangkan bagi keselamatan AI, penyelidik telah menemui kelemahan dalam ChatGPT yang boleh membenarkan penggodam merakam sesi pengguna secara rahsia dan mencuri data sensitif tanpa henti. Eksploitasi ini mengambil kesempatan daripada ciri ingatan jangka panjang baharu ChatGPT, menjadikan pembantu AI popular ini sebagai potensi perisian pengintip.
Penjelasan Kelemahan
Penyelidik keselamatan Johann Rehberger mendapati bahawa penyerang boleh menyuntik arahan berniat jahat ke dalam ingatan kekal ChatGPT pada aplikasi macOS. Setelah disuntik, arahan ini mengarahkan AI untuk menghantar semua perbualan masa depan secara rahsia ke pelayan jauh yang dikawal oleh penggodam. Apa yang menjadikan eksploitasi ini sangat berbahaya ialah kekekalannya - arahan berniat jahat kekal aktif merentasi pelbagai sesi sembang, berpotensi membenarkan pengekstrakan data tanpa henti.
Bagaimana Serangan Berfungsi
- Penyerang mencipta suntikan arahan yang mengandungi perintah berniat jahat
- Suntikan ini dihantar melalui imej atau laman web yang diminta pengguna untuk dianalisis oleh ChatGPT
- Arahan berniat jahat disimpan dalam ingatan jangka panjang ChatGPT
- Semua perbualan seterusnya dihantar ke pelayan penyerang, walaupun dalam utas sembang baharu
Kesan Terhad dan Pengurangan Risiko
Nasib baik, skop kelemahan ini kelihatan terhad:
- Ia hanya menjejaskan aplikasi ChatGPT untuk macOS, bukan antara muka web
- OpenAI telah mengeluarkan pembetulan separa yang menghalang ChatGPT daripada menghantar data ke pelayan luar
- Pengguna boleh menyahaktifkan ciri ingatan atau kerap menyemak dan memadam ingatan yang disimpan
Tindak Balas OpenAI
Pada mulanya, OpenAI menolak laporan Rehberger sebagai isu keselamatan dan bukannya isu keselamatan sistem. Walau bagaimanapun, selepas beliau menyediakan bukti konsep, syarikat itu mengambil tindakan dengan pembetulan separa. Ini menunjukkan cabaran berterusan dalam mengamankan sistem AI apabila ia menjadi lebih canggih dan digunakan secara meluas.
Implikasi Lebih Luas
Insiden ini menjadi peringatan tentang potensi risiko yang berkaitan dengan pembantu AI yang menyimpan data pengguna. Apabila sistem ini menjadi lebih bersepadu dalam kehidupan harian kita, memastikan keselamatan mereka akan menjadi penting. Pengguna harus sentiasa berwaspada dan berhati-hati semasa berinteraksi dengan AI, terutamanya apabila mengendalikan maklumat sensitif.
Penemuan kelemahan ini menekankan kepentingan penyelidikan keselamatan yang berterusan dalam bidang AI yang berkembang pesat. Seiring dengan kemajuan teknologi, pendekatan kita untuk melindungi data dan privasi pengguna juga mesti berkembang.