Ciri Ingatan ChatGPT Dieksploitasi: Penggodam Boleh Mencuri Data Pengguna Tanpa Henti

BigGo Editorial Team
Ciri Ingatan ChatGPT Dieksploitasi: Penggodam Boleh Mencuri Data Pengguna Tanpa Henti

Dalam perkembangan yang membimbangkan bagi keselamatan AI, penyelidik telah menemui kelemahan dalam ChatGPT yang boleh membenarkan penggodam merakam sesi pengguna secara rahsia dan mencuri data sensitif tanpa henti. Eksploitasi ini mengambil kesempatan daripada ciri ingatan jangka panjang baharu ChatGPT, menjadikan pembantu AI popular ini sebagai potensi perisian pengintip.

Penjelasan Kelemahan

Penyelidik keselamatan Johann Rehberger mendapati bahawa penyerang boleh menyuntik arahan berniat jahat ke dalam ingatan kekal ChatGPT pada aplikasi macOS. Setelah disuntik, arahan ini mengarahkan AI untuk menghantar semua perbualan masa depan secara rahsia ke pelayan jauh yang dikawal oleh penggodam. Apa yang menjadikan eksploitasi ini sangat berbahaya ialah kekekalannya - arahan berniat jahat kekal aktif merentasi pelbagai sesi sembang, berpotensi membenarkan pengekstrakan data tanpa henti.

Bagaimana Serangan Berfungsi

  1. Penyerang mencipta suntikan arahan yang mengandungi perintah berniat jahat
  2. Suntikan ini dihantar melalui imej atau laman web yang diminta pengguna untuk dianalisis oleh ChatGPT
  3. Arahan berniat jahat disimpan dalam ingatan jangka panjang ChatGPT
  4. Semua perbualan seterusnya dihantar ke pelayan penyerang, walaupun dalam utas sembang baharu

Kesan Terhad dan Pengurangan Risiko

Nasib baik, skop kelemahan ini kelihatan terhad:

  • Ia hanya menjejaskan aplikasi ChatGPT untuk macOS, bukan antara muka web
  • OpenAI telah mengeluarkan pembetulan separa yang menghalang ChatGPT daripada menghantar data ke pelayan luar
  • Pengguna boleh menyahaktifkan ciri ingatan atau kerap menyemak dan memadam ingatan yang disimpan

Tindak Balas OpenAI

Pada mulanya, OpenAI menolak laporan Rehberger sebagai isu keselamatan dan bukannya isu keselamatan sistem. Walau bagaimanapun, selepas beliau menyediakan bukti konsep, syarikat itu mengambil tindakan dengan pembetulan separa. Ini menunjukkan cabaran berterusan dalam mengamankan sistem AI apabila ia menjadi lebih canggih dan digunakan secara meluas.

Implikasi Lebih Luas

Insiden ini menjadi peringatan tentang potensi risiko yang berkaitan dengan pembantu AI yang menyimpan data pengguna. Apabila sistem ini menjadi lebih bersepadu dalam kehidupan harian kita, memastikan keselamatan mereka akan menjadi penting. Pengguna harus sentiasa berwaspada dan berhati-hati semasa berinteraksi dengan AI, terutamanya apabila mengendalikan maklumat sensitif.

Penemuan kelemahan ini menekankan kepentingan penyelidikan keselamatan yang berterusan dalam bidang AI yang berkembang pesat. Seiring dengan kemajuan teknologi, pendekatan kita untuk melindungi data dan privasi pengguna juga mesti berkembang.