Microsoft Copilot Mendedahkan Beribu-ribu Repositori GitHub Peribadi

BigGo Editorial Team
Microsoft Copilot Mendedahkan Beribu-ribu Repositori GitHub Peribadi

Pembantu AI Microsoft telah didapati mendedahkan maklumat yang sepatutnya kekal tersembunyi, menimbulkan kebimbangan keselamatan yang serius untuk pembangun di seluruh dunia. Penyelidik keselamatan telah menemui bahawa Microsoft Copilot boleh mengakses dan mendedahkan kandungan dari repositori GitHub yang telah ditetapkan sebagai peribadi, berpotensi mendedahkan data korporat dan kredensial sensitif.

Penemuan Pelanggaran Keselamatan

Penyelidik keselamatan di Lasso, sebuah firma keselamatan siber yang memfokuskan pada ancaman berkaitan AI, telah menemui kelemahan yang ketara dalam Microsoft Copilot. Pasukan tersebut mendapati bahawa Copilot boleh mengakses salah satu repositori GitHub mereka sendiri yang telah ditetapkan sebagai peribadi. Repositori tersebut pernah ditetapkan sebagai awam sebelum ditukar kembali kepada status peribadi, tetapi tempoh singkat itu sudah cukup untuk enjin carian Bing Microsoft mengindeks dan menyimpan kandungannya. Walaupun setelah repositori tersebut dilindungi dengan betul, Copilot terus mengakses dan mendedahkan maklumat yang sepatutnya peribadi ini apabila ditanya dengan soalan yang tepat.

Skala Pendedahan

Susulan penemuan awal mereka, Lasso menjalankan siasatan yang lebih luas yang mendedahkan hasil yang membimbangkan. Firma keselamatan tersebut mengenal pasti lebih daripada 20,000 repositori GitHub yang telah ditetapkan sebagai peribadi pada tahun 2024 tetapi masih boleh diakses melalui Microsoft Copilot. Pendedahan ini menjejaskan anggaran 16,000 organisasi, termasuk syarikat teknologi utama seperti IBM, Google, PayPal, Tencent, dan Microsoft sendiri. Skop isu keselamatan ini adalah besar, berpotensi menjejaskan harta intelek, data korporat, dan kredensial keselamatan di seluruh industri teknologi.

Penemuan utama dari penyelidikan Lasso:

  • Lebih daripada 20,000 repositori GitHub persendirian boleh diakses melalui Copilot
  • Kira-kira 16,000 organisasi terjejas
  • Syarikat teknologi utama yang terkesan termasuk IBM, Google, PayPal, Tencent, Microsoft
  • Kerentanan dilaporkan kepada Microsoft pada November 2024
  • Microsoft mengklasifikasikan isu ini sebagai "kerentanan rendah"
Teknologi yang saling berhubung menyoroti skala besar data peribadi yang terdedah di seluruh organisasi akibat pelanggaran keselamatan AI
Teknologi yang saling berhubung menyoroti skala besar data peribadi yang terdedah di seluruh organisasi akibat pelanggaran keselamatan AI

Maklumat Sensitif Berisiko

Repositori yang terdedah berpotensi mengandungi maklumat yang sangat sensitif yang boleh dieksploitasi oleh pihak berniat jahat. Menurut penemuan Lasso, penjenayah siber berpotensi memanipulasi Copilot untuk mendedahkan maklumat sulit seperti kunci akses, token keselamatan, dan kod proprietari. Firma keselamatan tersebut menasihati organisasi yang terjejas untuk mengambil tindakan segera dengan menukar atau membatalkan mana-mana kredensial keselamatan yang terjejas untuk mengurangkan kerosakan yang mungkin berlaku akibat pendedahan ini.

Respons Microsoft

Apabila Lasso melaporkan kelemahan ini kepada Microsoft pada November 2024, respons syarikat itu mengejutkan kerana bersikap mengabaikan. Microsoft mengklasifikasikan isu tersebut sebagai keterukan rendah dan menggambarkan tingkah laku penyimpanan cache sebagai boleh diterima. Walaupun Microsoft telah mengeluarkan hasil carian cache yang berkaitan dengan data yang terjejas dari Bing pada Disember 2024, Lasso memberi amaran bahawa Copilot masih menyimpan data dalam model AI-nya, bermakna maklumat tersebut masih berpotensi boleh diakses melalui prompt yang betul.

Implikasi Lebih Luas untuk Keselamatan AI

Insiden ini menyoroti kebimbangan yang semakin meningkat tentang bagaimana sistem AI dilatih dan maklumat apa yang mereka simpan. Ketika chatbot dan pembantu AI terus mengimbas internet untuk data latihan, mereka mungkin menangkap dan menyimpan maklumat yang hanya sementara awam atau tidak pernah dimaksudkan untuk pengedaran yang luas. Kekurangan peraturan mengenai pengumpulan dan penyimpanan data ini mewujudkan risiko keselamatan yang ketara, terutamanya apabila berurusan dengan maklumat korporat sensitif atau data peribadi.

Langkah Pencegahan untuk Pembangun

Berikutan penemuan ini, pembangun dan organisasi yang menggunakan GitHub perlu mengkaji semula amalan keselamatan repositori mereka. Walaupun pendedahan awam sementara repositori sensitif boleh menyebabkan risiko keselamatan jangka panjang kerana sistem AI mengindeks dan menyimpan maklumat tersebut. Penukaran kredensial keselamatan secara berkala, pengurusan tetapan keterlihatan repositori dengan berhati-hati, dan pengauditan maklumat yang berpotensi terdedah menjadi amalan penting dalam persekitaran pembangunan yang dikuasakan oleh AI.