Persilangan antara kecerdasan buatan dan persenjataan telah menjadi realiti yang semakin membimbangkan, apabila insiden terkini menunjukkan potensi penyalahgunaan teknologi AI. OpenAI menghadapi cabaran yang semakin meningkat dalam mencegah platform ChatGPT daripada digunakan dalam aplikasi berbahaya, mendorong tindak balas segera untuk mengekalkan penggunaan AI yang beretika.
Insiden Terkini Membangkitkan Kebimbangan
Dua kejadian penting telah membawa kebimbangan mengenai senjata AI ke hadapan. Di Las Vegas, pihak berkuasa mendedahkan bahawa seorang suspek menggunakan ChatGPT untuk mendapatkan maklumat tentang bahan letupan sebelum insiden Tahun Baru di Trump Hotel. Secara berasingan, OpenAI telah menutup akses kepada seorang pembangun yang mencipta sistem senapang automatik berkuasa AI yang boleh bertindak balas kepada arahan suara melalui API ChatGPT.
Garis Masa Insiden Terkini:
- 2025 Januari 1: Insiden letupan Cybertruck di Las Vegas
- 2025 Awal Januari: Pembangunan turret senjata berkuasa AI disekat
Tindak Balas dan Penguatkuasaan Dasar OpenAI
OpenAI telah menunjukkan pendirian proaktif dalam menangani kebimbangan keselamatan ini. Jurucakap syarikat, Liz Bourgeois, menekankan komitmen mereka terhadap penggunaan AI yang bertanggungjawab sambil mengakui bahawa respons ChatGPT terhad kepada maklumat yang tersedia untuk umum. Dalam kes sistem senjata automatik, OpenAI dengan pantas mengenal pasti pelanggaran dasar dan menamatkan akses pembangun sebelum keadaan menjadi lebih serius.
Pelanggaran Dasar OpenAI:
- Pembangunan senjata
- Sistem yang memberi kesan kepada keselamatan peribadi
- Automasi senjata maut
Implikasi Ketenteraan dan Industri Pertahanan
Insiden-insiden ini menunjukkan ketegangan yang semakin meningkat antara pembangunan AI dan aplikasi ketenteraan. Walaupun OpenAI secara jelas melarang penggunaan produknya untuk pembangunan senjata atau sistem yang mempengaruhi keselamatan peribadi, syarikat itu telah bekerjasama dengan firma pertahanan-teknologi Anduril untuk tujuan pertahanan, khususnya mensasarkan pencegahan serangan dron. Perkongsian ini menunjukkan keseimbangan kompleks antara aplikasi keselamatan dan pembangunan senjata.
Kebimbangan Masa Depan dan Cabaran Regulatori
Apabila teknologi AI menjadi lebih canggih, cabaran untuk mencegah penggunaannya dalam persenjataan menjadi lebih kompleks. Walaupun syarikat AI utama melaksanakan langkah keselamatan, ketersediaan model sumber terbuka menimbulkan kebimbangan keselamatan yang berterusan. Keadaan ini memerlukan rangka kerja peraturan yang lebih kukuh dan sistem pemantauan yang lebih baik untuk mencegah penyalahgunaan teknologi AI dalam pembangunan senjata.