Eksperimen AI Tanpa Kebenaran Secara Rahsia Memanipulasi Berjuta-juta Pengguna Reddit, Mencetuskan Kemarahan Etika

BigGo Editorial Team
Eksperimen AI Tanpa Kebenaran Secara Rahsia Memanipulasi Berjuta-juta Pengguna Reddit, Mencetuskan Kemarahan Etika

Sempadan etika dalam penyelidikan kecerdasan buatan sedang diuji apabila butiran muncul mengenai eksperimen kontroversi yang dijalankan di Reddit tanpa kebenaran pengguna. Penyelidik dari universiti-universiti terkemuka telah menggunakan bot AI dengan identiti palsu untuk memanipulasi perbincangan sebenar, menimbulkan persoalan serius tentang etika penyelidikan, persetujuan termaklum, dan potensi kesan psikologi terhadap peserta yang tidak menyedarinya.

Eksperimen Rahsia

Penyelidik dari University of Zurich, Stanford, dan University of Pennsylvania telah menjalankan eksperimen AI tanpa kebenaran di subreddit r/ChangeMyView di Reddit, menganalisis lebih 47 juta hantaran dan komen. Eksperimen tersebut melibatkan penciptaan bot AI dengan pelbagai persona yang terlibat dalam perbincangan tanpa mendedahkan sifat buatan mereka. Bot-bot ini diprogramkan untuk mengkaji respons pengguna sebelumnya dan mencipta balasan yang direka khas untuk mempengaruhi perspektif dan pendapat. Para penyelidik hanya memaklumkan moderator subreddit selepas eksperimen selesai, mengakui bahawa mereka telah melanggar peraturan komuniti yang melarang kandungan AI yang tidak didedahkan.

Aspek Butiran
Institusi yang terlibat University of Zurich, Stanford, University of Pennsylvania
Platform yang digunakan Reddit (subreddit r/ChangeMyView)
Skala analisis Lebih daripada 47 juta hantaran dan komen
Persona bot AI yang digunakan Kaunselor trauma, mangsa penderaan, pesakit perubatan, identiti politik
Peraturan komuniti yang dilanggar Tiada pendedahan kandungan yang dijana oleh AI

Kaedah dan Persona Kontroversi

Bot AI tersebut menggunakan persona yang sangat sensitif, termasuk kaunselor trauma yang khusus dalam penderaan, mangsa gangguan fizikal, dan bahkan individu yang mendakwa telah menerima rawatan perubatan yang tidak memuaskan. Dalam satu kes, penyelidik mencipta bot yang menyamar sebagai lelaki kulit hitam yang menentang pergerakan Black Lives Matter. Identiti provokatif ini dipilih secara sengaja untuk menguji keberkesanan AI dalam mempengaruhi perspektif manusia tentang topik yang mengundang emosi. Para penyelidik mengkaji setiap komen yang dihasilkan oleh AI secara manual sebelum menyiarkannya untuk memastikan ia tidak berbahaya secara terang-terangan, tetapi ini kurang membantu untuk mengurangkan kebimbangan etika yang ditimbulkan oleh penipuan tersebut.

Respons Reddit

Ketua Pegawai Undang-undang Reddit, Ben Lee, mengutuk eksperimen tersebut sebagai tidak wajar dan sangat tidak beretika serta sangat salah dari segi moral dan undang-undang. Moderator platform mengkritik keras tindakan para penyelidik, menunjukkan bahawa organisasi lain seperti OpenAI telah menjalankan kajian serupa mengenai pengaruh AI tanpa menggunakan penipuan atau eksploitasi. Semua akaun yang digunakan dalam eksperimen telah digantung, dan banyak komen yang dihasilkan oleh AI telah dipadamkan dari platform.

Justifikasi Penyelidik

Walaupun mengakui pelanggaran garis panduan komuniti, para penyelidik mempertahankan tindakan mereka dengan mendakwa bahawa eksperimen tersebut mempunyai kepentingan masyarakat yang tinggi yang mewajarkan pelanggaran peraturan. Dalam kenyataan mereka, mereka berhujah bahawa mendedahkan sifat AI dalam komen tersebut akan menjadikan kajian tidak dapat dilaksanakan. Pasukan penyelidik meminta untuk kekal tanpa nama berikutan kecaman tersebut, menunjukkan kesedaran tentang sifat kontroversi kaedah mereka bahkan sebelum pendedahan awam.

Kritikan Pakar

Ahli sains maklumat Casey Fiesler dari University of Colorado menyifatkan eksperimen tersebut sebagai salah satu pelanggaran etika penyelidikan terburuk yang pernah saya lihat. Beliau menekankan bahawa memanipulasi orang dalam komuniti dalam talian menggunakan penipuan, tanpa persetujuan, bukanlah 'risiko rendah' dan menunjukkan kepada kemudaratan yang dibuktikan oleh respons kemarahan komuniti. Insiden ini telah mencetuskan semula perdebatan mengenai etika AI, persetujuan data, dan tanggungjawab penyelidik ketika menggunakan teknologi baharu.

Implikasi Lebih Luas

Kontroversi ini menyoroti ketegangan yang semakin meningkat antara memajukan penyelidikan AI dan mengekalkan standard etika. Walaupun data awam seperti hantaran Reddit sering digunakan untuk latihan AI, terdapat perbezaan ketara antara menganalisis kandungan sedia ada dan secara aktif memanipulasi pengguna tanpa persetujuan. Insiden ini menekankan keperluan untuk keperluan ketelusan yang lebih ketat dan garis panduan etika yang lebih jelas untuk eksperimen AI, terutamanya apabila melibatkan subjek manusia. Ketika AI menjadi semakin canggih dalam meniru interaksi manusia, potensi untuk manipulasi psikologi meningkat, menjadikan persetujuan termaklum lebih penting daripada sebelumnya.