Gambaran Keseluruhan AI Google Dengan Yakin Mereka-reka Makna untuk Frasa Yang Tidak Masuk Akal

BigGo Editorial Team
Gambaran Keseluruhan AI Google Dengan Yakin Mereka-reka Makna untuk Frasa Yang Tidak Masuk Akal

Kecerdasan buatan terus membentuk semula cara kita berinteraksi dengan teknologi, tetapi tidak selalunya ke arah yang lebih baik. Ciri eksperimental AI Overviews daripada Google baru-baru ini telah menjadi perhatian kerana satu kelemahan yang membimbangkan: ia dengan yakin menjana penjelasan yang direka sepenuhnya untuk frasa dan peribahasa rekaan yang tidak pernah wujud, menimbulkan persoalan serius tentang kebolehpercayaan hasil carian yang dikuasakan oleh AI.

Masalah Halusinasi

AI Overviews Google, ciri eksperimental yang disepadukan ke dalam Google Search, menunjukkan kecenderungan yang membimbangkan untuk berhalusinasi definisi untuk frasa yang tidak masuk akal atau rekaan. Pengguna telah mendapati bahawa dengan hanya menaip mana-mana kombinasi perkataan rawak diikuti dengan meaning ke dalam bar carian, AI Google dengan yakinnya memberikan penjelasan terperinci dan asal-usul untuk ungkapan rekaan ini. Tingkah laku ini melemahkan tujuan asas enjin carian—untuk memberikan maklumat yang tepat dan bukannya fiksyen yang dipaparkan sebagai fakta.

Bagaimana Isu Ini Berfungsi

Prosesnya sangat mudah. Apabila pengguna mencari frasa seperti you can't lick a badger twice atau a duckdog never blinks twice dan menambah meaning pada pertanyaan mereka, AI Overviews Google menjana penjelasan terperinci yang kedengaran berwibawa untuk frasa yang tidak masuk akal ini. Apa yang menjadikan ini sangat bermasalah adalah bahawa definisi rekaan ini muncul bersama hasil carian yang sah, dengan hanya penafian kecil yang menyatakan bahawa Generative AI adalah eksperimental.

Contoh-contoh halusinasi AI:

  • Frasa: "You can't lick a badger twice" → Penjelasan AI: Tidak boleh menipu seseorang dua kali
  • Frasa: "A duckdog never blinks twice" → Pelbagai penjelasan yang bercanggah diberikan dalam carian yang berbeza
  • Google melabelkan Gambaran Keseluruhan AI ini sebagai "eksperimental" tetapi memaparkannya bersama dengan hasil carian yang berasaskan fakta

Respons Yang Tidak Konsisten

Menambah kebimbangan adalah ketidakkonsistenan respons AI. Apabila pengguna mencari peribahasa palsu yang sama beberapa kali, Google sering memberikan penjelasan yang sama sekali berbeza dengan setiap carian. Sebagai contoh, seorang pengguna mencari a duckdog never blinks twice pada beberapa kesempatan dan menerima tafsiran yang berbeza—pertama mencadangkan ia merujuk kepada anjing pemburu yang sangat fokus, kemudian mendakwa ia menggambarkan sesuatu yang tidak boleh dipercayai atau mustahil untuk diterima, dan akhirnya menawarkan penjelasan berbeza yang lain.

Respons Google

Google telah mengakui isu ini melalui jurucakap mereka, menjelaskan bahawa apabila pengguna memasukkan carian yang tidak masuk akal atau 'premis palsu', sistem mereka cuba mencari hasil yang relevan berdasarkan kandungan web terhad yang tersedia. Syarikat itu merujuk kepada senario ini sebagai kekosongan data, yang memberikan cabaran kepada semua enjin carian. Google mendakwa telah melaksanakan penambahbaikan untuk menghadkan AI Overviews daripada muncul dalam situasi sedemikian untuk mencegah kandungan yang mengelirukan daripada timbul.

Respons rasmi Google: "Apabila pengguna melakukan carian yang tidak masuk akal atau 'premis palsu', sistem kami akan cuba mencari hasil yang paling relevan berdasarkan kandungan web terhad yang tersedia. Ini adalah benar untuk Carian secara keseluruhan, dan dalam beberapa kes, Gambaran Keseluruhan AI juga akan diaktifkan dalam usaha untuk menyediakan konteks yang berguna."

Implikasi Lebih Luas

Kelemahan dalam AI Overviews Google ini menimbulkan kebimbangan yang ketara tentang kebolehpercayaan alat carian yang dikuasakan oleh AI. Selama beberapa dekad, Google telah menjadi sinonim dengan semakan fakta dan pengesahan maklumat. Jika pengguna tidak lagi dapat membezakan antara maklumat faktual dan fiksyen yang dijana oleh AI yang dipaparkan dengan keyakinan yang sama, kepercayaan asas terhadap enjin carian boleh terjejas dengan teruk.

Bukan Kesilapan AI Pertama

Ini bukanlah kali pertama ciri AI Google menghadapi kritikan kerana halusinasi. Kira-kira setahun lalu, AI Overviews menjadi viral kerana mencadangkan resipi pelik seperti glue pizza dan gasoline spaghetti. Sifat berulang isu-isu ini menyoroti cabaran berterusan dalam membangunkan sistem AI yang boleh dipercayai untuk pengambilan dan ringkasan maklumat.

Masa Depan Integriti Carian

Apabila AI semakin diintegrasikan ke dalam fungsi carian, keseimbangan antara inovasi dan ketepatan menjadi lebih kritikal. Walaupun AI boleh meningkatkan pengalaman carian dengan menyediakan ringkasan cepat dan maklumat kontekstual, insiden seperti ini menunjukkan bahawa teknologi masih mempunyai batasan yang ketara apabila ia berkaitan dengan membezakan fakta daripada fiksyen. Bagi pengguna, mengekalkan skeptisisme yang sihat terhadap kandungan yang dijana AI kekal penting, terutamanya apabila maklumat yang diberikan kelihatan luar biasa atau kekurangan atribusi yang jelas.