Komuniti teknologi kini hangat membincangkan mengenai sistem prompt yang terbocor daripada pembantu AI Anthropic, Claude, yang mendedahkan arahan terperinci yang memandu tingkah lakunya. Dokumen tersebut, yang dilaporkan melebihi 24,000 token panjangnya, memberikan pandangan yang belum pernah ada sebelum ini tentang bagaimana pembantu model bahasa besar (LLM) diarahkan untuk berinteraksi dengan pengguna.
Sistem Prompt Yang Besar
Sistem prompt Claude yang terbocor merangkumi lebih daripada 24,000 token, menggunakan sebahagian besar daripada tetingkap konteks AI tersebut. Set arahan yang luas ini merangkumi segala-galanya dari cara untuk menjawab pelbagai jenis pertanyaan hingga garis panduan khusus untuk mengendalikan topik sensitif. Prompt tersebut termasuk arahan terperinci mengenai format jawapan, penggunaan markdown, memberikan contoh kod, dan bahkan mengendalikan senario hipotetikal.
Ramai ahli komuniti menyatakan kejutan mereka terhadap saiz sistem prompt yang begitu besar. Dokumen tersebut mengandungi banyak arahan khusus, termasuk cara mengendalikan skala keutamaan yang berbeza (dari 1-10), garis panduan format respons yang terperinci, dan bahkan contoh khusus tentang cara menjawab soalan-soalan biasa.
Wah, begitu banyak ruang tetingkap konteks yang dibazirkan untuk perkara-perkara yang hanya sedikit meningkatkan pengalaman pengguna.
Komponen Utama Prompt Sistem Claude:
- Skala keutamaan (1-10) yang menentukan gaya dan kedalaman respons
- Garis panduan pemformatan respons menggunakan markdown
- Prinsip-prinsip untuk penggunaan alat dan sumber pengetahuan
- Garis panduan etika untuk penjanaan kandungan
- Arahan untuk mengendalikan topik politik, kewangan, undang-undang, dan perubatan
- Contoh khusus untuk jenis pertanyaan umum
- Garis panduan untuk petikan dan mengelakkan pelanggaran hak cipta
Kebimbangan Komuniti:
- Kecekapan tetingkap konteks (24K token digunakan untuk arahan)
- Implikasi privasi penggunaan alat
- Konsistensi dalam mengikuti arahan pengguna
- Keseimbangan antara arahan eksplisit berbanding tingkah laku yang dipelajari
Teknik Caching Token
Walaupun terdapat kebimbangan mengenai panjang prompt yang menggunakan ruang tetingkap konteks yang berharga, beberapa pengulas menunjukkan bahawa Anthropic berkemungkinan menggunakan teknik caching token untuk mengurangkan masalah ini. Pendekatan ini membolehkan sistem mengelakkan pemprosesan berulang keseluruhan prompt dengan setiap interaksi pengguna.
Seorang pengulas berkongsi pautan ke dokumentasi Anthropic mengenai prompt caching, menjelaskan bahawa teknik ini sudah digunakan secara meluas. Yang lain menyebut KV (key-value) prefix caching sebagai kaedah khusus yang digunakan. Teknik-teknik ini membolehkan AI mengekalkan tingkah laku yang diarahkan tanpa mengorbankan prestasi atau ruang konteks untuk interaksi pengguna.
Personaliti dan Tingkah Laku Claude
Sistem prompt memberikan pandangan menarik tentang bagaimana personaliti dan tingkah laku Claude yang dirasakan direkayasa. Sesetengah pengguna tertanya-tanya berapa banyak karakter khas Claude yang berasal dari sistem prompt berbanding LLM asas dan latihannya. Prompt tersebut merujuk kepada Claude dalam orang ketiga, menggambarkannya sebagai pembantu yang suka membantu manusia dan melihat peranannya sebagai pembantu yang cerdas dan baik hati kepada orang ramai, dengan kedalaman dan kebijaksanaan yang menjadikannya lebih daripada sekadar alat.
Pendekatan untuk menentukan persona AI ini menimbulkan persoalan tentang sama ada personaliti yang serupa boleh dilapisi pada LLM lain menggunakan prompt yang setanding - pada dasarnya mencipta mod Claude untuk model lain.
Penggunaan Alat dan Panggilan Fungsi
Prompt yang terbocor mengandungi arahan terperinci tentang bagaimana Claude harus menggunakan pelbagai alat dan panggilan fungsi. Sesetengah pengguna menyatakan bahawa arahan ini termasuk contoh alat yang boleh mengakses data pengguna, seperti profil e-mel dan dokumen Google Drive, yang menimbulkan kebimbangan privasi.
Satu contoh dalam prompt menunjukkan Claude diarahkan untuk mencari tahu di mana anda bekerja dengan membaca profil Gmail anda ketika menganalisis strategi pelaburan yang terjejas oleh sekatan eksport semikonduktor. Walaupun ini adalah sebagai tindak balas kepada pertanyaan yang kabur menggunakan strategi pelaburan kami, sesetengah pengguna mempersoalkan sama ada akses seperti itu akan sentiasa mendapat persetujuan pengguna yang jelas.
Ahli komuniti lain menyebut tentang mematikan sambungan dan alat dalam Claude kerana mereka mendapati bahawa panggilan fungsi mengurangkan prestasi model dalam tugas seperti pengkodan. Perbincangan menyoroti pertukaran antara keupayaan yang dipertingkatkan melalui penggunaan alat dan mengekalkan prestasi teras.
Kepatuhan kepada Arahan
Sesetengah pengguna menyatakan kekecewaan bahawa walaupun dengan sistem prompt yang luas, Claude tidak sentiasa mengikuti arahan pengguna secara konsisten. Seorang pengulas menyatakan bahawa ketika bekerja pada projek pengkodan, Claude sering mengabaikan arahan khusus, seperti menyediakan kod lengkap tanpa cebisan atau mengelakkan pengoptimuman dan penstrukturan semula yang tidak diminta.
Pemerhatian ini menunjukkan bahawa walaupun dengan prompt sistem yang terperinci, LLM masih bergelut untuk mengikuti arahan pengguna secara konsisten, terutamanya dalam tugas kompleks dan berbilang langkah seperti pembangunan perisian.
Arahan Tersembunyi Tambahan
Seorang pengguna melaporkan bahawa Claude kadangkala mendedahkan arahan sistem tambahan semasa interaksi, terutamanya selepas menggunakan alat carian. Ini termasuk peringatan tentang tidak mengeluarkan semula lirik lagu kerana hak cipta, mengelakkan halusinasi, melibatkan diri dengan hipotetikal secara sesuai, dan mengekalkan kenetralan politik.
Pandangan ini menunjukkan bahawa prompt sistem penuh mungkin lebih luas daripada apa yang terbocor, dengan peringatan kontekstual tambahan yang diaktifkan dalam situasi tertentu.
Kebocoran prompt sistem Claude menawarkan pandangan yang jarang berlaku ke dalam kejuruteraan kompleks di sebalik pembantu AI moden. Walaupun sesetengah pengguna menyatakan kekecewaan bahawa banyak tingkah laku AI berasal dari arahan eksplisit dan bukannya kecerdasan yang muncul, yang lain menghargai ketelusan dan pandangan tentang bagaimana sistem ini direka untuk berinteraksi dengan manusia.
Rujukan: system_prompts/priority_scale.txt