- Gesaan Rantai Pemikiran meningkatkan penaakulan LLM dengan menjadikan langkah pertengahan lebih jelas dan bukannya memaksa jawapan sekali gus.
- Varian seperti zero-shot, few-shot, Auto-CoT, self-consistency dan Tree-of-Thoughts mengimbangi ketepatan, kos dan usaha pelaksanaan.
- CoT amat berkuasa dalam sistem penggunaan alat yang ejentik di mana penaakulan telus meningkatkan kebolehpercayaan dan kebolehpepijatan.
- Penggunaan pengeluaran CoT memerlukan kebolehcerapan, penilaian dan pengoptimuman segera berulang untuk mengimbangi kualiti terhadap latensi dan kos token.

Rantaian Pemikiran (CoT) telah berubah daripada sekadar satu kajian yang ingin tahu kepada salah satu alat paling praktikal yang dimiliki oleh pembangun untuk membolehkan model bahasa yang besar benar-benar membuat penaakulan, dan bukannya hanya meneka perkataan seterusnya yang paling mungkin. Dengan meminta model tersebut untuk menjelaskan langkah-langkah pertengahannya secara eksplisit, anda dapat memperoleh prestasi yang jauh lebih baik dalam matematik, logik dan tugas membuat keputusan, di samping mendapatkan jejak telus yang boleh anda debug dan audit.
Jika anda membina aplikasi berkuasa LLM, ejen atau pembantu juruterbang dan anda masih hanya menjalankan gesaan satu langkah, anda meninggalkan banyak kualiti di atas meja. Dalam panduan yang berfokuskan pembangun ini, kami akan menghuraikan apa itu Rantai Pemikiran, sebab ia berfungsi, varian utama (zero-shot, few-shot, Auto-CoT, kekonsistenan kendiri, Tree-of-Thoughts, least-to-most, multimodal), bagaimana ia dibandingkan dengan rantaian gesaan dan cara mengintegrasikan dan memantaunya dalam sistem sebenar menggunakan perkakasan moden.
Daripada jawapan langsung kepada penaakulan eksplisit
Kebanyakan gesaan yang dihantar oleh orang ramai kepada LLM adalah "satu langkah sahaja": anda bertanya soalan, model akan memberikan jawapan, tiada soalan yang ditanya, tiada penaakulan yang ditunjukkan. Untuk sesuatu seperti “Apakah warna langit?”, tidak mengapa: model hanya mengembalikan “Langit berwarna biru.” Tiada struktur yang boleh dilihat, tiada logik perantaraan, hanya ayat terakhir yang kedengaran betul.
Dorongan Rantai Pemikiran membalikkan corak ini dengan memberitahu model untuk benar-benar menceritakan langkah-langkah penaakulan yang diikutinya. Tanya “Mengapakah langit kelihatan biru? Fikirkan langkah demi langkah.” dan model itu mungkin akan menghuraikan konsep “biru”, membincangkan tentang bagaimana cahaya matahari berinteraksi dengan atmosfera, menyebut penyerakan Rayleigh, dan hanya kemudian menyatakan bahawa panjang gelombang biru yang lebih pendek berselerak ke semua arah, jadi langit kelihatan biru kepada kita.
Secara teknikalnya, anda tidak mengubah pemberat model atau memberikannya pengetahuan baharu; anda mengubah format pengiraan yang anda minta ia lakukan. Daripada memampatkan penghuraian, penaakulan, pengiraan dan jawapan kepada satu hantaran ke hadapan, anda membenarkannya mengalirkan urutan pemikiran perantaraan yang membina ke arah kesimpulan.
Dalam praktiknya, ini semudah menambahkan arahan seperti "tunjukkan penaakulan anda langkah demi langkah" atau "mari selesaikan ini secara sistematik" pada akhir gesaan anda. Tambahan kecil itu menggalakkan model untuk mendedahkan rantaian keadaan perantaraan yang membawa kepada keputusan akhir, dan bukannya terus kepada jawapan yang hanya kedengaran munasabah.
CoT juga menjadikan kebolehcerapan lebih mudah secara dramatik. Apabila model itu salah, anda sering boleh menentukan langkah tepat di mana logiknya tersasar, bukannya merenung nombor yang salah dan misteri atau keputusan yang salah tanpa penjelasan.
Jurang antara pemadanan corak dan penaakulan sebenar
LLM sangat bagus dalam pemadanan corak kerana ia pada dasarnya adalah mesin kebarangkalian gergasi yang dilatih dengan jumlah teks yang mengejutkan. Tanyalah, “Apakah yang lebih berat, satu paun bulu atau satu paun plumbum?” dan model moden telah melihat corak soalan helah itu ratusan atau ribuan kali; ia dengan yakin menjawab bahawa beratnya sama.
Tetapi apabila anda menanyakan soalan yang memerlukan beberapa operasi yang dipautkan, prestasi boleh merosot dengan cepat. Contoh klasik: “Jika 5 mesin mengambil masa 5 minit untuk membuat 5 widget, berapa lama masa yang diperlukan untuk 100 mesin membuat 100 widget?” Banyak model akan berhalusinasi dengan jawapan yang intuitif tetapi salah melainkan dibimbing dengan teliti.
Masalah teras biasanya bukan kehilangan pengetahuan tetapi kehilangan struktur. Penaakulan berbilang langkah secara tersirat memerlukan model untuk mengimbangi berbilang operasi secara berurutan: memahami teks, mengenal pasti apa yang ditanya, memetakan kepada hubungan atau formula yang berkaitan, melakukan pengiraan dan mengarang jawapan. Jika anda menuntut respons segera, anda secara efektifnya memintanya untuk memampatkan keseluruhan saluran paip itu menjadi satu tangkapan.
Gesaan Rantai Pemikiran memberi model "ruang untuk berfikir" dengan mengubah urutan tersirat itu menjadi teks eksplisit. Kajian daripada Google dan lain-lain telah menunjukkan bahawa apabila anda meminta model untuk "menunjukkan hasil kerja mereka", ketepatan aritmetik, penaakulan akal sehat dan tugasan manipulasi simbolik melonjak dengan ketara berbanding dengan jawapan langsung.
Satu eksperimen yang amat menarik: apabila penyelidik menanyakan soalan matematik sekolah rendah GPT-3, ia mendapat kurang daripada 20% daripadanya betul dengan gesaan biasa. Apabila mereka hanya menukar gesaan untuk meminta penaakulan pertengahan, ketepatannya melonjak melebihi 50%, dan lapisan konsistensi kendiri di atasnya melonjakkannya ke pertengahan 70-an. Wajaran yang sama, model yang sama—cuma cara yang lebih bijak untuk menanyakan soalan.
Jenis-jenis teras Rantaian Pemikiran yang mendorong
Pembangun telah mengembangkan beberapa perisa CoT untuk mengimbangi ketepatan, kos dan kerumitan pelaksanaan. Anda akan melihat varian seperti CoT tembakan sifar, CoT tembakan beberapa, CoT automatik (Auto-CoT), ketekalan kendiri, Pokok Pemikiran dan gesaan daripada paling sedikit kepada paling banyak, setiap satunya sesuai untuk senario yang sedikit berbeza.
Rantai Pemikiran Sifar-Tembakan
Zero-shot CoT ialah pilihan paling ringan: anda tidak memberi contoh, anda hanya perlu mengaktifkan arahan penaakulan. Ungkapan seperti “Mari kita fikir langkah demi langkah”, “Selesaikan ini dengan teliti, satu langkah pada satu masa” atau “Terangkan penaakulan anda sebelum menjawab” merupakan pencetus yang diketahui yang mengaktifkan tingkah laku penaakulan model yang dipelajari.
Secara empirikal, perubahan mudah ini boleh memberi impak yang besar. Pada penanda aras aritmetik, kerja awal menunjukkan ketepatan meningkat daripada sekitar 10% kepada lebih 40% hanya dengan menambah arahan langkah demi langkah. Anda mendapat peningkatan besar dalam kualiti penaakulan tanpa membina atau menyelenggara pustaka contoh.
Zero-shot CoT menyerlah apabila anda mahukan kemenangan cepat dalam tugasan penaakulan umum dan anda mementingkan kependaman dan kos. Gesaan kekal pendek, jadi anda membayar untuk token yang lebih sedikit dan pembinaan konteks yang kurang, sambil tetap memperoleh interpretasi dan ketepatan yang ketara.
Kelemahannya ialah model tersebut perlu mencipta gaya penaakulannya sendiri, yang mungkin bertele-tele, tidak konsisten merentasi domain, atau kadangkala tidak logik walaupun jawapan akhirnya kelihatan baik. Untuk domain khusus—kewangan, perubatan, undang-undang, keputusan penting berkaitan keselamatan—ini biasanya tidak mencukupi.
Rantai Pemikiran Beberapa Pukulan
CoT Few-shot mengambil pendekatan yang lebih berpendirian: anda menunjukkan pasangan Soal Jawab contoh model yang mana jawapannya merangkumi langkah penaakulan yang eksplisit. Selepas beberapa demonstrasi sedemikian, anda menambah soalan sebenar anda dan membiarkan model meniru corak tersebut.
Pendekatan ini sangat berkesan apabila struktur penaakulan yang sah benar-benar penting. Untuk alat analisis kewangan, anda mungkin memasukkan contoh yang menerangkan pengiraan aliran tunai, kadar diskaun dan pelarasan risiko. Untuk bot triage perubatan, anda perlu membenamkan pokok keputusan klinikal: simptom, sejarah, tanda amaran, pembezaan, kemudian cadangan.
Pertimbangannya ialah CoT beberapa tembakan memerlukan usaha kejuruteraan segera yang serius. Anda mesti mereka bentuk contoh yang bersih dan pelbagai, memastikan logiknya betul dan mewakili, dan memastikannya dikemas kini apabila kekangan produk atau domain anda berkembang. Gesaan yang lebih panjang juga bermakna lebih banyak token, kos yang lebih tinggi dan lebih banyak latensi setiap panggilan.
Namun, apabila domain itu sensitif atau kompleks, CoT beberapa tembakan biasanya mengatasi tembakan sifar dan selalunya merupakan garis dasar yang anda mahukan dalam pengeluaran. Anda mendapat lebih banyak kawalan ke atas gaya dan kedalaman penaakulan, dan anda boleh menjauhkan model daripada corak pemikiran yang rapuh atau tidak relevan.
Rantaian Pemikiran Automatik (Auto-CoT)
Pembuatan contoh CoT yang baik dengan tangan tidak berskala dengan baik, jadi para penyelidik mencadangkan Rantaian Pemikiran Automatik (Auto-CoT) untuk memindahkan sebahagian besar kerja itu kembali ke model. Ideanya adalah untuk menjana pelbagai rantaian penaakulan secara automatik yang boleh anda gunakan semula sebagai demonstrasi.
Auto-CoT biasanya berlaku dalam dua peringkat:
- Pengelompokan soalan: Anda mengambil set data masalah, membenamkannya (contohnya menggunakan transformer ayat) dan mengelompokkannya supaya soalan yang serupa berakhir bersama.
- Persampelan demonstrasi: daripada setiap kluster, anda memilih soalan yang representatif dan meminta LLM untuk menjana rantaian penaakulan dengan CoT sifar-tembakan, biasanya menggunakan beberapa heuristik mudah seperti "soalan pendek dengan ~5 langkah penaakulan".
Hasilnya ialah perpustakaan contoh CoT yang dijana secara automatik dan agak pelbagai tanpa pengarangan manual. Apabila pertanyaan baharu masuk, anda boleh mendapatkan atau mencuba demonstrasi yang berkaitan daripada pustaka ini dan memasukkannya ke dalam gesaan sebagai contoh CoT beberapa tangkapan.
Walaupun sesetengah rantaian yang dijana secara automatik akan mengandungi kesilapan kecil, kepelbagaian dan pengambilan semula cenderung untuk melemahkan impak mana-mana contoh yang cacat. Dalam praktiknya, Auto-CoT sering mengatasi kedua-dua raw zero-shot dan naive few-shot CoT pada penanda aras penaakulan, sambil menjimatkan banyak masa manusia.
Konsistensi kendiri terhadap pelbagai laluan penaakulan
Ketekalan kendiri ialah sambungan lanjutan yang menukar pengiraan untuk kebolehpercayaan. Daripada meminta model untuk satu rantai penaakulan dan jawapan, anda mengambil sampel beberapa rantai bebas (dengan menolak parameter suhu atau persampelan), kemudian mengagregatkan jawapan akhir melalui undian majoriti.
Intuisinya ialah terdapat banyak laluan penaakulan yang sah yang membawa kepada jawapan betul yang sama, tetapi laluan yang salah sering menyimpang. Contohnya, “15 − 3 + 8” boleh dikira sebagai “12 + 8”, atau “15 + 8 = 23, kemudian tolak 3”, atau “nilai dari kiri ke kanan”. Semua menghasilkan 20, tetapi rantai yang terputus mungkin berakhir pada 21. Jika anda menjalankan beberapa sampel, jawapan yang salah cenderung untuk dikalahkan.
Pada penanda aras seperti GSM8K, pelapisan kekonsistenan kendiri pada CoT telah memberikan peningkatan peratusan dua digit dalam ketepatan. Masalahnya ialah anda kini membuat berbilang panggilan LLM bagi setiap pertanyaan pengguna, yang mengalikan kedua-dua latensi dan perbelanjaan token dengan kiraan sampel anda.
Itu menjadikan konsistensi kendiri paling sesuai untuk beban kerja yang berisiko tinggi: pengiraan kewangan, penaakulan undang-undang, sokongan keputusan klinikal, pemeriksaan keselamatan. Bagi bot sembang kasual, pengiraan tambahan jarang sekali dihasilkan, tetapi bagi ejen yang kritikal misi, kebolehpercayaan tambahan boleh bernilai setiap milisaat.
Pokok-Pemikiran: percabangan dan bukannya penaakulan linear
Pokok-Pemikiran (ToT) memanjangkan Rantai Pemikiran daripada satu rantai kepada pokok carian bercabang ke atas kemungkinan pemikiran. Daripada mengikuti satu laluan penaakulan dari awal hingga akhir, sistem ini meneroka beberapa pilihan pada setiap langkah, memangkas dahan yang lemah dan meneruskan penurunan yang paling kuat.
Ini lebih hampir dengan cara anda menangani masalah kombinatorial atau strategi dalam kepala anda sendiri. Anda mencetuskan beberapa langkah calon, meneroka sebahagiannya, membuang langkah yang kelihatan buntu, dan terus mengembangkan hala tuju yang menjanjikan sehingga anda mencapai penyelesaian yang kukuh.
Dari segi pelaksanaan, ToT biasanya menyelaras banyak panggilan LLM. Pada setiap kedalaman pokok, model tersebut mencadangkan langkah seterusnya; pengawal menilai keadaan separa, mungkin menggunakan LLM atau pemarkahan heuristik yang lain, dan memilih cabang mana yang hendak dikembangkan. Demo penyelidikan telah menggunakan ToT untuk menangani permainan teka-teki, tugas perancangan dan idea kreatif dengan hasil yang jauh lebih baik daripada CoT biasa.
Pertimbangannya adalah kos: anda mungkin memerlukan berpuluh-puluh panggilan untuk satu masalah. Itulah sebabnya ToT paling sesuai digunakan untuk niche yang penerokaan menyeluruh lebih penting daripada kelajuan—reka bentuk yang kompleks, ejen permainan atau sumbang saran yang mana kedalaman dan kepelbagaian adalah matlamatnya.
Gesaan paling kurang kepada paling banyak
Gesaan paling tidak kepada paling mendesak merupakan satu lagi strategi lanjutan yang memecahkan masalah rumit kepada submasalah yang lebih mudah yang dikendalikan mengikut urutan. Pertama, anda meminta model untuk mengenal pasti sub-tugas minimum yang boleh diselesaikannya; seterusnya, anda memasukkan semula penyelesaian itu dan meminta komponen paling kompleks seterusnya; dan begitulah seterusnya sehingga masalah penuh diselesaikan.
Corak ini berfungsi dengan baik terutamanya untuk penaakulan komposisi. Fikirkan pertanyaan struktur data bersarang, algebra berbilang langkah atau penjanaan kod untuk ciri kompleks yang mana setiap bahagian bergantung pada output sebelumnya. Dengan memaksa penguraian yang bersih, anda mengurangkan beban kognitif pada model pada setiap langkah dan menjadikan jejak penaakulan keseluruhan lebih mudah untuk diperiksa.
Rantai Pemikiran dalam sistem ejen dan penggunaan alat
CoT menjadi lebih berharga sebaik sahaja anda mula menggunakan ejen binaan yang mengambil tindakan, menggunakan alatan dan merancang melalui pelbagai langkah. Daripada menjawab satu soalan dan berhenti, sistem ini berulang melalui kitaran berfikir, bertindak dan memerhati, mengemas kini rancangan mereka dengan setiap maklumat baharu.
Bayangkan seorang ejen sokongan mengendalikan: “Saya menempah sweater merah Selasa lalu tetapi mendapat yang biru. Bolehkah saya memulangkannya?” Satu perancangan tingkah laku yang munasabah mungkin: memahami isu, mencari pesanan, menyemak dasar pemulangan, menyemak tempoh pemulangan, menentukan kelayakan dan akhirnya memulakan pemulangan.
Dengan gesaan biasa, ejen mungkin beralih kepada "Sudah tentu, ini labelnya" atau "Tidak, kami tidak boleh berbuat demikian" berdasarkan padanan corak pantas, melangkau semakan penting. Dengan Rantai Pemikiran, anda menggalakkannya untuk menceritakan sesuatu seperti: “Saya akan melihat pesanan anda dari Selasa lalu terlebih dahulu, kemudian mengesahkan ketidakpadanan item dan warna, kemudian semak sama ada anda berada dalam tempoh 30 hari, kemudian mencetuskan aliran pemulangan jika layak.”
Ini hampir dengan corak ReAct (Alasan + Tindakan): ejen berselang-seli antara penaakulan dalaman (“Saya perlu membuat pertanyaan pada API pesanan”) dan tindakan luaran (membuat panggilan API), kemudian mengintegrasikan pemerhatian ke dalam langkah penaakulan seterusnya. Setiap "pemikiran" menjadi sebahagian daripada jejak yang anda boleh log, debug dan analisis.
Bagi sistem ejen, CoT bukan sekadar sesuatu yang bagus untuk dimiliki; ia selalunya merupakan tuas utama anda untuk kebolehpercayaan, ketelusan dan keselamatan. Apabila sesuatu rosak—alat yang salah, parameter yang salah, tafsiran yang salah—anda sebenarnya boleh melihat di mana ejen telah tersasar dan membetulkan gesaan, alat atau dasar dan bukannya meneka dalam gelap.
Rantaian segera vs Rantai Pemikiran
Rantaian segera dan Rantai Pemikiran kedua-duanya membantu dengan tugasan yang kompleks, tetapi ia beroperasi pada tahap yang berbeza. Dengan rantaian gesaan, anda membahagikan aliran kerja yang besar merentasi berbilang gesaan berasingan, menyalurkan output satu gesaan ke gesaan seterusnya. Dengan CoT, anda membenamkan keseluruhan proses penaakulan di dalam satu pertukaran gesaan-respons.
Contoh rantaian gesaan: menganalisis buku dalam tiga langkah—gesaan pertama untuk ringkasan plot, gesaan kedua untuk analisis tema menggunakan ringkasan tersebut, gesaan ketiga untuk ulasan akhir menggunakan kedua-duanya. Setiap langkah merupakan panggilan LLM yang berasingan dengan arahannya sendiri.
Contoh Rantai Pemikiran untuk tugasan yang serupa: Dalam satu gesaan, anda berkata, “Mula-mula ringkaskan plot, kemudian kenal pasti tema-tema utama, kemudian akhiri dengan perspektif kritikal yang pendek. Fikirkan setiap peringkat langkah demi langkah.” Model tersebut kemudiannya menjana saluran pemikiran mininya sendiri dan jawapan terakhir dalam satu tangkapan skrin.
Dalam praktiknya, sistem sebenar sering menggabungkan kedua-duanya: menggunakan CoT dalam setiap langkah berantai untuk meningkatkan penaakulan, dan merantai beberapa gesaan tambahan CoT untuk mengatur aliran kerja yang panjang. Perbezaan utama ialah rantaian gesaan menstrukturkan aliran kerja makro merentasi berbilang panggilan, manakala Rantai Pemikiran menstrukturkan penaakulan mikro dalam setiap panggilan.
Rantaian Pemikiran Multimodal
Seiring dengan kematangan model multimodal, Rantai Pemikiran tidak lagi terhad kepada teks tulen. CoT multimodal membolehkan sistem membuat penaakulan bersama melalui teks, imej dan kemungkinan input lain seperti audio atau jadual, sambil masih menceritakan langkah dalamannya.
Ambil gambar pantai yang sesak dan tanya “Adakah tempat ini kelihatan popular dalam kalangan pelancong sekarang?” Model CoT multimodal mungkin secara eksplisit menyatakan bilangan payung, kepadatan orang, tempat letak kereta yang sibuk dan isyarat dari waktu siang atau bayang-bayang, kemudian berpendapat bahawa semua isyarat visual tersebut menunjukkan populariti semasa yang tinggi.
Dengan menjadikan penaakulan visual jelas, anda bukan sahaja mendapat ketepatan yang lebih baik tetapi juga keputusan yang jauh lebih mudah ditafsirkan. Pengguna boleh melihat elemen imej yang difokuskan oleh model dan anda boleh mengenal pasti mod kegagalan seperti pengindeksan berlebihan pada butiran yang tidak relevan.
Mengoptimumkan Rantaian Pemikiran pada skala
Sebaik sahaja anda beralih daripada beberapa demo kepada trafik sebenar, realiti yang tidak menentu akan berlaku: Keberkesanan CoT sangat bergantung pada tugasan, kemas kini model dan panduan migrasi, frasa dan contoh khusus yang anda berikan kepadanya. Penaakulan yang ditulis dengan baik masih boleh membawa kepada jawapan yang salah, dan rantai pemikiran yang bertele-tele boleh merosakkan token tanpa menambah banyak nilai.
Untuk memastikan CoT berfungsi dalam pengeluaran, anda memerlukan gelung maklum balas yang menjejaki beberapa dimensi sekaligus:
- Ketepatan akhir: Adakah jawapan model itu sepadan dengan kebenaran asas yang dijangkakan atau pertimbangan manusia?
- Kualiti penaakulan: Adakah langkah-langkah pertengahan sah, konsisten secara logik dan sejajar dengan kekangan domain?
- Ketekalan: Adakah pertanyaan yang serupa menghasilkan penaakulan dan jawapan yang serupa merentasi larian dan dari semasa ke semasa?
- Kecekapan token: Berapa banyak token yang anda belanjakan setiap pertanyaan, dan adakah anda mendapat kualiti yang mencukupi sebagai balasan?
Pemeriksaan mengejut secara manual pada beberapa contoh tidak akan berkesan sebaik sahaja anda mempunyai berpuluh-puluh varian gesaan dan beratus-ratus kes ujian. Anda memerlukan infrastruktur yang boleh merumus gesaan, menjalankan penilaian berstruktur dan menggambarkan jejak penaakulan pada skala.
Alat pemerhatian yang dibina khas untuk LLM membantu di sini dengan menangkap jejak penuh—gesaan, model, penaakulan CoT, panggilan alat, output akhir—untuk setiap permintaan. Platform seperti Opik, sebagai contoh, membolehkan anda merekod dan memeriksa rantaian CoT secara terperinci, membandingkan versi gesaan yang berbeza, dan juga menggunakan persediaan LLM-sebagai-hakim untuk menjaringkan jawapan akhir dan kualiti penaakulan secara automatik.
Dengan data tersebut, anda boleh memperhalusi persediaan CoT anda secara berperingkat: melaraskan perkataan, menukar zero-shot kepada few-shot, menala atau menjana semula contoh dengan Auto-CoT atau memperkenalkan ketekalan kendiri hanya di tempat ia menggerakkan jarum. Sesetengah rangka kerja juga disepadukan dengan pustaka pengoptimuman seperti DSPy atau carian evolusi untuk mengembangkan gesaan yang lebih baik secara berulang berdasarkan metrik penilaian.
Perlu diingat bahawa Rantai Pemikiran hampir selalu lebih mahal daripada jawapan langsung: teks penaakulan sahaja boleh meningkatkan penggunaan token sebanyak 2-4x, konsistensi kendiri menggandakannya dengan bilangan sampel, dan Pokok-Pemikiran boleh menjadi lebih mahal pada satu peringkat. Itulah sebabnya anda mahukan pemantauan yang jelas, supaya anda tahu dengan tepat di mana bajet tambahan itu memberi pulangan.
Bagi kebanyakan pasukan, strategi pragmatik adalah berperingkat: secara lalai menggunakan CoT sifar ringan atau beberapa tembakan pendek, meningkat kepada konsistensi kendiri atau ToT hanya untuk pertanyaan yang ditandai sebagai nilai tinggi, kekaburan tinggi atau risiko tinggi. Kebolehcerapan dan penilaian adalah apa yang menjadikan strategi dinamik seperti ini boleh dilaksanakan.
Semasa anda bereksperimen dengan CoT dalam aplikasi anda sendiri—sama ada melalui gesaan sifar tangkapan pantas, contoh beberapa tangkapan yang dipilih susun dengan teliti, pustaka Auto-CoT automatik atau ketekalan kendiri berbilang sampel—kuncinya adalah untuk melayan penaakulan model sebagai permukaan produk kelas pertama. Jelaskannya, catatkan, beri skor dan ulangi, dan anda akan membuka kunci tingkah laku yang jauh lebih andal, boleh ditafsirkan dan berkuasa daripada model asas yang sama berbanding dengan jawapan sekali gus yang biasa.
