Digital Transformation
Chain-of-Thought (CoT) Prompting
Teknik prompting yang meminta model AI menjabarkan langkah penalaran sebelum menjawab, menaikkan akurasi pada soal kompleks dengan biaya beberapa token tambahan.
TL;DR: Chain-of-Thought (CoT) adalah teknik prompting yang meminta model AI menulis langkah penalaran sebelum jawaban final. Praktik ini menaikkan akurasi pada soal aritmetika, logika, dan multi-step reasoning, dengan biaya beberapa puluh token tambahan per request.
Apa itu Chain-of-Thought?
Chain-of-Thought adalah pola instruksi yang meminta model bahasa menjabarkan proses berpikir secara tertulis, bukan langsung menebak hasil. Polanya bisa sesederhana menambahkan kalimat "jelaskan langkah demi langkah sebelum menjawab" ke dalam prompt template. Konsep ini dipopulerkan riset Google Brain pada 2022 dan menjadi praktik standar di reasoning model modern.
Analogi sederhana: meminta calon karyawan menulis cara dia memecahkan kasus, bukan hanya hasil akhir. Anda mendapat dua hal sekaligus, jawaban dan jejak penalaran yang bisa diaudit.
Cara Kerja dan Varian
| Varian | Deskripsi | Kapan Dipakai |
|---|---|---|
| Zero-shot CoT | Tambah "let's think step by step" tanpa contoh | Tugas umum, hemat token |
| Few-shot CoT | Sertakan 2-3 contoh dengan penalaran lengkap | Domain spesifik (akuntansi, hukum) |
| Self-consistency | Generate beberapa CoT, ambil jawaban mayoritas | Soal sulit, akurasi dulu |
| Tree-of-Thoughts | Eksplorasi banyak cabang penalaran | Perencanaan multi-langkah |
Untuk produk AI consumer, zero-shot CoT sering cukup. Untuk fitur back office (klasifikasi tiket, ekstraksi data), few-shot CoT memberi kontrol lebih baik atas format output.
Kenapa Penting?
CoT relevan untuk tim Indonesia yang sedang membangun fitur AI bisnis. Praktik di lapangan menunjukkan akurasi naik 5-15 persen pada soal kalkulasi atau klasifikasi multi-kriteria, sementara biaya token bertambah moderat (sekitar 30-80 token per output). Untuk volume rendah ribuan request per hari, biaya tambahan biasanya kalah penting dibanding kualitas.
CoT juga memudahkan agent evaluation, karena reviewer dapat membaca alur penalaran dan menemukan asumsi yang salah, bukan hanya melihat output gagal tanpa konteks.
Pertanyaan Umum
Apakah CoT selalu menaikkan akurasi?
Tidak. Untuk pertanyaan sederhana satu langkah, CoT bisa malah menambah noise dan latensi. Pakai CoT ketika soal benar-benar memerlukan beberapa langkah keputusan.
Apa beda CoT dan reasoning model?
CoT adalah teknik prompting di model umum. Reasoning model seperti GPT-o-series sudah dilatih khusus untuk berpikir langkah demi langkah secara internal, sehingga sering tidak butuh CoT eksplisit.
Istilah Terkait