Digital Transformation

Chain-of-Thought (CoT) Prompting

Teknik prompting yang meminta model AI menjabarkan langkah penalaran sebelum menjawab, menaikkan akurasi pada soal kompleks dengan biaya beberapa token tambahan.

Vito Atmo
Vito Atmo·30 April 2026·0 kali dibaca·2 min baca

TL;DR: Chain-of-Thought (CoT) adalah teknik prompting yang meminta model AI menulis langkah penalaran sebelum jawaban final. Praktik ini menaikkan akurasi pada soal aritmetika, logika, dan multi-step reasoning, dengan biaya beberapa puluh token tambahan per request.

Apa itu Chain-of-Thought?

Chain-of-Thought adalah pola instruksi yang meminta model bahasa menjabarkan proses berpikir secara tertulis, bukan langsung menebak hasil. Polanya bisa sesederhana menambahkan kalimat "jelaskan langkah demi langkah sebelum menjawab" ke dalam prompt template. Konsep ini dipopulerkan riset Google Brain pada 2022 dan menjadi praktik standar di reasoning model modern.

Analogi sederhana: meminta calon karyawan menulis cara dia memecahkan kasus, bukan hanya hasil akhir. Anda mendapat dua hal sekaligus, jawaban dan jejak penalaran yang bisa diaudit.

Cara Kerja dan Varian

VarianDeskripsiKapan Dipakai
Zero-shot CoTTambah "let's think step by step" tanpa contohTugas umum, hemat token
Few-shot CoTSertakan 2-3 contoh dengan penalaran lengkapDomain spesifik (akuntansi, hukum)
Self-consistencyGenerate beberapa CoT, ambil jawaban mayoritasSoal sulit, akurasi dulu
Tree-of-ThoughtsEksplorasi banyak cabang penalaranPerencanaan multi-langkah

Untuk produk AI consumer, zero-shot CoT sering cukup. Untuk fitur back office (klasifikasi tiket, ekstraksi data), few-shot CoT memberi kontrol lebih baik atas format output.

Kenapa Penting?

CoT relevan untuk tim Indonesia yang sedang membangun fitur AI bisnis. Praktik di lapangan menunjukkan akurasi naik 5-15 persen pada soal kalkulasi atau klasifikasi multi-kriteria, sementara biaya token bertambah moderat (sekitar 30-80 token per output). Untuk volume rendah ribuan request per hari, biaya tambahan biasanya kalah penting dibanding kualitas.

CoT juga memudahkan agent evaluation, karena reviewer dapat membaca alur penalaran dan menemukan asumsi yang salah, bukan hanya melihat output gagal tanpa konteks.

Pertanyaan Umum

Apakah CoT selalu menaikkan akurasi?

Tidak. Untuk pertanyaan sederhana satu langkah, CoT bisa malah menambah noise dan latensi. Pakai CoT ketika soal benar-benar memerlukan beberapa langkah keputusan.

Apa beda CoT dan reasoning model?

CoT adalah teknik prompting di model umum. Reasoning model seperti GPT-o-series sudah dilatih khusus untuk berpikir langkah demi langkah secara internal, sehingga sering tidak butuh CoT eksplisit.

Bagikan