Digital Transformation
Cross-Encoder (Pengurutan Ulang Pasangan Kueri-Dokumen)
Cross-encoder adalah model AI yang menilai relevansi sebuah pasangan kueri dan dokumen sekaligus. Dipakai sebagai tahap rerank di pipeline AI Search supaya hasil paling relevan naik ke atas.
TL;DR: Cross-encoder adalah model bahasa yang membaca kueri dan dokumen sebagai satu pasangan, lalu mengeluarkan skor relevansi. Posisinya di pipeline AI Search adalah tahap kedua setelah retrieval awal, fungsinya menyaring 50-100 kandidat menjadi 5-10 hasil terbaik.
Apa itu Cross-Encoder?
Cross-encoder adalah model neural yang menerima dua teks sebagai satu input gabungan, kemudian memprediksi seberapa relevan keduanya. Berbeda dengan bi-encoder yang menghitung embedding terpisah lalu mengukur jarak vektor, cross-encoder membaca pasangan secara utuh sehingga menangkap nuansa konteks yang lebih kaya. Akibatnya akurasi rerank-nya lebih tinggi, tapi biaya komputasinya juga lebih besar. Karena alasan biaya inilah cross-encoder hampir selalu dipakai di tahap vector rerank, bukan untuk mencari kandidat awal di seluruh basis konten.
Posisi di Pipeline AI Search
| Tahap | Fungsi | Model umum |
|---|---|---|
| Retrieval awal | Ambil kandidat dari indeks | Bi-encoder, BM25 |
| Rerank | Susun ulang berdasar relevansi pasangan | Cross-encoder |
| Generation | Susun jawaban ke pengguna | LLM |
Pipeline dua tahap ini juga dipakai oleh produk seperti Perplexity dan Google AI Overview. Retrieval awal cepat tapi kasar. Cross-encoder lambat tapi presisi. Kombinasi keduanya menjadi standar arsitektur retrieval modern.
Kenapa Penting?
Untuk marketer dan tim konten Indonesia, cross-encoder menjelaskan kenapa konten yang ranking tinggi di SERP belum tentu dipanggil AI Search. Sistem rerank AI menilai kecocokan kueri dengan blok konten secara langsung, bukan hanya dengan judul atau metadata. Implikasinya jelas: setiap paragraf harus self-contained dan menjawab kueri spesifik. Praktik standar yang kami pakai di proyek konten klien adalah memastikan satu blok 80-150 kata bisa berdiri sendiri sebagai jawaban, sehingga ketika cross-encoder menilai pasangan kueri-blok, skornya tinggi.
Untuk referensi teknis, paper SBERT dari Reimers dan Gurevych adalah rujukan standar yang menjelaskan trade-off bi-encoder vs cross-encoder.
Pertanyaan Umum
Apakah cross-encoder sama dengan bi-encoder?
Tidak. Bi-encoder menghasilkan satu vektor per teks lalu membandingkan jarak. Cross-encoder membaca dua teks secara bersamaan dan menghasilkan skor relevansi tunggal. Cross-encoder lebih akurat, bi-encoder lebih cepat.
Bagaimana marketer memanfaatkan ini?
Tulis paragraf yang self-contained, gunakan terminologi yang sama dengan kueri target, dan letakkan jawaban inti di awal paragraf. Cross-encoder akan menemukan kecocokan lebih mudah.
Istilah Terkait