Digital Transformation

LLM Rerank

LLM Rerank adalah tahap reranking hasil pencarian atau retrieval menggunakan model bahasa besar untuk meningkatkan relevansi sebelum jawaban final dirakit oleh sistem AI Search atau RAG.

Vito Atmo
Vito Atmo·28 April 2026·0 kali dibaca·2 min baca

TL;DR: LLM Rerank adalah proses menyusun ulang daftar kandidat hasil retrieval menggunakan model bahasa besar agar dokumen paling relevan naik ke atas. Teknik ini umum di sistem RAG dan AI Search untuk memperbaiki presisi setelah retrieval awal yang lebih cepat namun kasar.

Apa itu LLM Rerank?

LLM Rerank adalah lapisan kedua dalam pipeline pencarian dua tahap. Tahap pertama biasanya menggunakan hybrid search atau semantic search untuk mengambil kandidat secara cepat. Tahap kedua, model bahasa besar membaca query dan setiap kandidat lalu memberi skor relevansi. Pendekatan ini menyerupai cara editor membaca ulang draft sebelum publikasi, bukan sekadar mengandalkan sortir otomatis.

Reranker bisa berupa model khusus seperti Cohere Rerank, Cross-Encoder dari Sentence Transformers, atau prompt evaluasi pada model umum. Pilihannya bergantung pada anggaran latensi dan biaya token.

Cara Kerja Singkat

TahapTujuanLatensi tipikal
RetrievalAmbil 50-200 kandidat dari index vektor atau BM2550-200 ms
RerankLLM menilai ulang dan memilih top 5-10200-800 ms
GenerationModel menjawab dari kandidat hasil rerank1-3 detik

Per April 2026, kombinasi retrieval murah plus reranker selektif menjadi pola dominan di sistem retrieval-augmented generation komersial.

Kenapa Penting?

Tanpa rerank, pipeline RAG sering memunculkan dokumen yang mirip secara kata kunci namun tidak menjawab pertanyaan. Untuk marketer Indonesia yang mengandalkan konten panjang sebagai sumber pengetahuan internal, kualitas reranker menentukan apakah jawaban AI assistant terasa membantu atau hanya tempel kutipan. Lapisan ini juga memengaruhi citation rate konten Anda saat di-pickup oleh sistem answer engine.

Pertanyaan Umum

Apakah LLM Rerank menggantikan retrieval awal?

Tidak. Rerank dirancang untuk berjalan setelah retrieval. Memakai LLM untuk membaca seluruh corpus tanpa retrieval awal akan boros biaya dan latensi.

Berapa kandidat ideal yang dirank ulang?

Umumnya 20-100 dokumen. Lebih dari itu, biaya naik tanpa peningkatan kualitas yang berarti pada banyak kasus.

Bagikan