Digital Transformation

BERT (Bidirectional Encoder Representations from Transformers)

BERT adalah model bahasa Google yang memahami konteks kata secara dua arah sehingga mesin pencari lebih akurat menangkap niat pencarian.

Vito Atmo
Vito Atmo·24 April 2026·3 kali dibaca·2 min baca

TL;DR: BERT adalah model bahasa Google yang dirilis 2019 dan memahami konteks kata secara dua arah dalam kalimat. Dampaknya, Google jauh lebih akurat menangkap Search Intent, terutama untuk query panjang atau percakapan sehari-hari.

Apa itu BERT?

BERT singkatan dari Bidirectional Encoder Representations from Transformers, keluarga model yang dikembangkan Google Research pada 2018 dan diintegrasikan ke Google Search pada Oktober 2019. Berbeda dengan model lama yang membaca kata satu arah (kiri ke kanan), BERT membaca kalimat utuh sekaligus dari kedua arah. Hasilnya, kata-kata sambung seperti "untuk", "ke", "tanpa" dan preposisi lain jadi punya bobot makna.

Secara sederhana, BERT menghitung representasi vektor kontekstual tiap kata:

hi=Transformer(x1,x2,,xn)h_i = \text{Transformer}(x_1, x_2, \ldots, x_n)

dengan hih_i merupakan embedding kata ke-ii yang sudah memperhitungkan seluruh kata di kalimat.

BERT vs Model Sebelumnya

AspekPre-BERTBERT
Arah pembacaanSearah (kiri-kanan)Dua arah simultan
Kata sambungSering diabaikanDipakai sebagai konteks
Query panjangAkurasi rendahAkurasi naik signifikan
Basisn-gram, word2vecTransformer

Kenapa Penting?

BERT membuat halaman yang menulis dengan gaya natural lebih unggul dari halaman yang keyword-stuffing. Dalam praktik SEO 2020 ke atas, konten yang ditulis sebagai jawaban percakapan, sesuai prinsip AEO, cenderung lebih mudah masuk Featured Snippet. BERT juga menjadi dasar teknis untuk model penerus seperti MUM dan RankBrain generasi baru yang kini menopang AI Overview.

Pertanyaan Umum

Ya. BERT jadi pondasi banyak produk NLP, termasuk chatbot, klasifikasi dokumen, dan translator. Varian open-source seperti DistilBERT banyak dipakai startup.

Apakah BERT dan LLM modern itu sama?

Tidak persis. BERT adalah encoder (bidirectional) yang kuat untuk pemahaman. LLM generatif seperti GPT lebih fokus pada decoder untuk menghasilkan teks. Keduanya turunan arsitektur Transformer.

Bagikan