Digital Marketing

BERT (Bidirectional Encoder Representations from Transformers)

BERT adalah model NLP Google yang sejak 2019 membantu mesin pencari memahami makna kueri dengan membaca seluruh kalimat dua arah, bukan kata per kata, sehingga konten natural lebih mudah dipahami daripada konten yang dipaksa stuffing keyword.

Vito Atmo
Vito Atmo·7 Mei 2026·0 kali dibaca·2 min baca

TL;DR: BERT adalah model bahasa Google yang membaca kueri pencarian secara dua arah (bidirectional) untuk memahami konteks utuh sebuah kalimat. Sejak 2019, BERT membuat konten yang ditulis natural untuk manusia jauh lebih unggul dibanding konten yang dipaksa repeat keyword.

Apa itu BERT?

BERT (Bidirectional Encoder Representations from Transformers) adalah arsitektur machine learning yang Google rilis pada 2018 dan terapkan ke Search pada Oktober 2019. Sebelum BERT, mesin pencari membaca kueri kiri-ke-kanan dengan pemahaman terbatas pada konteks. BERT membaca seluruh kalimat dari dua arah sekaligus, sehingga kata sambung seperti "untuk", "dengan", "tanpa" akhirnya dipertimbangkan dengan benar.

Bagi marketer, BERT berarti kueri panjang dan natural seperti "tukang dekor pernikahan murah di Jakarta tanpa minimum order" sekarang dipahami sebagai satu maksud utuh, bukan sekadar tumpukan kata kunci. Lihat juga search intent yang jadi konsekuensi langsungnya.

Dampak BERT pada SEO

Sebelum BERTSetelah BERT
Stuffing keyword masih jalanKonten natural menang
Kata sambung diabaikanKata sambung mengubah maksud
Long-tail susah dirankingLong-tail jadi peluang besar

BERT melengkapi sistem lain seperti RankBrain dan MUM. Bersama-sama mereka membuat Google memahami konten dengan cara yang mendekati pemahaman manusia.

Kenapa Penting untuk Konten Indonesia?

Bahasa Indonesia kaya kata sambung dan imbuhan yang mengubah makna. "Cara membuat website" dan "cara dibuatkan website" adalah dua maksud berbeda dalam pikiran pengguna, dan BERT memahami perbedaan itu. Praktik standar sejak 2020 menunjukkan konten Bahasa Indonesia yang ditulis natural untuk pembaca, bukan untuk parser keyword, lebih konsisten muncul di featured snippet dan AI Overview.

Referensi resmi: Google: Understanding searches better than ever.

Pertanyaan Umum

Apakah saya perlu mengubah strategi konten karena BERT?

Tidak drastis. Tulis konten natural, jawab pertanyaan utuh, hindari kalimat dipaksa keyword. Itu sudah cukup.

Apakah BERT berlaku untuk Bahasa Indonesia?

Ya. Google merilis BERT multilingual termasuk Bahasa Indonesia, dengan pemahaman setara bahasa Inggris untuk kueri umum.

Bagikan