Digital Transformation

Prompt Rot (Penurunan Kualitas Prompt)

Prompt Rot adalah penurunan akurasi dan relevansi output AI ketika prompt yang sama dipakai berulang seiring perubahan model, data, atau konteks bisnis.

Vito Atmo
Vito Atmo·2 Mei 2026·0 kali dibaca·2 min baca

TL;DR: Prompt Rot adalah penurunan kualitas output AI ketika prompt yang awalnya bekerja baik mulai memberi hasil yang kurang relevan seiring waktu. Penyebabnya bisa update model, perubahan data dasar, atau pergeseran konteks bisnis. Penanganannya butuh evaluasi rutin dan versioning prompt.

Apa itu Prompt Rot?

Prompt Rot adalah istilah yang menggambarkan kondisi ketika prompt LLM yang dulu menghasilkan output baik mulai memberi jawaban yang melenceng, kurang akurat, atau tidak konsisten. Istilah ini analog dengan code rot di software engineering, ketika kode yang dulu jalan jadi rapuh karena lingkungan berubah. Untuk tim yang membangun fitur AI, prompt rot adalah ancaman senyap karena tidak ada error log eksplisit, hanya pelan-pelan kualitas turun. Ini sering muncul di sistem RAG dan tool calling yang tergantung prompt template.

Penyebab Prompt Rot

  • Update model dari penyedia (misal versi baru GPT atau Claude) mengubah cara interpretasi instruksi
  • Data dasar berubah, misal katalog produk bertambah sehingga konteks lama jadi tidak lengkap
  • Pergeseran intent pengguna yang tidak tertangkap di prompt original
  • Akumulasi edge case yang tidak terhandle, membuat prompt jadi tambal sulam

Kenapa Penting?

Bagi bisnis Indonesia yang menggunakan AI untuk customer support, lead qualification, atau content generation, prompt rot bisa diam-diam menurunkan conversion atau menaikkan tingkat eskalasi ke manusia. Tim produk harus memperlakukan prompt seperti kode: ada versioning, ada test set, ada review berkala. Tanpa ini, ROI AI cenderung overestimasi karena pengukuran berhenti di hari peluncuran.

Pertanyaan Umum

Berapa sering prompt harus dievaluasi ulang?

Praktik yang masuk akal: review penuh tiap 4 sampai 8 minggu, plus check otomatis tiap kali ada update model atau perubahan signifikan di sumber data.

Apakah prompt rot bisa dicegah sepenuhnya?

Tidak sepenuhnya, karena ekosistem AI berubah cepat. Tapi dampaknya bisa diminimalkan dengan LLM as judge, eval set yang representatif, dan monitoring metrik output.

Bagikan