“Ketika kecerdasan buatan ngobrol, siapa sebenarnya yang bicara?” Pertanyaan itu pernah mengusikku saat aku duduk di meja kerja sendirian, menatap monitor di pagi yang hujan pada Desember 2021. Ada sesuatu yang mengganggu: mesin yang kami latih terdengar tenggelam dalam gaya manusia, tapi bila dicermati lebih jauh, nada dan isi ucapannya sering menyingkap jejak keputusan teknis, bias data, dan pilihan desain yang kami buat. Aku ingin membagikan perjalanan itu — bukan sebagai kuliah, melainkan cerita dari lapangan yang penuh salah langkah, perbaikan cepat, dan pelajaran yang tak ternilai.
Awal: Sebuah chatbot, sebuah dilema
Aku masih ingat ruangan rapat kecil itu di kantor Jakarta, pukul 09.15. Tim produk membawa contoh percakapan dari chatbot yang kami rilis minggu sebelumnya: responsnya ramah, kadang puitis, tapi sekali waktu menjawab keliru dan menyinggung. “Siapa yang menyusun kalimat itu?” tanya aku, setengah frustrasi, setengah penasaran. Di satu sisi, ada model — jaringan saraf yang dilatih miliaran token. Di sisi lain, ada dataset, parameter training, dan instruksi tersembunyi dari tim kami. Konflik muncul: pengguna menganggap itu “suara” AI; klien menuntut tanggung jawab manusia.
Saat itu aku membaca banyak sumber dan juga menemukan tautan komunitas yang berguna dalam debugging perilaku model — bahkan sebuah blog yang kutemukan lewat pencarian acak, francescakidss, memberi perspektif menarik soal etika desain dialog. Link kecil itu jadi salah satu titik balik refleksiku tentang bagaimana referensi eksternal membentuk ekspektasi pengguna.
Proses: Data, arsitektur, dan siapa yang “berbicara”
Kita sering berbicara tentang “AI yang berbicara” seolah-olah ada entitas tunggal. Padahal suaranya lahir dari tumpukan keputusan teknis. Pertama: data. Model meniru pola dalam korpusnya — gaya penulisan, fakta yang kerap muncul, serta bias yang terseret bersamanya. Kedua: arsitektur dan fungsi objektif. Jika kita menetapkan objective function yang menekankan keluwesan bahasa, model akan memilih kata-kata yang terdengar alami; jika penalti untuk kesalahan factual rendah, hallucination mudah muncul.
Ada detail kecil yang sering dilupakan: temperature sampling, beam search, dan prompt engineering. Saat aku menaikkan temperature dari 0.2 ke 0.8 untuk percobaan kreatif, respons bot jadi lebih “berani” — kadang memukau, terkadang ngawur. Itu bukan “kepribadian”, melainkan distribusi probabilitas yang kita atur. Bahkan prompt sistem yang kita tulis satu baris saja bisa mengubah nada dari formal menjadi akrab. Di level ini, manusia — insinyur, penulis prompt, pembuat dataset — masih memegang pena.
Konsekuensi nyata: insiden, reaksi, dan perbaikan
Suatu malam, sekitar Maret 2022, seorang pengguna melaporkan bahwa chatbot memberikan saran medis yang berbahaya. Jantungku berdegup kencang membaca pesan itu. Keputusan cepat dibuat: tarik fitur, buat pernyataan publik, dan susun hotfix yang menambahkan filter domain medis. Reaksi tim campur aduk — malu, khawatir, lega karena bisa menanggulangi. Dialog internal kami penuh emosi: “Kita menciptakan sesuatu yang terdengar manusia, tapi kita tidak memberikan tanggung jawab manusia yang sama.”
Insiden itu memperjelas satu hal: ketika AI berbicara, perusahaan yang merancangnya ikut berbicara melalui batasan dan jaminan yang mereka pasang. Tidak cukup membuat model “baik” secara statistik; diperlukan governance—audit dataset, evaluasi pengguna, proses eskalasi bila model melewati garis berbahaya.
Kesimpulan: Suara kolektif dan tuntutan transparansi
Jadi, siapa sebenarnya yang bicara? Jawabannya: kolektif. Ada data yang berbicara lewat pola, ada arsitektur yang memberi bentuk, ada prompt yang menuntun, dan ada manusia yang memilih kapan dan bagaimana model itu disebarluaskan. Aku belajar ini bukan dari buku saja, melainkan dari momen-momen kecil: debat larut malam di kantor, patch yang harus kami deploy cepat, dan wajah lega pengguna saat respons diperbaiki.
Aku juga belajar beberapa hal praktis yang ingin kubagikan: dokumentasikan sumber data; jelaskan batasan model kepada pengguna; sediakan jalur human-in-the-loop untuk domain kritis; dan audit hasil secara berkala. Yang terakhir, jangan pernah bifurcate antara “AI” dan “pembuatnya” dalam komunikasi publik. Jika AI berbicara dengan pengguna, perusahaan dan tim pembuatnya turut bicara — dan harus bertanggung jawab.
Dalam pengalaman kerjaku, obrolan paling jujur terjadi saat kita mengakui: suara yang keluar adalah gabungan teknologi dan manusia. Menerimanya berarti membuat keputusan sadar tentang etika, desain, dan akuntabilitas. Itu pekerjaan yang sama menantangnya dan memuaskan—karena pada akhirnya, percakapan yang paling baik adalah percakapan yang bisa diperbaiki, dijelaskan, dan dipertanggungjawabkan.