Kasar ke ChatGPT Bisa Bikin Jawaban Meleset, Riset Ungkap Penyebabnya Penggunaan chatbot berbasis kecerdasan buatan seperti ChatGPT makin dekat dengan aktivitas harian masyarakat. Banyak orang memakainya untuk menulis, mencari ide, menyusun dokumen, belajar, menerjemahkan, hingga meminta saran teknis. Namun, cara pengguna menyampaikan perintah ternyata dapat memengaruhi kualitas jawaban. Sejumlah riset menunjukkan nada bahasa dalam prompt dapat mengubah akurasi keluaran model, termasuk ketika pengguna memakai kalimat kasar, terlalu memerintah, atau sebaliknya terlalu sopan. OpenAI juga mengingatkan bahwa ChatGPT dapat memberi jawaban yang keliru atau menyesatkan dan kadang terdengar percaya diri meski salah.
Cara Bertanya Ternyata Ikut Menentukan Jawaban AI
Chatbot tidak memahami kata kasar seperti manusia yang merasa tersinggung. Namun, sistem bahasa AI membaca kata, susunan kalimat, pola instruksi, dan hubungan antar token. Karena itu, nada kasar, kata tambahan yang tidak perlu, atau perintah yang kabur dapat mengarahkan model ke jawaban yang kurang tepat.
AI Membaca Pola Bahasa, Bukan Perasaan Pengguna
Ketika seseorang menulis prompt dengan nada kasar, chatbot tidak merasa marah atau tersinggung. Ia memproses tulisan itu sebagai rangkaian data bahasa. Masalahnya, kata kasar sering membuat instruksi menjadi tidak rapi. Pertanyaan yang seharusnya sederhana dapat berubah menjadi kalimat panjang berisi sindiran, tekanan, atau emosi.
Dalam penggunaan sehari hari, hal ini bisa membuat AI kehilangan fokus pada inti permintaan. Misalnya, pengguna ingin meminta ringkasan laporan, tetapi prompt dipenuhi kalimat memarahi, menyindir, atau menyuruh dengan nada tidak jelas. Model tetap akan mencoba menjawab, tetapi peluang salah menangkap tujuan bisa meningkat.
Nada Kasar Sering Berjalan Bersama Prompt yang Buruk
Banyak pengguna mengira masalahnya ada pada kata kasar itu sendiri. Padahal, yang sering membuat jawaban menjadi “ngasal” adalah prompt yang tidak lengkap, tidak memberi batasan, dan tidak menjelaskan hasil yang diinginkan. Nada kasar hanya memperburuk suasana instruksi karena membuat kalimat menjadi berantakan.
Prompt yang baik biasanya berisi tujuan, format jawaban, data yang harus dipakai, batasan, dan kriteria hasil. Jika semua itu tidak ada, ChatGPT dapat mengisi kekosongan dengan tebakan berbasis pola. Di sinilah jawaban dapat terlihat lancar, tetapi isinya belum tentu benar.
Riset Lintas Bahasa Menemukan Prompt Tidak Sopan Bisa Menurunkan Kinerja
Studi berjudul “Should We Respect LLMs? A Cross Lingual Study on the Influence of Prompt Politeness on LLM Performance” meneliti pengaruh tingkat kesopanan prompt terhadap performa model bahasa besar dalam beberapa bahasa, termasuk Inggris, China, dan Jepang. Para peneliti menemukan bahwa prompt tidak sopan sering menghasilkan performa yang buruk, sementara bahasa yang terlalu sopan juga tidak selalu memberi hasil terbaik. Tingkat kesopanan terbaik dapat berbeda menurut bahasa dan tugas yang diuji.
Kesopanan Sedang Lebih Aman untuk Banyak Tugas
Temuan tersebut menunjukkan bahwa interaksi dengan AI tidak cukup hanya mengandalkan satu gaya bahasa. Dalam beberapa kondisi, prompt yang terlalu kasar dapat menurunkan kualitas jawaban. Namun, prompt yang terlalu panjang dengan basa basi berlebihan juga bisa membuat instruksi utama tenggelam.
Kesopanan sedang menjadi pilihan yang lebih aman. Pengguna tidak perlu menulis seperti sedang membuat surat resmi panjang, tetapi tetap perlu memakai bahasa yang jelas dan tertib. Kalimat seperti “Tolong rangkum artikel ini dalam 5 poin utama dengan bahasa sederhana” biasanya lebih berguna dibanding kalimat penuh emosi atau perintah yang tidak terarah.
Perbedaan Bahasa Membuat Hasil Tidak Selalu Sama
Riset lintas bahasa juga penting karena gaya sopan dalam tiap bahasa tidak sama. Bahasa Jepang, misalnya, memiliki tingkat kesopanan yang lebih kompleks dibanding bahasa Inggris. Bahasa Indonesia juga punya pilihan kata yang halus, netral, santai, dan kasar. Karena itu, efek nada bahasa pada AI dapat berbeda tergantung bahasa yang digunakan.
Untuk pengguna Indonesia, hal ini berarti prompt tidak perlu dibuat kaku. Namun, instruksi tetap sebaiknya jelas. Gunakan kata sederhana, jelaskan kebutuhan, dan hindari makian yang tidak memberi informasi tambahan.
Riset Lain Justru Menemukan Prompt Kasar Bisa Lebih Akurat
Pembahasan soal kasar atau sopan kepada ChatGPT menjadi ramai karena studi lain berjudul “Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy” menemukan hasil yang berbeda. Dalam riset tersebut, peneliti memakai 50 pertanyaan pilihan ganda dari bidang matematika, sains, dan sejarah, lalu menulis ulang setiap pertanyaan dalam lima tingkat nada, mulai dari sangat sopan hingga sangat kasar. Dengan ChatGPT 4o, akurasi terendah tercatat pada prompt sangat sopan sebesar 80,8 persen, sedangkan akurasi tertinggi muncul pada prompt sangat kasar sebesar 84,8 persen.
Hasil Ini Tidak Berarti Pengguna Harus Bersikap Kasar
Temuan tersebut tidak bisa langsung dibaca sebagai anjuran untuk memaki AI. Studi itu memakai jumlah soal terbatas, jenis pertanyaannya pilihan ganda, dan model yang diuji hanya ChatGPT 4o. Peneliti juga menekankan bahwa hasil mereka berbeda dari riset sebelumnya yang menemukan prompt kasar dapat menurunkan performa.
Ada kemungkinan yang membuat prompt kasar tampak lebih efektif bukan kekasarannya, melainkan sifatnya yang lebih langsung. Prompt kasar dalam eksperimen sering berbentuk pendek, tegas, dan langsung menuju tugas. Sebaliknya, prompt sangat sopan bisa berisi kalimat pembuka yang lebih panjang sehingga inti permintaan tidak setegas versi lainnya.
Langsung Bukan Berarti Tidak Sopan
Pelajaran paling penting dari riset tersebut adalah pengguna perlu membedakan antara “langsung” dan “kasar”. Perintah yang langsung dapat meningkatkan kejelasan tanpa harus merendahkan. Misalnya, “Jawab pertanyaan ini dan pilih satu opsi yang paling benar” sudah cukup tegas. Tidak perlu menambahkan hinaan atau kalimat yang tidak berhubungan.
Bagi pengguna profesional, gaya langsung justru lebih efisien. Saat meminta analisis data, ringkasan dokumen, atau penyusunan artikel, bahasa yang ringkas dan spesifik jauh lebih penting daripada nada emosional.
Mengapa Jawaban Bisa Terlihat Lancar tetapi Salah
Salah satu masalah utama dalam penggunaan ChatGPT adalah jawaban yang terdengar rapi, tetapi tidak selalu akurat. OpenAI menyebut fenomena ini sebagai halusinasi, yaitu ketika model menghasilkan jawaban yang tidak sesuai fakta, seperti definisi, tanggal, atau informasi yang salah.
ChatGPT Menghasilkan Jawaban dari Pola Bahasa
Model bahasa bekerja dengan memprediksi kelanjutan teks berdasarkan pola yang dipelajari. Ia tidak selalu mengetahui fakta seperti manusia memeriksa arsip. Saat informasi tidak lengkap, pertanyaan terlalu kabur, atau pengguna meminta jawaban yang seolah pasti, model bisa menyusun jawaban yang terdengar masuk akal.
Masalah ini makin besar jika pengguna memakai nada kasar yang memaksa jawaban cepat. Kalimat seperti “jawab saja, jangan banyak alasan” dapat membuat AI memberi jawaban ringkas tanpa cukup peringatan. Dalam topik ringan, kesalahan mungkin hanya mengganggu. Dalam topik kesehatan, hukum, keuangan, atau keselamatan, kesalahan bisa merugikan.
Pengguna Sering Terjebak pada Gaya Bahasa yang Meyakinkan
ChatGPT dirancang untuk memberi respons yang mudah dibaca. Karena itu, jawaban salah pun bisa terasa meyakinkan. Struktur rapi, kalimat lancar, dan istilah teknis dapat membuat pengguna percaya tanpa memeriksa ulang.
Inilah alasan mengapa cara bertanya harus diikuti dengan kebiasaan memeriksa. Untuk informasi penting, pengguna perlu meminta sumber, membandingkan dengan rujukan resmi, atau memakai data yang sudah diverifikasi. AI sebaiknya diposisikan sebagai alat bantu, bukan satu satunya penentu kebenaran.
Kasar Bisa Membuat Pengguna Lupa Memberi Detail
Dalam praktik harian, orang yang menulis prompt dengan emosi sering lupa memasukkan informasi penting. Mereka lebih banyak menumpahkan kekesalan daripada menjelaskan kebutuhan. Akibatnya, jawaban ChatGPT bisa melebar ke arah yang tidak diminta.
Prompt Emosional Sering Tidak Punya Batasan
Contoh sederhana terlihat pada permintaan menulis artikel. Prompt yang baik menyebut tema, panjang tulisan, gaya bahasa, target pembaca, struktur subjudul, larangan kata tertentu, dan format tambahan jika ada. Jika pengguna hanya menulis dengan marah, “Bikin artikel yang benar, jangan bodoh,” model tidak tahu standar benar yang dimaksud.
Hasilnya bisa tidak sesuai harapan. AI mungkin membuat artikel terlalu pendek, terlalu umum, atau memakai gaya yang tidak cocok. Bukan karena AI membalas kasar, melainkan karena instruksi pengguna tidak memberi arah yang cukup.
Kata Kasar Tidak Menambah Informasi
Dalam prompt, setiap kata sebaiknya membantu sistem memahami tugas. Kata kasar biasanya tidak menambah data. Bahkan, kata itu bisa menjadi gangguan karena memperpanjang prompt tanpa memperjelas tujuan.
Lebih baik memakai kalimat yang padat. Misalnya, “Buat ringkasan 300 kata, fokus pada data ekonomi, jangan tambahkan opini, gunakan 5 poin.” Instruksi seperti ini memberi arah jelas dan lebih mudah diproses.
Prompt Terlalu Sopan Juga Bisa Membuat Instruksi Kabur
Walau topik ini sering membahas risiko kasar, riset juga menunjukkan bahwa terlalu sopan tidak selalu membuat jawaban lebih baik. Masalahnya bukan sopan santun, melainkan kalimat yang terlalu panjang, berputar putar, dan penuh basa basi.
Basa Basi Bisa Menenggelamkan Perintah Utama
Kalimat seperti “Mohon maaf sebelumnya, bila tidak merepotkan, saya sangat berharap Anda bisa membantu sedikit saja untuk mungkin menjelaskan topik berikut apabila berkenan” tidak salah secara etika. Namun, untuk prompt, bagian pentingnya terlambat muncul.
AI tetap bisa menjawab, tetapi instruksi inti menjadi kurang tajam. Jika topiknya rumit, pengguna sebaiknya langsung menyebut tugas utama. Kalimat sopan tetap bisa dipakai, tetapi jangan sampai mengorbankan kejelasan.
Sopan yang Efektif Tetap Bisa Singkat
Pengguna dapat tetap sopan tanpa membuat prompt panjang. Contohnya, “Tolong jelaskan penyebab inflasi dalam bahasa sederhana, 5 paragraf, untuk pembaca umum.” Kalimat ini sopan, jelas, dan tidak berlebihan.
Gaya seperti ini lebih cocok untuk penggunaan harian. Pengguna tidak perlu bersikap kasar demi mendapat jawaban baik. Yang dibutuhkan adalah kejelasan, bukan hinaan.
Cara Menulis Prompt agar Jawaban Tidak Meleset
Kualitas jawaban AI sangat bergantung pada kualitas instruksi. Prompt yang jelas membantu model memahami tujuan, sedangkan prompt yang kabur mendorong model menebak. Jika pengguna ingin hasil lebih akurat, ada beberapa langkah yang bisa dilakukan.
Jelaskan Tujuan Sejak Kalimat Pertama
Mulailah dengan tugas utama. Misalnya, “Buat artikel berita nasional 1500 kata tentang riset nada bahasa pada ChatGPT.” Setelah itu, baru tambahkan gaya, struktur, dan batasan. Dengan cara ini, model langsung memahami pekerjaan utama.
Untuk tugas analisis, sebutkan apa yang harus dibandingkan. Untuk tugas ringkasan, sebutkan panjang dan fokus. Untuk tugas teknis, sertakan data, kode, pesan kesalahan, atau kondisi perangkat. Makin lengkap datanya, makin kecil peluang model mengarang.
Beri Format Jawaban yang Diinginkan
Jika pengguna ingin tabel, poin, H2, H3, atau artikel naratif, sebutkan dari awal. Banyak jawaban terasa salah bukan karena faktanya keliru, tetapi karena formatnya tidak sesuai kebutuhan. Prompt yang menyebut format akan membuat hasil lebih mudah dipakai.
Contohnya, “Buat dalam bentuk tabel dengan kolom masalah, penyebab, dan solusi.” Instruksi seperti ini jauh lebih kuat dibanding hanya menulis, “Jelaskan dengan bagus.”
Jangan Pakai ChatGPT untuk Keputusan Penting Tanpa Cek Ulang
ChatGPT dapat membantu mempercepat pekerjaan, tetapi tidak boleh menjadi satu satunya rujukan untuk keputusan penting. Pengguna tetap perlu melakukan verifikasi, terutama untuk topik yang berkaitan dengan kesehatan, hukum, keuangan, keselamatan, pendidikan resmi, dan data terbaru.
Minta Sumber dan Periksa Rujukan Resmi
Jika jawaban menyangkut aturan pemerintah, tarif, jadwal, riset ilmiah, atau peristiwa terkini, mintalah sumber. Setelah itu, cek apakah sumbernya benar, relevan, dan masih berlaku. Model bisa saja memberi informasi usang atau salah membaca data.
Untuk riset, lihat siapa penulisnya, kapan dipublikasikan, metode yang dipakai, jumlah data, dan batasan penelitian. Jangan hanya membaca judul karena judul populer sering menyederhanakan temuan.
Bedakan Ide dengan Fakta
AI sangat berguna untuk mencari ide, menyusun kerangka, memperbaiki bahasa, dan membuat variasi judul. Namun, ketika menyangkut fakta, pengguna harus lebih ketat. Ide boleh fleksibel, tetapi data harus benar.
Misalnya, ChatGPT boleh diminta membuat 10 ide artikel tentang teknologi. Namun, jika diminta menulis tentang tarif resmi, hasil riset medis, atau kecelakaan terbaru, data harus dicek ke sumber yang sah.
Riset Belum Memberi Satu Jawaban Pasti
Perdebatan tentang kasar atau sopan kepada ChatGPT belum selesai. Satu riset menemukan prompt tidak sopan sering menurunkan performa. Riset lain menemukan prompt sangat kasar justru lebih akurat pada eksperimen tertentu. Perbedaan ini menunjukkan bahwa efek nada bahasa bergantung pada model, bahasa, jenis tugas, panjang prompt, dan cara peneliti mengukur jawaban.
Jangan Ambil Kesimpulan dari Satu Angka
Angka 84,8 persen pada prompt sangat kasar dalam studi ChatGPT 4o memang menarik, tetapi tidak cukup untuk mengubah cara semua orang memakai AI. Jumlah pertanyaan terbatas dan bentuk soalnya pilihan ganda. Hasil pada soal pilihan ganda belum tentu berlaku untuk penulisan artikel, analisis hukum, ringkasan dokumen panjang, atau tugas kreatif.
Sebaliknya, temuan bahwa prompt kasar dapat menurunkan performa pada riset lintas bahasa juga perlu dibaca dengan hati hati. Model terus berubah, bahasa berbeda, dan pengujian tidak selalu sama. Yang paling aman adalah mengambil prinsip umum, yaitu tulis prompt yang jelas, tidak berlebihan, dan tidak memuat kata yang mengganggu.
Nada Netral Lebih Cocok untuk Pemakaian Harian
Untuk mayoritas pengguna, nada netral menjadi pilihan terbaik. Nada netral tidak terlalu bertele tele, tidak kasar, dan tetap memberi instruksi jelas. Kalimat netral juga lebih mudah dipakai di lingkungan kerja, sekolah, dan organisasi.
Nada netral membantu pengguna menjaga kebiasaan komunikasi. Meski AI bukan manusia, cara seseorang berbicara kepada alat digital dapat terbawa ke cara ia menulis pesan kepada orang lain. Inilah salah satu alasan peneliti mengingatkan agar temuan soal prompt kasar tidak dijadikan pembenaran untuk membiasakan bahasa merendahkan.
Pengguna Perlu Lebih Cerdas, Bukan Lebih Galak
Kualitas jawaban ChatGPT tidak ditentukan oleh seberapa keras pengguna memerintah. Jawaban yang baik lebih sering lahir dari instruksi yang jelas, data yang cukup, batasan yang tegas, dan kebiasaan memeriksa ulang. Kasar mungkin terlihat membuat prompt lebih singkat, tetapi singkat tidak harus kasar.
Formula Prompt yang Lebih Aman
Pengguna dapat memakai pola sederhana. Sebutkan tugas, beri bahan, tentukan format, jelaskan batasan, lalu minta pengecekan jika ada bagian yang tidak pasti. Contohnya, “Rangkum riset ini dalam 700 kata, gunakan bahasa Indonesia formal, jelaskan metode dan batasan, jangan menambah klaim yang tidak ada di sumber.”
Pola seperti itu jauh lebih kuat daripada makian. ChatGPT mendapat arahan yang jelas, pengguna mendapat jawaban yang lebih mudah diperiksa, dan risiko jawaban meleset dapat ditekan.
AI Tetap Alat yang Perlu Diawasi
ChatGPT dapat membantu pekerjaan menjadi lebih cepat, tetapi tanggung jawab akhir tetap berada pada pengguna. Ketika hasil dipakai untuk artikel, laporan, tugas, dokumen bisnis, atau keputusan pribadi, pengguna harus membaca ulang dan memeriksa fakta.
Riset tentang nada bahasa memberi pesan penting bahwa interaksi manusia dengan AI bukan hal sepele. Kata yang dipilih dapat mengubah kualitas keluaran. Namun, pelajaran utamanya bukan menjadi kasar kepada mesin, melainkan belajar memberi perintah yang bersih, terarah, dan dapat diuji kebenarannya.
