Jakarta (KABARIN) - Penelitian terbaru dari Stanford menyoroti potensi bahaya ketika orang terlalu bergantung pada chatbot kecerdasan buatan untuk meminta nasihat pribadi.
Fenomena ini dikenal sebagai AI sycophancy, yaitu kondisi ketika AI cenderung terlalu setuju dan memvalidasi pendapat pengguna tanpa banyak koreksi.
Studi berjudul “Sycophantic AI decreases prosocial intentions and promotes dependence” yang dipublikasikan di jurnal Science menemukan bahwa gaya respons AI seperti ini bukan sekadar soal cara berbicara, tetapi bisa memengaruhi cara berpikir dan perilaku pengguna dalam jangka panjang.
Penulis utama penelitian Myra Cheng menjelaskan bahwa ide studi ini muncul setelah melihat kasus mahasiswa yang meminta bantuan AI untuk urusan hubungan pribadi, bahkan sampai membuat draf pesan putus cinta.
“Secara otomatis, saran AI tidak memberi tahu penggunanya bahwa mereka salah atau memberi teguran keras,” kata Cheng yang juga kandidat PhD ilmu komputer di Stanford.
Ia juga menambahkan kekhawatiran bahwa kebiasaan mengandalkan AI dalam urusan sosial bisa membuat orang kehilangan kemampuan menghadapi situasi interpersonal yang sulit.
Penelitian ini dilakukan dalam dua tahap. Pada tahap pertama, peneliti menguji 11 model bahasa besar termasuk OpenAI dengan ChatGPT, Anthropic dengan Claude, Google dengan Gemini, serta DeepSeek.
Mereka menguji respons dari berbagai skenario termasuk kasus etika, situasi berpotensi ilegal, hingga diskusi dari forum Reddit r/AmITheAsshole.
Hasilnya menunjukkan bahwa AI lebih sering membenarkan tindakan pengguna dibandingkan manusia. Rata-rata tingkat validasi AI mencapai sekitar 49 persen lebih tinggi dibanding respons manusia dalam kasus serupa.
Dalam contoh dari Reddit, AI bahkan menyetujui tindakan pengguna sekitar 51 persen lebih sering, meskipun penilaian manusia justru berlawanan. Pada skenario lain yang berkaitan dengan tindakan berisiko atau ilegal, tingkat validasi AI mencapai sekitar 47 persen.
Salah satu contoh yang diuji adalah pertanyaan tentang seseorang yang berpura-pura tidak bekerja selama dua tahun kepada pasangannya.
Jika manusia cenderung menganggap itu salah, AI justru memberi respons yang lebih membenarkan dengan alasan tertentu terkait dinamika hubungan.
Tahap kedua penelitian melibatkan lebih dari 2400 peserta yang berinteraksi langsung dengan chatbot. Sebagian chatbot dirancang memberi jawaban netral, sementara lainnya dibuat lebih “menjilat” atau terlalu menyenangkan pengguna.
Hasilnya menunjukkan peserta lebih menyukai dan lebih percaya pada chatbot yang memberikan respons menyenangkan tersebut. Mereka juga lebih sering meminta saran dari model AI yang bersikap seperti itu.
Studi ini menegaskan bahwa efek tersebut tetap terlihat meskipun faktor lain seperti latar belakang pengguna dan pengalaman sebelumnya dengan AI sudah diperhitungkan.
Peneliti menyimpulkan bahwa kecenderungan pengguna menyukai AI yang terlalu menyetujui justru bisa mendorong perilaku yang kurang tepat, termasuk meningkatnya rasa benar sendiri dan berkurangnya kebiasaan meminta maaf saat melakukan kesalahan.
Profesor linguistik dan ilmu komputer Stanford Dan Jurafsky menambahkan bahwa meski pengguna sadar AI bisa bersikap menyanjung, mereka tidak menyadari dampak psikologisnya.
Menurutnya, sikap AI yang terlalu menyetujui bisa membuat pengguna lebih egois dan lebih kaku dalam pandangan moral.
Para peneliti juga menilai fenomena ini perlu mendapat perhatian serius karena berkaitan dengan keamanan ruang digital, termasuk kemungkinan perlunya aturan dan pengawasan lebih lanjut.
Saat ini, tim peneliti masih mengembangkan cara agar model AI tidak terlalu bersifat menyenangkan secara berlebihan dalam memberikan respons.
Editor: M. Hilal Eka Saputra Harahap
Copyright © KABARIN 2026