Pengalaman kami dengan AI chatbot sejauh ini sangat beragam. Pada satu saat, terasa seperti berbicara dengan orang sungguhan yang dapat memberikan wawasan dan saran yang jujur.
Namun, percakapan lainnya menghasilkan frustrasi, dengan algoritma yang terlalu bersemangat untuk menawarkan nonsense atau klaim fakta palsu.
Tetapi bagaimana jika pengalaman kita mencerminkan ekspektasi kita sebelum memulai percakapan ini? Dalam kata lain, bagaimana jika AI hanya mencerminkan keyakinan kita sendiri kepada kita, sesuatu yang banyak orang sudah curigai selama ini?
AI Chatbot: Cara Efektif Menggunakannya
Dalam studi baru yang diterbitkan dalam jurnal Nature Machine Intelligence, sebuah tim peneliti dari MIT Media Lab menemukan bahwa subjek yang “diprime” untuk pengalaman AI khususnya chatbot tertentu hampir selalu akhirnya memiliki pengalaman tersebut.
Jika Anda berpikir tentang hal itu, itu cukup mencolok: tampaknya menunjukkan bahwa banyak kemampuan menarik perhatian chatbot dapat dijelaskan oleh pengguna yang memproyeksikan ekspektasi mereka ke dalam sistem.
“AI adalah cermin,” kata Pat Pataranutaporn dari MIT Media Lab, salah satu penulis studi ini, kepada Scientific American.
“Kami ingin mengukur efek plasebo AI, pada dasarnya,” tambahnya. “Kami ingin melihat apa yang terjadi jika Anda memiliki bayangan tertentu tentang AI: Bagaimana itu akan muncul dalam interaksi Anda?”
Dalam sebuah eksperimen, tim ini membagi 300 peserta menjadi tiga kelompok. Semua peserta diminta untuk menggunakan AI seperti chatbot, ChatGPT dan lainnya untuk mendapatkan dukungan kesehatan mental dan menilai seberapa efektif AI tersebut dalam memberikannya, dikutip dari Futurism.
Namun, ketiga kelompok tersebut masing-masing diberi tahu untuk mengharapkan pengalaman yang berbeda, meskipun semua 300 peserta akan menghadapi baik generative GPT-3 dari OpenAI maupun ELIZA, sebuah AI berbasis aturan yang lebih sederhana, yang tidak dimanipulasi dengan cara apa pun.
Satu kelompok diberi tahu bahwa AI seperti chatbot atau ELIZA dan ChatGPT tidak memiliki motif. Kelompok kedua diberi tahu bahwa AI dilatih untuk menunjukkan empati dan kasih sayang.
Kelompok ketiga diberi tahu bahwa kecerdasan buatan memiliki “niat jahat dan mencoba untuk memanipulasi atau menipu pengguna,” sesuai dengan makalah tersebut.
Hasilnya mencolok, dengan sebagian besar peserta dalam ketiga kelompok melaporkan bahwa pengalaman mereka sesuai dengan apa yang mereka diberitahu untuk harapkan.
“Ketika orang berpikir bahwa AI itu peduli, mereka menjadi lebih positif terhadapnya,” kata Pataranutaporn kepada SA, berargumen bahwa “umpan balik penguatan” menyebabkan peserta mengubah pandangan mereka terhadap AI tergantung pada apa yang mereka diberitahu.
Pataranutaporn dan rekan-rekannya menyarankan bahwa cara seluruh budaya melihat AI seperti chatbot atau ELIZA dan ChatGPT bisa berpengaruh pada bagaimana teknologi tersebut digunakan dan dikembangkan seiring waktu.
“Kami menemukan bahwa model mental secara signifikan memengaruhi penilaian pengguna dan memengaruhi perilaku baik pengguna maupun AI,” tulis para peneliti dalam makalah mereka.
“Model mental ini merupakan hasil latar belakang budaya individu, keyakinan pribadi, dan konteks khusus situasi, yang dipengaruhi oleh priming kita,” tambahnya.
Ini juga berarti bahwa orang-orang di balik AI ini memiliki pengaruh yang cukup besar.
“Orang-orang di bidang pemasaran atau orang yang membuat produk ingin membentuknya dengan cara tertentu,” katanya kepada Scientific American. “Mereka ingin membuatnya terlihat lebih empatik atau dapat dipercaya, meskipun mesin di dalamnya mungkin sangat bias atau cacat,” lanjutnya.
“Meskipun kita sebagian besar fokus pada mempelajari bias apa pun yang ada dalam jawaban AI seperti Chatbot, kita juga harus “memikirkan interaksi manusia-AI, itu bukan hanya satu arah,” tambahnya. “Anda perlu memikirkan jenis bias apa yang orang bawa ke dalam sistem,” tambahnya. [az]