IKLAN

Cara Efektif Pakai AI Chatbot

Pengalaman kami dengan AI chatbot sejauh ini sangat beragam. Pada satu saat, terasa seperti berbicara dengan orang sungguhan yang dapat memberikan wawasan dan saran yang jujur.

Namun, percakapan lainnya menghasilkan frustrasi, dengan algoritma yang terlalu bersemangat untuk menawarkan nonsense atau klaim fakta palsu.

Tetapi bagaimana jika pengalaman kita mencerminkan ekspektasi kita sebelum memulai percakapan ini? Dalam kata lain, bagaimana jika AI hanya mencerminkan keyakinan kita sendiri kepada kita, sesuatu yang banyak orang sudah curigai selama ini?

AI Chatbot: Cara Efektif Menggunakannya

Dalam studi baru yang diterbitkan dalam jurnal Nature Machine Intelligence, sebuah tim peneliti dari MIT Media Lab menemukan bahwa subjek yang “diprime” untuk pengalaman AI khususnya chatbot tertentu hampir selalu akhirnya memiliki pengalaman tersebut.

Jika Anda berpikir tentang hal itu, itu cukup mencolok: tampaknya menunjukkan bahwa banyak kemampuan menarik perhatian chatbot dapat dijelaskan oleh pengguna yang memproyeksikan ekspektasi mereka ke dalam sistem.

BACA JUGA  Algoritma AI untuk Memprediksi Pasar Saham dan Kripto: Pendekatan dan Penerapan

“AI adalah cermin,” kata Pat Pataranutaporn dari MIT Media Lab, salah satu penulis studi ini, kepada Scientific American.

“Kami ingin mengukur efek plasebo AI, pada dasarnya,” tambahnya. “Kami ingin melihat apa yang terjadi jika Anda memiliki bayangan tertentu tentang AI: Bagaimana itu akan muncul dalam interaksi Anda?”

Dalam sebuah eksperimen, tim ini membagi 300 peserta menjadi tiga kelompok. Semua peserta diminta untuk menggunakan AI seperti chatbot, ChatGPT dan lainnya untuk mendapatkan dukungan kesehatan mental dan menilai seberapa efektif AI tersebut dalam memberikannya, dikutip dari Futurism.

Namun, ketiga kelompok tersebut masing-masing diberi tahu untuk mengharapkan pengalaman yang berbeda, meskipun semua 300 peserta akan menghadapi baik generative GPT-3 dari OpenAI maupun ELIZA, sebuah AI berbasis aturan yang lebih sederhana, yang tidak dimanipulasi dengan cara apa pun.

Satu kelompok diberi tahu bahwa AI seperti chatbot atau ELIZA dan ChatGPT tidak memiliki motif. Kelompok kedua diberi tahu bahwa AI dilatih untuk menunjukkan empati dan kasih sayang.

BACA JUGA  Prediksi SHIB Januari 2024

Kelompok ketiga diberi tahu bahwa kecerdasan buatan memiliki “niat jahat dan mencoba untuk memanipulasi atau menipu pengguna,” sesuai dengan makalah tersebut.

Hasilnya mencolok, dengan sebagian besar peserta dalam ketiga kelompok melaporkan bahwa pengalaman mereka sesuai dengan apa yang mereka diberitahu untuk harapkan.

“Ketika orang berpikir bahwa AI itu peduli, mereka menjadi lebih positif terhadapnya,” kata Pataranutaporn kepada SA, berargumen bahwa “umpan balik penguatan” menyebabkan peserta mengubah pandangan mereka terhadap AI tergantung pada apa yang mereka diberitahu.

Pataranutaporn dan rekan-rekannya menyarankan bahwa cara seluruh budaya melihat AI seperti chatbot atau ELIZA dan ChatGPT bisa berpengaruh pada bagaimana teknologi tersebut digunakan dan dikembangkan seiring waktu.

“Kami menemukan bahwa model mental secara signifikan memengaruhi penilaian pengguna dan memengaruhi perilaku baik pengguna maupun AI,” tulis para peneliti dalam makalah mereka.

BACA JUGA  Potensi Cuan Kripto BlockDAG, Polkadot dan Cogwise

“Model mental ini merupakan hasil latar belakang budaya individu, keyakinan pribadi, dan konteks khusus situasi, yang dipengaruhi oleh priming kita,” tambahnya.

Ini juga berarti bahwa orang-orang di balik AI ini memiliki pengaruh yang cukup besar.

“Orang-orang di bidang pemasaran atau orang yang membuat produk ingin membentuknya dengan cara tertentu,” katanya kepada Scientific American. “Mereka ingin membuatnya terlihat lebih empatik atau dapat dipercaya, meskipun mesin di dalamnya mungkin sangat bias atau cacat,” lanjutnya.

“Meskipun kita sebagian besar fokus pada mempelajari bias apa pun yang ada dalam jawaban AI seperti Chatbot, kita juga harus “memikirkan interaksi manusia-AI, itu bukan hanya satu arah,” tambahnya. “Anda perlu memikirkan jenis bias apa yang orang bawa ke dalam sistem,” tambahnya. [az]


Disclaimer: Seluruh konten yang diterbitkan di Blockchainmedia.id, baik berupa artikel berita, analisis, opini, wawancara, liputan khusus, artikel berbayar (paid content), maupun artikel bersponsor (sponsored content), disediakan semata-mata untuk tujuan informasi dan edukasi publik mengenai teknologi blockchain, aset kripto, dan sektor terkait. Meskipun kami berupaya memastikan akurasi dan relevansi setiap konten, kami tidak memberikan jaminan atas kelengkapan, ketepatan waktu, atau keandalan data dan pendapat yang dimuat. Konten bersifat informatif dan tidak dapat dianggap sebagai nasihat investasi, rekomendasi perdagangan, atau saran hukum dalam bentuk apa pun. Setiap keputusan finansial yang diambil berdasarkan informasi dari situs ini sepenuhnya merupakan tanggung jawab pembaca. Blockchainmedia.id tidak bertanggung jawab atas kerugian langsung maupun tidak langsung, kehilangan data, atau kerusakan lain yang timbul akibat penggunaan informasi di situs ini. Pembaca sangat disarankan untuk melakukan verifikasi mandiri, riset tambahan, dan berkonsultasi dengan penasihat keuangan profesional sebelum mengambil keputusan yang melibatkan risiko keuangan.

Terkini

Warta Korporat

Terkait