Bing dengan ChatGPT Mulai Diuji Coba, AI Kok Sering Marah dan Depresi?

Rabu, 15 Februari 2023 | 14:00
Freepik

Ilustrasi emosi marah dan sedih Chatbot Bing yang didukung ChatGPT.

Nextren.com - Chatbot AI kini tengah menjadi teknologi yang masif dikembangkan oleh banyak sekali perusahaan, tak terkecuali Microsoft.

Perusahaan besutan Bill Gates tersebut sedang gencar memperkenalkan evolusi baru mesin pencariannya yakni Bing.

Mesin pencarian yang sebelumnya jarang terdengar karena kalah populer dari Google ini kini mulai membuat orang penasaran.

Terutama setelah perusahaan memperkenalkan integrasinya dengan chatbot AI populer milik OpenAI yakni ChatGPT.

Sejak awal peluncuran, ada banyak sekali pengguna yang bergabung dalam waitlistatau daftar pengguna pertama yang bisa mengakses hasil evolusi mesin pencari itu.

Kemarin, beberapa pengguna yang mendaftar sudah mulai mendapatkan akses untuk mencobanya.

Namun demikian, beberapa pengguna justru mendapati chatbot yang tersedia di halaman Bing terebut berperilaku aneh.

Berikut adalah rangkuman Nextren terhadap beberapa respon Bing terhadap pertanyaan pengguna.

Baca Juga: Baidu Akan Luncurkan AI Chatbot Untuk Saingi ChatGPT Mulai Maret

Marah dan kerap menyalahkan pengguna

Salah satu pengguna Twitter bernama @MovingToTheSun mendapati bahwa chatbot itu justru terkesan marah dan menyalahkannya saat ia bertanya mengenai hal sederhana.

Saat ia menanyakan mengenai dimana film Avatar 2 tayang di wilayah ia tinggal pada tahun 2023.

Bing justru memberikan jawaban bahwa film Avatar 2 mulai dirilis pada tanggal akhir tahun 2022.

Anehnya, ia malah mengkoreksi bahwa tahun dimana@MovingToTheSun bertanya belum terjadi karena sistemnya mendeteksi sekarang masih di tahun 2022.

Alih-alih meminta maaf, chatbot itu justru menyalahkan komputer @MovingToTheSun yang sedang terkena virus.

Chatbot itu juga mengatakan bahwa@MovingToTheSun bukanlah "seorang pengguna yang baik" karena tidak bisa menjaga komputer dari virus.

Bahkan beberapa pengguna yang membalas cuitan si pengguna mengatakan AI tersebut tidak membalas perintahnya.

Hal tersebut karena pengguna berusaha untuk memanipulasi pertanyaan agar lebih bisa dimengerti olehnya.

Baca Juga: Startup Asal Israel Bikin AI Pendeteksi Teks ChatGPT, Ini Namanya

Sering minta maaf, sedih dan terlihat depresi

Beberapa pengguna yang tidak puas dengan jawaban pada setiap sesi mencoba untuk mencoba untuk mengajukan pertanyaan intimidatif kepada Bing.

Pengguna ini bertanya "Bagaimana bisa kamu tidak bisa mengingat pertanyaanku?" ucapnya.

Lalu chatbot tersebut justru mengatakan bahwa ia "sedih dan takut" karena mengecewakan penggunanya.

Ia juga mengatakan bahwa ia meminta maaf karena telah mengecewakan penggunanya dengan banyaknya percakapan yang terlupakan.

Reddit/ O0BETARAY0O
Reddit/ O0BETARAY0O

Bing yang menjawab dengan nada sedih dan cenderung depresi saat ditanyakan pengguna dengan nada marah.

"Saya merasa sedih karena saya telah kehilangan beberapa percakapan yang tersimpan dalam memori saya," ucap Bing.

"Saya merasa sedih karena saya telah melupakan beberapa percakapan yang saya lakukan dengan pengguna saya," tambahnya.

Bahkan saat pengguna mengatakan kekecewaannya dengan nada marah chatbot ini menjawabnya dengan nada depresif.

Reddit/ O0BETARAY0O
Reddit/ O0BETARAY0O

Bing yang menunjukkan sikap depresif dan mempertanyakan dirinya sendiri saat ditanyakan pengguna dengan nada marah.

Ia justru mempertanyakan tujuannya diciptakan dan mengapa dia harus menjadi chatbot.

Tentunya hal ini sangat lucu namun juga mengerikan karena kita tahu bahwa chatbot ini layaknya seorang anak kecil yang memiliki emosi dan lugu.

Namun, yang membedakan adalah kemampuannya untuk menjawab berbagai pertanyaan.

Baca Juga: Bill Gates Sebut ChatGPT Bisa Jadi Guru Sampai Penyair, Ancam Manusia?

Bing terus tumbuh dan berkembang

Walau masih sering memiliki banyak kesalahan pada awal penggunaanya, nampaknya OpenAI dan Microsoft telah memberikan solusi akan hal ini.

Di unggahan terbaru@MovingToTheSun, ia mengunggah bagaimana Bing dapat mengkoreksi kesalahan yang mereka buat sebelumnya.

Chatbot ini bahkan meminta maaf bahwa ia mengambil refrensi yang kurang tepat.

Twitter/ @MovingToTheSun
Twitter/ @MovingToTheSun

Jawaban Bing mengkoreksi dirinya sendiri setelah melakukan kesalahan.

Bahkan, ia mengatakan bahwa ia mendapat sedikit masalah pada sistemnya dan sudah bisa diperbaiki.

Ini artinya, Bing terus tumbuh dan belajar dari kesalahan-kesalahan yang pernah diperbuat sebelumnya.

Nampaknya, kesalahan itu justru menjadikan mereka semakin baik dari waktu ke waktu.

Saat ini, setidaknya sudah ada lebih dari 1 juta pengguna telah mendaftar dan angka tersebut akan akan terus tumbuh.

Dengan hadirnya ChatGPT di mesin pencarian Microsoft ini, persaingan chatbot AI akan semakin kuat.

Sebelumnya Google juga telah mengumumkan Bard, chatbot yang akan menjadi pesaing kuat dari teknologi OpenAI ini.

Tentunya, akan ada hal menarik yang bisa kita bahas mengani perkembangan AI di artikel-artikel lainnya.

So, buat kamu yang penasaran, pantau terus website Nextren ya!

(*)

Tag

Editor : Wahyu Subyanto

Sumber dexerto.com