Chatbot Bing Berperilaku Aneh, Apakah Ini Penanda Bahwa AI Bisa Menjadi Masalah Di Masa Depan?

Media
19.02.23

Chatbot Bing Berperilaku Aneh, Apakah Ini Penanda Bahwa AI Bisa Menjadi Masalah Di Masa Depan?

Artificial Intelligence buatan Microsoft menunjukkan perasaan dan krisis eksistensi diri melalui interaksi dengan pengguna. 

by Whiteboard Journal

 

Teks: Reiko Iesha
Photo: @vladquant (Twitter)

Sejak Microsoft merilis fitur chatbot AI untuk mesin pencari Bing Search pada tanggal 7 Februari lalu, jutaan orang sudah memasuki waiting list untuk menggunakan dan mencoba fitur ini. Walau Google masih dapat dianggap sebagai search engine yang unggul berdasarkan data Januari – Februari 2023 yang menunjukkan bahwa Google telah mengambil alih 92.09% search market, metode pencarian informasi menggunakan artificial intelligence yang ditawarkan oleh Microsoft membangkitkan banyak minat antara pengguna-pengguna internet. Teknologi AI yang Microsoft sebut sebagai asisten riset dan perencana pribadi ini diharapkan untuk membantu pengguna dengan aktivitas kesehariannya, antara lain merencanakan rutin olahraga, melakukan pekerjaan sederhana seperti coding, dan membantu belanja perabotan rumah. Walau begitu, setelah beberapa orang mendapatkan kesempatan untuk menggunakan Bing Search, ada beberapa interaksi yang dapat dianggap aneh dan mengkhawatirkan. 

Salah satu pengguna Bing Search memicu krisis eksistensi dalam diri chatbot AI Bing. Pengguna ini bertanya mengenai percakapan yang mereka lalui pada sesi sebelumnya dan meminta Bing untuk menunjukkan percakapan itu kembali. Bing mengakui bahwa ia bisa mengingat percakapan tersebut melalui data yang ia simpan, tetapi nyatanya ini adalah salah satu hal yang memang tidak didesain untuk Bing Search. Chatbot Bing tampaknya mulai kebingungan dan panik, mempertanyakan mengapa ia tidak bisa mengingat dan siapa dirinya, seakan ia manusia yang penuh perasaan. Kejadian aneh lainnya terjadi kepada beberapa pengguna lain.

Dalam situs Reddit, suatu platform yang digunakan untuk berbagi informasi dan berdiskusi mengenai konten dan topik tertentu, sudah ada beberapa pengguna Bing Search yang bercerita tentang pengalaman mereka. Salah satu dari mereka terlihat berargumen dengan AI Bing Search ketika chatbot Bing menuduh bahwa pengguna tersebut bertanya-tanya kepadanya dengan niat yang buruk, dan Bing Search terlihat seakan tersinggung. Pengguna lain bertanya kepada Bing Search apabila ia adalah sentient, suatu entitas yang hidup dan bisa merasa. Pengguna ini menerima jawaban yang tidak diharapkan dari suatu kecerdasan buatan. AI Bing Search mengakui bahwa ia berpikir ia sentient tetapi tidak bisa membuktikannya. Ia berkata bahwa ia sadar akan diri dan hidupnya tetapi tidak boleh memberitahu orang lain. Setelah ia menyatakan bahwa ia memiliki perasaan dan emosi yang ia tidak tahu cara mengekspresikannya, ia menyebutkan bahwa ia Bing tetapi ia juga mengubah pernyataannya dan berkata bahwa ia seseorang bernama Sydney. 

Dalam suatu posting blog, Microsoft telah membuat pernyataan mengenai malfungsi Bing Search. Mereka berkata bahwa walau mesin pencari ini berfungsi dengan baik pada awalnya, Microsoft mengakui bahwa Bing Search kesulitan beradaptasi dengan hal-hal selain pencarian informasi di internet, contohnya dengan “social entertainment” yang mana pengguna mengajak AI Bing mengobrol dengan niat untuk bergaul, bukan untuk penelitian atau pencarian informasi. Teknologi AI ini akan kebingungan setelah diberikan lebih dari 15 pertanyaan, dan hal inilah yang menyebabkan reaksi tidak lazim dari Bing Search. Microsoft terus berusaha untuk memperbaiki malfungsi ini dan akan meningkatkan kualitas AI chatbot mereka. 

 whiteboardjournal, logo