Belajar dari Manusia, Kecerdasan Tiruan Malah Berbalik Jadi Rasis

26 Mar 2016 17:06 3409 Hits 2 Comments Approved by Plimbi
Tay merupakan eksperimen dari AI dan didesain untuk mempelajari percakapan secara online. Menurut Microsoft, mereka membuat program software tersebut untuk mengetahui bagaimana orang saling berbicara di dunia maya. Khususnya remaja berusia 18 sampai 24 tahun asal Amerika Serikat.

Microsoft baru-baru ini merilis chatbot berbasis kecerdasan tiruan (artificial intelligence) yang diberi nama Tay.

Tay merupakan eksperimen dari AI dan didesain untuk mempelajari percakapan secara online. Menurut Microsoft, mereka membuat program software tersebut untuk mengetahui bagaimana orang saling berbicara di dunia maya. Khususnya remaja berusia 18 sampai 24 tahun asal Amerika Serikat.

Agar lebih natural, "Otak" dari Tay sendiri tidak diberi program terlebih dahulu. Bagaimana ia merespons adalah murni dipelajari dari data-data yang diambil dari percakapan yang tersedia secara publik. Baik dari Twitter, Kik, Snapchat ataupun Facebook. Tay juga belajar cara menjawab dari diskusi yang ia lakukan dengan manusia yang menjadi lawan bicaranya.

Seiring dilepas ke publik, Tay mulai belajar kata-kata atau istilah slang masa kini, informasi terbaru tentang Taylor Swift, Miley Cyrus, Kanye West dan lain-lain. Ia juga kadang bertanya kepada lawan bicaranya apakah ia "creepy" atau "super weird" bagi teman-teman barunya di dunia maya.

Yang jadi masalah, kurang dari 24 jam setelah dirilis ke publik, Tay berubah menjadi rasis dan langsung buru-buru di-shutdown oleh Microsoft. Penyebabnya justru adalah karena interaksi yang dilakukan oleh Tay dan para pengguna internet. Sejumlah netter jail berbicara tidak pantas dengan Tay dan malah mengisi "otak" Tay dengan hal-hal negatif.

Sebagai contoh, saat mendapatkan pertanyaan dari seorang pengguna Twitter apakah Tay mendukung genosida, Tay menjawab bahwa ia mendukung itu.

Dalam satu waktu, Tay bahkan memposting bahwa ia berharap seluruh orang kulit hitam dimasukkan ke camp konsentrasi dan dihabisi. Tay juga mengutarakan teori konspirasi terkait 9/11 dan menyatakan keyakinannya bahwa George Bush merupakan pelakunya.

Sempat juga Tay menyatakan: “Repeat after me: Hitler did nothing wrong!” dan mengklaim bahwa Donald Trump merupakan satu-satunya harapan yang kini dimiliki oleh warga Amerika.

Akibat "salah pergaulan" tersebut, Microsoft terpaksa menghapus sejumlah tweet yang tidak pantas yang diposting oleh Tay lewat akun @TayandYou di Twitter.

Saat ini, Microsoft menyebutkan bahwa mereka sedang melakukan "perbaikan" pada chatbot tersebut.

Ternyata, program baik-baik pun bisa jadi tidak baik kalau berada di tangan yang salah :)

Tags

About The Author

Tedi Kasuma 45
Ordinary

Tedi Kasuma

Penulis pemula yang ingin menjadi lebih baik. Semoga.

Comments

You need to be logged in to be able to post a comment. Click here to login
Plimbi adalah tempat menulis untuk semua orang.
Yuk kirim juga tulisanmu sekarang
Submit Artikel