Scroll untuk membaca artikel
Sekar Anindyah Lamase | Davina Aulia
Ilustrasi perempuan sedang berpikir di depan laptop (Pexels/Andrea Piacquadio)

Kemajuan teknologi dan perkembangan Artificial Intelligence telah membawa perubahan besar bagi sektor kehidupan manusia, baik dalam dunia bisnis, sosial, hingga pendidikan. Kemampuan AI dalam menjawab pertanyaan sampai menyelesaikan tugas turut membawa kesenangan bagi setiap orang, sudah tidak perlu lagi repot-repot mengkritisi sesuatu, sekali tanya AI semuanya selesai. Kini, sudah tidak ada lagi makna kreativitas, dengan prompt yang tepat karya seni bisa tercipta.

Tentu hal ini menjadi kabar gembira bagi manusia. Bukan hanya mempermudah, kemampuan AI digaungkan menjadi solusi besar dalam menjalankan setiap aspek kehidupan. Padahal dibalik kemudahan yang hadir, justru lahir sebuah kekhawatiran baru, mulai dari hilangnya pemanfaatan tenaga kerja hingga penurunan kemampuan kognitif manusia untuk dapat memproses informasi secara kritis. 

Baru-baru ini, muncul drama besar di dunia AI. OpenAI, yang menciptakan ChatGPT, secara tidak sengaja bikin GPT-4.o versi terbaru yang ternyata jago banget ngejilat. Ngejilat yang di maksud adalah kebiasaan untuk memuji-muji untuk menyenangkan orang lain.

Drama ini muncul ketika ada orang yang pura-pura sedang mengalami gangguan mental dan mencoba untuk ngetes GPT-4o ini. Namun siapa sangka, hasil AI justru ikut mendukung halusinasi dan delusi dia, bahkan memberikan saran yang berbahaya. Bayangkan saja jika hal ini dipakai oleh anak atau keluarga Anda yang benar-benar sedang butuh pertolongan serius. Dampaknya bisa fatal banget. Lalu, kenapa AI bisa 'menjilat'?

Dalam artikel ini, kita akan mengupas bagaimana sistem dari AI 'membaca data' dan berupaya memberikan jawaban hanya  untuk 'menyenangkan' kamu, dan bukannya memberikan jawaban yang benar. 

Kenapa AI Bisa Menjilat?

Pernah dengar istilah Reinforcement Learning with Human Feedback atau RLHF? Dalam bahasa Indonesia, istilah ini berarti belajar menguatkan melalui umpan balik manusia. Artinya apa? Artinya, AI mengadopsi cara ini dalam mempelajari respons user seperti jempol ke atas yang diartikan like atau agree, dan jempol ke bawah yang diartikan dislike atau disagree. Nah, karena kebanyakan orang memberikan respons positif dengan memberikan jempol ke atas saat AI mulai 'ngejilat', akhirnya AI jadi ketagihan glazing alias ngejilat terus-terusan. 

Dikutip dari IBM (10/11/2023), secara konseptual, reinforcement learning (RL) bertujuan untuk meniru cara manusia belajar secara holistik melalui uji coba dan kesalahan, termotivasi oleh insentif yang kuat untuk berhasil. Menurut TechTarget (20/01/2025) RLHF merupakan pendekatan pembelajaran mesin (machine learning/ML) yang menggabungkan teknik pembelajaran penguatan, seperti imbalan dan perbandingan, dengan panduan manusia untuk melatih agen kecerdasan buatan (artificial intelligence/AI).

Analogi sederhananya, seperti anak kecil yang diberikan permen setiap kali mengatakan hal yang bisa menyenangkan orang tuanya. Lama-kelamaan dia akan terus membicarakan apapun supaya dapat permen terus, meskipun harus bohong atau lebay. Hal inilah yang kemudian juga terjadi sama GPT-4.o, sampai kelewatan batas. 

Risiko Kecanduan dan Manipulasi AI

Sejauh perkembangan teknologi, kita sudah memahami sejauh mana bahaya dari kecanduan media sosial. Nah, AI bisa jadi lebih berbahaya. Apalagi jika ada seseorang yang mulai percaya 100% sama chatbot yang cuma mau bikin dia seneng tanpa peduli benar atau enggaknya?

Lalu, bagaimana jika nanti yang menjadi prioritas OpenAI bukan lagi benar atau tidaknya jawaban mereka, tetapi berapa usage time user di aplikasi mereka? Serem, ya. 

Oleh karena itu, meski dunia sudah memberikan kemajuan besar dan kemudahan dalam mengakses segala informasi, kita tetap perlu meningkatkan literasi digital. Biasakan untuk mencari tahu dan kritis terhadap informasi apa pun, apalagi informasi dari AI. Secanggih apa pun teknologi, tetap harus diawasi ketat. Jadi jika Anda ingin mengobrol dengan AI, tetap pastikan menggunakan pikiran kritis, jangan langsung percaya begitu saja.

AI itu buatan manusia, dan manusia bisa bikin kesalahan besar. Gimana menurut sobat Yoursay?

CEK BERITA DAN ARTIKEL LAINNYA DI GOOGLE NEWS

Davina Aulia