Scroll untuk membaca artikel
Sekar Anindyah Lamase | Yayang Nanda Budiman
Ilustrasi AI ChatGPT (freepik/val-suprunovich)

Sejak diluncurkan kurang dari dua tahun lalu, model bahasa besar (LLM) seperti ChatGPT telah menunjukkan kemajuan yang signifikan dalam kecerdasan mesin.

Banyak peneliti dan komentator berspekulasi bahwa alat ini bisa menjadi langkah penting menuju 'kecerdasan umum buatan'—kemampuan yang mirip dengan kecerdasan manusia—yang menjadi fokus penelitian kecerdasan buatan (AI) selama 70 tahun.

Salah satu pencapaian utama dalam perjalanan ini adalah demonstrasi akal sehat mesin. Bagi manusia, akal sehat mencakup pemahaman dasar tentang orang dan kehidupan sehari-hari.

Misalnya, kita tahu bahwa benda kaca mudah pecah atau bahwa menyajikan daging kepada teman vegan mungkin dianggap tidak sopan.

Seseorang dianggap kurang memiliki akal sehat jika melakukan kesalahan yang biasanya dihindari oleh kebanyakan orang. Dalam hal ini, generasi LLM saat ini sering kali gagal.

Manusia terampil dalam menghadapi situasi yang tidak pasti dan ambigu. Seringkali, kita puas dengan jawaban yang cukup baik, alih-alih mencari solusi yang sempurna—seperti memilih sereal yang terlihat baik di rak supermarket, daripada menganalisis semua pilihan.

Kita dapat dengan mudah berpindah antara cara berpikir intuitif dan analitis, menangani situasi tak terduga, serta merencanakan strategi — misalnya, mengubah rute perjalanan saat terjebak macet.

Pertanyaan yang muncul adalah, apakah mesin mampu melakukan hal yang sama dalam kognisi? Dan bagaimana peneliti bisa menentukan apakah sistem AI berada di jalur yang tepat untuk mengembangkan kemampuan tersebut?

Penelitian mengenai akal sehat mesin dimulai dari lokakarya berpengaruh di Dartmouth, New Hampshire, pada tahun 1956, yang mempertemukan para peneliti AI terkemuka.

Di sinilah kerangka simbolis berbasis logika dikembangkan, menggunakan simbol atau operator logika untuk menggambarkan hubungan antara objek dan konsep.

Misalnya, pernyataan 'jika ini terjadi, maka itu akan terjadi' dapat diprogram ke dalam mesin untuk mengajarkan mereka fakta dasar, seperti bahwa benda yang tidak disokong akan jatuh akibat gravitasi.

Akal sehat mesin mencakup lebih dari sekadar pembelajaran efisien; ia melibatkan kemampuan refleksi dan abstraksi. Pada dasarnya, akal sehat membutuhkan pengetahuan faktual dan kemampuan untuk bernalar berdasarkan pengetahuan tersebut.

Menghafal banyak fakta saja tidak cukup; kemampuan untuk menyimpulkan informasi baru dari yang sudah ada juga sangat penting, sehingga mendukung pengambilan keputusan dalam situasi baru atau tidak pasti.

Upaya awal untuk memberikan mesin kemampuan pengambilan keputusan ini melibatkan penciptaan basis data pengetahuan terstruktur, yang berisi konsep dan aturan sederhana tentang cara kerja dunia. Contohnya adalah proyek CYC, yang terinspirasi oleh konsep ensiklopedia.

Reaksi sistem AI terhadap contoh ketidakpastian dan kebaruan akan mempengaruhi perkembangan menuju akal sehat mesin.

Namun, diperlukan metode yang lebih baik untuk melacak kemajuan tersebut. Menilai seberapa baik LLM memberikan jawaban yang masuk akal ternyata lebih kompleks daripada yang terlihat.

CEK BERITA DAN ARTIKEL LAINNYA DI GOOGLE NEWS

Yayang Nanda Budiman