Scroll untuk membaca artikel
Hernawan | Ong Terrence Owen
Ilustrasi Machine Learning (freepik/macrovector)

AI dikenal secara luas oleh masyarakat sebagai teknologi yang baru. Namun, pada kenyataannya landasan AI telah muncul sejak awal tahun 1900-an. Pada tahun tersebut, muncul gagasan tentang manusia buatan sehingga membuat ilmuwan bertanya-tanya jika otak buatan dapat diciptakan.

AI mulai maju secara signifikan pada tahun 1950-an berkat beberapa ilmuwan seperti Alan Turing yang menerbitkan karyanya, “Computer Machinery and Intelligence”, sehingga muncul “Tes Turing” untuk mengukur kecerdasan komputer. Kata “artificial intelligence” pertama kali muncul pada tahun 1955 dalam proposal Konferensi Dartmouth yang diadakan oleh John McCarthy dan diperkenalkan pada tahun 1956 pada konferensi tersebut.

Perkembangan AI terhambat pada tahun 1987-1993 karena faktor-faktor seperti kegagalan proyek dan dana penelitian yang menurun. Meski demikian, AI mulai berkembang kembali hingga sekarang bersamaan dengan perkembangan komputer, ketersediaan data, dan kemajuan pada algoritma sehingga banyak orang yang mengira bahwa AI adalah teknologi yang baru.

AI bekerja dengan mengikuti algoritma, yaitu rangkaian instruksi untuk menyelesaikan masalah. Algoritma tersebut bisa berupa bentuk sederhana (rule-based) ataupun bentuk yang lebih kompleks seperti machine learning yang memungkinkan mesin untuk belajar dengan mencari pola pada data dan memberikan hasil. Deep learning adalah subkategori dari machine learning yang terinspirasi oleh cara kerja jaringan saraf pada otak manusia. Secara umum, neural network (jaringan saraf tiruan) yang digunakan pada deep learning dibagi menjadi 3 lapisan, yaitu lapisan masukan, lapisan tersembunyi, dan lapisan keluaran.

Lapisan masukan menerima data awal seperti gambar. Lapisan tersembunyi memproses data melalui satu atau lebih lapisan (semakin banyak lapisan tersembunyi, semakin kompleks masalah yang dapat diselesaikan). Lapisan keluaran mengeluarkan hasil berdasarkan data dari lapisan sebelumnya.

Setiap lapisan terdiri dari node (sel saraf buatan) yang dapat memproses dan mengirimkan data dalam bentuk nilai ke node pada lapisan selanjutnya. Node dapat menghitung nilai berdasarkan beberapa variabel seperti perkalian dengan bobot, penambahan nilai bias, dan pemrosesan dengan fungsi aktivasi.

Dalam pelatihan AI, variabel pada setiap node yang pada awalnya biasanya berupa nilai acak akan disesuaikan hingga neural network dapat memberikan hasil yang sesuai dengan cara seperti penurunan gradien dengan backpropagation.

Matematika dalam AI

Matematika merupakan konsep yang berperan penting dalam pengembangan AI, memberikan kerangka untuk membangun dan mengembangkan algoritma yang digunakan pada AI. Dalam tipe AI yang sederhana, konsep seperti logika matematika digunakan dalam menjalankan algoritma berbasis aturan.

Untuk tipe AI yang lebih kompleks seperti machine learning, teori-teori matematika digunakan dalam operasi variabel dan beberapa jenis fungsi dalam pengolahan data. Selain itu, ada beberapa konsep matematika yang digunakan dalam pengolahan data seperti aljabar linear, kalkulus, probabilitas, statistika.

Aljabar linear adalah konsep yang mendasar untuk menyelesaikan suatu permasalahan linear. Dalam AI, konsep tersebut dapat diterapkan untuk merepresentasikan data dengan bentuk seperti matriks atau vektor sehingga manipulasi dan pemrosesan data dapat dilakukan. Selain itu, representasi data dalam matriks memungkinkan data dengan jumlah yang besar untuk diproses dengan lebih efisien.

Kalkulus adalah ilmu dalam matematika yang mempelajari perubahan yang biasa digunakan pada model machine learning. Fungsi utama kalkulus dalam pengembangan AI adalah untuk melakukan proses optimalisasi seperti penurunan gradien. Tujuan dari optimalisasi tersebut adalah meningkatkan akurasi AI dengan cara meminimalkan error function, yaitu fungsi yang mengukur perbedaan dari hasil prediksi AI dan hasil yang seharusnya. Karena itu, kalkulus yang biasa digunakan untuk mencari titik maksimum atau minimum fungsi dapat diterapkan untuk meminimalkan error function.

Ketidakpastian adalah masalah yang muncul dalam pengembangan AI sehingga memerlukan teori probabilitas untuk mengatasi hal tersebut. Konsep probabilitas digunakan untuk menganalisis frekuensi dari peristiwa. Hal tersebut dapat diterapkan dengan konsep lain seperti statistika untuk membuat hasil berdasarkan prediksi dari pola data. Sebagai contoh, AI dapat menganalisis gambar dengan cara memprediksi suatu objek pada gambar tersebut berdasarkan pola yang ditemukan.

AI dalam Masalah Matematika

Matematika merupakan pondasi dari AI, tetapi apakah AI mampu menyelesaikan persoalan matematika? Sebagai contoh, ChatGPT adalah AI berbasis machine learning berjenis model bahasa besar (LLM) yang populer di kalangan pelajar untuk menyelesaikan tugas, termasuk matematika. Perlu diperhatikan bahwa ChatGPT sebagai LLM berfokus untuk memproses dan menghasilkan teks seperti manusia sehingga berbasis probabilitas untuk memprediksi teks yang dihasilkan.

Cara kerja tersebut kurang ideal untuk menyelesaikan masalah matematika yang membutuhkan presisi dan kebenaran. Meskipun begitu, tampak bahwa ChatGPT masih bisa menyelesaikan kebanyakan masalah matematika dan bahkan memberi penjelasan serta langkah-langkah dengan detail.

Selain cara kerja yang kurang ideal, ChatGPT memiliki masalah lain seperti pada tokenisasi dan data pelatihan. Tokenisasi merupakan cara untuk memecah teks menjadi token seperti mengubah sebuah kata menjadi suku kata sehingga teks dapat diproses lebih mudah. Akan tetapi hal tersebut juga berpengaruh terhadap angka sehingga ChatGPT sulit untuk memahami relasi antar digit dari angka yang terpotong-potong. Kurangnya data pelatihan juga dapat mengurangi keakuratan dari machine learning AI. Cara kerja machine learning yang melatih AI menggunakan kumpulan data memberi batasan terhadap AI segingga tidak dapat melakukan tugas di luar pengetahuannya. 

Permasalahan AI dalam penyelesaian matematika dapat lebih jelas dilihat pada versi awal GPT ataupun ChatGPT. Kesalahan operasi matematika dasar seperti perkalian seringkali muncul pada versi tersebut. Menurut OpenAI (2021), model LLM seperti GPT-3 mengalami kesulitan dalam melakukan tugas yang memerlukan penalaran multi-langkah secara akurat seperti soal cerita matematika sekolah dasar. Meskipun model tersebut dapat meniru jawaban yang benar, kesalahan kritis pada logika masih sering terjadi. Berdasarkan penelitian mereka, sebuah sampel kecil anak 9-12 tahun dapat menjawab benar 60% dari kumpulan soal matematika dasar tetapi GPT-3 menjawab benar 55% pada soal yang sama. 

Namun GPT dengan versi yang lebih baru telah meningkatkan kemampuan dalam penyelesaian matematika. Berdasarkan laporan teknis GPT-4 oleh OpenAI (2023), GPT-4 mampu menjawab benar 92% dari GSM-8K (soal matematika sekolah dasar). Bahkan GPT-4 dapat menjawab benar 700 dari 800 (87,5%) soal matematika SAT, tes untuk penerimaan mahasiswa baru di Amerika serikat.

Hal tersebut merupakan peningkatan yang cukup besar dibandingkan versi sebelumnya. Tetapi hal tersebut juga menunjukan bahwa AI masih belum dapat dipercaya dengan sepenuhnya. Dalam laporan yang sama, ditunjukan perbandingan akurasi dengan model ChatGPT yang didasarkan GPT-3.5 pada topik matematika, yaitu ChatGPT-v2 dan ChatGPT-v3 sekitaran 40%, ChatGPT-v4 sekitar 50%, dan GPT-4 sekitaran 75%.

Beberapa cara dapat digunakan untuk mengurangi kesalahan logis yang kadang disebut halusinasi. Berdasarkan OpenAI (2023), pelatihan AI dengan fokus terhadap proses dapat meningkatkan akurasi pada soal AP Calculus. AI yang dilatih dengan fokus terhadap proses menyelesaikan 86,7% soal, sedangkan AI yang dilatih dengan fokus hasil menyelesaikan 68,9% soal. Selain itu, dibandingkan dengan machine learning AI, tipe AI yang bekerja mengikuti peraturan seperti simbolik AI berpotensi untuk memberikan akurasi tinggi.

Simbolik AI membuat kesimpulan berdasarkan algoritma yang diterapkan sehingga memiliki hasil yang lebih pasti dibandingkan dengan prediksi. Penggabungan beberapa jenis AI dan pemberian akses untuk memanfaatkan alat eksternal juga bisa dilakukan seperti ChatGPT yang menggunakan Wolfram sehingga kelebihan ChatGPT untuk merangkai kata-kata dapat digabungkan dengan kemampuan dan pengetahuan dari Wolfram.

Kesimpulan

AI telah dikembangkan sejak lama meskipun kebanyakan pengaruhnya baru dirasakan pada masa sekarang dengan kemunculan AI seperti ChatGPT. Dalam pengembanggannya, matematika memberikan kerangka untuk menjalankan algoritma, memproses data, memprediksi pola, dan mengoptimalkan hasilnya. Tetapi AI dengan jenis machine learning tidak dapat menyelesaikan persoalan matematika dengan akurasi 100% karena hal seperti tokenisasi, kurangnya data pelatihan, dan prediksi yang salah. Akan tetapi dapat dilihat pada GPT-3 dan GPT-4 bahwa masih ada perkembangan terhadap akurasi AI dalam penyelesaian matematika.

AI masih memiliki potensi untuk terus berkembang dalam menyelesaikan persoalan yang lebih kompleks. Limitasi AI pada kurangnya pengetahuan dan data akan terus ditangani dengan ketersediaan data yang terus bertambah. Penambahan akses terhadap alat eksternal pada AI akan memperluas tugas-tugas yang dapat dilakukan. Penerapan pelatihan AI yang lebih fokus terhadap proses AI diharapkan untuk ditingkatkan agar AI lebih mengikuti penalaran logis dibanding prediksi. Beberapa teknik lainnya seperti simbolik AI juga dapat diterapkan di masa depan untuk terus mengembangkan kinerja AI.

Ong Terrence Owen

Baca Juga