Ridi Ferdiana dalam sekolah wartawan di Kampus UGM, Yogyakarta, Senin, mengatakan perkembangan AI cukup pesat dan sulit untuk dicegah.
"Begitu ada skenario menyimpang dan belum ada aturan, ya, dibebaskan. Jadi, kebayang penyalahgunaannya. Harus ada counter measure' dan ditutup aturan," kata Guru Besar UGM ini.
Menurut dia, AI seperti dua sisi mata uang yang bisa memberikan manfaat, namun di sisi lain dapat menimbulkan ancaman bagi manusia dan kemanusiaan.
Baca juga: Huawei - Kemendikbudristek optimalkan AI dan cloud untuk pendidikan
Baca juga: Amerika Serikat bentuk pokja untuk menyelidiki dampak AI
Ia mengakui AI memudahkan pekerjaan manusia, membantu lebih kreatif dan lebih produktif. Akan tetapi, dapat pula menimbulkan ancaman besar saat ada pihak-pihak yang mengembangkan varian baru AI yang menyalahi etika.
"AI jadi berbahaya ketika ada orang pintar yang paham AI dan membuat varian baru AI yang menyalahi etika seperti penyalahan terkait dengan privasi seperti perubahan muka dan sebagainya. Itu bahaya yang paling mengerikan," ujar dia.
Karena itu, diperlukan upaya mengatasi persoalan itu, misalnya ada peneliti-peneliti AI yang mampu mengidentifikasi penyimpangan yang terjadi dan memasukkan ke aturan yang bertanggung jawab terkait AI.
Dengan demikian, saat timbul kejadian penyimpangan bisa dilakukan penindakan secara hukum.
Ia menyadari perkembangan AI berjalan cukup pesat dan sulit untuk dicegah karena beberapa konsep AI sudah bersifat terbuka dan dikembangkan oleh siapa saja.
Kendati begitu, akses terhadap AI bisa dibatasi salah satunya seperti AI face recognition.
"Ke depan AI seperti kepemilikan senjata api yang harus berizin. Untuk AI yang sifatnya terbuka atau umum silakan digunakan, tetapi AI yang spesifik yang berpotensi mengalami kelalaian mekanismenya akan ada perizinan dan ini sudah dilakukan," kata dia.*
Baca juga: Kolaborasi lintas program studi perlu dilakukan hadapi tantangan AI
Baca juga: Pakar ungkap tantangan humas di era kecerdasan buatan
Pewarta: Luqman Hakim
Editor: Erafzon Saptiyulda AS
Copyright © ANTARA 2023