Jakarta (ANTARA) - Meta dilaporkan membubarkan tim Responsible AI (RAI)-nya, karena mereka menggunakan lebih banyak sumber dayanya ke kecerdasan buatan generatif. The Information melaporkan berita ini hari ini, mengutip unggahan internal yang telah mereka lihat.
Menurut laporan tersebut, sebagian besar anggota RAI akan pindah ke tim produk kecerdasan buatan generatif perusahaan, sementara yang lain akan bekerja pada infrastruktur kecerdasan buatan Meta.
Perusahaan ini secara teratur menyatakan ingin mengembangkan kecerdasan buatan secara bertanggung jawab dan bahkan memiliki halaman yang didedikasikan untuk janji tersebut, di mana perusahaan mencantumkan "pilar-pilar kecerdasan buatan yang bertanggung jawab," termasuk akuntabilitas, transparansi, keamanan, privasi, dan lainnya.
Laporan The Information mengutip Jon Carvill, yang mewakili Meta, mengatakan bahwa perusahaan akan terus memprioritaskan dan berinvestasi dalam pengembangan kecerdasan buatan yang aman dan bertanggung jawab.
Baca juga: Meta perkenalkan Instagram dan Facebook bebas iklan di Eropa
Baca juga: Laba bersih dan pendapatan Meta melonjak signifikan pada Q3 2023
Dia menambahkan bahwa meskipun perusahaan memecah tim itu, anggota tersebut akan terus mendukung upaya lintas-Meta yang relevan dalam pengembangan dan penggunaan kecerdasan buatan yang bertanggung jawab.
Meta tidak menanggapi permintaan komentar hingga waktu pemberitaan ini disusun.
Tim ini telah mengalami restrukturisasi pada awal tahun ini, yang dilaporkan oleh Business Insider mencakup pemotongan tenaga kerja yang membuat RAI "menjadi tim yang hampir tidak berdaya".
Laporan tersebut, selanjutnya menyatakan bahwa tim RAI, yang telah ada sejak 2019, memiliki sedikit otonomi dan inisiatifnya harus melalui negosiasi pihak terkait yang panjang sebelum dapat diimplementasikan.
RAI dibentuk untuk mengidentifikasi masalah dengan pendekatan pelatihan kecerdasan buatan, termasuk apakah model perusahaan dilatih dengan informasi yang cukup beragam, dengan tujuan mencegah masalah moderasi di platformnya.
Baca juga: Meta sediakan fitur AI generatif untuk pengiklan
Sistem otomatis pada platform sosial Meta telah menyebabkan masalah seperti masalah terjemahan Facebook yang menyebabkan penangkapan palsu, generasi stiker AI WhatsApp yang menghasilkan gambar yang bias ketika diberikan beberapa perintah tertentu, dan algoritma Instagram yang membantu orang menemukan materi pelecehan seksual anak.
Langkah-langkah seperti yang dilakukan Meta dan langkah serupa oleh Microsoft pada awal tahun ini muncul ketika pemerintah di seluruh dunia berlomba-lomba membuat pagar pengaman regulasi untuk pengembangan kecerdasan buatan.
Pemerintah AS masuk ke dalam perjanjian dengan perusahaan kecerdasan buatan dan Presiden Amerika Serikat Joe Biden kemudian mengarahkan lembaga pemerintah untuk membuat aturan keamanan kecerdasan buatan.
Sementara itu, Uni Eropa telah menerbitkan prinsip-prinsip kecerdasan buatan dan masih berjuang untuk meloloskan Undang-Undang kecerdasan buatannya. Demikian disiarkan The Verge, Minggu (19/11) waktu setempat.
Baca juga: WhatsApp telah miliki lebih dari 500 juta pengguna di fitur "Saluran"
Baca juga: Meta luncurkan alat pengeditan video berbasis kecerdasan buatan
Baca juga: Uni Eropa minta Meta dan Snap segera rincikan upaya perlindungan anak
Penerjemah: Fathur Rochman
Editor: Maria Rosari Dwi Putri
Copyright © ANTARA 2023