Jakarta (ANTARA) - OpenAI akan membagikan akses awal terhadap model kecerdasan buatan (AI) terbarunya kepada lembaga US Artificial Intelligence Safety Institute sebagai upaya menjamin keamanan teknologi tersebut.
Dilansir Engadget pada Jumat, pernyataan tersebut disampaikan oleh CEO OpenAI Sam Altman di mana perusahaan akan bekerja sama dengan lembaga tersebut untuk mendorong kemajuan ilmu evaluasi AI.
Diketahui, US Artificial Intelligence Safety Institute dibentuk oleh National Institute of Standards and Technology (NIST) pada awal tahun ini sebagai tindak lanjut dari pengumuman wakil presiden AS Kamala Harris mengenai lembaga tersebut di ajang UK AI Safety Summit pada 2023.
Baca juga: OpenAI rilis mode suara lanjutan untuk sejumlah pengguna ChatGPT Plus
Lembaga tersebut bertugas untuk mengembangkan pedoman dan standar berbasis ilmu pengetahuan serta didukung secara empiris terkait penilaian dan kebijakan AI, sebagai dasar untuk menjamin keamanan AI di seluruh dunia.
Pada tahun lalu, OpenAI dan DeepMind telah berkomitmen untuk membagikan model AI besutannya kepada pemerintah Inggris. Langkah ini dilakukan di tengah kekhawatiran mengenai OpenAI yang diduga tidak memprioritaskan aspek keamanan dalam mengembangkan model AI mereka.
Diketahui, OpenAI tergabung dengan 15 perusahaan teknologi lainnya, termasuk Amazon, Anthropic, Google, Inflection, Meta, Microsoft, dan Apple, yang berkomitmen pada aturan dasar Gedung Putih untuk mengembangkan AI generatif pada Juli 2023.
Baca juga: Open AI luncurkan mesin pencari berbasis kecerdasan buatan SearchGPT
Gedung Putih menyebut ini sebagai langkah pertama menuju pengembangan AI yang aman, terjamin, dan dapat dipercaya oleh sejumlah perusahaan AI. Langkah kedua adalah perintah eksekutif Presiden Joe Biden tentang AI pada bulan Oktober, dan ada beberapa RUU yang saat ini sedang bergerak melalui legislatif federal dan negara bagian untuk lebih mengatur model AI.
Dalam komitmen tersebut, perusahaan AI berjanji untuk melakukan red-team (bertindak sebagai peretas lawan untuk menguji langkah-langkah keamanan organisasi) pada model AI sebelum dirilis ke publik dan membagikan informasi tersebut kepada publik.
Baca juga: OpenAI rilis GPT-4o mini, tawarkan performa cepat dan harga murah
Komitmen sukarela Gedung Putih juga meminta perusahaan AI untuk memperlakukan bobot model AI yang belum dirilis secara rahasia. Perusahaan AI sepakat untuk bekerja pada bobot model AI di lingkungan yang aman, membatasi akses ke bobot model hanya kepada sedikit karyawan.
Terakhir, perusahaan AI setuju untuk mengembangkan sistem pelabelan konten, seperti watermark, untuk membantu pengguna membedakan apa yang dihasilkan oleh AI dan yang tidak.
Baca juga: Pendiri OpenAI ciptakan platform edukasi berbasis AI
Baca juga: OpenAI dilaporkan sedang menggarap model AI lebih canggih
Penerjemah: Farhan Arda Nugraha
Editor: Siti Zulaikha
Copyright © ANTARA 2024