Selain itu, ada beberapa RUU yang sedang diproses di tingkat legislatif federal dan negara bagian untuk lebih mengatur model AI.
Dalam komitmen ini, perusahaan AI berjanji untuk melakukan red-team pada model AI sebelum dirilis ke publik.
Ini berarti mereka akan melakukan pengujian keamanan secara intensif dengan mensimulasikan serangan dari pihak lawan untuk memastikan keamanan model AI mereka.
Informasi hasil pengujian ini juga akan dibagikan kepada publik.
BACA JUGA:FIFA dan Indonesia Perkuat Kerja Sama Sepak Bola di Paris
BACA JUGA:Pemotor Terkena Bongkahan Batu dari Flyover Ciputat, Video Viral di Media Sosial
Komitmen ini juga meminta perusahaan AI untuk menjaga kerahasiaan bobot model AI yang belum dirilis.
Apple dan perusahaan lainnya sepakat untuk bekerja dengan bobot model AI di lingkungan yang aman dan membatasi akses hanya kepada sedikit karyawan.
Terakhir, perusahaan AI setuju untuk mengembangkan sistem pelabelan konten, seperti tanda air, untuk membantu pengguna membedakan antara konten yang dihasilkan oleh AI dan yang tidak.
Langkah ini diharapkan dapat meningkatkan transparansi dan kepercayaan pengguna terhadap teknologi AI.*
BACA JUGA:Polres Biak Numfor Respons Video Viral Dugaan Kekerasan terhadap Penginjil
BACA JUGA:Polisi Tangkap Dua Pelaku Tawuran Antarremaja di Lampung Selatan