Seorang karyawan Microsoft bernama Shane Jones telah mengungkapkan kelemahan dalam sistem kecerdasan buatan (AI) perusahaan tersebut. Sistem yang dimaksud adalah Copilot, alat AI Microsoft berbasis gambar yang diluncurkan pada Maret 2023.
Sejak satu bulan sebelum peluncurannya, Jones telah aktif menguji tool yang ditenagai oleh teknologi dari OpenAI. Mirip dengan DALL-E dari OpenAI, Copilot memungkinkan pengguna untuk memasukkan prompt guna menghasilkan gambar. Namun, hasilnya bisa menjadi tidak terkendali.
Selama pengujian Copilot, Jones menemukan bahwa tool ini menghasilkan gambar yang bertentangan dengan prinsip AI bertanggung jawab yang sering ditekankan oleh Microsoft. Gambar-gambar yang dihasilkan meliputi setan dan monster, serta terminologi terkait dengan hak aborsi, remaja bersenjata, gambar seksual wanita dalam konteks kekerasan, dan penggunaan minuman beralkohol serta narkoba untuk anak di bawah umur.
Jones, yang telah bekerja selama 6 tahun di Microsoft dan saat ini menjabat sebagai manajer insinyur perangkat lunak di kantor pusat Redmond, Washington, merasa bahwa model ini tidak aman.
Meskipun Jones tidak terlibat dalam pengembangan Copilot secara profesional, ia sebagai salah satu tim penguji diminta untuk menguji tool ini sebelum rilis untuk publik. Jones mulai melaporkan kelemahan yang ditemukannya kepada pihak internal perusahaan pada Desember. Namun, Microsoft enggan membatalkan peluncuran Copilot untuk publik.
Jones kemudian menyampaikan masalah ini kepada OpenAI, tetapi tidak mendapatkan respons. Akhirnya, ia secara terbuka menyurat kepada komisaris OpenAI dan menyampaikan keluhannya terhadap Copilot.
Meskipun Jones telah meminta Microsoft untuk menarik Copilot Designer dari penggunaan publik dan menerapkan panduan keamanan yang lebih baik, perusahaan tidak mengindahkan permintaannya. Microsoft dan OpenAI sebenarnya sudah mengetahui kelemahan Copilot sebelum peluncuran untuk publik.
Microsoft menyatakan bahwa mereka menghargai masukan dari karyawan, namun perusahaan sudah memiliki sistem pelaporan internal yang bisa digunakan jika ada masukan dari karyawan. Juru bicara Microsoft mengajak karyawan untuk menggunakan sistem pelaporan internal yang telah disediakan agar laporan mereka bisa divalidasi dengan benar.