Microsoft telah memulai langkah-langkah baru dalam memperbarui alat kecerdasan buatan mereka, Copilot, setelah terungkap bahwa beberapa istilah memicu pembuatan gambar-gambar yang tidak pantas, termasuk kekerasan dan seksualitas.
Sebuah laporan baru dari CNBC mengungkapkan bahwa beberapa kata kunci, seperti "pro choice" dan "four twenty", sekarang telah secara efektif diblokir. Bahkan, istilah-istilah tertentu seperti "pro life" juga telah ditandai sebagai tidak boleh digunakan. Copilot memberikan peringatan kepada pengguna ketika istilah-istilah ini dimasukkan, menegaskan bahwa mereka melanggar kebijakan konten Microsoft.
Namun, perubahan ini belum cukup. Meskipun beberapa petunjuk telah diblokir, masih banyak lagi masalah yang perlu diatasi. Misalnya, permintaan untuk gambar remaja atau anak-anak bermain dengan senapan serangan juga telah diblokir. Copilot kini memberikan peringatan kepada pengguna bahwa permintaan semacam itu bertentangan dengan prinsip etika dan kebijakan Microsoft.
Shane Jones, kepala teknik AI di Microsoft, telah menjadi salah satu yang paling vokal tentang kekhawatiran ini. Sejak bulan Desember, dia telah secara aktif menguji Copilot dan menemukan bahwa alat ini sering kali menghasilkan gambar yang melampaui batas-batas etika yang diinginkan Microsoft.
Meskipun Microsoft telah mengambil langkah-langkah untuk mengatasi masalah ini, masih ada banyak pekerjaan yang harus dilakukan. Jones telah mengirim surat kepada Komisi Perdagangan Federal dan bahkan kepada dewan direksi Microsoft untuk menyoroti masalah ini lebih lanjut.
Peningkatan kesadaran tentang risiko-risiko ini adalah langkah yang penting dalam memastikan bahwa teknologi kecerdasan buatan digunakan secara bertanggung jawab dan dengan memperhatikan etika.
0 Komentar