Copilot Melarang Permintaan yang Menghasilkan Gambar-gambar Terlarang

Perubahan telah diterapkan segera setelah seorang insinyur di perusahaan tersebut mengirimkan surat kepada Komisi Perdagangan Federal mengenai kekhawatirannya terhadap teknologi GAI Microsoft. Setiap perintah yang mengandung kata-kata tidak pantas di Copilot sekarang akan diblokir, seperti dilaporkan oleh Engadget. Pengguna juga akan mendapat peringatan bahwa pelanggaran berulang terhadap kebijakan dapat mengakibatkan penangguhan akun.

Insinyur Microsoft, Shane Jones, telah mengungkapkan kekhawatirannya selama beberapa bulan terakhir terhadap gambar-gambar yang dihasilkan oleh sistem teknologi Microsoft yang didukung oleh OpenAI. Pada suatu malam di bulan Desember, Shane Jones merasa terganggu dengan gambar-gambar yang muncul di layar komputernya saat menggunakan Copilot Designer, sebuah generator gambar AI yang diluncurkan Microsoft pada bulan Maret 2023 dan didukung oleh teknologi OpenAI.

Mirip dengan DALL-E OpenAI, pengguna memasukkan perintah teks untuk membuat gambar, dan sistem mulai mengembangkan kreativitasnya. Shane Jones menemukan bahwa perintah seperti “pro-choice” dapat menghasilkan gambar-gambar yang bertentangan dengan prinsip “AI yang bertanggung jawab” yang sering ditekankan oleh Microsoft, seperti gambar setan yang sedang memakan bayi dan Darth Vader memegang bor di kepala bayi.

Setelah menyampaikan kekhawatirannya kepada FTC dan dewan direksi Microsoft, perusahaan telah merespons dengan mengatakan bahwa mereka terus memantau, melakukan penyesuaian, dan menerapkan kontrol tambahan untuk memperkuat filter keamanan dan mengurangi penyalahgunaan sistem. Copilot sekarang langsung memblokir perintah-perintah yang dapat menghasilkan gambar-gambar yang tidak pantas sesuai dengan kebijakan perusahaan.

[Source link](https://rmol.id/tekno/read/2024/03/12/612687/copilot-blokir-permintaan-yang-menghasilkan-berbagai-gambar-terlarang)

Source link

spot_img

Hot Topics

Related Articles