AI generatif mungkin terlihat ajaib, namun di balik pengembangan sistem ini terdapat sekelompok karyawan di perusahaan seperti Google, OpenAI, dan lainnya, yang dikenal sebagai “insinyur cepat” dan analis, yang menilai keakuratan keluaran chatbots untuk meningkatkan AI mereka.

Namun pedoman internal baru yang diturunkan dari Google kepada kontraktor yang mengerjakan Gemini, yang dilihat oleh TechCrunch, telah menimbulkan kekhawatiran bahwa Gemini mungkin lebih rentan untuk menyebarkan informasi yang tidak akurat tentang topik yang sangat sensitif, seperti perawatan kesehatan, kepada orang-orang biasa.

Untuk meningkatkan Gemini, kontraktor yang bekerja sama dengan GlobalLogic, sebuah perusahaan outsourcing yang dimiliki oleh Hitachi, secara rutin diminta untuk mengevaluasi respons yang dihasilkan AI berdasarkan faktor-faktor seperti “kejujuran.”

Hingga baru-baru ini, para kontraktor tersebut mampu “melewatkan” perintah-perintah tertentu, dan dengan demikian memilih untuk tidak mengevaluasi berbagai respons tertulis AI terhadap perintah-perintah tersebut, jika perintah tersebut jauh di luar keahlian domain mereka. Misalnya, seorang kontraktor dapat melewatkan pertanyaan yang menanyakan pertanyaan khusus tentang kardiologi karena kontraktor tersebut tidak memiliki latar belakang ilmiah.

Namun minggu lalu, GlobalLogic mengumumkan perubahan dari Google bahwa kontraktor tidak lagi diizinkan untuk melewatkan perintah tersebut, terlepas dari keahlian mereka.

Korespondensi internal yang dilihat oleh TechCrunch menunjukkan bahwa sebelumnya, pedoman tersebut berbunyi: “Jika Anda tidak memiliki keahlian penting (misalnya coding, matematika) untuk menilai permintaan ini, silakan lewati ini…

Tautan sumber

TINGGALKAN KOMENTAR

Silakan masukkan komentar anda!
Silakan masukkan nama Anda di sini