Amazon Web Services (AWS), divisi komputasi awan Amazon, meluncurkan alat baru untuk memerangi halusinasi — yaitu skenario di mana model AI berperilaku tidak dapat diandalkan.
Diumumkan pada konferensi AWS re:Invent 2024 di Las Vegas, layanan ini, pemeriksaan Penalaran Otomatis, memvalidasi respons model dengan mereferensikan silang informasi yang disediakan pelanggan untuk mengetahui keakuratannya. AWS mengklaim dalam siaran persnya bahwa pemeriksaan Penalaran Otomatis adalah perlindungan “pertama” dan “satu-satunya” untuk halusinasi.
Tapi itu, yah… dengan kata lain.
Pemeriksaan Penalaran Otomatis hampir identik dengan fitur Koreksi yang diluncurkan Microsoft musim panas ini, yang juga menandai teks yang dihasilkan AI yang mungkin salah secara faktual. Google juga menawarkan alat di Vertex AI, platform pengembangan AI-nya, yang memungkinkan pelanggan “mendasarkan” model dengan menggunakan data dari penyedia pihak ketiga, kumpulan data mereka sendiri, atau Google Penelusuran.
Bagaimanapun, pemeriksaan Penalaran Otomatis, yang tersedia melalui layanan hosting model Batuan Dasar AWS (khususnya alat Pagar Pembatas), berupaya mencari tahu bagaimana model sampai pada suatu jawaban — dan membedakan apakah jawabannya benar. Pelanggan mengunggah informasi untuk menetapkan kebenaran dasar, dan Penalaran Otomatis memeriksa dan membuat aturan yang kemudian dapat disempurnakan dan diterapkan pada model.
Saat model menghasilkan tanggapan, Pemeriksaan Penalaran Otomatis memverifikasinya, dan, jika ada kemungkinan halusinasi,…