OpenAI akhirnya merilis kemampuan video real-time untuk ChatGPT yang didemonstrasikannya hampir tujuh bulan lalu.

Pada hari Kamis saat siaran langsung, perusahaan mengatakan bahwa Mode Suara Tingkat Lanjut, fitur percakapan mirip manusia untuk ChatGPT, mulai terlihat. Dengan menggunakan aplikasi ChatGPT, pengguna yang berlangganan ChatGPT Plus atau Pro dapat mengarahkan ponsel cerdas mereka ke objek dan membuat ChatGPT merespons hampir secara real-time.

Mode Suara Tingkat Lanjut dengan penglihatan juga dapat memahami apa yang ada di layar perangkat, melalui berbagi layar. Dapat menjelaskan berbagai menu pengaturan atau memberikan saran pada soal matematika.

Dalam demo baru-baru ini di 60 Minutes CNN, presiden OpenAI Greg Brockman menggunakan Mode Suara Tingkat Lanjut dengan kuis visi Anderson Cooper tentang keterampilan anatominya. Saat Cooper menggambar bagian tubuh di papan tulis, ChatGPT dapat “memahami” apa yang dia gambar.

Kredit Gambar:OpenAI

“Lokasinya tepat,” kata asisten itu. “Otaknya ada di kepala. Dari segi bentuknya, ini awal yang bagus. Otaknya lebih berbentuk oval.”

Namun, dalam demo yang sama, Mode Suara Tingkat Lanjut dengan penglihatan membuat kesalahan pada masalah geometri — menunjukkan bahwa ia rentan terhadap halusinasi.

Mode Suara Tingkat Lanjut dengan penglihatan telah ditunda beberapa kali — dilaporkan sebagian karena OpenAI mengumumkan fitur tersebut jauh sebelum siap produksi. Pada bulan April, OpenAI berjanji bahwa Mode Suara Tingkat Lanjut akan diluncurkan kepada pengguna “dalam…

Tautan sumber

TINGGALKAN KOMENTAR

Silakan masukkan komentar anda!
Silakan masukkan nama Anda di sini