Hai teman-teman, selamat datang di buletin AI reguler TechCrunch. Jika Anda ingin ini ada di kotak masuk Anda setiap hari Rabu, hancurkan tautannya dan daftar di sini.

Minggu lalu, OpenAI meluncurkan Mode Suara Tingkat Lanjut dengan Vision, yang menyalurkan video real-time ke ChatGPT, memungkinkan chatbot untuk “melihat” di luar batas lapisan aplikasinya. Premisnya adalah dengan memberikan kesadaran kontekstual yang lebih besar kepada ChatGPT, bot tersebut dapat merespons dengan cara yang lebih alami dan intuitif.

Tapi pertama kali saya mencobanya, saya berbohong.

“Sofa itu kelihatannya nyaman!” ChatGPT berkata sambil mengangkat ponselku dan meminta bot untuk mendeskripsikan ruang tamu kami. Ia salah mengira ottoman sebagai sofa.

“Kesalahanku!” Kata ChatGPT saat saya koreksi. “Yah, sepertinya tempat ini masih nyaman.”

Sudah hampir setahun sejak OpenAI pertama kali mendemonstrasikan Mode Suara Tingkat Lanjut dengan Vision, yang oleh perusahaan disebut sebagai langkah menuju AI seperti yang digambarkan dalam film Spike Jonze “Her.” Cara OpenAI menjualnya, Mode Suara Tingkat Lanjut dengan Vision akan memberikan kekuatan super pada ChatGPT — memungkinkan bot memecahkan soal matematika yang dibuat sketsa, membaca emosi, dan merespons surat yang penuh kasih sayang.

Apakah semua itu sudah tercapai? Lebih kurang. Namun Mode Suara Tingkat Lanjut dengan Vision belum memecahkan masalah terbesar ChatGPT: keandalan. Bahkan, fitur tersebut membuat halusinasi bot menjadi lebih jelas.

Pada satu titik, penasaran untuk melihat apakah Mode Suara Tingkat Lanjut dengan Vision dapat membantu ChatGPT menawarkan…

Tautan sumber

TINGGALKAN KOMENTAR

Silakan masukkan komentar anda!
Silakan masukkan nama Anda di sini