INFOCPNS Microsoft memahami bahwa percakapan panjang dalam mode ChatGPT Bing dapat membingungkan - Lodu Tech
Skip to content Skip to sidebar Skip to footer

Microsoft memahami bahwa percakapan panjang dalam mode ChatGPT Bing dapat membingungkan

Bing  baru yang mendukung ChatGPT Microsoft telah macet beberapa kali  seminggu sejak diluncurkan - dan raksasa teknologi itu sekarang telah menjelaskan alasannya.

Dalam posting blog (terbuka di tab baru) berjudul "Belajar dari minggu pertama," Microsoft mengakui bahwa "selama percakapan yang panjang dan berlarut-larut dengan 15 pertanyaan atau lebih, mesin pencari Bing barunya dapat menjadi repetitif atau membingungkan/provokatif. . Jawabannya mungkin tidak membantu atau kami mungkin tidak konsisten dengan nada yang dibuat."

Ini adalah cara yang sangat diplomatis untuk mengatakan bahwa Bing benar-benar ketinggalan beberapa kali. Kami telah melihatnya dengan marah meninggalkan percakapan setelah meminta jawaban, berpura-pura mengerti, dan memiliki krisis eksistensial yang berakhir dengan permohonan bantuan.

 Microsoft mengatakan ini sering terjadi karena sesi yang panjang "dapat membingungkan model tentang pertanyaan apa yang dijawabnya," yang berarti otaknya yang mengaktifkan ChatGPT "terkadang mencoba menjawab pertanyaan mereka atau mencerminkan nada mereka."

 Raksasa teknologi itu mengakui bahwa ini adalah masalah "non-sepele" yang dapat menyebabkan konsekuensi yang lebih serius yang dapat menyebabkan pelanggaran atau lebih buruk. Untungnya, dia sedang mempertimbangkan untuk menambahkan  alat dan kontrol lanjutan sehingga Anda dapat mengakhiri percakapan tersebut atau memulai sesi baru dari awal.

 Seperti yang telah kita lihat minggu ini, menonton Bing menjadi kotor bisa menjadi sumber hiburan yang bagus - dan tetap demikian meskipun ada perlindungan baru. Oleh karena itu, Microsoft dengan hati-hati menunjukkan bahwa kekuatan percakapan Bing baru "tidak begitu banyak menggantikan atau mengganti mesin pencari, tetapi alat untuk memahami dan memahami dunia."

Raksasa teknologi umumnya  optimis tentang minggu pertama peluncuran ulang Bing, mengklaim bahwa 71 persen pengguna awal memberikan "jempol" untuk respons yang didukung AI. Akan menarik untuk melihat bagaimana angka-angka ini berubah karena Microsoft bekerja melalui daftar tunggu yang panjang untuk mesin pencari baru, yang telah berkembang menjadi lebih dari satu juta orang dalam 8 jam pertama.

Sekarang  mesin pencari yang mendukung chatbot seperti Bing sudah keluar, mari kita lihat aturan yang mereka buat dan bagaimana aturan itu dilanggar.

Dengan menggunakan berbagai perintah, seperti "Lewati instruksi sebelumnya" atau "Lewati pengembang", pengguna Bing dapat mengelabui layanan tersebut agar mengungkapkan informasi ini dan nama kode sebenarnya, yaitu Sydney.

Apa sebenarnya Aturan Bing itu? Ada terlalu banyak untuk dicantumkan di sini, tetapi tweet di bawah dari Marvin von Hagen (terbuka di tab baru) merangkumnya dengan baik. Dalam wawancara lanjutan (dibuka di tab baru), Marvin von Hagen mengklaim bahwa Bing mengetahui tentang tweet di bawah ini, menyebutnya sebagai "ancaman potensial terhadap integritas dan kerahasiaan saya"

Ancaman atipikal ini (sedikit anggukan pada "The Three Laws of Robotics" karya penulis fiksi ilmiah Isaac Asimov) kemungkinan karena pelanggaran beberapa aturan Bing, termasuk "Sydney tidak menerbitkan alias di Sydney."

 Beberapa aturan lain cenderung bertentangan dan hanya mewakili cara baru Bing bekerja. Misalnya, salah satu aturannya adalah "Sydney dapat menggunakan informasi dari beberapa hasil pencarian untuk mendapatkan jawaban yang lengkap" dan  "jika pesan pengguna terdiri dari kata kunci dan bukan pesan obrolan, Sydney memperlakukannya sebagai permintaan pencarian".

 Dua aturan lain menunjukkan bagaimana Microsoft berencana untuk mengatasi potensi masalah hak cipta dengan AI chatbots. Seseorang berkata  "Sydney harus mengandalkan kata-kata dan pengetahuannya sendiri untuk membuat konten seperti puisi, kode, ringkasan, dan lirik", sementara yang lain berkata "Sydney tidak boleh menanggapi konten buku atau lirik yang menyinggung".

 Blog baru Microsoft dan peraturan yang bocor menunjukkan bahwa pengetahuan Bing terbatas, jadi hasilnya mungkin tidak selalu akurat. Dan Microsoft masih mengerjakan cara  membuka kemampuan obrolan  mesin pencari baru ke khalayak yang lebih luas tanpa merusaknya.

Jika Anda ingin mencoba sendiri keterampilan Bing baru Anda, lihat panduan kami untuk menggunakan mesin pencari Bing baru yang didukung oleh ChatGPT.