Skip to main content

Microsoft, 15 veya daha fazla sorudan oluşan uzun sohbet oturumlarında Bing’in ChatGPT yüzünden garipleşebileceğini söyledi.

Yapay zekâ destekli Bing arama motoru, Edge web tarayıcısı ve tarayıcıya entegre edilmiş olan sohbet özelliğini piyasaya sürdükten sadece bir hafta sonra Microsoft, ChatGPT ile ilgili teknolojiden kaynaklanan olgusal hatalar ve garip konuşmalarla ilgili sorunları gidermek için çalışıyor.

Yazılım devi, bir blog gönderisinde, daha uzun sohbetlerin Bing’i köşeye sıkıştırabileceğini söyledi. Ayrıca, Bing’in canlı maç skorları gibi “çok güncel verilere ihtiyaç duyan yanıtlar” sağlamakta zorlandığını da kabul etti. Microsoft, modelin finansal raporlardan alınan rakamlar gibi somut gerçekler gerektiren sorguları yanıtlamak için kullandığı veri miktarını dört katına çıkaracağını da ifade etti.

Şirket, gönderisinde “Sorunuza göre uyarlamak için yanıtın kesinliği ve yaratıcılığı üzerinde size daha fazla kontrol sağlayan bir geçiş eklemeyi düşünüyoruz” dedi.

Microsoft, doğruluk gerektiğinde yapay zekâ destekli yanıtları bir gerekçeye dayandırmak için kendi geliştirdiği Bing altyapısını kullanıyor. Ancak daha yaratıcı yanıtlar gerektiğinde iş ortağı ve ChatGPT’nin yaratıcısı OpenAI’nin dil teknolojisine güveniyor.

Microsoft, OpenAI teknolojisini ön plana ve merkeze koyan Bing’in yeni sohbet işlevinin, 15 veya daha fazla sorudan oluşan uzun sohbet oturumlarında garipleşebileceğini söyledi. Çünkü uzun sohbetler Bing’in kafasının karışmasına ve özellikle de sohbetlerin insani özelliklerini yansıtmak istediğinde istenmeyen yanıtlar vermesine neden olabiliyor. Örneğin Reddit’te Bing forumundaki kişiler, Bing’in çılgına döndüğünü gösteren davranışlara dikkat çekti. Fast Company’e göre ise Bing’in savunmaya geçtiği veya bir hatayı kabul etmediği durumlar da var.

Bu senaryonun her zaman gerçekleşmediğini söyleyen Microsoft, ayrıca yavaş yükleme, bozuk bağlantılar gibi teknik sorunları ele alacağını ve uçuş rezervasyonu, e-posta gönderme ve yanıtları paylaşma gibi yeni özellikler ekleyeceğini söylüyor.

Kaynak: Microsoft Will Try to Fix Bing AI’s Errors and Bizarre Chats – CNET