Skip to main content

Google’ın çatı şirketi Alphabet, çalışanlarını yapay zekâ chatbot’larına karşı dikkatli olmaları konusunda uyardı.

Google’ın çatı şirketi Alphabet, çalışanlarına Google tarafından oluşturulan ve işletilen üretken yapay zekâ chatbot’u Bard’a gizli bilgileri girmemelerini söyledi. Reuters’ın haberine göre, şirketin uyarısı OpenAI’dan Microsoft destekli ChatGPT gibi diğer chatbot’ları da kapsıyor.

Yapay zekâ destekli chatbot’lar, insan benzeri bir şekilde sohbet etme, makale ve rapor yazma ve hatta akademik testlerde başarılı olma gibi etkileyici yetenekleri nedeniyle son aylarda büyük ilgi toplasa da Alphabet’in gizlilik konusunda endişeleri var. Çünkü yapay zekâ şirketleri, kullanıcılar ve chatbot arasındaki konuşmaların içeriğini depoluyor. Yapay zekâ şirketlerinin yapay zekâ sistemlerini geliştirmek için depolanan bu konuşmalar, şirketin çeşitli bilgilerini içerebileceği ve sonrasında moderatörler tarafından da görülebileceği için büyük bir tehlike oluşturuyor. Alphabet de ticari sırların ifşa edilmesinden endişe duyuyor.

Reuters’a göre Alphabet, mühendislerini chatbot’ların oluşturabileceği bilgisayar kodunun doğrudan kullanımından kaçınmaları konusunda da uyardı. Şirket, Bard’ın istenmeyen kod önerilerinde bulunabileceğini, ancak yine de programcılara yardımcı olduğunu söyledi. Bununla birlikte Google, Reuters’a teknolojisinin sınırlamaları konusunda şeffaf olmayı hedeflediğini belirtti.

Çalışanlarını chatbot’ların kullanımına bağlı gizlilik ve güvenlik riskleri konusunda uyaran tek şirketin Alphabet olmadığını belirtelim. Samsung, kısa bir süre önce ChatGPT veri sızıntısını tespit ettikten sonra personelinin yapay zekâ kullanımını yasaklamıştı. Aynı şekilde Apple da gizli bilgileri sızdırabileceği endişesiyle çalışanlarının ChatGPT kullanmasını kısıtlamıştı.

Kaynak: Google parent Alphabet tells workers to be wary of AI chatbots – digitaltrends