Yapay zekâ alanında gündemden düşmeyen OpenAI; Bret Taylor, Adam D’Angelo, Nicole Seligman ve Sam Altman tarafından yönetilen bir Güvenlik ve Emniyet Komitesi kurduğunu duyurdu.
Dün yayımlanan blog yazısında paylaşılan bilgilere göre söz konusu komite, yönetim kuruluna şirketin projeleri ve operasyonları için alınacak kritik güvenlik kararları konusunda tavsiyelerde bulunmaktan sorumlu olacak.
OpenAI Board forms Safety and Security Committee, responsible for making recommendations on critical safety and security decisions for all OpenAI projects. https://t.co/tsTybFIl7o
— OpenAI (@OpenAI) May 28, 2024
Güvenlik ve Emniyet Komitesi’nin ilk görevi, önümüzdeki 90 gün boyunca OpenAI’ın süreçlerini ve güvenlik önlemlerini değerlendirmek ve geliştirmek olacak. 90 günün sonunda, tavsiyelerini güvenlik ekibinin üç liderinin de üyesi olduğu OpenAI yönetim kuruluna sunacak. Yönetim kurulu daha sonra güvenlik ekibinin tavsiyelerinin nasıl uygulanacağına karar verecek ve bunları “güvenlik önlemleri kapsamında” kamuoyuna açıklayacak.
Öte yandan OpenAI’ın teknik ve politika uzmanları Aleksander Madry, Lilian Weng, John Schulman, Matt Knight ve Jakub Pachocki de komitede yer alacak.
Güvenlik ve Emniyet Komitesi’nin yanı sıra, yeni bir yapay zekâ modelinin eğitimine başladığını da duyuran şirket, blog yazısında, “OpenAI yakın zamanda bir sonraki öncü modelini eğitmeye başladı ve ortaya çıkan sistemlerin bizi AGI (genel yapay zekâ) yolunda bir sonraki yetenek seviyesine getireceğini öngörüyoruz” ifadelerine yer verdi.
Şirket, yeni modelin adı hakkında bir açıklama yapmadı ancak GPT-4o sonrasında çıkacak modelin GPT-5 olması olası.
Kaynak: OpenAI has a new safety team — it’s run by Sam Altman – The Verge
Yorumlar