Skip to main content

Meta, daha önce görmediği nesneleri algılayabilen ve tanımlayabilen yeni yapay zekâ modelini tanıttı.

Yapay zekânın normalde nesneleri algılayabilmesi için mevcut materyaller üzerinde eğitilmesi gerekiyor ancak Meta’nın yeni yapay zekâ modeli, yardım almadan nesneleri algılayabiliyor.

Sosyal medya devi, eğitim setinin bir parçası olmasalar bile resim ve videolardaki nesneleri algılayabilen “Segment Anything Model” kısaca SAM adlı yeni yapay zekâ modelini yayımladı. Bu yapay zekâ modelinde nesneler, tıklanarak ya da serbest metin komutları kullanılarak seçilebiliyor. Reuters’ın da belirttiği gibi, SAM’in tanıtım gösterisinde “kedi” kelimesi yazılıyor ve SAM belirli bir fotoğraftaki tüm kedileri vurgulayabiliyor.

Diğer modellerle birlikte de çalışabilen SAM, tek bir görüntü kullanarak bir nesnenin 3D olarak yeniden oluşturulmasına yardımcı olabiliyor veya karma gerçeklik başlığından alınan görüntülerden yararlanabiliyor. Etkili bir şekilde, Segment Anything Model’ın harici yapay zekâ eğitimi ihtiyacını sınırlayabileceği belirtiliyor.

Hem yapay zekâ modeli hem de veri seti ticari olmayan bir lisansla indirilebiliyor. Yani içerik oluşturucular bu modeli kullanamayacak. SAM şimdilik araştırma ve teknolojiye erişimi genişletmek için kullanılacak. Şu anda Meta, yasaklanmış içeriği denetlemek, gönderileri önermek ve fotoğrafları etiketlemek için benzer bir teknoloji kullanıyor.

Geliştiriciler mevcut modelin kusurlu olduğunu kabul ediyor. Modelin mevcut hali daha ince ayrıntıları gözden kaçırabiliyor ve sınırları algılamada bazı modeller kadar doğru çalışamayabiliyor.

Bununla birlikte Segment Anything Model, komutları gerçek zamanlı olarak işleyebilirken, zorlu görüntü işleme söz konusu olduğunda çıkmaza giriyor. Meta, daha özel bazı yapay zekâ araçlarının kendi alanlarında bu modelden daha iyi performans gösterebileceğini söylüyor.

Kaynak: Meta shares AI model that can detect objects it hasn’t seen before – engadget