Meta ve Austin’deki Texas Üniversitesi’nden bir küme araştırmacı, Metaverse için ortak bir çalışma başlattılar.
Meta Yapay Zeka Araştırma Yöneticisi Kristen Garuman’ın açıklamasına nazaran artırılmış ve sanal gerçeklik (AR ve VR) için birlikte çalışacak bu grup, sanal görünümlerin gerçek hayattan ayırt edilemeyecek halde görünmesi için bilhassa ses üzerine ağırlaşacak. Garuman, yaptığı açıklamada bunun nedenini “ses, içinde bulunduğu ortam tarafından şekillendirilir” diyerek açıkladı. Ayrıyeten bir odanın geometrisi, kelam konusu odada ne olduğu ve birinin bir kaynaktan ne kadar uzakta olduğu üzere şeylerin ses ile anlaşılabileceğini belirtti.
Meta bu gayeyle hem sesi hem de görüntüyü tek bir yerden ileten AR gözlükleri kullanmayı, akabinde bir dizi yapay zeka modelini kullanarak kaydı dönüştürmeyi ve optimize etmeyi hedefliyor. Böylelikle bir görüntü oynatıldığında olaylar çabucak önünüzde gerçekleşiyor üzere hissedebileceksiniz. Konutta dar bir alanda dahi olsanız yapay zeka modelleri bulunduğunuz odayı hesaba katacak ve çabucak etrafa ahenk sağlayarak size manzarayı aktaracak.
Meta’nın uzun vakittir AR gözlüklerine odaklandığı biliniyor. Geçtiğimiz günlerde Mark Zunckerberg tarafından birtakım gözlüklerin prototipleri de tanıtılmıştı.
Meta, bu projesiyle Metraverse’de konser üzere bir ortamın manzaralarını ve seslerini aktararak şahsen oradaymışsınız üzere hissetmenizi sağlayacak.
GERÇEKLİK İÇİN YAPAY ZEKADAN YARARLANILACAK
Meta, “Görsel Akustik Eşleştirme modeli” ya da kısa ismiyle AViTAR formülünü kullanarak bu gayesinde muvaffakiyete ulaşmayı hedefliyor. AViTAR, sesi yeni bir ortama uyacak biçimde dönüştürmek için yapay zekadan yararlanıyor.
Meta, ilerleyen vakitlerde ise herkesin bir çift AR gözlükle görüntü kaydederek anıların her vakit canlı kalacağı bir proje üzerinde çalışıyor. AR gözlükle kayıt altına alınan görüntüler daha sonra tekrar izlendiğinde yapay zeka yardımıyla o anlar tekrar yaşanabilecek.