Polacy chcą zrewolucjonizować proces tworzenia animacji 3D w filmach czy grach. Dzięki uczeniu maszynowemu będzie on tańszy i prostszy niż do tej pory

To może być przełom w renderowaniu, czyli automatycznej konwersji modeli szkieletowych na komputerze. Wysokiej jakości animacje są koniecznością w grach wideo czy filmach. Rozwiązania wykorzystywane w wirtualnej czy rozszerzonej rzeczywistości, obrazy generowane komputerowo zajmują dużo czasu, są przy tym drogie. Polacy chcą ułatwić powstawanie awatarów, wykorzystując do tego metodę uczenia się przy niskim poziomie zaawansowania. Z częściowych informacji uda się wówczas wygenerować realistycznie wyglądające wizualizacje.– Projekt „Realistyczne renderowanie postaci ludzi na podstawie niepełnej informacji” ma rozwiązać problem renderowania, czyli tworzenia grafiki komputerowej. Chcielibyśmy ten obraz generować metodami uczenia maszynowego, generatywnymi sieciami neuronowymi i kontrolować ten obraz – mówi agencji Newseria Innowacje dr hab. inż. Tomasz Trzciński, adiunkt na Wydziale Elektroniki i Technik Informacyjnych z Politechniki Warszawskiej.Wymagania świata filmu czy gier są coraz większe. Oznacza to konieczność wygenerowania lepszych jakości trójwymiarowych obrazów. Tradycyjnie wykorzystuje się przy tym techniki wirtualnej i rozszerzonej rzeczywistości, także obrazy generowane komputerowo. Wszystkie te techniki są jednak drogie, trudne do skalowania, a przy tym zajmują bardzo dużo czasu. Projekt Politechniki Warszawskiej „Low Shot Realistic Human Rendering from Partial Information” („Realistyczne renderowanie postaci ludzi na podstawie niepełnej informacji”), finansowany przez Microsoft Research Cambridge, może całkowicie zrewolucjonizować renderowanie.– Niepełna informacja, którą wykorzystujemy, polega na tym, że często podczas np. uchwytywania jakiejś klatki ze zdjęciem osoby nie mamy dostępu do jej pełnej sylwetki. Widzimy tylko część – od pasa w dół albo od pasa w górę, albo tylko ramiona – i w związku z tym chcielibyśmy rozwiązać ten problem przy wykorzystaniu generatywnych sieci neuronowych, takich jak wariacyjne autoenkodery czy architektury pozwalające na pewnego rodzaju domyślanie się reszty postaci przy wykorzystaniu danych, które już wcześniej miały tego typu ujęcia – tłumaczy dr hab. inż. Tomasz Trzciński.Polacy chcą do renderowania wykorzystać metody Partial Information (częściowe informacje) i Low-shot learning (uczenie się przy niskim poziomie zaawansowania) i w ten sposób tworzyć awatary. Generatywne modele sieci neuronowych pozwolą stworzyć wysokiej jakości wizualizacje postaci oraz animację ich ruchu.– Moim celem badawczym jest w tym momencie zaproponowanie takiego algorytmu, który byłby w stanie np. wyrenderować całą postać na podstawie tylko częściowych informacji. Lub np. inne zastosowanie w filmach, kiedy zadajemy jakąś trajektorię ruchu postaci, modelu trójwymiarowego i ta postać podąża za nią – wskazuje Kacper Kania, doktorant na Politechnice Warszawskiej.Według założeń, jak podaje Politechnika Warszawska, z częściowych informacji (np. fragmentu twarzy) i podstawowych, łatwych do zebrania danych, bez wykorzystywania skomplikowanych systemów wymagających wielu powtórzeń (w jednej z opisanych metod człowiek musi użyć 122 wyrażeń i 50 zdań oraz być rejestrowanym przez 40 kamer) – można wygenerować realistycznie wyglądające filmy (np. z pełną twarzą i mimiką oraz naturalnym sposobem mówienia).– Moje wstępne badania pokazały, że w tej działce brakuje rozwiązań, gdzie zadajemy jakiś ruch i postać podąża za tą trajektorią – to jest jedno. Drugie, okazuje się, że często widząc kogoś idącego na ulicy, jeśli to jest ktoś, kogo znamy, jesteśmy w stanie rozpoznać, że to jest nasz znajomy, po samym ruchu. I staram się też w tych badaniach wykorzystać te informacje – tłumaczy Kacper Kania.Zazwyczaj praca nad cyfrową postacią rozpoczyna się od skanu 3D twarzy czy ciała prawdziwej osoby wykonującej różne czynności przy wykorzystaniu specjalistycznego sprzętu, który następnie przetwarza grafik. Wymaga to studia przechwytywania ruchu. Tak powstał np. Gollum we Władcy Pierścieni. Rozwiązanie Polaków będzie tańsze, prostsze i szybsze. Pomoże też w sytuacji, gdy np. aktor nie może dokończyć filmu.– Za pomocą tego rozwiązania będzie można również odzwierciedlić w grach lub filmach, w jaki sposób np. zachowywałyby się postacie historyczne – mówi doktorant na Politechnice Warszawskiej.

Polacy chcą zrewolucjonizować proces tworzenia animacji 3D w filmach czy grach. Dzięki uczeniu maszynowemu będzie on tańszy i prostszy niż do tej pory

To może być przełom w renderowaniu, czyli automatycznej konwersji modeli szkieletowych na komputerze. Wysokiej jakości animacje są koniecznością w grach wideo czy filmach. Rozwiązania wykorzystywane w wirtualnej czy rozszerzonej rzeczywistości, obrazy generowane komputerowo zajmują dużo czasu, są przy tym drogie. Polacy chcą ułatwić powstawanie awatarów, wykorzystując do tego metodę uczenia się przy niskim poziomie zaawansowania. Z częściowych informacji uda się wówczas wygenerować realistycznie wyglądające wizualizacje.

– Projekt „Realistyczne renderowanie postaci ludzi na podstawie niepełnej informacji” ma rozwiązać problem renderowania, czyli tworzenia grafiki komputerowej. Chcielibyśmy ten obraz generować metodami uczenia maszynowego, generatywnymi sieciami neuronowymi i kontrolować ten obraz – mówi agencji Newseria Innowacje dr hab. inż. Tomasz Trzciński, adiunkt na Wydziale Elektroniki i Technik Informacyjnych z Politechniki Warszawskiej.

Wymagania świata filmu czy gier są coraz większe. Oznacza to konieczność wygenerowania lepszych jakości trójwymiarowych obrazów. Tradycyjnie wykorzystuje się przy tym techniki wirtualnej i rozszerzonej rzeczywistości, także obrazy generowane komputerowo. Wszystkie te techniki są jednak drogie, trudne do skalowania, a przy tym zajmują bardzo dużo czasu. Projekt Politechniki Warszawskiej „Low Shot Realistic Human Rendering from Partial Information” („Realistyczne renderowanie postaci ludzi na podstawie niepełnej informacji”), finansowany przez Microsoft Research Cambridge, może całkowicie zrewolucjonizować renderowanie.

– Niepełna informacja, którą wykorzystujemy, polega na tym, że często podczas np. uchwytywania jakiejś klatki ze zdjęciem osoby nie mamy dostępu do jej pełnej sylwetki. Widzimy tylko część – od pasa w dół albo od pasa w górę, albo tylko ramiona – i w związku z tym chcielibyśmy rozwiązać ten problem przy wykorzystaniu generatywnych sieci neuronowych, takich jak wariacyjne autoenkodery czy architektury pozwalające na pewnego rodzaju domyślanie się reszty postaci przy wykorzystaniu danych, które już wcześniej miały tego typu ujęcia – tłumaczy dr hab. inż. Tomasz Trzciński.

Polacy chcą do renderowania wykorzystać metody Partial Information (częściowe informacje) i Low-shot learning (uczenie się przy niskim poziomie zaawansowania) i w ten sposób tworzyć awatary. Generatywne modele sieci neuronowych pozwolą stworzyć wysokiej jakości wizualizacje postaci oraz animację ich ruchu.

– Moim celem badawczym jest w tym momencie zaproponowanie takiego algorytmu, który byłby w stanie np. wyrenderować całą postać na podstawie tylko częściowych informacji. Lub np. inne zastosowanie w filmach, kiedy zadajemy jakąś trajektorię ruchu postaci, modelu trójwymiarowego i ta postać podąża za nią – wskazuje Kacper Kania, doktorant na Politechnice Warszawskiej.

Według założeń, jak podaje Politechnika Warszawska, z częściowych informacji (np. fragmentu twarzy) i podstawowych, łatwych do zebrania danych, bez wykorzystywania skomplikowanych systemów wymagających wielu powtórzeń (w jednej z opisanych metod człowiek musi użyć 122 wyrażeń i 50 zdań oraz być rejestrowanym przez 40 kamer) – można wygenerować realistycznie wyglądające filmy (np. z pełną twarzą i mimiką oraz naturalnym sposobem mówienia).

– Moje wstępne badania pokazały, że w tej działce brakuje rozwiązań, gdzie zadajemy jakiś ruch i postać podąża za tą trajektorią – to jest jedno. Drugie, okazuje się, że często widząc kogoś idącego na ulicy, jeśli to jest ktoś, kogo znamy, jesteśmy w stanie rozpoznać, że to jest nasz znajomy, po samym ruchu. I staram się też w tych badaniach wykorzystać te informacje – tłumaczy Kacper Kania.

Zazwyczaj praca nad cyfrową postacią rozpoczyna się od skanu 3D twarzy czy ciała prawdziwej osoby wykonującej różne czynności przy wykorzystaniu specjalistycznego sprzętu, który następnie przetwarza grafik. Wymaga to studia przechwytywania ruchu. Tak powstał np. Gollum we Władcy Pierścieni. Rozwiązanie Polaków będzie tańsze, prostsze i szybsze. Pomoże też w sytuacji, gdy np. aktor nie może dokończyć filmu.

– Za pomocą tego rozwiązania będzie można również odzwierciedlić w grach lub filmach, w jaki sposób np. zachowywałyby się postacie historyczne – mówi doktorant na Politechnice Warszawskiej.