Variations in motions using space-time boundaries.

Animaties worden vaak hergebruikt voor veel verschillende karakters. Hierdoor hebben deze karakters allemaal dezelfde body language. Deze nieuwe paper stelt een techniek voor die het mogelijk maakt om op basis van één referentie-animatie verschillende variaties daarop te gaan genereren.

Werking

Het genereren van deze variaties is mogelijk dankzij een Deep Reinforcement Learning (DRL) framework dat physics gestuurde personages in staat stelt om motorische vaardigheden te leren en te verkennen op basis van referentiebewegingen die niet noodzakelijk van hoge kwaliteit moeten zijn.

Dit framework gebruikt losse space-time grenzen om stijlverkenning te doen. Deze grenzen worden bepaald op basis van een referentie-animatie. Ze zorgen ervoor dat de techniek kan leren van de motoriek van de beweging, en zo de bewegingen in een unieke stijl kan uitvoeren.

De grenzen zorgen ervoor dat de animatie nog steeds representatief is van de originele animatie, en deze op een natuurlijke manier uitvoert. Dit klinkt misschien complex, maar uiteindelijk is het vrij simpel.

Als voorbeeld nemen we een spring-animatie. Als we ons network hier, met relatief weinig grenzen variaties op zouden laten genereren, zou het vanalles en noch wat kunnen generen, een animatie die gewoon loopt en niet springt, een animatie die kilometers de lucht in springt, een animatie die veel te vroeg of te laat springt, etc. De grenzen zorgen ervoor dat, in dit geval, ons karakter een sprong uitvoert, maar dat hij bijvoorbeeld vrij is om meer of minder door de knieën te zakken, iets vroeger of later te springen of neer te komen, zijn armen meer of minder op te tillen in de lucht, en zo verder. Je kan je het voorstellen zoals op de afbeelding hierboven, hoe meer grenzen, en hoe kleiner de variatie binnen de grenzen, hoe dichter bij de originele animatie de variaties zullen zijn.

Verder hebben we controle over de resultaten via instelbare parameters, twee daarvan zijn lichaamsvolume en kinetische energie. Deze kan je laten variëren om zo nieuwe gevarieerde animaties samen te stellen.

Resultaten

De resultaten zien er in ieder geval veelbelovend uit. Direct inzetbaar in de industrie? Misschien nog niet onmiddellijk, maar parameters zoals lichaamsvolume en kinetische energie kunnen al een eerste stap zijn naar de tools die in de toekomst “automatische” animatie-customizatie zullen mogelijk maken.

Links

Meer informatie, inclusief de paper, en de code up github vind je hier: https://milkpku.github.io/project/spacetime.html