Les jeux 4 d'Unreal Engine dotés du Ray-Tracing DXR sortiront en fin de 2018

Unreal Engine 4 DXR

La théorie de Ninja Hellblade peut ou non avoir été la tasse de thé pour certains joueurs, mais une chose était sans équivoque et incontestablement remarquable à propos du projet: la possibilité de traduire directement la capture de performances avec des graphismes de qualité cinématographique dans le temps d'exécution en temps réel du moteur Unreal Engine Pipeline de conception et d'animation de 4.

En termes simples, au lieu d'avoir un studio de capture de performance géant à la Hollywood, suivez toutes les procédures de capture de la voix et du mouvement dans un studio séparé, puis capturez les données et envoyez-les à l'équipe d'animation pour les nettoyer. Le jeu dans un studio différent, Ninja Theory a réussi à faire toute la capture de performance cinématographique en interne et l'enregistrer directement dans l'Unreal Engine 4 sans nécessiter de nettoyage, de modifications ou de modifications par des tiers.

La signification de cette étape est que le travail que Ninja Theory a fait sur la construction d'un injecteur pour le moteur Unreal en collaboration avec 3Mouvement latéral et cubique leur a permis de construire un jeu comme Hellblade sur un budget beaucoup plus petit mais avec le même type de sortie de qualité cinématographique que l'on trouve généralement dans les jeux AAA avec des budgets de $ 100 millions de dollars. Tout est fait pour une fraction du coût et aucune perte de fidélité visuelle.

Eh bien, Epic aurait manqué de laisser passer l'occasion de profiter de cette technologie pour l'Unreal Engine 4. Au cours de la Game Developers Conference de cette année, le studio a dévoilé de nouveaux partenariats avec Tencent, Vicon, 3Lateral et Cubic Motion pour aider à améliorer le flux de conception créative dans Unreal Engine 4 qui permet aux développeurs de capturer facilement et commodément les performances dans Unreal Engine 4 en temps réel à 60 images par seconde. Cela a été démontré avec Sirène, un modèle asiatique réaliste avec une fidélité de qualité CG fonctionnant en temps réel dans le temps d'exécution de l'Unreal Engine 4 à 60 images par seconde sans interruption. Vous pouvez voir la démonstration ci-dessous, gracieuseté de Engadget.

Comme indiqué dans la vidéo, le gréement facial fonctionne à l'unisson avec le pipeline d'animation procédurale pour permettre aux personnes qui ne ressemblent pas au modèle 3D d'agir et de jouer à la place du modèle qui a été initialement numérisé pour être utilisé dans le projet. Auparavant, l'acteur et le modèle numérisé 3D devaient être la même personne pour éviter les écarts de mouvement entre le modèle truqué et l'acteur réel.

La nouvelle technologie signifie que vous pourriez techniquement avoir un acteur exécutant pour plusieurs personnages réalistes sans incongruités dimorphiques d'apparaître dans la passe d'animation finale. Vous pouvez consulter une version ininterrompue de la Sirène démonstration ci-dessous.

Comme expliqué par Epic Games, afin de continuer le long et ardu voyage hors de l'étrange vallée, beaucoup de travail a été mis dans le modèle lui-même pour un rendu haut de gamme grâce à Cubic Motion et 3Lateral travaillant avec Epic pour améliorer la façon dont le Le modèle est rendu dans Unreal Engine. Cela comprend une rétrodiffusion souterraine améliorée afin que les parties plus minces de la peau soient translucides dans des conditions d'éclairage spécifiques, ainsi que des réflexions spéculaires doubles pour un rendu plus doux des gradients de lumière allant des lumières dures à douces sur le visage d'un personnage, et l'irradiance de l'espace de l'écran pour aider à l'annulation. l'effet œil de poisson mort.

Epic permet aux concepteurs et aux artistes de diffuser des données d'animation Vicon depuis la capture de performance directement dans le pipeline d'animation Unreal Engine. Donc, si vous voulez mélanger et assortir différents acteurs de la vie réelle avec des acteurs 3D, vous pouvez le faire sans avoir à passer par le processus de transfert des données à l'équipe d'animation, le nettoyage et l'application sur le pipeline du moteur. après avoir fait le travail en studio. Vous pouvez juste voir les résultats tout de suite dans le moteur Unreal, juste là pendant le tournage.

Les progrès dans ces techniques de capture de performance ont été démontrés avec une performance du vétéran Hollywood acteur Andy Serkis donnant une performance de Macbeth.

En utilisant les cibles haute fidélité de compression en temps réel et de contraction musculaire de 3Lateral, les animateurs ont la possibilité de modifier les performances d'un acteur à l'aide du jeu d'outils d'animation en temps réel Unreal Engine 4.

Il est possible d'utiliser les ensembles de données d'animation sur n'importe quel modèle correctement truqué, même si le modèle lui-même n'a aucune ressemblance avec l'acteur. Cela rejoint ce qui a été mentionné précédemment à propos des outils d'animation adaptatifs utilisés par Vicon et Tencent pour le modèle asiatique, même lorsque l'actrice réelle ne ressemblait en rien au modèle numérisé en 3D. Epic a utilisé les données capturées de la performance Macbeth d'Andy Serkis et les a appliquées à un personnage extraterrestre fictif qui a été correctement truqué pour lire à partir des ensembles de données. Les résultats sont assez impressionnants.

Certaines des mises à jour pour l'Unreal Engine 4 contenant beaucoup de ces fonctionnalités seront disponibles à partir d'avril 20th.

Cela s'applique également à la plongée profonde d'Epic dans le rendu de rayon-trace.

Après Hayssam Keilany a réussi à mettre en œuvre des techniques de traçage de chemin en temps réel dans les shaders pour des jeux comme GTA IV Il y a une cinquantaine d'années, Epic a finalement intensifié son jeu et réussi à obtenir un éclairage en temps réel réaliste grâce au ray-tracing pour l'éclairage et les ombres en multi-passes.

Epic a démontré cette technique avec un court métrage Star Wars.

Epic en partenariat avec Nvidia et Microsoft pour développer une nouvelle API appelée DXR, qui est un pipeline de traçage de rayons DirectX qui parle directement au GPU pour effectuer des tâches d'éclairage et de shaders complexes en utilisant du matériel. Tech-dépendante appelée RTX.

Selon Epic Games, nous verrons certains jeux sortir plus tard cette année en utilisant la technologie DXR de Microsoft et les nouveaux pipelines de lancer de rayons d'Epic Games.