Comment était l'article ?

1516480vérification des cookiesLes jeux Unreal Engine 4 dotés du Ray-Tracing DXR sortiront fin 2018
Nouvelles de l'industrie
2018/03

Les jeux Unreal Engine 4 dotés du Ray-Tracing DXR sortiront fin 2018

La théorie de Ninja Hellblade Cela a peut-être été ou non la tasse de thé de certains joueurs, mais une chose était sans équivoque et incontestablement remarquable dans le projet : la capacité de traduire directement la capture de performances avec des graphismes de qualité cinématographique dans le moteur d'exécution en temps réel de l'Unreal Engine. Le pipeline de conception et d'animation de 4.

En termes simples, au lieu d'avoir un studio de capture de performances géant de style hollywoodien, suivez toutes les procédures de capture de voix et de mouvements dans un studio séparé, puis capturez les données et envoyez-les à l'équipe d'animation pour les nettoyer et les implémenter dans le jeu dans un autre studio, Ninja Theory a réussi à réaliser toute la capture des performances cinématographiques en interne et à l'enregistrer directement dans l'Unreal Engine 4 sans nécessiter de nettoyage, d'altération ou de modification par un tiers.

L'importance de cette étape est que le travail effectué par Ninja Theory sur la construction d'un injecteur pour Unreal Engine en collaboration avec 3Mouvement latéral et cubique leur a permis de construire un jeu comme Hellblade avec un budget bien moindre mais avec exactement le même type de qualité cinématographique que l'on trouve habituellement dans les jeux AAA avec des budgets de 100 millions de dollars. Tout cela pour une fraction du coût et sans perte de fidélité visuelle.

Eh bien, Epic aurait été négligent de laisser passer une opportunité de développer cette technologie pour l'Unreal Engine 4. Lors de la Game Developers Conference de cette année, le studio a dévoilé de nouveaux partenariats avec Tencent, Vicon, 3Lateral et Cubic Motion pour aider à améliorer le flux de conception créative au sein d'Unreal Engine 4 qui permet aux développeurs de capturer facilement et commodément les performances dans Unreal Engine 4 en temps réel à 60 images par seconde. Cela a été démontré avec Sirène, un modèle asiatique réaliste avec une fidélité de qualité CG fonctionnant en temps réel pendant l'exécution de l'Unreal Engine 4 à une cadence ininterrompue de 60 images par seconde. Vous pouvez voir la démonstration ci-dessous, gracieuseté de Engadget.

Comme indiqué dans la vidéo, le truquage facial fonctionne à l'unisson avec le pipeline d'animation procédurale pour permettre aux personnes qui ne ressemblent pas au modèle 3D d'agir et de jouer à la place du modèle initialement numérisé pour être utilisé dans le projet. Auparavant, l'acteur et le modèle numérisé en 3D devaient être la même personne pour éviter les différences de mouvement entre le modèle truqué et l'acteur réel.

La nouvelle technologie signifie que vous pouvez techniquement avoir un acteur jouant pour plusieurs personnages réalistes sans que des incongruités dimorphes n'apparaissent dans la passe d'animation finale. Vous pouvez consulter une version ininterrompue du Sirène démonstration ci-dessous.

Comme l'explique Epic Games, afin de poursuivre le long et ardu voyage hors de l'étrange vallée, beaucoup de travail a été consacré au modèle lui-même pour un rendu haut de gamme grâce à Cubic Motion et 3Lateral travaillant avec Epic pour améliorer la façon dont le Le modèle est rendu dans Unreal Engine. Cela inclut une rétrodiffusion souterraine améliorée afin que les parties les plus fines de la peau soient translucides dans des conditions d'éclairage spécifiques, ainsi que des réflexions spéculaires doubles pour un rendu plus doux des dégradés de lumière, des lumières dures aux lumières douces sur le visage d'un personnage, et l'irradiation de l'espace de l'écran pour aider à l'annulation. l'effet œil de poisson mort.

Epic permet aux concepteurs et aux artistes de diffuser les données d'animation Vicon à partir de la capture de performance directement dans le pipeline d'animation Unreal Engine. Donc, si vous souhaitez mélanger et associer différents acteurs de la vie réelle avec des acteurs 3D, vous pouvez le faire sans avoir à passer par le processus de va-et-vient consistant à transmettre les données à l'équipe d'animation, à les nettoyer, puis à les appliquer au pipeline du moteur. après avoir fait le travail en studio. Vous pouvez simplement voir les résultats immédiatement dans Unreal Engine, directement pendant le tournage.

Les progrès de ces techniques de capture de performances ont été démontrés par une performance de l'acteur hollywoodien vétéran Andy Serkis donnant une performance de Macbeth.

Grâce aux cibles haute fidélité de compression et de contraction musculaire en temps réel de 3Lateral, les animateurs ont la possibilité de modifier la performance d'un acteur à l'aide de l'ensemble d'outils d'animation en temps réel Unreal Engine 4.

Il est possible d'utiliser les ensembles de données d'animation sur n'importe quel modèle correctement truqué, même si le modèle lui-même n'a aucune ressemblance avec l'acteur. Cela rejoint ce qui a été mentionné précédemment à propos des outils d'animation adaptatifs utilisés par Vicon et Tencent pour le modèle asiatique, même lorsque l'actrice réelle ne ressemblait en rien au modèle numérisé en 3D. Epic a utilisé les données capturées lors de la performance Macbeth d'Andy Serkis et les a appliquées à un personnage extraterrestre fictif correctement configuré pour lire les ensembles de données. Les résultats sont assez impressionnants.

Certaines des mises à jour d'Unreal Engine 4 contenant un grand nombre de ces fonctionnalités seront disponibles à partir du 20 avril.

Cela s’applique également à l’étude approfondie d’Epic dans le rendu par lancer de rayons.

Après Hayssam Keilany a réussi à implémenter des techniques de traçage de chemin en temps réel dans les shaders pour des jeux comme GTA IV Il y a une demi-décennie, Epic a finalement intensifié son jeu et a réussi à obtenir un éclairage en temps réel réaliste grâce au lancer de rayons pour la source de lumière et les ombres multi-passes.

Epic a démontré cette technique avec un court métrage mettant en vedette Star Wars.

Le lancer de rayons en temps réel peut être très éprouvant, c'est pourquoi Epic s'est associé à Nvidia et Microsoft pour développer une nouvelle API appelée DXR, qui est un pipeline de lancer de rayons DirectX qui communique directement avec le GPU pour effectuer des tâches complexes d'éclairage et de shader en utilisant du matériel. technologie dépendante appelée RTX.

Selon Epic Games, certains jeux sortiront plus tard cette année en utilisant la technologie DXR de Microsoft et les nouveaux pipelines de lancer de rayons d'Epic Games.

Autres nouvelles de l'industrie