Top Qs
Chronologie
Chat
Contexte

High dynamic range rendering

De Wikipédia, l'encyclopédie libre

High dynamic range rendering
Remove ads

Le high dynamic range rendering ou HDR rendering (HDRR), est un effet de luminosité avancé qui simule le fonctionnement de la rétine utilisé dans la 3D temps réel, notamment dans les jeux vidéo. Il utilise un principe de superposition de couches lumineuses complexe qui a pour but de recréer un éblouissement le plus réaliste possible.

Thumb
Avant après un rendu HDR

Ceci a été rendu possible en temps réel dans les jeux 3D grâce à la souplesse de programmation du rendu apporté par les shaders (notamment, grâce aux moteurs graphiques d'anciennes génération, comme Source qui est parmi les premiers à avoir intégré cet effet).

Remove ads

Histoire

Résumé
Contexte

L'utilisation d'images à plage dynamique étendue (HDRI) en infographie a été réalisée pour la première fois par Greg Ward en 1985 avec son programme open source Radiance pour le rendu et la modélisation de l'éclairage[1], qui a créé le premier format de fichier sauvegardant des images à plage dynamique étendue. Pendant plus d'une décennie, le HDRI n'a pas été largement adopté en raison des capacités de calcul, de stockage et des méthodes de capture limitées. Ce n'est que récemment qu'une technologie permettant l'utilisation pratique du HDRI a été développée[2].

En 1990, Eihachiro Nakame et ses collègues ont présenté un modèle d'éclairage pour simulateurs de conduite, soulignant la nécessité du traitement à haute plage dynamique dans les simulations réalistes.

En 1995, Greg Spencer a présenté à la conférence SIGGRAPH « Effets visuels physiquement fondés de l'éblouissement pour les images numériques», proposant un modèle quantitatif des reflets et des éblouissements dans l'œil humain.

En 1997, Paul Debevec a présenté à la conférence SIGGRAPH le travail «Reconstruction de cartes de luminance à haute plage dynamique à partir de photographies[3]», puis l'année suivante «Rendu d'objets synthétiques dans des scènes réelles[4]». Ces deux travaux ont posé les bases de la création de sondes lumineuses HDR pour une zone spécifique et de leur utilisation ultérieure pour l'éclairage des scènes visualisées.

Depuis, le HDRI et le HDRL (éclairage basé sur des images à haute plage dynamique) sont utilisés dans de nombreuses situations en 3D, où l'insertion d'objets 3D dans un environnement réel nécessite des données de sonde lumineuse pour assurer un éclairage réaliste. Plus vous utilisez de sources lumineuses physiques, plus le gain de performance est important[5].

Dans les applications de jeux, Riven: The Sequel to Myst en 1997 a utilisé un shader de post-traitement HDRI, directement basé sur le travail de Spencer. Après l'E3 2003, Valve a publié une démo de son moteur Source, visualisant un paysage urbain en haute plage dynamique. Ce terme n'a plus été utilisé partout jusqu'à l'E3 2004, où il a attiré beaucoup plus d'attention lorsque Epic Games a présenté Unreal Engine 3, et Valve a annoncé Half-Life 2: Lost Coast en 2005, combiné à des moteurs open source comme OGRE 3D, et des jeux open source comme Nexuiz.

Dans les années 2010, les premiers écrans HDR sont apparus[6][7]. Grâce à un contraste plus élevé, le HDRR peut réduire ou éliminer totalement la compression tonale, rendant l'image encore plus réaliste.

Remove ads

Notes et références

Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.

Remove ads