

Les effets spéciaux numériques
La Science au service
du 7ème Art


Souriez,
vous êtes filmé !
A) L'image de synthèse et sa modélisation
Les images de synthèse sont conçues à partir de logiciels d'infographie. Cette technique est la base fondamentale des effets spéciaux numériques. Elle est également présente dans les deux autres techniques de bases : la motion capture et l'incrustation. Elle est également utilisée pour réaliser des scènes impossibles à tourner dans la réalité, comme le montre l'exemple ci-dessous, extrait du film Tron l'héritage de Joseph Kosinski, sorti en 2011.
L'image de synthèse est une image créée à partir de moyens informatiques, sans modèle photographique.
Ce type d'image fait aussi bien référence aux images en 2D qu'aux images en 3D. L'image en 2D est créée à sur un plan à 2 dimensions, c'est à dire que l'image prend en compte la longueur et la largeur de ce qu'elle affiche. L'image en 3D, quant à elle, prend en compte une dimension supplémentaire, celle de la profondeur des objets. D'où les notions de "2 Dimensions" et "3 Dimensions".
Dans l'univers du cinéma, l'image de synthèse en 3D prédomine pour la réalisation des effets spéciaux cinématographiques.
1-Les repères du plan tridimensionnel
L'image 3D s'inscrit dans un plan selon 3 axes : la longueur, la largeur, et la profondeur de l'objet considéré.

Les coordonnées des différents points de l'objet sont inscrites dans plusieurs repères, pour un même plan :
-
le repère global est fixe et définit le repère général de la scène tridimensionnelle (Il est représenté sur l'image ci-dessus);
-
le repère objet, propre à l'objet en question. Le centre du repère est généralement le centre de l'objet, et les coordonnées de ce dernier son défini grâce à ce repère;
-
le repère écran, pris en compte dans le processus de modélisation. Ce repère est spécifique dans la mesure où il est à deux dimensions. Le repère écran prend son origine en haut à gauche de l'écran et possède deux axes.
Tous ces repères sont représentés ci-dessous. On distingue le repère global (Og, Xg, Yg, ZG), le repère objet (Oo, Xo, Yo, Zo) et le repère écran (0e, Xe, Ye) :

2- La géométrie spatiale

Le numérique correspond à un signal avec des valeurs discontinues.
Tout objet en 3D est conçu numériquement. La méthode classiquement utilisée pour représenter un objet en 3D numériquement est le modèle polygonal. De cette manière, tout objet est composé de polygones, ou facettes. Ces facettes sont chacunes constitués de sommets. Ces sommets ont leurs propres coordonnées dans le plan tridimensionnels et sont reliés entre eux par des arrêtes.




Aussi voit-on dans ces exemples des formes géométriques simples.
L'exemple ci-contre, montre des formes plus complexes que l'on peut réaliser grâce à un logiciel de conception en 3D.
Ce modèle polygonal ressemble fortement à un assemblage de plusieurs fils. C'est pourquoi cette technique de conception 3D est appelé "maillage".
Le modèle polygonale permet de réaliser une grande diversité de formes complexes et de garder une certaine souplesse de l'objet. Ce dernier peut être modifié à souhait en variant l'organisation de ses polygones.
Toutefois, cet avantage peut aussi se révéler être un contrainte. En effet, la grande diversité de formes qu'offrent le maillage ne permet pourtant pas une qualité optimale de l'objet. Par exemple, une sphère, qui n'est composée que de polygones plats, ne sera jamais arrondie. Plus il y aura de polygones composant la surface de la sphère, plus celle-ci paraitra lisse.

La multiplication des faces d'un objet en 3D, aux surfaces non planes, est donc nécessaire pour améliorer sa qualité d'image. Or, cela prend une place importante dans la mémoire de l'ordinateur. Il faut donc, dans la réalisation d'un décor virtuel, prendre en compte ce critère et économiser la mémoire de l'ordinateur. Pour ce, les infographistes réalisent des objets peu détaillés en arrière plan, et accordent une attention particulière aux objets du premier plan en les précisant et détaillant au grè des besoins des réalisateurs.
Une fois créé, l'objet se doit d'être le plus réaliste possible. C'est pourquoi s'ajoutent à cette phase d'autre processus réalisés dans un ordre précis.
3-La couleur
La colorisation de l'objet s'appuie sur le principe de la synthèse additive. Il s'agit de la combinaison de plusieurs sources de lumière colorée pour obtenir une nouvelle couleur. Cette synthèse distingue trois couleurs primaires à l'origine de millions d'autres nuances de couleurs : le rouge, le vert et le bleu. C'est le système RVB.

On parle de lumières colorées et non de couleurs pigmentaires car, en réalité, ce n'est pas l'objet lui-même que l'on colorise, mais l'image de cet objet. les unités de l'écran d'ordinateur vont émettre une lumière colorée pour représenter cette image. Ces unités sont appelés pixels et changent de couleurs pour afficher ce que vous voyez sur votre écran en ce moment-même. Par exemple, ce MOT est en réalité une succession de pixels prenant cette couleur verte pour l'afficher.
Un pixel est constitué de trois filtres : un rouge, un vert et un bleu. La quantité de lumière qui passe à travers ces filtres varient en fonction du courant électrique diffusé dans le pixel, permettant ainsi l'émission de plusieurs millions de nuances de couleurs possibles.
Ces variaitions d'intensité s'étendent sur une échelle allant de 0 à 255, 0 voulant dire qu'aucune lumière ne passe à travers le filtre et 255 signifiant que toute la lumière passe à travers le filtre. Cela a donc permit d'établir un code basé sur le système RVB pour déterminer la couleur du pixel, et donc de l'objet.
Ce code se compose de trois nombres allant chacun de 0 à 255.
Exemple : <147, 35, 208>
Ce code veut dire qu'une intensité lumineuse de 147 unités passe à travers le filtre rouge, une intensité lumineuse de 35 unités passe à travers le filtre vert et qu'une lumière d'une intensité de 208 unités passe à travers le filtre bleu.
C'est grâce à ce procédé que la couleur d'un objet est donc défini
Cette colorisation n'est qu'une ébauche de ce que doit être le résultat final d'une image de synthèse. En effet, la phase de colorisation précéde en général la texturisatation.
4-La texturisation
La texturisation consiste à appliquer sur un objet numérique une texture pour lui donner un aspect réel, comme celui du bois, du métal, du verre, etc. Cette texture est en réalité une image en 2D que l'on va coller sur chaque polygone de l'objet considéré. La couleur du point de la facette devient ainsi la couleur du pixel de la texture.

Texture pour un revêtement en métal

Texture pour un revêtement en bois
Pour effectuer l'opération, un infographiste va appliquer l'image en 2D sur toutes les faces en 2D de l'objet : c'est le mapping.
La technique la plus répandue chez les professionels pour texturer leurs objets s'appelle le UV Mapping. Cela consiste à "déplier" l'objet 3D du plan tridimensionnel (X,Y,Z) pour obtenir une image 2D sur un plan en deux dimensions (U,V). La texture est alors appliquée sur les faces plaqués en fonction de leurs coordonnées UV. L'utilisation de U et V plutôt que des habituels X et Y permet simplement de ne pas confondre les coordonnées 2D avec les coordonnées de l'objet 3D.
Ainsi, quand l'objet texturé est ré-assemblé, l'ordinateur convertit les coordonnées UV en des coordonnées tridimensionnelles X,Y,Z pour chaque point de l'objet.
Le réalisme d'un objet dépend essentiellement de sa texture mais nous ne sommes pas encore au rendu final. En effet, pour que l'objet paraisse plus réel, il faut pouvoir l'intégrer dans un environnement grâce à des éclairages et des réflexions.

On distingue différentes sortes de mapping dont les principales sont :
-
le mapping planaire : le modèle 2D est appliqué sur chaque face d'un solide ;
-
le mapping cylindrique : le modèle 2D est appliqué de façon à venir enrouler un objet de forme cylindrique;
-
le mapping sphérique : l'image vient prendre la forme de la sphère en question.
5-L'éclairage... Et la lumière fut...
L'éclairage est important dans une réalisation en 3D. Elle permet de mettre en valeur le volume des objets. L'éclairage par réflexion diffuse est la méthode la plus utilisée dans l'inforgaphie 3D.
La réflexion diffusion :
La réflexion diffuse consiste à projeter une source lumineuse sur l'objet 3D et l'ordinateur va calculer l'intensité lumineuse que doivent émettre les pixels en fonction de la position des points éclairés de l'objet.
On suppose que la source lumineuse projetée est ponctuelle et émet une lumière constante et homogène dans toutes les directions de l'espace du plan tridimensionnel.
Le principe physique est le suivant : la source de lumière émet une certaine quantité d'énergie lumineuse. Les rayons lumineux projetés vont être répartis sur une surface plus ou moins importante de l'objet et faisant ainsi varier l'intensité lumineuse réfléchie par l'objet.
Par exemple, des rayons lumineux arrivant perpendiculairement sur une surface seront concentrés sur une surface minimale de l'objet pour une intensité lumineuse réfléchie maximale.
Le modèle de réflexion diffuse s'appuie sur ce principe physique. Il stipule que l'intensité lumineuse réfléchie en un point d'une surface dépend de l'angle formé entre le rayon lumineux incident passant par le point d'incidence et la normale du plan, perpendiculaire à la surface considérée. Par logique, plus l'angle formé entre la normale et la rayon lumineux est faible, plus la réflexion par la surface sera intense.

Cette loi s'exprime au travers de la formule suivante :
Couleur=k x E x cos (thêta)
Avec :
-
Couleur =l'intensité lumineuse réfléchie par la surface. Cette intensité dépend de
-
k = coefficient de réflexion de la lumière par la surface, variant en fonction de la texture de l'objet.
-
E =l'intensité lumineuse émise par la source de lumière et de
-
thêta =l'angle formé par le rayon incident et la normale.
L'ordinateur calcule donc, grâce au logiciel, l'aspect de la couleur et de la luminosité du point et retranscrit ces informations pour les transmettre aux pixels de l'ordinateur.
Ce principe s'applique aux objets opaques et non réfléchissants. Pour les autres objets, la méthode d'éclairage est différente.
La réflexion des objets :
Lorsqu'un rayon lumineux rencontre une surface, une partie de ce rayon est absorbée par la surface tandis qu'une autre partie est directement réfléchie par l'objet : c'est la réflexion d'un rayon lumineux.
Le rayon incident et le rayon réfléchi sont symétriques par rapport à la normale du plan : l'angle entre la normale et le rayon incident et celui entre la même normale et le rayon réfléchi sont égaux. L'ordinateur calcule la trajectoire du rayon réfléchi en tenant compte de la trajectoire du rayon incident et du relief de l'objet.
Une réflexion implique qu'une image est reflétée sur l'objet. L'ordinateur doit ainsi calculer la trajectoire du rayon réfléchi et appliquer sur le point d'incidence de l'objet le point d'impact du rayon réfléchi qui n'est autre que le point de l'image reflétée par l'objet.
La réfraction :
Un objet transparent laisse toute ou une partie de la lumière le traverser. C'est ce qu'on appelle une réfraction. Le rayon incident arrive donc sur l'objet et va être réfracté à cause du changement de milieu dans lequel il se propage. C'est à dire que ce rayon va dévié de sa trajectoire originelle.
L'ordinateur calcule cette déviation en déterminant l'angle entre la normale et le rayon réfracté par rapport à l'angle entre la normale et le rayon incident. Ce calcule nécessité l'utilisation de la loi de Descartes :
n1xsin(i1)=n2xsin(i2)
avec
-
i1=angle entre la normale et le rayon incident ;
-
i2=angle entre la normale et le rayon réfracté ;
-
n1=indice de réfraction du milieu dans lequel s'est propagé le rayon incident ;
-
n2= indice de réfraction du milieu dans lequel se propage le rayon réfracté.
L'ordinateur effectue ensuite différents calculs permettant une déformation de l'image à travers l'objet transparent.
Le film Iron Man 2 réalisé en 2010 par Jon Favreau retrace les différentes étapes de cette technique :