Ce titre seul peut suffire à effrayer certains lecteurs. Si vous êtes arrivé jusqu'ici, s'il vous plaît, restez avec moi. Je
sais que l'aspect technique de la production vidéo n'est pas amusant pour la plupart. C'est en fait une nuisance quand on y pense
.
Mais comprendre certains des mécanismes et technologies de base derrière cette merveilleuse passion ne peut que
aider à améliorer la qualité de votre travail. Ces connaissances peuvent vous aider à mieux utiliser l'appareil photo.
Plus précisément, cela sera utile pendant le processus d'édition. La possibilité de "composer" votre signal vidéo
pendant le montage est extrêmement importante pour maintenir un aspect cohérent tout au long de votre vidéo.
De plus, vous pouvez souvent compenser (au moins en partie) des problèmes d'équipement ou une mauvaise tournage sur le terrain.
En gros, le matériel de calibrage et le savoir-faire donnent au monteur le contrôle .
J'essaierai de garder les informations compréhensibles, même pour les plus novices d'entre nous. Quant aux plus enclins à la technique, soyez indulgents ; vous pourriez probablement utiliser un petit cours de remise à niveau de toute façon. Si vous sentez que ça devient poilu, attendez. Je vous promets que le voyage en vaudra la peine.
CCD
Le signal est l'aspect le plus important de la production vidéo. Sans cela, vous n'avez rien. Quelque chose doit
transmettre les informations de l'extérieur de l'objectif à l'écran du téléviseur. Mais comment ça marche ?
Les caméras vidéo et les caméscopes modernes utilisent un dispositif à couplage de charge pour produire un signal vidéo. Mieux connu
en tant que CCD, ce capteur d'image est un semi-conducteur à l'état solide qui convertit la lumière entrante en informations
vidéo.
Lorsque la lumière frappe un CCD, elle frappe en fait une couche de silicium sensible à la lumière. Cette couche sépare la
lumière entrante en un motif précis de pixels ; plus le nombre de pixels sur la puce est élevé, meilleure est la
résolution de l'image vidéo finale. Certains caméscopes grand public proposent des capteurs CCD de près de 500 000 pixels !
Chaque pixel est chargé de reproduire une petite partie de l'image vidéo entière. À partir du CCD, la charge électrique transformée en lumière se déplace vers une couche de stockage sur la puce. Enfin, ces informations stockées sont transférées
image par image, ligne par ligne vers la bande et/ou vers le moniteur en tant que signal vidéo.
Scanner une vue
Pour visualiser l'image enregistrée électroniquement, un moniteur fonctionne à l'inverse du processus ci-dessus. Au lieu de
transformer la lumière en signaux électriques, un moniteur transforme les signaux électriques en lumière.
Voici comment cela fonctionne. Un faisceau électronique balaye le tube du moniteur. Ce faisceau s'allume et s'éteint à différents degrés d'intensité, reproduisant la multitude de pixels capturés lors du processus d'enregistrement. Un matériau
photosensible recouvrant le dos de l'écran fait apparaître une image au passage du faisceau.
La façon dont le scan fonctionne est assez curieuse. Nous savons que dans le système vidéo actuel, il y a 30
images d'informations vidéo par seconde, et chacune de ces images se compose de 525 lignes horizontales de données. Le
faisceau du moniteur commence à balayer le tube avec la première ligne d'information. Lorsque la ligne 1 est terminée, le
faisceau s'éteint, retourne au côté de départ et le balayage continue avec la ligne 3, et non la ligne 2. Ensuite, il s'éteint
à nouveau et retourne à la ligne de balayage cinq. Ce motif continue jusqu'à ce que le faisceau balaye toutes les lignes impaires. Cette
partie de l'image s'appelle un champ .
Lorsqu'il termine cette partie du cycle, le balayage recommence à la ligne deux et continue à couvrir toutes les
lignes paires. Le faisceau passe devant l'écran au total 525 fois chaque 1/30e de seconde, bien plus vite que ce que l'œil
peut voir.
Pourquoi ne pas faire en sorte que le faisceau balaye simplement chaque ligne successivement au lieu de sauter toutes les autres lignes ? Parce que
la surface photosensible d'un moniteur ne brille que peu de temps après que le faisceau d'électrons l'ait touchée. Si le faisceau
balayait continuellement de haut en bas, sans rien omettre, le haut de l'écran s'assombrissait au
moment où le faisceau revenait. Pour éviter qu'une partie de l'image ne devienne noire, les lignes de balayage s'entrelacent, assurant
une luminosité constante de toute l'image.
Synchroniser
La synchronisation est la partie du signal vidéo qui garantit que tout se passe au bon moment. Sans synchronisation,
les différentes parties du signal vidéo ne savent pas quand commencer ou finir de relayer leurs informations à l'écran. Vous, les éditeurs vidéo, savez ce qui se passe lorsque la synchronisation d'une bande est corrompue :le chaos vidéo.
Chaque caméra a une partie de son circuit consacrée à la génération d'impulsions de synchronisation. Ces impulsions (appelées
synchronisation interne) font partie du signal qui sort sur bande ou directement sur le moniteur.
Vous pouvez répartir ces informations de synchronisation en deux catégories :horizontale (qui contrôle la synchronisation des lignes
dans une image) et verticale (qui maintient l'image encadrée).
Bien que de nombreux vidéastes ignorent la synchronisation jusqu'à la post-production, cela peut devenir un problème si vous travaillez avec une configuration à plusieurs caméras. Pour une commutation sur site correcte dans cette situation, toutes les caméras doivent balayer au
même taux de synchronisation. De plus, ils doivent démarrer chaque image exactement au même instant.
Il y a deux manières de procéder. Vous pouvez utiliser un générateur de synchronisation externe pour chronométrer toutes les caméras, ou vous pouvez
utiliser le signal d'une caméra pour réguler le signal d'une seconde. Dans ce processus, connu sous le nom de genlock, la deuxième
caméra reconnaît les impulsions de synchronisation de la première caméra et crée un signal synchrone correspondant.
Moniteurs de forme d'onde
Regarder de plus près un signal vidéo nécessite l'utilisation d'un équipement de surveillance, en particulier le
moniteur de forme d'onde.
Un écran de moniteur de forme d'onde affiche un affichage électronique allant de 100 unités en haut à -40 en bas. Cette échelle incrémentée mesure la luminance (force de luminosité du signal) en IRE. (Un IRE est une
unité développée par et nommée pour l'Institute of Radio Engineers.)
La mesure des points de luminance les plus hauts et les plus bas est l'utilisation la plus élémentaire du moniteur de forme d'onde. Ces
points sont appelés blanc de référence et noir de référence. Le blanc de référence est le point
le plus brillant d'un signal vidéo ; le noir de référence est la couleur que vous voyez entre les publicités sur l'écran du téléviseur ; il n'est pas complètement dépourvu de
lumière, mais suffisamment sombre pour apparaître noir à l'œil nu.
L'une des utilisations les plus courantes d'un moniteur de forme d'onde est la balance des blancs. La balance des blancs permet
à l'opérateur de la caméra de régler l'intensité relative des canaux rouge, vert et bleu. Cela permet à la caméra de
produire un signal blanc précis dans des conditions d'éclairage prédéterminées ; il indique à la caméra à quoi le blanc
doit ressembler sous l'éclairage existant. Une fois que l'appareil photo "connaît" cette information, il est capable de
reproduire correctement toutes les autres couleurs.
Un autre élément important dans la gestion de la luminosité d'une image est le piédestal. Pedestal, ou
noir de référence, contrôle les niveaux de noir d'un signal vidéo. Toutes les images de la vidéo résultent de variations
en nuances de gris. Le piédestal contrôle les noirs les plus profonds que le signal reproduira. Le noir de référence est fixé à
7,5 IRE. La zone en dessous de cette lecture est destinée aux autres parties du signal qui contrôlent le processus de balayage.
Le noir de référence contrôle également le contraste de l'image. Si vous réglez ce niveau trop bas, les zones sombres
de l'image seront trop sombres, produisant une image avec un contraste saisissant. Lorsque le noir de référence est trop élevé, le
contraste entre les zones sombres et claires sera insuffisant. L'image résultante semble terne et
lavée.
Signaux de couleur
Luminance et chrominance :si vous avez déjà été dans un studio de post-production vidéo professionnel, vous
entendez toujours ces mots flotter. Ce dont parlent les techniciens, ce sont les principaux composants du
signal de télévision couleur.
La luminance fait référence aux informations en noir et blanc ou "luminosité" présentes dans un signal vidéo.
La chrominance fournit les informations de couleur et est composée de deux autres composants, la teinte et la saturation.
La teinte décrit la couleur elle-même, tandis que la saturation détaille la quantité ou l'intensité de la couleur. Par exemple,
un bleu royal très profond et un bleu clair bébé ont la même teinte, le bleu. Ils diffèrent par leur saturation de la
couleur.
Les caméras vidéo créent une image couleur en travaillant avec les couleurs primaires additives du rouge clair, du vert et du
bleu. Une fois que la lumière pénètre dans un appareil photo, elle se décompose en ces composants de couleur de l'une des trois manières suivantes.
Un bloc de prisme est la manière la plus sophistiquée et la plus coûteuse par laquelle les caméras génèrent un signal de couleur.
Simplifiant le processus, la lumière captée par l'objectif frappe un prisme qui la divise en rouge, vert et bleu ( RVB).
Chacune de ces couleurs va ensuite vers son propre CCD séparé. Un encodeur couleur prend les signaux RVB purs et
les recombine avec les informations de luminance, ce qui permet d'obtenir une image en couleur. Étant donné que chaque
couleur va à son propre CCD, les caméras à 3 puces à prisme produisent une image vidéo de très haute qualité.
Une méthode similaire de séparation de la lumière utilise des miroirs dichroïques, qui réfléchissent certaines couleurs et permettent à d'autres de
passer à travers. Le processus est similaire au bloc de prisme, seuls les miroirs prennent la place du prisme. Bien
incorporant trois capteurs d'image, l'image d'un système dichroïque conserve moins de netteté que celle
produite avec un prisme. Cela est principalement dû à une perte de lumière des miroirs eux-mêmes.
Les filtres à bandes capturent les informations de couleur sur un seul CCD. Cette méthode utilise une fine bande de matériau filtrant rouge, vert et
bleu devant le CCD. La lumière pénètre dans l'appareil photo, frappe la bande et se divise en ses composants d'accompagnement. La puce unique de ce système produit les trois canaux de chrominance en plus des informations de luminance. Bien qu'il s'agisse de loin du moins sophistiqué des systèmes
de génération de couleurs, c'est aussi le plus populaire. Le coût, le poids et la technologie réduits rendent l'unité à puce unique
très populaire sur le marché des caméras grand public.
Vecteurs et Couleur
Avec toutes ces informations sur les couleurs qui circulent, il est important de garder les choses synchronisées. C'est là que la couleur
éclate entre en jeu.
La salve de couleur est une impulsion de contrôle spéciale. Ces informations de synchronisation garantissent que les trois signaux de couleur démarrent
au bon moment au début de chaque ligne d'informations vidéo. Vous pouvez voir le pouls sur le
moniteur de forme d'onde vidéo. En vérifiant la lecture de la forme d'onde, vous pouvez discerner si la couleur est présente dans votre signal vidéo. Vous pouvez également voir à quel point les informations de couleur de votre vidéo sont saines.
La vérification du signal de salve de couleur vous avertira que la couleur est présente. Ce qu'il ne vous dit pas, c'est quelles couleurs
sont présentes. Pour cela, vous avez besoin d'un vecteurscope.
L'écran du vectorscope identifie les trois couleurs primaires évoquées précédemment (rouge, vert et bleu) et leurs
compliments (cyan, magenta et jaune). En lisant l'oscilloscope, vous pouvez facilement déterminer quelle
et quelle quantité de chaque couleur est présente dans le signal. L'emplacement de rotation des points lumineux sur l'écran mesure
la nuance ou la teinte des couleurs, c'est-à-dire leurs teintes.
Les vecteurscopes sont essentiels lors de la surveillance des signaux de couleur dans une configuration multi-caméras. Ils aident à faire correspondre la qualité des couleurs
de chaque caméra afin que leur sortie soit similaire. Un certain nombre de facteurs, y compris la longueur des câbles de la caméra,
peuvent modifier les teintes de chaque signal.
Dans une situation avec une seule caméra, le vectorscope aide à une bonne balance des blancs. En ajustant les commandes
appropriées sur la caméra, un opérateur vidéo peut équilibrer toutes les couleurs. Au fur et à mesure que vous effectuez les ajustements, les points lumineux sur l'écran tournent jusqu'à ce que chacun se déplace vers sa position appropriée. La longueur entre
le centre de l'affichage et chacun des points lumineux représente la saturation de chaque couleur. Plus on s'éloigne
du centre, plus la saturation est importante. Si les points se rapprochent du centre, la saturation des couleurs est faible.
Sur la face du vecteurscope se trouve une série de carrés. Ces cases indiquent la bonne position des
points lumineux dans une configuration idéale. Pour reproduire correctement les couleurs de votre signal vidéo, les points lumineux à l'écran
doivent tomber au centre de ces cases.
Ouf ! Tu t'en es sorti relativement indemne. Ce n'était pas trop mal, n'est-ce pas ? L'étude de la mesure et de la manipulation du signal vidéo n'est en aucun cas un sujet qui tourne la page. Il s'agit toutefois de connaissances
utiles qui contribuent à une meilleure compréhension de ce qui se passe lorsque vous appuyez sur votre bouton d'alimentation.
Et que vous utilisiez ces connaissances sur place ou dans la suite de montage, elles ne peuvent que vous aider pour produire une meilleure
vidéo.
C'est bien sûr la raison pour laquelle nous sommes ici.