Bien gérer sa saturation [DaVinci Resolve]

Comment bien gérer sa saturation

Tout le monde voit ce que la saturation est. C’est quand on en peut plus de son taff de m*rde, que tout le monde nous les brises et qu’on veut partir s’exiler en Dordogne avec son chien comme seule compagnie. 

Mais sinon dans une vie moins aigrie c’est plus en rapport avec les couleurs. Et il faut savoir qu’il y a plusieurs types de saturation, et simplement jouer avec le curseur de saturation dans DaVinci n’est pas forcément toujours suffisant 🥸

Saturation additive vs Saturation soustractive

Alors, pourquoi ne pas utiliser le bouton de saturation sur DaVinci Resolve ? Mettons les choses au clair directement : vous pouvez l’utiliser, toute personne vous affirmant le contraire aurait selon moi tort. Mais il faut comprendre pourquoi ce n’est pas forcément la plus pertinente.

Il s’agit simplement de saturation additive. Ce que ça veut dire par là, c’est qu’on va partir d’une image noire, on va y ajouter du rouge, du vert et du bleu pour arriver au blanc. Ou en variant les quantités, toutes les autres couleurs. C’est ainsi que fonctionnent les caméras digitales.

S’oppose donc à ça la saturation soustractive. On part du blanc, on retire du magenta, cyan et jaune, les opposés politiques des couleurs primaires et on obtient du noir. Et non seulement c’est comme ça que les pellicules fonctionnent, mais également la VIE ELLE-MÊME. Enfin en tous cas ça se rapproche de ce qui se passe. 

Alors comment faire de la saturation soustractive sur DaVinci Resolve, c’est ce que je vais vous présenter par plusieurs techniques. Mais je vous recommande surtout de regarder la vidéo plus haut pour avoir le vrai rendu en direct.

1ère méthode : le nœud HSV

On va se mettre sur un node séparé, entre vos CST si vous en utilisez et après votre balance et contraste. Si la notion de CST vous est étrangère, vous pouvez lire cet article 📝 

Une fois cela fait, on va changer l’espace colorimétrique du nœud part un clique droit, pour le passer en HSV (pour Hue, Saturation, Vertèbre fémorale). Et comme on ne veut modifier que la saturation, on va décocher les canaux 1 et 3 (donc Hue et Value ok je vous ai menti plus tôt). La différence est que plutôt que de manipuler en RGB les trois valeurs pour chaque couleurs, on va ici manipuler uniquement la saturation.

Et maintenant vous pouvez utilisez votre roue gain primaire pour ajouter ou supprimer de la saturation globale de manière ✨ soustractive ✨. Mais vous pouvez également viser des zones spécifiques, notamment avec vos courbes. Mais attention, même si vous pouvez également utiliser la roue gamma, ne toucher ni à l’offset, ni au lift, ni au point des « noirs » de la courbe car vous ne voulez pas toucher aux zones neutres.

Ce n’est pas la méthode la plus optimale existante utilisant ce genre de nœud mais c’est de loin la plus simple et elle fera amplement le job. Vous avez une version bien plus poussée en anglais par Cullen Kelly mais que personnellement je n’utilise pas du fait de sa complexité.

2ème méthode : le ColorSlice

Si la première méthode était surtout pour vous permettre de gérer votre saturation globale aisément, le panneau ColorSlice permet de gérer individuellement chaque couleur avec une saturation soustractive. 

Mais ce n’est pas tout, vous pourrez également changer la densité de chaque couleur ainsi que son Hue. Par contre, comme toute modification selective de couleur, votre marge de manœuvre dépendra de la qualité de votre image initiale, notamment de sa profondeur des couleurs et de son taux d’échantillonnage.

3ème méthode : le plug-in Hue/Shift

Alors si ce n’est pas votre métier, je vous arrête tout de suite, il s’agit d’un plug-in payant, donc sans retour sur investissement ce ne sera sûrement pas la méthode la plus intéressante pour vous. Pour les autres, je ne présente que rarement des plug-in sur ma chaîne ou ici mais je tenais à le faire pour celui-là parce qu’il s’agit de la méthode la plus simple, polyvalente et précise que j’ai trouvé pour gérer vos couleurs. Vous pouvez la voir comme une alternative plus poussée du ColorSlice.

Je ne vais pas m’étendre la dessus ici puisque la démo de la vidéo ci-dessus sera bien plus parlante, mais vous avez -15% ici s’il vous intéresse (il s’agit d’un lien affilié), c’est cadeau !

Important !

Réglez d’abord bien votre balance/exposition et vos contrastes avant de modifier votre saturation puisque ça va impacter cette dernière.

Et gardez bien en tête que si la saturation soustractive vous apporte un résultat souvent plus pertinent, vous pouvez très bien préférer l’additive dans certains cas. 

Comment rajouter de la fumée au montage (Tuto cinematic haze DaVinci Resolve)

Comment rajouter de la fumée en post-production

Si vous avez déjà vu quelques vidéos que j’ai pu tourner pour des clients (genre dans mon portfolio PAR EXEMPLE), vous avez dû voir un peu de fumée s’échapper des images. Et je vous ai même déjà fait un article sur les machines à fumée, gros crush là dessus chez Pixelyse.

Mais quand est-il lorsqu’on oublie de mettre sa machine à fumée ? Avant la maj 20.2 de DaVinci Resolve je vous aurais dit « cheh », mais là vous allez voir que l’effet Cinematic Haze ne laisse pas indifférent 🥸

Utiliser l'effet Cinematic Haze

Avant toute chose, si vous ne voyez pas cet effet, c’est peut-être que soit vous n’utilisez pas DaVinci Resolve (mais il faudrait, et je vous ai fait un guide pour ça si besoin), ou alors pas dans sa dernière version 20.2. Et si malgré tout ça ne fonctionne pas pour vous, c’est peut-être parce que vous n’avez pas la version Studio… Hé oui, ce tuto est pour les RICHES 😎💸 

Ces précisions étant précisées, on va d’abord se retrouver dans l’onglet couleur et se mettre sur un nœud dédié où glisser l’effet brouillard cinématique (parce que je suppose que c’est comme ça qu’il s’appelle en français). 

Où placer l'effet dans son node tree

Si vous ne le savez pas, l’ordre dans lequel vous mettes vos effets et ajustements dans votre arbre des nœuds peut être très important. Ma recommandation est de le mettre entre vos CST (color space transform) qui seront en Davinci Wide Gamut. Si vous êtes déjà largués, j’en parle dans mon article pour bien convertir du log en Rec.709. Si c’est ainsi que vous travaillez, n’oubliez pas en haut de l’effet de bien sélectionner l’espace colorimétrique adéquate (davinci wide gamut/davinci intermediate).

Ma préférence est de le mettre en fin de colorimétrie, mais parfois avant certains masques d’expositions, en fonction de ce qui est le plus logique pour votre scène.

Bien paramétrer le brouillard cinématique

On va passer en revue les différents contrôles de l’effet, mais je pense que le ça reste plus pertinent pour cette partie de regarder la vidéo YouTube plus haute, pour mieux visualiser leur impact. Mais si vous êtes trop aigri dans la vie pour regarder ma vidéo préparée avec amour, voici les différentes parties :

Depth Map

C’est un effet de masque déjà présent dans DaVinci qui permet de sélectionner une partie de l’image en fonction de sa distance avec la caméra. Et il faut dire qu’il fait un plutôt bon travail. N’hésitez pas à le régler sur qualité better pour un meilleur résultat.

Vous avez d’abord la far et near limit qui servent à choisir quelle partie sera affectée. Vous pouvez cliquer sur « depth map preview » pour avoir une meilleure représentation lors de la selection. Et petit tips : vous pouvez mettre une valeur négative aux limites, ce qui pourrait vous donner un meilleur résultat ! La barre de gamma changera globalement le gamma, rendant le brouillard plus ou moins intense en pratique.

 

Ensuite en cochant « isolation » vous pouvez exclure une partie de l’image (avec quelle tolérance et douceur)

Et finalement, vous pouvez contrôler avec post-filter la douceur à laquelle il va dessiner les contours, que vous pouvez d’ailleurs élargir ou rétrécir avec contract/expand. Mais la partie importante de ces contrôles est surtout le blur qui pourra vraiment vous sauver d’un mauvais résultat.

Atmospheric Scattering

La diffusion atmosphérique, qui va impacter le comportement du brouillard sur la lumière.

Airlight va contrôler la quantité de brouillard que vous aurez alors que density va changer la densité HA OUAIS VOUS L’AVEZ PAS VU VENIR CELLE-LÀ 🤯 Vous pouvez également plus ou moins accentuer la perte de résolution avec resolution loss sur les parties sélectionnées par votre depth map.

Light Halo

On va choisir ici l’intensité du halo de lumière qui se fera autour des points lumineux. Parce que lorsqu’on projette une lumière sur de la fumée, elle va se propager sur les particules, créant ainsi cet halo.

Vous pourrez décider des éléments touchés par l’effet par le seuil, halo threshold, la taille du halo, sa lumière, saturation et couleur.

Light Rays

Pour les rayons de lumière, les réglages coulent de source, mais leur utilisation doit être réfléchie. Ça peut être intéressant sur cette image (avec et sans) puisque les arbres peuvent créer cet effet, tout comme une lumière passant par une fenêtre le pourrait. Mais si vous voyez dans ma vidéo son non-sens sur le plan drone de fin, vous comprendrez pourquoi il ne faut pas toujours les activer.

Avant Après effet cinematic haze sans light rayeffet cinematic haze avec light ray

Air Disturbance

C’est sûrement le paramètre qui peut le plus sublimer votre vidéo, tout comme la détruire totalement, alors je vous conseille d’y passer un peu de temps.

Ça va pour faire simple donner un peu de texture à votre brouillard et vous permettre également de le faire interagir avec un vent potentiel.

Vous pouvez régler son intensité et éclaircissement selon votre scène et vos goûts, mais ne réduisez généralement pas trop son échelle, scale, au risque d’avoir un résultat décevant. de même pour les détails.

Là où la différence pourra se faire ressentir entre un effet réussi et la pire catastrophe de votre carrière sera la manière par laquelle vous dirigez ces amas de fumée. Donc prenez le temps de faire matcher vos mouvements de caméras avec la direction et rapidité des déplacements de la fumée et n’hésitez pas à utiliser des keyframes pour modifier ces valeurs à travers le temps.  

Conclusions

Surtout, testez les paramètres, modifiez en un, puis revenez sur le précédent. Cherchez vraiment ce qui marche le mieux pour votre scène. Et à force d’utilisation vous serez de plus en plus efficace pour trouver les bons paramètres 💪  

Et n’hésitez pas à me poser vos questions en commentaire si besoin !

Qu’est-ce que l’open gate

Que signifie "Open Gate" en vidéo

Vous l’avez déjà très probablement déjà entendu, le terme « open gate » est de plus en plus fréquent dans les fiches techniques des nouveaux boîtiers, comme la récente Canon c50. En tous cas récente quand j’écris ces lignes.

Mais s’il est autant mis en avant par les équipes marketings, est-ce pour une simple hype ? Ou y’a-t-il une vraie utilité ?

Open Gate : définition

En une phrase : c’est la capacité du boîtier à utiliser en vidéo l’intégralité de la superficie du capteur. Mais vous allez me dire « ce n’est pas déjà ce qu’il fait ? » Et bien non. Très simple à vérifier d’ailleurs puisque quand vous passez en mode photo, vous voyez un cadre élargie en haut et en bas.

Un capteur a communément un ratio de 3:2, comme les photos que vous prenez avec. Mais en mode vidéo, vous vous retrouvez avec un format 16:9, très classiquement utilisé sur les projets hors cinéma. Votre capteur n’utilise donc qu’une partie des pixels possibles. Sauf s’il filme en Open gate, vous donnant une vidéo en 3:2

Différence entre un capteur 3:2 et un plan en 16:9

L'intérêt de l'Open Gate

« Mais Jamy qu’est-ce qu’on en a à calé de filmer en 3:2 puisqu’on livre en 16:9 ? » Très bonne question, et bien il y a deux intérêts. Tout d’abord celui d’avoir plus de matière, ce qui fait que même si vous avec un résultat en 16:9, vous pourrez réajuster votre composition. Pourquoi pas.

Mais le réel avantage réside dans l’utilisation parallèle d’un rush pour un format horizontal et vertical. Chose à ne pas sous-estimer, autant pour les créateurs de contenus que pour les vidéastes en projet client. Parce qu’avoir du vertical en parallèle de l’horizontal est une demande de plus en plus fréquente dans cette société qui ne vit que pour les likes 😒 (d’ailleurs abonnez-vous à ma chaîne YouTube svp merci). Alors ce ne sera pas du 9:16 pur évidemment, l’image sera réajustée, mais vous aurez une bien meilleure composition qu’avec des extraits de 16:9.

Les limites de l'Open Gate

Hé oui, un grand pouvoir implique de grands défauts comme disait mon oncle jsp.

L’Open Gate a deux inconvénients, bien qu’en réalité ils ne vont pas être rébarbatif. À commencé par le fait que généralement, l’option de filmer en open gate n’offre pas les mêmes codecs d’enregistrement qu’en 16:9. Pour reprendre l’exemple de la c50, on ne peut filmer qu’à maximum 60fps (en 7k), alors que le boitier peut monter à 120fps en 4k en 16:9. bon, pas un drame non plus.

Le second inconvénient sera l’accentuation du rolling shutter. Si vous ne voyez pas de quoi il s’agit, j’en parle dans cette vidéo. Et c’est logique, il y a plus de ligne à écrire. 

Conclusions

Malgré ses légers inconvénients, l’Open Gate reste un atout de certaines caméras que l’on risque de trouver de plus en plus fréquemment du fait des demandes de formats multiples de certains clients 🤓

N’hésitez pas à poser vos questions en commentaire et à vous abonner à la Newsletter (je déconne c’est juste ma chaîne YouTube)

Comment convertir du Log en Rec.709

expliquer sur Premiere ET sur davinci

Comment bien convertir du log en Rec.709

Si vous avez filmé une vidéo et qu’elle se retrouve aussi fade qu’un été dans la creuse, c’est parce qu’il s’agit du Log. Ou alors que vous avez franchement merdé à l’enregistrement.

Je vous propose de voir ce qu’est le log, pourquoi filmer en log et comment le convertir sur Davinci Resolve et Premiere pro.

Qu'est-ce que le log

Le log est un profil de couleur, à ne pas confondre avec un espace colorimétrique, visant à optimiser la plage dynamique d’un appareil. Le gamma de ce profil possède une courbe logarithmique (hé c’est pas là d’où viendrait le nom ??), et non linéaire. Vous pouvez lire l’article sur le Gamma 2.2 vs Gamma 2.4 pour plus de détails mais vous pouvez simplement retenir que filmer en log va vous permettre une meilleure marge de manœuvre lors de la colorimétrie et une meilleure plage dynamique. En gros vous pourrez mieux capter à la fois les hautes et les basses lumières. Génial.

Comment filmer en log

Si vous ne trouvez pas comment passer « en mode log » sur votre appareil, c’est peut-être pour une raison tout à fait logique qu’il n’en possède pas. Dans le cas contraire, la dénomination va être généralement « x »-log (S-log chez Sony, C-log chez Canon, D-log chez DJI, etc.). Il est également possible que le nom ne soit pas affiché directement. Exemple chez Sony il faut choisir le profil de couleur réglé en S-log (PP8 sur un Sony A7III mais PP10 sur une Fx3), même si cela peut être réglé dans vos menus.

Maintenant que vous l’avez trouvé, n’hésitez pas à surexposer votre image. Attention tout de même à ne pas cramer les hautes lumières, mais pour ça je vous recommande d’apprendre à bien gérer votre exposition.

Comment convertir du log sur Davinci Resolve

Comment convertir du log dans davinci resolve

Il y a plusieurs manières de convertir du log sur Davinci Resolve

Méthode 1 

La première étape est d’aller dans vos paramètres du projet (l’engrenage en bas à droite) et dans l’onglet Gestion des couleurs régler la Colorimétrie sur Davinci YRGB Color Managed. De là vous pourrez choisir l’espace colorimétrique de vos clips en faisant clic droit et sélectionner le LUT de conversion.

L’avantage est qu’ainsi vous pourrez tout passer rapidement en Rec.709 (en sélectionnant plusieurs clips à la fois). L’inconvénient est que vous n’avez plus le choix de l’espace dans lequel vous allez faire votre colorimétrie.

Méthode 2 

Pour cette méthode, on va utiliser un effet Color Space Transform (CST, ou Conversion d’Espace Colorimétrique en français). Pour ça, dans l’onglet colorimétrie, vous mettez sur un node vierge le CST (dans le panneau effets) et vous réglez l’input de votre source (par exemple si vous filmez en Sony ça peut être Sony S-gamut3.cine et S-log3) et en output Rec.709 et gamma 2.2 (ou autre, mais je vous renvoie une fois de plus vers mon article sur le gamma). Restez pour cela en colorimétrie Davinci YRGB cette fois dans vos paramètres.

Vous pourrez ainsi faire vos modifications sur des nodes en amont, pour rester dans votre espace colorimétrique plus large, ou mettre des luts sur base de rec.709 après. Mais ce n’est toujours pas la méthode que moi j’utilise

Méthode 3 

Le principe va être le même que pour la méthode 2, donc dans l’onglet colorimétrie, on va mettre un premier CST in avec le même input, mais mettre davinci wide gamut et davinci intermediate en output. Et sur un second node mettre l’output précédent en input et mettre rec.709 et gamma 2.2 en output.

Le résultat est le même si vous avez bien fait votre manip. Alors quel intérêt ? C’est de pouvoir travailler sur le très large espace qu’est le Davinci Wide Gamut. Donc vous pourrez faire votre colorimétrie entre ces deux nodes. Et si vous commencez à être perdu, je vous ferai un guide sur différents node tree prochainement.

Comment convertir du log sur Premiere pro

J’aimerais commencer par vous donner un avis sincère : j’utilise premiere pro dans mon quotidien et depuis bien plus longtemps que Davinci Resolve. Pourtant il serait totalement délu pour imaginer qu’en terme de colorimétrie ils se battent d’égal à égal. Ce serait comme dire que Shrek 4 est aussi drôle que les précédents. Non.

Mais il reste tout de même utilisable, et tout comme Resolve, vous avez plusieurs méthodes pour convertir le log.

Méthode 1 

Cette méthode consiste à utiliser des LUT des conversions. Ce sont des fichiers « .cube » que vous pourrez retrouver facilement sur internet pour votre caméra, que vous pouvez sélectionner dans le panneau couleur lumetri dans la partie « créatif » à LUT.

Vous pouvez mettre cet effet sur un clip comme sur un calque d’effet, afin de l’appliquer à plusieurs vidéos. Veillez à bien faire vos ajustement en amont (donc sur un calque placé en dessous sur votre timeline) pour qu’ils s’appliquent sur votre espace colorimétrique initiale et non en Rec.709 !

glisser un lut de conversion

Méthode 2 

Il y a maintenant quelques temps, Adobe a intégrer la gestion des espaces colorimétriques dans son logiciel. C’est ce que je vous invite à utiliser car plus rapide et pratique.

Pour ça, toujours dans le panneau lumetri, allez dans l’onglet réglages en haut et cochez dans projet la case « gestion des couleurs pour les medias bruts et les journaux détectés automatiquement » (pourquoi faire simple après tout). Et voilà, votre fichier et converti et vous pouvez faire vos ajustements. Si jamais il ne détecte par automatiquement, vous pouvez bien sûr le faire manuellement dans l’onglet clip source.

Conclusions

Maintenant, il ne vous reste plus qu’à faire des colorimétries de génie. Et si vous ne savez pas par où commencer, je vous invite à regarder cette vidéo YouTube pour bien démarrer ✌️

Et n’hésitez pas à me poser vos questions en commentaire si besoin !

Quel format d’exportation pour les réseaux sociaux [Guide 2025]

Quel format d’exportation pour les réseaux sociaux [Guide 2025]

La question que toute personne ayant déjà posté sur les réseaux se pose : quel est le meilleur format pour poster sur les réseaux. Le débat fait rage aux repas de famille entre deux réflexions un peu borders sur le plan politique.

On va tenter d’y répondre au mieux dans cette vidéo pour les plus flemmards de la lecture (c’est tout à fait ok) et par cet article. C’est partie 🥸

Quelle résolution pour instagram & cie

Avant toute choses, clarifions un points : la différence entre la résolution et la définition. Parce que si on parle avec une certaine indifférence l’une de l’autre, ce sont des notions distinctes. La définition est le nombre de pixels. C’est ça qui correspond à « 1920 x 1080p » par exemple. La résolution quant à elle désigne la densité de pixels sur une surface. Elle va donc être impactée par la définition. Et là vous remarquez que mon titre de paragraphe n’est donc pas des plus pertinents MAIS C BON C POUR LE RÉFÉRENCEMENT

 

Il est souvent conseillé pour les réels insta, les shorts YouTube, les TikTok TikTok d’exporter en 1080p, parce que ces plateformes publient en 1080p pour des soucis de poids de stockage probablement. Donc pour éviter la compression approximative de la plateforme, autant exporter en 4k.

Mon avis issu de dizaines de tests sur les différents réseaux est qu’avec le reste des paramètres, il n’y a aucune différence. Et s’il devait y en avoir une : on ne la voit pas assez pour se prendre la tête sur ce point. J’exporte de fait toujours en 2160 x 3840p car si j’ai besoin de la vidéo en 4k, je l’aurai, et qu’on ne sait pas comment les plateformes évolueront.

Retenez en tous cas, mais ça vous devez le savoir depuis le temps, que vos vidéos verticales doivent-être en 9:16 (contre les 4:5 d’avant, toujours utilisés pour les photos). Pour Youtube, là il est largement conseillé d’opter pour de la UHD puisqu’il n’y aura pas de compression sur le plan de la définition.

Quelle format d'exportation choisir

J’appelle cette section « format » non pas pour le référencement mais parce que des logiciels comme Davinci Resolve les utilisent. Mais il s’agit en réalité de conteneur. Ça fait référence au .mov, .mp4, .AVI, etc. 

La on va faire simple, pas de débat utile : utilisez du .mp4. C’est pas nécessairement le meilleur format au monde, il a ses avantages et inconvénients comme les autres mais c’est celui à utiliser. Si vous voulez plus de détails j’en ai fait une vidéo insta pour expliquer la différence .mov et .mp4 🔍

Le choix du codec

Le codec, si ça ne vous parle pas, il s’agit de l’algorithme de compression du logiciel. J’en ai fait une vidéo insta également ici, mais pour faire simple, vous avez en .mp4 le choix entre H.264 et H.265 pour les réseaux. Le H.265 est plus récent et plus performant, mais pourrait ne pas être lu par votre appareil s’il est un peu daté. Mais la vidéo pourra être lu sur instagram ou autre sur n’importe quel appareil. Donc ma recommandation ici serait d’exporter en H.265.

La cadence d'image (framerate)

Il y a fort à parier que vous avez lu ou entendu qu’il vous fallait exporter en 30fps (frame per second, ou ips pour image par seconde anglais LV1 y’a quoi). Alors ça c’est si vous avez filmé en 30 images par seconde. Mais si vous avez filmé en 30 images par seconde, c’était peut-être une erreur 🧐

Le choix entre 25fps (ou 24) et 30fps se base sur la fréquence du courant du pays où vous vous situez. Non pas tant pour la cadence d’images en soit mais pour la vitesse d’obturateur qui y sera associée. En France, nous somme en « PAL » (en réalité, le standard de télédiffusion est « SECAM », mais dans la sélection du choix sur votre caméra, ce sera PAL). Il faut donc filmer en 25ips. Au Canada par exemple, ce sera NTSC comme standard, donc vous devrez filmer en 30ips. Vous pouvez retrouver la carte ici sur Wikipedia. 📕

Le débit binaire (qualité)

débit binaire exportation

Je mets « qualité » dans le titre car c’est ainsi qu’à choisi blackmagic pour ce paramètre, aussi appelé bitrate en anglais. Et même si c’est un choix de terme flou, il n’est pas sans logique puisque le débit binaire va en effet beaucoup impacter la qualité de la vidéo. Et pour ça, il y a des règles. Celles qui correspondront à la majorité d’entres-vous est:

• Vidéos SDR 1080p en 25/30fps : 12Mb/s
• Vidéos SDR 4k en 25/30fps : 35-45Mb/s

Mais si votre situation est différente ou que vous voulez comprendre ce qu’est le débit binaire, je vous en ai fait un article complet avec un tableau récapitulatif 🫡

Le space tag et gamma tag

Si vous êtes utilisateur de Davinci, cette partie vous concerne. Les autres, allez vous faire un sandwich beurre de cacahuète épinard (ou autre chose si vous avez un meilleur palais que moi), on se retrouve après puisque vous n’aurez pas le choix de l’espace colorimétrique.

Le choix de l’espace dans lequel exporter est important pour votre résultat final, et il dépendra d’où vous comptez visionner vos vidéos. Heureusement, rien de bien compliqué en pratique grâce au standard rec.709. Avant lui, c’était le bordel. Maintenant, tous vos supports style téléphone, télévision, télépéage, etc. sont en rec.709, donc vous pouvez simplement exporter dans cet espace colorimétrique. Pour le gamma, l’idée serait d’exporter en gamma 2.2 pour les réseaux, mais je vous recommande surtout d’exporter en gamma tag rec.709-A pour une homogénéité entre les lecteurs d’appareil Apple et les autres. Cela dit, j’explique tout ça plus en détail dans cet article sur le gamma 🎨

Schéma représentant la différence entre les courbes gamma linéaire, 2,0, 2,2, 2,4 et 2,6

On n'oublie pas les sous-titres

De base, sur Premiere pro et Davinci (aucune idée pour les autres), l’exportation des sous-titres est désactivée. Alors si vous ne comprenez pas pourquoi, c’est simplement parce qu’il vous faut cocher l’exportation des fichiers sous-titres (ou « légendes » pour Adobe) et incruster dans la vidéo, si vous voulez que ça fasse partie directement de la vidéo, pour instagram, tiktok ou Linkedin. Pour YouTube (format longs), vous pouvez avoir envie d’exporter séparément les sous-titres en fichier .STR pour les proposer à l’activation sur le lecteur. L’intérêt serait notamment pour la traduction en plusieurs langues.

Conclusions

Pour résumer les réglages d’exportation  que j’utilise généralement :
4k / 25ips / .mp4 / H.265 / 45Mbs / Rec.709 / Rec.709-A

Et n’hésitez pas à me poser vos questions en commentaire si besoin !

Dehancer pro : mon avis sur Davinci et Premiere pro

Dehancer pro : mon avis sur Davinci et Premiere pro

Apprendre la colorimétrie, ça peut être aussi long qu’un trajet Limoges – Strasbourg en covoiturage avec votre belle-mère. Mais promis, c’est bien plus fascinant. Mais si vous n’êtes pas du genre à apprécier passer des jours à vous former mais que les LUTS ne vous suffisent pas, peut-être que certains plug-in pourraient vous intéresser. Je vous présente aujourd’hui Dehancer Pro.

Un plug-in d'émulation de film

Pour une rapide présentation : Dehancer est un plug-in, c’est-à-dire une extension tiers compatible avec plusieurs logiciels comme Davinci Resolve, Premiere pro ou Final cut pro. Et son âme même réside dans son onglet « film », qui va vous permettre de reprendre des émulations de film assez variés et très fidèles. Du kodak, du lomochrome, etc. vous aurez de quoi faire. 

Le guide d'utilisation

Je vous présente l’extension dans la vidéo YouTube sans rentrer trop dans la technique et dans les détails car ce n’était pas le but. Mais Dehancer est un outil polyvalent qui offre bien plus qu’une simple émulation vintage. Vous pouvez vous en servir pour affiner votre colorimétrie très facilement en donnant un look plus ou moins subtile.

Pour ça, pas mal d’outils sont à votre disposition (grain évidemment, halation, compression, etc.) Et pour bien comprendre chacun de leur intérêt vous pouvez vous reporter au guide très clair et complet du développeur. J’ai hésité à tout vous reprendre ici mais au final ça n’aurait été qu’un bête copier-coller (bon avec traduction, mais s’il y a des demandes, je pourrai en faire une version française)

Mon conseil perso

Avant Après

Colorimétrie réalisée volontairement en 5min chrono uniquement avec Dehancer pour vous montrer la facilité d’utilisation

Ce que je m’apprête à vous dire concerne davantage les utilisateurs Davinci Resolve puisque c’est à ce jour le meilleur logiciel de colorimétrie. D’ailleurs si vous voulez vous initier à cet art, n’hésitez pas à voir mon guide (écrit+vidéo) 🥸

Combinez le plug-in avec d’autres ajustements et effets pour avoir le résultat qui vous correspond le mieux. Par exemple, on peut faire les balances directement sur Dehancer pro, mais personnellement je préfère faire cela sur un node séparé (en amont). Pareil, je choisi parfois d’utiliser l’effet halation de Davinci, notamment lorsque je veux cet effet dans un désire d’esthétisme et non pas d’émulation de vieille caméra. 

Chacun ses choix et ses préférences, mais n’oubliez pas d’essayer des choses, d’ailleurs vrai dans tout le processus de colorimétrie et pas uniquement pour Dehancer.

Promotion 💸

Si vous êtes intéressé par le plug-in Dehancer pro ou les autres produits de la marque (comme il est possible de ne prendre que le grain, les dommages, etc. séparément), vous avez 10% avec le code PIXEL10 🎁

Dehancer m’a contacté pour me proposer de vous présenter l’extension si elle me plaisait, en échange d’une licence. J’ai eu cependant toute liberté sur mes propos. Merci à eux !

Obturateur mécanique vs électronique (et global)

Obturateur mécanique vs électronique

action de l'obturateur mécanique

Ha la fameuse question du shutter idéal. Selon vous, qu’est-ce qui est mieux : le mecanical shutter ou electronical shutter ? Sans oublier le nouveau Global shutter 🫨

Et bien spoil : ils ont tous des avantages et inconvénients. Bah oui, sinon ça serait trop simple, ce serait comme comparer Final cut pro et Premiere pro (je déconne, premiere est clairement mieux 😎 Pas du tout biaisé)

Qu'est-ce qu'un obturateur (shutter) ?

Alors déjà : shutter est simplement l’anglais d’obturateur. Simplement dans la vidéo comme dans bien d’autres domaines, on utilise assez souvent les termes anglophones.

Ceci étant dit, l’obturateur est le volet placé devant le capteur qui vient le couvrir pour bloquer la lumière et ainsi jouant sur l’exposition, déterminée par la vitesse d’obturation. Celui du fameux, du trio légendaire d’exposition ouverture/vitesse/iso.

C’est donc originellement une pièce des appareils photos, l’obturateur mécanique, qui a été décliné en obturateur électronique et finalement dévié en obturateur global (global shutter)

L'obturateur mécanique : vestige du passé

Quel titre de drama. La vérité étant que bien que plus ancien, il est toujours présent dans beaucoup d’appareils, et pas pour une simple question de prix.

Il s’appelle ainsi car contrairement à l’obturateur électronique, il fonctionne avec une pièce mécanique, un volet, ce qui en fait son premier défaut : il est aussi fragile que l’ego d’un rugbyman du sud-ouest (j’espère qu’aucun d’entres-eux ne lit ces lignes 👀). C’est d’ailleurs pour cela que lors de la vente d’un appareil, on spécifie généralement le nombre de déclenchement, un peu comme le kilométrage pour une voiture.

Mais ce qui justifie la recherche de solutions alternatives est son autre défaut : il est LENT. Alors attention, terme à prendre avec des pincettes, on parle toujours en fraction de seconde, mais il impose une limite physique aux vitesses très élevées et donc aussi aux rafales. 👵🏻

L'obturateur électronique : plus rapide, plus récent

Avec nos technologies, cette évolution nous paraît naturelle. C’est simplement l’appareil qui va décider le temps pendant lequel il « active » le capteur. Donc finies les limites physiques : on peut descendre dans des vitesse très rapides et pas de risque de casse.

Mais ça ne vient pas sans ses désavantages. Le principal étant le rolling shutter. Il s’agit de l’effet de déformation d’un objet rapide (vous pouvez le retrouver dans ma vidéo YouTube plus haut si vous ne voyez pas). C’est quelque chose d’assez fréquent et tous les appareils n’en sont pas sensibles de la même manière, généralement plus on monte en gamme, moins il apparaîtra. 

Cela s’explique par la manière dont le capteur récolte les informations. Il le fait ligne par ligne, donc il y aura un décalage de l’objet entre le moment où la première ligne prend l’information et la dernière. PAS COOL.

Le global shutter : la solution ultime ?

différence shutter électronique et global shutter

Pour régler ça, Sony a introduit pour la première fois dans son Sony A9III une nouvelle technologie : le global shutter.

L’idée est simple, plutôt que de récolter les informations ligne par ligne, il le fait simultanément sur l’intégralité du capteur. Plus de rolling shutter, plus de casse d’obturateur, plus de limite de vitesse… La solution parfaite.

… Ou plutôt presque parfaite. Je n’en ai jamais utilisé, mais apparemment ça impliquerait de moins bonnes capacités en basse lumière et une plage dynamique plus réduite en pratique. À vous de voir si cet aspect est négligeable (bon par contre le prix ne l’est pas actuellement 🥲💸)

Anecdote

Je blague dans la vidéo sur l’obturateur manuel, mais saviez-vous que ce n’est pas loin de ce qui existait à l’origine ? Une plaque mise et retirée manuellement devant le « capteur » (des plaques de matériaux spécifiques à l’époque) pour faire passer qu’une certaine quantité de lumière. C’est l’histoire de la photographie, qui remonte bien plus loin qu’on ne pourrait le croire 🥸

N’hésitez pas à me poser vos questions en commentaire si besoin !

Gamma 2.2 ou 2.4 (et Rec.709-A?)

Gamma 2.2, gamma 2.4, Rec.709-A : que choisir

Que ce soit lors de l’exportation ou lorsque qu’on doit décider quoi mettre dans notre CST on se retrouve confronté à ce choix du gamma. Mais à quoi correspond-il ? Et c’est quoi cette histoire de gamma 1.96 ? C’est pour nous embrouiller c’est ça ? C’EST ÇA ??? 

Ne vous en faites pas, après cet article tout deviendra clair. Vous allez même comprendre pourquoi votre exportation ne ressemble pas à votre rendu dans le logiciel.

Qu'est-ce que le gamma

Gamma est l’acronyme pour « Courbe d’Interprétation de Tonalité ». Euh… ça marche pas du tout en fait. Mais l’idée est là : le gamma c’est la manière dont l’image va passer du noir au blanc. À ne pas confondre avec le Gamut qui est l’équivalent pour les couleurs. Cela se fait par une fonction, une courbe, comme le montre ce schéma ci-contre. Ça va donc avoir un impact sur le contraste et la luminosité du résultat.

Là normalement on comprend déjà un peu mieux cette histoire de gamma linéaire : la transition du noir au blanc va se faire linéairement, de la même manière peu importe à quelle niveau nous sommes. 

Mais n’est-ce pas ainsi que la vie devrait être ? Pourquoi en existe-il d’autres ?

Schéma représentant la différence entre les courbes gamma linéaire, 2,0, 2,2, 2,4 et 2,6

Gamma 2.2, 2.4, 2.6 ?

Si on n’utilise pas de gamma linéaire, c’est déjà parce que nos yeux ont eux-même un gamma non-linéaire. Bizarre ? Pas tant. Si vous avez une ampoule allumée dans votre pièce et que vous allumez une seconde similaire, vous n’allez pas voir 2x plus clair. Quel enfer ce serait. C’est pour la même raison que quand vous allumez une lumière dans le noir et en plein jour, l’impacte n’est pas le même.

C’est pour reproduire ça que nos écrans et appareils n’utilisent pas de courbe linéaire. Et la courbe « idéale » va être différente en fonction de l’environnement dans lequel vous regarderez la vidéo, car comme vous pouvez voir sur cette illustration, le même gris ne va pas vous paraître de la même luminosité du fait de son environnement.

Gamma 2.2

Le Gamma 2.2 est celui qui sera le plus utilisé pour le quotidien : media lu sur votre téléphone dans le bus, votre ordinateur dans un café, votre apple watch dans l’espace… (Hé je connais pas votre rythme de vie hein). Bref un environnement à priori assez lumineux. Donc pour faire simple : vos vidéos destinées aux réseaux sociaux, YouTube, etc. pourront être travaillées et exportées en gamma 2.2.

Gamma 2.4

Le gamma du brodcast. Il sera à destination des contenues diffusés sur des télévisions, car souvent regardées dans un environnement plus sombre (le petit épisode Netflix en début de soirée qui se finit en réalité 3 saisons plus tard à 4h du mat on connait). 

Il sera plus contrasté et plus sombre dans sa globalité. En général, si vous devez travailler et exporter en 2.4, vous le savez.

Gamma 2.6

Toujours plus contrasté, toujours plus sombre : le gamma du cinéma. Je ne sais pas si vous avez remarqué mais dans un salle de cinéma il fait LÉGÈREMENT sombre. En tous cas quand y’a pas Stéphanie qui décide de regarder ses notifications en plein milieu de la salle ON S’EN FOUT DE TON FIL D’ACTUALITÉ FACEBOOK STEPH. Alors pour s’adapter, le gamma 2.6 sera celui à choisir. Et une fois de plus, vous saurez quand vous devrez l’utiliser je pense.

Rec.709-A

Vous avez peut-être déjà entendu parler du Rec.709A, disponible dans la liste lors de l’exportation. Si vous n’êtes pas familier avec la notion d’espace colorimétrique, il s’agit du « milieu » dans lequel vous allez travailler votre image et la visionner. Et le milieu le plus standard des moniteurs est le Rec.709. 

Le Rec.709-A est un espace indiquant aux lecteurs avec ColorSync (Quicktime) d’interpréter le gamma en 1.96 afin d’avoir le même affichage sur les appareils, assez répandus il me semble, Apple. D’où le « A », enfin je suppose.

Ce sera du Rec.709 en gamma 2.4, une solution apportée par Davinci Resolve pour corriger le décalage connu et problématique entre les appareils Apple et les autres. Mais ce choix est désormais moins utile depuis la MAJ 20.2.2 de DaVinci, pour ça je vous renvoie à ma vidéo un peu plus haut.

Au final, lequel choisir

Okay, je vais mettre toute partie technique de côté pour parler d’expérience et de choses concrètes. 

Déjà, si vous DEVEZ travailler et exporter en Gamma 2.4 ou Gamma 2.6, comme je vous l’ai dit vous êtes probablement au courant. Il y a de fortes chances que vous soyez sur un projet d’équipe avec des instructions à suivre, spécifiant l’output gamma.

Dans le reste des cas, si vous travaillez sur Davinci Resolve, je vous conseille de soit tirer partie du Rec.709-A, soit de bien cocher la case dans vos réglages pour utiliser le Rec.709 (scene). Encore une fois, voir ma vidéo pour plus de détail.  Autrement, utilisez plutôt le gamma 2.2 si le contenu va être publié sur les réseaux… Sauf si vous préférez le rendu de votre colorimétrie en gamma 2.4. Parce qu’après tout ce n’est pas parce que un gamma est plus adapté sur le papier que dans la réalité il embellira votre image.

La solution alternative aux vidéos flat

Si vous travaillez sur premiere pro, vous n’avez pas (encore) la possibilité d’exporter en Rec.709-A. Mais comme dans tous les cas vous faites probablement une colorimétrie approximative dessus c’est pas un drame (Ouuuuh la balle perdue pour premiere 👀). L’alternative à cela est de mettre une lut de conversion qui va faire correspondre votre résultat finale à votre colorimétrie dans le logiciel. Pour ça lors de l’exportation vous allez dans l’onglet effets et insérez la lut que vous pouvez télécharger un peu plus bas, tout simplement.

Le problème de cette solution c’est que si vous regardez la vidéo sur un appareil sans ColorSync, vous aurez l’effet inverse : une vidéo trop contrastée. Alors vous pouvez partir du principe qu’il y aura une majorité d’appareils Apple qui liront votre vidéo, ou alors laisser une vidéo un peu fade en exportation… À vous de voir !

Anecdote de fin

La roue gamma des primaires correspond aux tons du milieu, si vous la bougez que remarquez vous ? Hé bah oui, la courbe va se comporter de la même manière que la courbe d’interprétation des gamma.

J’ai jamais dit qu’elle allait être intéressante l’anecdote

Guide de démarrage : Davinci Resolve (20)

Davinci Resolve (v.20) : Guide débutant

Vous êtes là, avec vos meilleurs rush de vacances aux Maldives, c’est magnifique vous vous sentez au Spielberg level de la vidéo. Mais arrivé devant Davinci Resolve, vous vous sentez désormais plutôt comme votre grand-mère devant une box internet cassée.

C’est pour ça que je vous ai fait une vidéo qui vous guidera sur vos premiers pas dans le logiciel de Blackmagic 🫴

Quelques questions que vous pouvez vous poser...

Quelle est la différence entre la version gratuite et la version payante (Studio) de Davinci Resolve :

  • La version payante vous offres plusieurs fonctionnalités supplémentaires (timeline 4K verticale, réduction de bruit, etc.) mais généralement rien qui vous bloquera en tant qu’amateur.

Que choisir : Premiere Pro, Davinci Resolve ou Final Cut Pro ? 

  • Aucun de ces logiciel n’est réellement supérieur à l’autre (dépendant de la dernière mise à jour), ils ont leurs avantages et inconvénients. Le gros avantage de Davinci étant, outre ses possibilités en colorimétrie incomparables, sa version gratuite très complète et une version payante peu coûteuse. 

Comment fonctionne le panneau colorimétrie et quel node tree utiliser ?

  • Si vous utilisez Davinci, ce peut être pour son incroyable colorimétrie. C’est tout un métier coloriste, mais ça ne vous empêchera pas de vous y mettre, et pour ça j’en ai fait un article avec une vidéo. Un autre sur les différents node tree est en cours de création !

Mon montage affiche « media offline », que faire ? 😱

  • Si vous avez un écran rouge avec un point d’exclamation de media hors ligne, c’est simplement que Davinci ne sait pas où vous avez mis votre élément sur votre ordinateur. Si vous déplacez le contenu dans un autre dossier, que vous le renommez ou supprimez, il ne saura pas avec quoi travailler. Un peu comme si vous étiez forgeron et qu’on planquait votre acier, pas cool. Pour ça vous pouvez faire clique droit sur l’élément dans le panneau master et le remplacer ou indiquer au logiciel où vous l’avez mis.

N’hésitez pas en commentaire si vous avez d’autres questions !

 

Télécharger les fichiers

Comme mentionné dans la vidéo, vous pouvez récupérer mes éléments pour vous entrainer à faire le montage de votre côté ! Et vous abonner à la chaîne YouTube pour en apprendre davantage 🤓

Il s’agit d’un lien Dropbox, qui va vous rediriger vers le site où vous pourrez sélectionner et télécharger gratuitement les fichiers.

4:2:2 vs 4:2:0, 10 bits vs 8 bits, que choisir ?

4:2:2 vs 4:2:0, 10 bits vs 8 bits, que choisir ?

Vous n’arrêtez pas d’entendre votre pote se vanter de la profondeur de couleurs de sa  nouvelle caméra 8k 90M de pixels blablabla alors qu’en vrai vous n’avez jamais pu le pifrer. Mais pour ne pas passer pour un inculte, vous vous êtes quand même demandé ce qu’il voulait dire par dibeat. Déjà il voulait dire « 10 bits », ensuite, vous êtes au bon endroit pour comprendre la subtilité des choix de codec vidéo. Et si vous ne savez pas lire, vous avez la version vidéo en bas de cet article 🍿

Un choix de compression à faire

Lorsque vous regardez vos choix en terme d’enregistrement vidéo sur votre caméra, vous allez avoir un choix de format (comme XAVC S 4k sur un A7SIII) ainsi qu’une série de chiffres, comme 140M 4:2:2 10 bits. Ce choix va être déterminant dans la qualité de la vidéo, notamment ce « 140M », désignant le bitrate, ou débit binaire, mais ça n’est pas le sujet ici, j’en ai fait tout un article

On va s’intéresser aux autres informations.

Avant Après

À priori, on ne voit pas une grosse différence, si ce n’est que les vagues suivent leur mouvement et les nuages le vent

8 bits, 10 bits, 12 bits, 16 bits ou 9210384792 bits (??)

C’est la partie la plus facile à comprendre. On va parler tout au long de cet article en RVB, désignant vous le savez probablement du Rouge Vert & Bleu, les trois couleurs primaires dont peuvent découler l’intégralité des autres couleurs en en mixant certains tons. Le choix du nombre de bits va indiquer le nombre de tonalités possibles de chaque canaux (RVB).

Quand choisir du 8bits
Plus concrètement, le 8bits permet d’avoir 256 tons par canal. On pourra donc mixer jusqu’à 256³ tons, donc 256 x 256 x 256 = 16 777 216. 16,7Mn de couleurs c’est déjà pas mal non ? Et bien si on ne fait pas de colorimétrie, oui c’est déjà pas mal, ça sera évidemment bien plus que suffisant pour vos vidéos souvenir de repas de famille. 

Quand choisir du 10bits
Si 16,7 millions de couleurs paraît pas mal, le 10 bits offre 1024 tons par canal. Donc 1024 x 1024 x 1024 = 1073741824. Ouais ça commence à faire pas mal plus d’1 milliard. Et c’est la capacité classiques des caméras semi-pro/pro actuelles comme la Sony Fx3, le Canon R5, etc. La différence en post-production se fera réellement sentir. Quand je suis passé de l’A7III en 8bits à la Fx3 en 10bits, j’avais l’impression de redécouvrir la colorimétrie. Étape que j’affectionne particulièrement de la post-production. Alors si vous comptez passer par là et avez le choix, n’hésitez pas à opter pour du 10bits.

Quand choisir du 12 ou 16bits
Tous les jours de votre vie si vous en avez la possibilité. Cette profondeur est généralement réservée aux caméras pro destinées aux courts et longs métrages. Pour un ordre d’idée, le 16bits vous apporte 281 474 MILLIARD. DE. COULEURS. Là on se dit que 16,7 million c’est pas tant.

4:4:4, 4:2:2 ou 4:2:0, une compression des couleurs​

Alors, pour comprendre ça, le plus simple c’est de vous expliquer ça avec des ✨ tableaux ✨. Ces chiffres rentrent dans un ensemble de 8 pixels, divisés en 2 lignes de 4. Le premier correspond au nombre d’information de luminance par ligne, le deuxième au nombre d’information de RVB pour la ligne A et le troisième au nombre d’information de RVB pour la ligne B.

Je vais vous expliquer ça d’ailleurs avec le RVB et non la chrominance (YCbCr) mais la logique est la même.

Le 4:4:4, l’incompressé eternel
Le 4:4:4 est un format RAW, c’est-à-dire sans compression. Cela veut donc dire que tous les pixels continent toutes les informations :

  •  4 de luminance par ligne ;
  • 4 de RVB sur la ligne A ;
  • 4 de RVB sur la ligne B.

Les compressions en 4:2:2 et 4:2:0
Sur la logique du paragraphe précédent, le 4:2:2 correspond à :

  •  4 de luminance par ligne ;
  • 2 de RVB sur la ligne A ;
  • 2 de RVB sur la ligne B.

Et le 4:2:0 à :

  •  4 de luminance par ligne ;
  • 2 de RVB sur la ligne A ;
  • 0 de RVB sur la ligne B.

Donc on aurait des pixels sans aucune information de couleur ? Et bien oui et non. Car si seulement 1 pixel sur 4 n’avait pas de couleur, ça se verrait. Ce qui se passe c’est que l’appareil va prendre les informations des pixels adjacents pour combler les vides. On a d’ailleurs une alternance entre les pixels sans info et avec info.

Pourquoi ne pas juste avoir du 4:4:4 me diriez vous ? Hé bien pour un souci de taille de fichier et de limitations techniques. Et au final la différence visuelle est très faible, si ce n’est pas carrément imperceptible. À quoi sert le RAW me direz vous. Tout comme pour la photo, à une meilleure marge de manœuvre en post production. Et celle-ci est réellement notable. 

Au final, que choisir ?

Mon conseil final : si vous bosser sur un projet pas important, ne nécessitant pas de colorimétrie et que la place sur votre disque dur des fichiers vous importe, vous pouvez filmez en 4:2:0 8bits. Dans tous les autres cas, je vous suggère de choisir le meilleur enregistrement, car vous ne pourrez pas « améliorer » ça en post-prod.