Gamma 2.2, gamma 2.4, Rec.709-A : que choisir
Que ce soit lors de l’exportation ou lorsque qu’on doit décider quoi mettre dans notre CST on se retrouve confronté à ce choix du gamma. Mais à quoi correspond-il ? Et c’est quoi cette histoire de gamma 1.96 ? C’est pour nous embrouiller c’est ça ? C’EST ÇA ???
Ne vous en faites pas, après cet article tout deviendra clair. Vous allez même comprendre pourquoi votre exportation ne ressemble pas à votre rendu dans le logiciel.
Qu'est-ce que le gamma
Gamma est l’acronyme pour « Courbe d’Interprétation de Tonalité ». Euh… ça marche pas du tout en fait. Mais l’idée est là : le gamma c’est la manière dont l’image va passer du noir au blanc. À ne pas confondre avec le Gamut qui est l’équivalent pour les couleurs. Cela se fait par une fonction, une courbe, comme le montre ce schéma ci-contre. Ça va donc avoir un impact sur le contraste et la luminosité du résultat.
Là normalement on comprend déjà un peu mieux cette histoire de gamma linéaire : la transition du noir au blanc va se faire linéairement, de la même manière peu importe à quelle niveau nous sommes.
Mais n’est-ce pas ainsi que la vie devrait être ? Pourquoi en existe-il d’autres ?
Gamma 2.2, 2.4, 2.6 ?
Si on n’utilise pas de gamma linéaire, c’est déjà parce que nos yeux ont eux-même un gamma non-linéaire. Bizarre ? Pas tant. Si vous avez une ampoule allumée dans votre pièce et que vous allumez une seconde similaire, vous n’allez pas voir 2x plus clair. Quel enfer ce serait. C’est pour la même raison que quand vous allumez une lumière dans le noir et en plein jour, l’impacte n’est pas le même.
C’est pour reproduire ça que nos écrans et appareils n’utilisent pas de courbe linéaire. Et la courbe « idéale » va être différente en fonction de l’environnement dans lequel vous regarderez la vidéo, car comme vous pouvez voir sur cette illustration, le même gris ne va pas vous paraître de la même luminosité du fait de son environnement.
Gamma 2.2
Le Gamma 2.2 est celui qui sera le plus utilisé pour le quotidien : media lu sur votre téléphone dans le bus, votre ordinateur dans un café, votre apple watch dans l’espace… (Hé je connais pas votre rythme de vie hein). Bref un environnement à priori assez lumineux. Donc pour faire simple : vos vidéos destinées aux réseaux sociaux, YouTube, etc. pourront être travaillées et exportées en gamma 2.2.
Gamma 2.4
Le gamma du brodcast. Il sera à destination des contenues diffusés sur des télévisions, car souvent regardées dans un environnement plus sombre (le petit épisode Netflix en début de soirée qui se finit en réalité 3 saisons plus tard à 4h du mat on connait).
Il sera plus contrasté et plus sombre dans sa globalité. En général, si vous devez travailler et exporter en 2.4, vous le savez.
Gamma 2.6
Toujours plus contrasté, toujours plus sombre : le gamma du cinéma. Je ne sais pas si vous avez remarqué mais dans un salle de cinéma il fait LÉGÈREMENT sombre. En tous cas quand y’a pas Stéphanie qui décide de regarder ses notifications en plein milieu de la salle ON S’EN FOUT DE TON FIL D’ACTUALITÉ FACEBOOK STEPH. Alors pour s’adapter, le gamma 2.6 sera celui à choisir. Et une fois de plus, vous saurez quand vous devrez l’utiliser je pense.
Rec.709-A
Vous avez peut-être déjà entendu parler du Rec.709A, disponible dans la liste lors de l’exportation. Si vous n’êtes pas familier avec la notion d’espace colorimétrique, il s’agit du « milieu » dans lequel vous allez travailler votre image et la visionner. Et le milieu le plus standard des moniteurs est le Rec.709.
Le Rec.709-A est un espace indiquant aux lecteurs avec ColorSync (Quicktime) d’interpréter le gamma en 1.96 afin d’avoir le même affichage sur les appareils, assez répandus il me semble, Apple. D’où le « A », enfin je suppose.
Ce sera du Rec.709 en gamma 2.4, une solution apportée par Davinci Resolve pour corriger le décalage connu et problématique entre les appareils Apple et les autres. Mais ce choix est désormais moins utile depuis la MAJ 20.2.2 de DaVinci, pour ça je vous renvoie à ma vidéo un peu plus haut.
Au final, lequel choisir
Okay, je vais mettre toute partie technique de côté pour parler d’expérience et de choses concrètes.
Déjà, si vous DEVEZ travailler et exporter en Gamma 2.4 ou Gamma 2.6, comme je vous l’ai dit vous êtes probablement au courant. Il y a de fortes chances que vous soyez sur un projet d’équipe avec des instructions à suivre, spécifiant l’output gamma.
Dans le reste des cas, si vous travaillez sur Davinci Resolve, je vous conseille de soit tirer partie du Rec.709-A, soit de bien cocher la case dans vos réglages pour utiliser le Rec.709 (scene). Encore une fois, voir ma vidéo pour plus de détail. Autrement, utilisez plutôt le gamma 2.2 si le contenu va être publié sur les réseaux… Sauf si vous préférez le rendu de votre colorimétrie en gamma 2.4. Parce qu’après tout ce n’est pas parce que un gamma est plus adapté sur le papier que dans la réalité il embellira votre image.
La solution alternative aux vidéos flat
Si vous travaillez sur premiere pro, vous n’avez pas (encore) la possibilité d’exporter en Rec.709-A. Mais comme dans tous les cas vous faites probablement une colorimétrie approximative dessus c’est pas un drame (Ouuuuh la balle perdue pour premiere 👀). L’alternative à cela est de mettre une lut de conversion qui va faire correspondre votre résultat finale à votre colorimétrie dans le logiciel. Pour ça lors de l’exportation vous allez dans l’onglet effets et insérez la lut que vous pouvez télécharger un peu plus bas, tout simplement.
Le problème de cette solution c’est que si vous regardez la vidéo sur un appareil sans ColorSync, vous aurez l’effet inverse : une vidéo trop contrastée. Alors vous pouvez partir du principe qu’il y aura une majorité d’appareils Apple qui liront votre vidéo, ou alors laisser une vidéo un peu fade en exportation… À vous de voir !
Anecdote de fin
La roue gamma des primaires correspond aux tons du milieu, si vous la bougez que remarquez vous ? Hé bah oui, la courbe va se comporter de la même manière que la courbe d’interprétation des gamma.
J’ai jamais dit qu’elle allait être intéressante l’anecdote
4:2:2 vs 4:2:0, 10 bits vs 8 bits, que choisir ?
Vous n’arrêtez pas d’entendre votre pote se vanter de la profondeur de couleurs de sa nouvelle caméra 8k 90M de pixels blablabla alors qu’en vrai vous n’avez jamais pu le pifrer. Mais pour ne pas passer pour un inculte, vous vous êtes quand même demandé ce qu’il voulait dire par dibeat. Déjà il voulait dire « 10 bits », ensuite, vous êtes au bon endroit pour comprendre la subtilité des choix de codec vidéo. Et si vous ne savez pas lire, vous avez la version vidéo en bas de cet article 🍿
Un choix de compression à faire
Lorsque vous regardez vos choix en terme d’enregistrement vidéo sur votre caméra, vous allez avoir un choix de format (comme XAVC S 4k sur un A7SIII) ainsi qu’une série de chiffres, comme 140M 4:2:2 10 bits. Ce choix va être déterminant dans la qualité de la vidéo, notamment ce « 140M », désignant le bitrate, ou débit binaire, mais ça n’est pas le sujet ici, j’en ai fait tout un article.
On va s’intéresser aux autres informations.
À priori, on ne voit pas une grosse différence, si ce n’est que les vagues suivent leur mouvement et les nuages le vent
8 bits, 10 bits, 12 bits, 16 bits ou 9210384792 bits (??)
C’est la partie la plus facile à comprendre. On va parler tout au long de cet article en RVB, désignant vous le savez probablement du Rouge Vert & Bleu, les trois couleurs primaires dont peuvent découler l’intégralité des autres couleurs en en mixant certains tons. Le choix du nombre de bits va indiquer le nombre de tonalités possibles de chaque canaux (RVB).
Quand choisir du 8bits
Plus concrètement, le 8bits permet d’avoir 256 tons par canal. On pourra donc mixer jusqu’à 256³ tons, donc 256 x 256 x 256 = 16 777 216. 16,7Mn de couleurs c’est déjà pas mal non ? Et bien si on ne fait pas de colorimétrie, oui c’est déjà pas mal, ça sera évidemment bien plus que suffisant pour vos vidéos souvenir de repas de famille.
Quand choisir du 10bits
Si 16,7 millions de couleurs paraît pas mal, le 10 bits offre 1024 tons par canal. Donc 1024 x 1024 x 1024 = 1073741824. Ouais ça commence à faire pas mal plus d’1 milliard. Et c’est la capacité classiques des caméras semi-pro/pro actuelles comme la Sony Fx3, le Canon R5, etc. La différence en post-production se fera réellement sentir. Quand je suis passé de l’A7III en 8bits à la Fx3 en 10bits, j’avais l’impression de redécouvrir la colorimétrie. Étape que j’affectionne particulièrement de la post-production. Alors si vous comptez passer par là et avez le choix, n’hésitez pas à opter pour du 10bits.
Quand choisir du 12 ou 16bits
Tous les jours de votre vie si vous en avez la possibilité. Cette profondeur est généralement réservée aux caméras pro destinées aux courts et longs métrages. Pour un ordre d’idée, le 16bits vous apporte 281 474 MILLIARD. DE. COULEURS. Là on se dit que 16,7 million c’est pas tant.
4:4:4, 4:2:2 ou 4:2:0, une compression des couleurs



Alors, pour comprendre ça, le plus simple c’est de vous expliquer ça avec des ✨ tableaux ✨. Ces chiffres rentrent dans un ensemble de 8 pixels, divisés en 2 lignes de 4. Le premier correspond au nombre d’information de luminance par ligne, le deuxième au nombre d’information de RVB pour la ligne A et le troisième au nombre d’information de RVB pour la ligne B.
Je vais vous expliquer ça d’ailleurs avec le RVB et non la chrominance (YCbCr) mais la logique est la même.
Le 4:4:4, l’incompressé eternel
Le 4:4:4 est un format RAW, c’est-à-dire sans compression. Cela veut donc dire que tous les pixels continent toutes les informations :
- 4 de luminance par ligne ;
- 4 de RVB sur la ligne A ;
- 4 de RVB sur la ligne B.
Les compressions en 4:2:2 et 4:2:0
Sur la logique du paragraphe précédent, le 4:2:2 correspond à :
- 4 de luminance par ligne ;
- 2 de RVB sur la ligne A ;
- 2 de RVB sur la ligne B.
Et le 4:2:0 à :
- 4 de luminance par ligne ;
- 2 de RVB sur la ligne A ;
- 0 de RVB sur la ligne B.
Donc on aurait des pixels sans aucune information de couleur ? Et bien oui et non. Car si seulement 1 pixel sur 4 n’avait pas de couleur, ça se verrait. Ce qui se passe c’est que l’appareil va prendre les informations des pixels adjacents pour combler les vides. On a d’ailleurs une alternance entre les pixels sans info et avec info.
Pourquoi ne pas juste avoir du 4:4:4 me diriez vous ? Hé bien pour un souci de taille de fichier et de limitations techniques. Et au final la différence visuelle est très faible, si ce n’est pas carrément imperceptible. À quoi sert le RAW me direz vous. Tout comme pour la photo, à une meilleure marge de manœuvre en post production. Et celle-ci est réellement notable.
Au final, que choisir ?
Mon conseil final : si vous bosser sur un projet pas important, ne nécessitant pas de colorimétrie et que la place sur votre disque dur des fichiers vous importe, vous pouvez filmez en 4:2:0 8bits. Dans tous les autres cas, je vous suggère de choisir le meilleur enregistrement, car vous ne pourrez pas « améliorer » ça en post-prod.
Qu'est-ce que le débit binaire
Pas besoin d’être débutant pour se demander ce qu’est le débit binaire en vidéo, ou encore quel débit binaire choisir pour publier sur les réseaux. Et pourtant, c’est quelque chose que l’on doit régler à chaque exportation, qu’importe que ce soit sur premiere pro, final cut pro ou davinci resolve. Capcut j’en ai aucune idée je préfère encore monter sur Windows Movie Maker version 2006.
Alors plutôt que de simplement suivre un avis aléatoire trouvé sur le net pour savoir le débit binaire optimal pour un réel instagram en 2025, on va plutôt s’attarder sur ce que c’est exactement. Et ensuite oui voir comment le régler, quand même.
La qualité vidéo définie par le débit binaire
Si vous faites le test d’exporter une vidéo en 4k avec un débit binaire réglé sur 1Mbps (megabits par seconde), vous serez probablement autant déçu que la fois où votre crush de collège a embrassé Tim Cardoin après l’EPS (c’est beaucoup trop spécifique pour ne pas être louche). Et bien c’est normal, puisque le bitrate (l’anglais de débit binaire) impact directement la qualité de votre exportation. Hé oui, il n’y a pas que la résolution 4K jsp quoi qui fera la différence.
Pour l’explication scientifique 🤓 : Le débit binaire correspond à la quantité de données transmise en un temps donné, d’où le « bit par seconde ». Ça ne concerne pas que la vidéo, la preuve en est que si vous télécharger un fichier, vous verrez une vitesse de téléchargement, exprimée en bps. Et si vous vous demandiez pourquoi la vitesse est en bit par seconde alors que le fichier final est en Mo, c’est parce que Mo est pour Megaoctet, et un octet = 8 bits. Alors pourquoi ne pas avoir une vitesse en octet par seconde me diriez vous ? BAH J’EN SAIS FOUTREMENT RIEN.
Quel débit binaire pour exporter sa vidéo
Si on veut de la qualité, la solution est simple : régler le débit binaire au plus haut. C’est ce que je vous dirais si c’était mon premier jour de stage et que je ne savais pas du tout de quoi je parlais. La réalité est plus complexe. Car si en effet un débit élevé va avoir théoriquement une meilleure qualité, c’est sans compter déjà les problèmes que votre matériel pourrait avoir lors de l’encodage, résultant de bugs dans votre vidéo finale. C’est logique, vous demanderez à votre machine de faire une tâche plus complexe, elle peut se tromper, l’erreur est machine après tout. euh…
L’autre inconvénient d’un bitrate élevé est que vous aurez nécessairement un fichier plus lourd à l’arrivée. Et si vous n’en avez que faire puisque vous foisonnez de place grâce à votre nouvelle disquette 3,5″ de 1,44Mo, les plateformes elles s’en inquiètent. Et si votre fichier est trop peu compressé, elles se chargeront de les passer au concasseur. Et elles le font mal. Alors la meilleure solution reste de regarder les suggestions des plateformes concernant leur importation optimale. Et oui, ça change en fonction de la plateforme et du type de fichier.
Mais voilà déjà un tableau pour y voir plus clair :
Type | Débit Binaire pour 24, 25 et 30 ips en SDR | Débit Binaire pour 48, 50 et 60 ips en SDR | Débit Binaire pour 24, 25 et 30 ips en HDR | Débit Binaire pour 48, 50 et 60 ips en HDR |
2160p (4k) | 35-45 Mbps | 53-68 Mbps | 44-56 Mbps | 66-85 Mbps |
1440 (2k) | 16 Mbps | 24 Mbps | 20 Mbps | 30 Mbps |
1080p (Full HD) | 8 Mbps | 12 Mbps | 10 Mbps | 15 Mbps |
720p (HD) | 5 Mbps | 7,5 Mbps | 6,5 Mbps | 9,5 Mbps |
480p | 2,5 Mbps | 4 Mbps | XXX | XXX |
360p | 1 Mbps | 1,5 Mbps | XXX | XXX |
Quel format choisir au tournage
Lorsque vous êtes face au choix crucial (et important) du format de vidéo dans lequel enregistrer, vous pouvez choisir entre autres le débit binaire. Et croyez-moi, ce choix aura plus d’impact sur votre vie que admission post-bac ou peu importe comment ça s’appelle maintenant. Par exemple la Sony Fx3 permet en XAVC S-I 4K de filmer en 140, 100 ou 60Mbps. Vous verrez qu’en 140M votre fichier sera plus lourd alors que vous ne verrez très probablement aucune différence. C’est justement là que c’est intéressant : si votre œil n’a pas besoin de tant de données, votre logiciel de montage, lui, fera la différence.
Mon avis est simple : filmez au plus haut débit permis. Tout simplement. Car vous ne pourrez pas récupérer de la qualité en post-production, alors que vous pourrez la réduire pour gagner en optimisation si besoin. Après si vous savez que vous filmez juste l’anniv de votre petit cousin pour faire plaisir à tata qui va même pas vous lâcher un billet alors que les affaires sont les affaires, oui, n’hésitez pas économiser de l’espace.
Quel débit choisir pour streamer
Même si je suis payé pour vous parler de vidéo (j’dec je suis même pas payer j’pourrais aller surfer ou quoi mais j’ai décider de vous écrire un article sur le débit binaire MAIS QU’EST-CE QUE JE FAIS), le choix du bitrate est également important pour le stream. Mais… Il est un peu plus complexe à calculer puisqu’un autre facteur va rentrer en compte : votre connexion internet.
Ce qu’il faut retenir, c’est que comme pour le reste, le débit idéal va dépendre de la plateforme (vous pouvez vous référer aux conseils de celle-ci) et du format choisi (résolution et images par seconde). Et si vous êtes trop gourmand à mettre un débit trop élevé, vous risquez d’avoir des chutes d’ips voir des coupures dans votre stream.
Vous avez un calculateur ici pour vous aider à déterminer vos possibilités de stream en fonction de votre connexion internet. Et si vous streamez sur twitch, vous pouvez vous référer à leur charte.
Conclusion
Bon chance.
Comprendre l'iso natif et le dual iso
Si lorsqu’on démarre cette belle aventure qu’est la vidéo nous apprenons simplement que « plus l’iso est faible, moins il y a de bruit dans l’image », la réalité peut être un peu plus subtile.
Et là où ça nous impact directement, c’est que shooter avec l’iso le plus faible n’est pas forcément la meilleure solution en vidéo. C’est là où on découvre la réalité de l’iso natif d’un capteur et son potentiel dual iso.
Qu'est-ce que l'iso
Commençons déjà par les bases, parce que c’est avec de bonnes bases qu’on fait de bonnes tartes (??). L’iso (International Organization for Standardization) désigne la sensibilité d’un capteur à la lumière. Cela vaut donc pour la photo comme pour la vidéo : plus un capteur est sensible, donc avec un iso élevé, plus l’image sera exposée. Et ça vaut aussi pour l’argentique, pas que pour les p’tits jeunes d’aujourd’hui et leur iphon je sais pas quoi. 👵🏼
Mais un tel pouvoir qu’est le contrôle de la sensibilité ISO implique de grandes responsabilités, notamment une : l’ajout du bruit dans vos images. Et ça c’est pas cool. Donc choisir l’iso le plus bas possible est ce qui vous donnera le meilleur rendu. Enfin… Pas forcément.
L'iso natif
Les caméras ont des intervalles d’iso optimales, propre à leur capteur, par exemple 100 à 51 200 iso pour le Canon R5. Cela signifie que de 100 à 51 200, vous allez changer la sensibilité du capteur. Par contre en allant au delà ou en deçà, c’est l’appareil qui va simplement rajouter ou enlever de l’exposition comme vous le feriez sur Lightroom. Généralement donc pas très intéressant. Vous pouvez retrouver ces valeurs sur le manuel de votre appareil (vous savez le truc que vous n’avez jamais ouvert non plus).
La valeur basse, donc ici 100 dans notre exemple de Canon R5 est la valeur de l’iso natif, c’est-à-dire la valeur pour laquelle vous aurez le meilleur rendu. Mais s’il est souvent de 100 ou 200 en photo, ce n’est pas nécessairement le cas en vidéo.
Le meilleur iso en vidéo
Ici aussi ça va dépendre de votre appareil, il n’y a pas un iso commun. Et pire, ça va même dépendre du profil de couleur dans lequel vous filmez. Hé oui, par exemple Une Fx3 en S-Log3 aura un iso natif de 800, en revanche si vous passez en S.cinetone, il est de 100 iso.
Le dual iso
Si tous les appareils photos et caméras ont des iso natifs, certains ont même un dual iso. Mais qu’est-ce que le dual iso, c’est une paire de valeurs iso optimisés pour avoir le meilleur rapport bruit/exposition. Vous pouvez le voir comme un second iso natif en quelques sortes.
Sur la FX3 mentionnée précédemment, le dual iso est de 800-12 800 iso en S-log3. Ce qui veut dire que si vous êtes en situation de basse lumière et que vous montez vos iso à 10 000 vous aurez énormément de bruit comparé à sa valeur supérieure de 12 800. C’est d’ailleurs ce qui rend cet appareil si performant en basse lumière. Et tout comme l’iso natif, cette valeur va changer si vous n’êtes pas en log (100-2000 pour la Fx3).
Quelques références de double iso
Je vous liste ici quelques références de dual iso si jamais vous cherchez le vôtre (j’en rajouterai au fur et à mesure, n’hésitez pas à demander le vôtre en commentaire)
- Sony Fx3 : 100-2000 (S-Log3 800-12 800)
- Sony Fx30 : 125 – 400 (S-Log3 800 – 2 500)
- Sony A7SIII : 100-2000 (S-Log3 640-12 800)
- Canon R5 & R5C : 800 – 3200 C-log
Note : Ces valeurs peuvent changer suite à des mise à jour de firmware.
Les limites du dual iso
Je me suis posé une question simple, en tant qu’utilisateur d’une Sony Fx3 : vaut-il mieux shooter en 1600 iso si 800 n’est pas suffisant, ou 12 800 ? Quel est le meilleur résultat ? Hé bien j’en ai fait une vidéo :
Tout comprendre sur la 4k
« La 4K, c’est nul. » Tout est parti de la fois où un ami m’a demandé des conseils pour s’acheter sa première caméra, voulant à tout prix qu’elle filme en 4K, peu importe le reste. C’était il y a un moment, alors que cette spécificité n’étaient pas autant répandues que maintenant, mais j’en ai fait ce réel.
Il est désormais temps d’aller un peu plus dans le détail.
À quoi correspond la UHD 4K
La 4K ne désigne qu’un nombre de pixels, la résolution. Ce n’est donc qu’un indicateur de la qualité de la vidéo parmi d’autres. Il s’agit à l’origine du format cinéma 17:9 DCI (Digital Cinema Initiative) de 4096 x 2160p. C’est ce qui a donné une fois transposé au grand public sur la télé de Jean-Eudes le 3840 x 2160p. Les deux correspondent à la 4K, ou UHD (Ultra Haute Température euuuh non ça c’est pour le lait. Définition*), juste que le format cinéma numérique a toujours été plus étendu. En effet, le 2K cinéma était déjà du 17:9 avec 2048 x 1080p.
Alors si vous vous demandiez à quoi correspondait le format de fichier sur votre Fx3 XAVC S-I 4K DCI et sa différence avec le simple XAVC S-I 4K, bah vous savez toujours pas plus à quoi correspond XAVC S-I mais au moins DCI ça vous pourrez le rebalancer au prochain repas de famille.
Et si vous ne savez pas quand prioriser le format DCI, à mon avis, si vous devez le prendre un jour vous le saurez.
On est donc sur la continuité de la HD (1280 x 720p) et de la FHD (1920 x 1080p) et certaines caméras plus haut de gamme filment désormais en 6k (5760 x 3240p) et 8k (7680 × 4320p).
Pourquoi filmer en 4K
La réponse peut paraître évidente : on veut de la QUA-LI-TÉ. Si vous comptez diffuser votre vidéo sur YouTube, sur grand écran ou même juste sur votre téléphone pour montrer vos dernières vacances à Poitiers à vos collègues au boulot (je déconne, personne part à Poitiers en vacances), la question ne se pose même pas. Mais là où elle est intéressante, c’est si vous comptez exporter en 1080p, pour poster par exemple sur Instagram ou Tiktok qui recommandent de publier en 1080p.
Le seul intérêt est pour le recadrage de vos plans. Si vous mettez un plan 4K dans une timeline réglé en 1080p et réduisez de 50% son échelle, vous aurez au final dans votre exportation la même définition que si le plan initial était en 1080p. Par contre, si vous laissez votre échelle à 100%, vous n’aurez pas de perte de qualité alors que votre image est 2 fois plus zoomée. Donc si vous vous demandiez pourquoi filmer en 4K pour exporter en 1080p, vous avez mainenant la réponse.
Pendant que nous y sommes, si votre question était de savoir s’il faut monter une vidéo 4K en 1080p ou en 4K pour une exportation en 4k sur premiere pro ou final cut pro, et bien personnellement je n’ai jamais vu de différence. Évitez par contre de monter en 1080p pour exporter en 4K au risque d’une perte de qualité. (Notez que je ne parle pas de Davinci Resolve parce que le logiciel est indépendant de la résolution.)
Pourquoi votre 4K est de mauvaise qualité
S’il y a bonne et mauvaise 4K, c’est parce qu’il y a comme dit précédemment d’autres facteurs rentrant en compte dans la qualité de l’image. Si on prend par exemple une vidéo d’un iPhone X à côté de celle d’un Canon R5 mark II, on se rend compte que le « 4K » souligné par le vendeur certifié était peut-être un peu marketing, même si c’est vrai. On note entre les deux appareils une différence notable dans la taille du capteur (gros défaut des téléphones), les codecs utilisés et l’objectif. Alors pourquoi les comparatifs téléphone vs caméra nous montrent des qualités similaires ? Et bien ça c’est un autre sujet pour lequel je vous ai déjà fait une vidéo sur mon Instagram.