Le week-end dernier The New Yorker a publié un essai de Kyle Chayka avec un titre garanti pour piquer mon intérêt et me faire grincer des dents :« Les appareils photo iPhone sont-ils devenus trop intelligents ? » (18 mars 2022).
En plus d'être un excellent exemple de la loi des titres de Betteridge, cela alimente l'idée que la photographie informatique est une menace pour les photographes ou ruine en quelque sorte la photographie. Le sous-titre rend le verdict de la même manière que les titres accrocheurs :« Les nouveaux modèles de smartphones d'Apple utilisent l'apprentissage automatique pour donner à chaque image un aspect professionnel. Cela ne veut pas dire que les photos sont bonnes."
L'implication là-bas, et l'idée maîtresse de l'article, est que l'apprentissage automatique crée de mauvaises images. C'est un exemple d'un type de contagion nostalgique de la peur qui augmente à mesure que davantage de technologies de photographie informatique aident à créer des images :Les machines gagnent en contrôle, les algorithmes prennent les décisions que nous avions l'habitude de prendre, et mon iPhone 7/DSLR/film SLR/Brownie a pris de meilleures photos. Le tout enveloppé dans l'idée que les "vrais" photographes, les photographes professionnels, ne se mêleraient jamais d'une telle sorcellerie.
(Laissons de côté le fait que l'expression "Cela ne veut pas dire que les photos sont bonnes" peut s'appliquer à toutes les avancées technologiques depuis l'avènement de la photographie. Un meilleur appareil photo peut améliorer les qualités techniques des photos, mais ne garantit pas " bonnes "images.)
Je vous recommande fortement de lire l'article, qui fait quelques bons points. Mon problème est qu'il ignore ou omet un fait important :la photographie numérique est un outil, que vous pouvez choisir d'utiliser ou non.
Savoir que vous avez des choix
Pour résumer, l'argument de Chayka est que les fonctionnalités d'apprentissage automatique de l'iPhone créent des photos "étranges et étranges" et que sur son iPhone 12 Pro, les "manipulations numériques sont agressives et non sollicitées". Il parle de Deep Fusion et d'autres fonctionnalités qui enregistrent plusieurs expositions de la scène en quelques millisecondes, ajustent des zones spécifiques en fonction de leur contenu, comme le ciel ou les visages, et fusionnent le tout pour créer une image finale. Le photographe appuie simplement sur le déclencheur et voit le résultat final, sans avoir besoin de connaître aucun des éléments techniques tels que la vitesse d'obturation, l'ouverture ou l'ISO.
Vous pouvez facilement contourner ces fonctionnalités en utilisant une application tierce telle que Halide ou Camera+, qui peut prendre des photos à l'aide de commandes manuelles et enregistrer les images au format JPEG ou brut. Certaines des fonctionnalités des applications peuvent tirer parti du traitement d'image natif de l'iPhone, mais vous n'êtes pas obligé de les utiliser. Le seul contrôle manuel non disponible est l'ouverture, car chaque objectif d'iPhone compact a une valeur d'ouverture fixe.
Cette ouverture fixe est également la raison pour laquelle l'iPhone inclut le mode Portrait, qui détecte le sujet et floute artificiellement l'arrière-plan pour simuler l'effet de profondeur de champ d'arrière-plan doux créé par la prise de vue avec un objectif lumineux à f/1,8 ou plus large. Les petites optiques ne peuvent pas le reproduire, alors Apple (et d'autres développeurs de smartphones) se sont tournés vers un logiciel pour créer l'effet. Les premières implémentations du mode Portrait ont souvent montré des artefacts notables, la technologie s'est améliorée au cours de la dernière demi-décennie au point qu'il n'est pas toujours évident que le mode a été utilisé.
Mais, encore une fois, c'est au photographe de choisir de l'utiliser. Le mode Portrait n'est qu'un autre outil. Si vous n'aimez pas l'apparence du mode Portrait, vous pouvez passer à un reflex numérique ou à un appareil photo sans miroir avec un objectif décent.
Choix algorithmiques
Plus approprié est l'idée que le traitement de l'iPhone crée un look spécifique, l'identifiant comme une photo de l'iPhone. Certaines images peuvent sembler avoir une plage dynamique exagérée, mais cela n'a rien à voir avec le traitement de fusion d'exposition précoce qui a créé des photos HDR (plage dynamique élevée) où aucune ombre n'a été laissée sans éclaircissement.
Chaque système a son propre look. Le traitement d'Apple, à mes yeux, a tendance à être plus naturaliste, en conservant les zones sombres tout en évitant les zones soufflées dans des scènes qui seraient autrement délicates pour un reflex numérique. Le traitement de Google tend à exposer davantage la scène entière avec beaucoup de lumière. Ce sont des choix faits par les ingénieurs des entreprises lors de l'application des algorithmes qui dictent la façon dont les images sont développées.
Il en va de même pour les fabricants d'appareils photo traditionnels :les appareils photo Fujifilm, Canon, Nikon, Sony ont tous leur propre "look JPEG", ce qui est souvent la raison pour laquelle les photographes choisissent un système particulier. En fait, Chayka le reconnaît lorsqu'il se remémore "... la photo immaculée de l'appareil photo Leica prise avec un objectif fixe, ou l'instantané instantané Polaroid avec son exposition inégale."
L'article veut vraiment présenter la qualité d'image de l'iPhone comme une version synthétique non naturelle de la réalité, des photographies qui "... sont froidement nettes et vaguement inhumaines, prises dans la vallée étrange où l'expression créative rencontre l'apprentissage automatique". C'est une belle tournure de phrase, mais cela vient à la fin de parler de la fonction Styles photographiques de l'iPhone qui est conçue pour donner au photographe plus de contrôle sur le traitement. Si vous préférez que les images soient plus chaudes, vous pouvez choisir d'augmenter la chaleur et de choisir ce style lors de la prise de vue.
Il est également amusant que la personne mentionnée au début de l'article n'aime pas la façon dont l'iPhone 12 Pro rendait les photos, alors "Dernièrement, elle s'est mise à transporter un Pixel, de la gamme de smartphones de Google, dans le seul but de prendre des photos."
Le Pixel utilise les mêmes types de photographie numérique que l'iPhone. Vraisemblablement, cette personne préfère le look du Pixel à celui de l'iPhone, ce qui est tout à fait valable. C'est leur choix.
Choisir avec les masses
Je pense que le plus gros problème avec l'iPhone est que la plupart des propriétaires ne savent pas qu'ils ont le choix d'utiliser autre chose que l'application Appareil photo d'Apple. Le chemin vers l'utilisation de l'option par défaut est conçu pour être fluide; en plus d'un placement bien en vue sur l'écran d'accueil, vous pouvez le lancer directement à partir d'une icône sur l'écran de verrouillage ou simplement glisser de droite à gauche lorsque le téléphone est verrouillé. Le fait de prendre une photo est littéralement "viser et déclencher".
Plus important encore, pour des millions de personnes, les photos qu'il crée sont exactement ce qu'ils recherchent. L'iPhone crée des images qui capturent des moments importants ou des instantanés idiots ou l'un des types illimités de scènes que les gens sortent de leur téléphone pour enregistrer. Et la photographie computationnelle rend un plus grand nombre de ces images décentes.
Bien sûr, tous les clichés ne seront pas « bons », mais cela s'applique à tous les appareils photo. Nous choisissons les outils à utiliser pour notre photographie, et cela inclut la photographie informatique autant que les appareils photo, les objectifs et les paramètres de capture.