Lors de son récent événement d'annonce de produit à New York, Google a présenté une poignée de nouveaux équipements. Mais, l'entreprise a consacré un temps considérable - et probablement de l'argent dépensé pour embaucher la photographe portraitiste emblématique Annie Leibovitz - en montrant le nouvel appareil photo du smartphone Pixel 4. Cette insistance a du sens. Les consommateurs indiquent toujours que la qualité des photos est l'un des facteurs les plus importants qu'ils utilisent pour choisir un nouvel appareil. Et Google sort d'une très bonne performance avec le Pixel 3, qui était (du moins en ce qui me concernait à l'époque) le meilleur appareil photo pour smartphone.
Le Pixel 4 ajoute encore plus d'intelligence alimentée par l'IA, s'appuyant de plus en plus sur son logiciel pour déterminer l'aspect général de l'image finale. Et bien que l'appareil photo ait des moments où il est vraiment excellent, j'ai rencontré quelques difficultés de croissance alors que Google essaie de calculer son chemin vers des photos parfaites.
Quoi de neuf ?
Sur le papier, l'appareil photo du Pixel 4 ne semble pas si différent de le matériel qui l'a précédé. La principale exception est l'ajout notable d'un téléobjectif, que Google a l'intention d'améliorer les performances en particulier en ce qui concerne le zoom et le mode portrait. La concurrence du tireur, cependant, est plus rude cette année :Apple semble avoir corrigé une partie de la technologie HDR trop zélée qui rendait parfois les images de l'iPhone XS irréalistes et contre nature, et la société Cupertino promet d'améliorer encore l'iPhone 11 Pro déjà très -bon appareil photo lorsque sa technologie Deep Fusion améliorant les détails arrivera dans la prochaine mise à jour iOS.
Qualité d'image
Google ne prend pas de risques en matière de photographie computationnelle, qui s'appuie plus sur la puissance de traitement et les algorithmes que sur les performances matérielles pures. La société explique très clairement que la magie logicielle qui se produit pendant et après l'appui sur le déclencheur est devenue extrêmement importante pour déterminer l'apparence de l'image finale.
Comme presque tous les appareils photo de smartphone à ce stade, appuyer sur l'obturateur ne prend pas simplement une photo. Au lieu de cela, il capture une rafale et combine les informations de ces images dans un fichier fini. Cette technologie « HDR intelligente » fait beaucoup de bien :elle peut empêcher les hautes lumières d'être soufflées ou aplatir une scène très contrastée qui pourrait perdre des détails cruciaux. Mais, comme avec l'iPhone 11 Pro, cela peut être imprévisible.
Dans de bonnes conditions de prise de vue avec l'appareil photo grand angle principal, je préfère le images qui sortent du Pixel 4 à celles de l'iPhone 11 Pro. C'est proche, mais l'appareil photo du Pixel me semble toujours plus neutre et naturel. Je ne remarque pas l'effet HDR qui peut rendre les sujets irréalistes - et parfois même caricaturaux - autant que je le fais avec l'iPhone. Ceci est particulièrement utile pour les utilisateurs qui modifient leurs photos après les avoir prises (ce que très peu d'utilisateurs typiques font).
Google a également apporté quelques améliorations bienvenues à son expérience HDR globale. Lorsque vous appuyez sur l'écran pour faire la mise au point sur un objet de l'image, deux curseurs apparaissent désormais pour régler la luminosité de la scène. Un curseur affecte l'exposition globale (la luminosité ou l'obscurité de tout) dans la scène, tandis que l'autre affecte simplement les ombres. Ce deuxième curseur est extrêmement utile. Il vous permet de faire des choses comme prendre des photos de silhouette dans lesquelles le sujet est pratiquement noirci tandis que l'arrière-plan (généralement le ciel lumineux) reste correctement exposé.
Vous pouvez également obtenir l'effet inverse dans lequel vous pouvez éclaircir un sujet de premier plan sans souffler un ciel lumineux en arrière-plan. Dans une situation comme celle illustrée ci-dessous, vous perdriez généralement certains de ces jolis détails de feuilles jaunes à l'ombre, à moins que vous n'éclaircissiez toute l'image et ne souffliez le ciel. Le réglage du curseur d'ombre vous permet d'augmenter l'exposition sur les feuilles tout en laissant le ciel seul.
Ce curseur est l'un de mes ajouts préférés à la caméra Pixel 4, et c'est une tendance que j'aimerais voir se poursuivre alors que nous avançons dans l'avenir du HDR tout le temps sur tout.
Lorsque les conditions de prise de vue deviennent difficiles, cependant, le Pixel 4 présente de véritables bizarreries.
L'effet flickr
La plupart des éclairages artificiels scintillent, mais votre cerveau réussit à rendre la lueur continue. L'effet de pulsation, cependant, est plus difficile à annuler pour les appareils photo numériques, et le Pixel 4 semble avoir plus de mal dans ce domaine que ses concurrents.
Dans la vidéo ci-dessus, vous remarquerez des bandes sombres traversant l'image. Ce genre de chose n'est pas inhabituel avec les sources lumineuses artificielles, qui ont un scintillement généralement imperceptible pour coïncider avec le courant électrique de 60 Hz qui les traverse. Les appareils photo numériques dédiés, cependant, ont généralement une "détection de scintillement" pour aider à le combattre, et même l'iPhone 11 Pro fait un meilleur travail pour atténuer l'effet.
Avec le Pixel 4, je l'ai remarqué dans divers endroits et artificiels sources lumineuses. C'est subtil, la plupart du temps, mais si vous avez une source de lumière vive dans le cadre de l'image ou de la vidéo, cela peut pousser la vitesse d'obturation plus rapidement que 1/60e de seconde, c'est-à-dire lorsque les bandes commencent à s'infiltrer.
Lorsque je suis passé en mode appareil photo manuel dans l'application Lightroom et que j'ai utilisé une vitesse d'obturation plus lente, il a disparu. Dans des scènes comme celle-ci, l'iPhone semble utiliser sa technologie HDR+ pour conserver au moins une image dans le mixage avec une vitesse d'obturation suffisamment lente pour empêcher que cela ne se produise. Une fois que j'ai compris les circonstances qui l'ont provoqué, j'ai pris l'exemple ci-dessous, qui le montre très clairement.
La faille n'est pas un facteur décisif car elle n'apparaît que dans des circonstances spécifiques , mais c'est très ennuyeux quand c'est le cas.
Équilibre blanc
Un autre domaine dans lequel notre cerveau et nos yeux surpassent régulièrement les caméras :la balance des couleurs. Si vous vous trouvez dans une pièce avec à la fois de la lumière artificielle et une fenêtre, l'éclairage peut sembler assez homogène à vos yeux, mais s'afficher en orange et en bleu, respectivement, pour un appareil photo.
Les smartphones essaient souvent de diviser la différence en matière de balance des blancs, à moins que vous ne vous en occupiez vous-même. Le Pixel 4, cependant, analyse la scène devant lui et utilise l'IA pour essayer de reconnaître les objets importants dans le cadre. Donc, s'il remarque un visage, il essaiera d'obtenir la bonne balance des blancs sur la personne. C'est une bonne tactique.
Généralement, je pense que le Pixel 4 fait un excellent travail en ce qui concerne balance des blancs, sauf quand elle se trompe beaucoup. Déplacez-vous autour de la caméra de l'iPhone 11 Pro et la dominante de couleur globale de la scène a tendance à rester la plupart du temps cohérente. Faites de même avec le Pixel 4, et sa balance des blancs globale peut changer considérablement, même lorsque vous ne déplacez que légèrement l'appareil photo. Ci-dessus, la capture d'écran en forme de grille montre une série de photos que j'ai prises successivement dans des conditions inchangées. J'ai subtilement déplacé le téléphone pendant la prise de vue, et vous pouvez voir le changement de couleur vraiment profond. Encore une fois, cela se produit principalement lors de prises de vue sous une lumière artificielle.
Tant que vous faites attention et remarquez le changement avant de prendre la photo, tout va bien et le Pixel fait un excellent travail. Il est également facile de corriger plus tard si vous souhaitez ouvrir une application d'édition. Mais, à quelques reprises, je me suis retrouvé avec une photo étrangement jaune à laquelle je ne m'attendais pas.
Téléobjectif
Le nouveau téléobjectif est environ le double de la distance focale de l'appareil photo standard du Pixel , qui vous donne effectivement un zoom optique 2x. Il a une ouverture f/2.4, par rapport à l'objectif portrait amélioré f/2.0 (les nombres inférieurs laissent entrer plus de lumière) sur l'iPhone 11 Plus. Cependant, il ne s'agit que d'une fraction d'arrêt, il est donc peu probable qu'il ait un impact énorme, mais cela rappelle qu'Apple fabrique des téléobjectifs depuis un certain temps maintenant et qu'il affine déjà tandis que Google ne fait que commencer.
Comme nous l'avons dit plus tôt, le téléobjectif compte le zoom comme l'un de ses principaux les fonctions. Le téléphone vous offre la possibilité de zoomer jusqu'à 8x en combinant la technologie numérique et optique. Google affirme que pincer pour se rapprocher vous donne désormais une meilleure qualité d'image que de simplement prendre une photo plus large et de la recadrer, ce qui a toujours fourni de meilleurs résultats. J'ai trouvé cette déclaration exacte. Le "zoom" a parcouru un long chemin sur les appareils photo des smartphones, mais vous ne devriez pas vous attendre à de la magie. Vous vous retrouverez toujours avec des "artefacts" laids et saccadés dans les images qui semblent avoir enregistré et réenregistré la photo trop de fois au format JPEG.
Lorsque vous regardez les images sur un écran plus petit, comme Instagram, cependant, elles ont l'air impressionnantes, et c'est finalement probablement la condition d'affichage la plus importante pour un appareil photo de smartphone en 2019.
Si vous zoomez beaucoup, le Pixel bat l'iPhone régulièrement. Il est même légèrement plus facile de rester stable grâce au système de stabilisation d'image amélioré lorsque vous zoomez jusqu'à 8x.
Mode portrait
L'autre grand avantage du téléobjectif se présente sous la forme d'un portrait amélioré. mode. Même avec l'objectif unique du Pixel 3, Google a déjà fait un travail très impressionnant en simulant le flou d'arrière-plan qui provient de la photographie à faible profondeur de champ. Comme on pouvait s'y attendre, l'ajout d'un deuxième objectif pour lui permettre de mieux calculer la profondeur d'une scène améliore ses performances.Si vous voulez vraiment remarquer le saut, essayez de photographier un objet plus grand ou une personne de plus loin que la simple prise de vue tête et torse pour laquelle le mode portrait a été initialement développé. L'utilisation du mode portrait pour des objets plus grands est une nouvelle compétence pour le Pixel 4 et elle atténue bien les limites inhérentes à la technologie. Toute bizarrerie ou artefact comme des zones étrangement nettes ou des taches de flou voyous ont généralement tendance à apparaître autour des bords des objets ou dans des détails fins comme les cheveux ou la fourrure. Plus vous vous rapprochez de votre sujet, plus vous faites fonctionner l'appareil photo et plus vous avez de chances de remarquer quelque chose d'étrange ou de déplacé.
Globalement, le mode portrait du Pixel 4 semble plus naturel que celui de l'iPhone 11 Pro , mais il a plus de mal avec les bords et les poils errants. Dans les headshots, les zones autour des cheveux dévoilent généralement immédiatement les astuces du Pixel 4. (L'iPhone 11 Pro contourne ces problèmes de bord en ajoutant un flou "rêveur" sur la majeure partie de l'image.) Les couleurs et le contraste globaux du Pixel sont généralement meilleurs car ils n'essaient pas d'émuler différents types d'éclairage comme le fait l'iPhone. Mais, lorsque vous obtenez un bord vraiment laid autour du visage ou des cheveux d'un sujet avec le Pixel 4, cela peut rapidement ruiner l'effet.
Si vous ne publiez que votre photo en mode portrait sur Instagram, ces les bords peuvent ne pas vraiment jouer pour vos abonnés. Cependant, les visualiser sur un écran d'ordinateur portable ou plus grand les rend évidents.
Le Pixel 4 vous donne un accès presque immédiat aux images de faux flou et la photo ordinaire dans votre bibliothèque. Le mode portrait prend quelques secondes à traiter, vous ne pouvez donc pas les voir immédiatement. Compte tenu de la quantité de traitement qu'il effectue, c'est compréhensible - et c'est également le cas avec l'iPhone - mais si vous essayez de trouver exactement la bonne expression, vous ne pouvez pas vraiment vérifier vos résultats en temps réel.
Vision nocturne
Lorsque Google a lancé son impressionnant mode de prise de vue en basse lumière, Night Sight, dans le Pixel 3, c'était incroyablement impressionnant. Google a clairement continué à affiner ses performances et, même avec l'iPhone 11 Pro ajoutant sa propre version de la technologie, le Pixel 4 conserve toujours un avantage considérable.
Vous devrez toujours passer au mode Night Sight pour l'activer, contrairement à l'iPhone, qui vous le lance automatiquement lorsqu'il pense que les conditions sont bonnes. J'aime avoir plus de contrôle sur ce que je fais, donc je préfère l'approche du Pixel, d'autant plus que ces modes nocturnes nécessitent de longues expositions qui peuvent entraîner des photos floues si vous - ou les objets de la scène - ne pouvez pas rester immobile. /P>
Par rapport au mode nuit de l'iPhone, les couleurs de Night Sight sont plus précises et les scènes semblent plus naturelles. En fin de compte, celui-ci dépendra de vos préférences personnelles, mais je préfère les résultats du Pixel 4 à ceux de l'iPhone 11 Pro.
Lors de la présentation de l'appareil photo, Google a déclaré qu'il espérait que vous n'utiliseriez le "flash" de l'appareil photo que comme lampe de poche. J'ai respecté cette règle. Le flash n'est pas bon, comme toutes les photos de flash d'appareil photo de smartphone qui l'ont précédé. C'est utile si vous en avez vraiment besoin, surtout si cela ne vous dérange pas de convertir des images en noir et blanc après coup, mais vous pouvez finalement le laisser désactivé pour toujours.
En plus de Night Sight, Google a également ajouté une fonctionnalité qui facilite la prise de photos du ciel nocturne montrant les étoiles et la Voie lactée, si vous savez ce que vous faites. Je n'ai pas testé cette fonctionnalité car je n'avais pas accès à un ciel vraiment sombre et la météo n'a pas vraiment coopéré. Si vous envisagez d'utiliser cette fonctionnalité, vous devez prévoir d'utiliser un trépied ou au moins d'équilibrer le téléphone sur un objet stable, car cela nécessite toujours de longues expositions. En fin de compte, j'adore le fait que l'entreprise ait ajouté cette fonctionnalité et j'ai hâte de voir ce que les gens créent avec, mais c'est une chose spécialisée que j'imagine que la plupart des utilisateurs n'essaieront pas plus de quelques fois.
Le cas de l'objectif super grand-angle manquant
Lorsque le Pixel 3 a été livré sans téléobjectif, je n'ai pas vraiment manquez-le. Je dois cependant me demander pourquoi Google livrerait le Pixel 4 sans l'objectif super large que l'on trouve sur l'iPhone 11 Pro et d'autres smartphones haut de gamme.
Le super large est facile à abuser si la perspective unique vous aveugle sur la distorsion inhérente et la perspective globale juste un peu farfelue qu'il offre. Mais, il y a des moments où c'est vraiment pratique. Si vous essayez de photographier un paysage immense sans créer de panorama, ou si vous prenez simplement une photo dans des espaces très restreints, la largeur supplémentaire fait une différence tangible.
En fin de compte, je préconise que les gens fassent la grande majorité de leurs prises de vue avec l'appareil photo grand angle standard, quel que soit le téléphone qu'ils choisissent, car les performances globales et la qualité d'image sont généralement bien meilleures que les autres objectifs . Mais j'aime les options, et un objectif super large vous permet d'obtenir une perspective que vous ne pouvez physiquement pas obtenir en reculant simplement.
Alors, quel est le meilleur appareil photo pour smartphone ?
Le Pixel 4 nous a laissé dans une situation difficile. La qualité d'image, la reproduction des couleurs et les détails sont vraiment excellents, la plupart du temps. Les bizarreries qui apparaissent, cependant, ont vraiment un effet tangible sur la convivialité globale de l'appareil photo dans son ensemble. Si vous êtes le type de tireur qui fait attention à votre scène et édite vos photos après la prise de vue, alors le Pixel est la meilleure option pour la plupart. Les couleurs et le contraste plus neutres acceptent mieux les modifications que ceux des fichiers iPhone, qui sortent tout droit de l'appareil photo et semblent plus traités.
En fin de compte, cependant, nous sommes à une époque où la qualité de l'appareil photo des smartphones s'est largement stabilisée. Je n'ai pas mentionné les appareils photo Samsung dans cette revue pour la plupart, car je trouve leurs fichiers trop traités avec trop de netteté et des niveaux de contraste et de saturation agressifs. Mais, un grand contingent de gens comme ça. À ce stade, il n'y a pas suffisamment de différence entre les performances globales et la qualité d'image sur le Pixel 4 pour quitter votre plate-forme préférée, uniquement pour obtenir un léger avantage sur les images qui sortent directement de l'appareil photo.