Gadgets

Les 7 plus flagrantes bobards Apple dit à propos de l’iPhone XS caméra aujourd’hui

Apple abandonne toujours quelques énormités lors de ses manifestations, et l’ iPhone XS annonce aujourd’hui ne faisait pas exception. Et nulle part ont-ils été plus flagrante que dans l’introduction de la des dispositifs “nouvelles” fonctionnalités de la caméra. Nul ne doute que les iPhones prendre des photos, alors à quoi bon mentir à ce sujet? Ma conjecture est qu’ils ne peuvent pas s’aider eux-mêmes.

Maintenant, pour remplir cet article sorti, j’ai eu un peu pédant, mais honnêtement, certaines de ces derniers sont assez flagrantes.

“Le plus populaire du monde de la caméra”

Il y a beaucoup d’iPhones là, pour être sûr. Mais la définition de l’iPhone comme une sorte de longue décennie de continue de la caméra, Apple semble être en train de faire, est une sorte de mauvaise foi façon de le faire. Par cette norme, Samsung serait presque certainement être en avance, car il serait permis de compter tous ses téléphones Galaxy retour d’une décennie, et ils ont certainement outsold Apple en ce moment. Pour aller plus loin, si vous dites qu’un hors-the-shelf de la caméra de la pile et la commune de Sony ou Samsung capteur a été un “appareil photo” de l’iPhone serait probablement plus nombreux que 10:1 par les téléphones Android.

L’iPhone l’un des plus populaires dans le monde des caméras? Pour en être sûr. Est-il le plus populaire du monde de la caméra? Vous seriez obligé de le couper en tranches assez fines et de dire que ce ou de l’année et ce ou que le modèle était plus nombreux que tout autre modèle. Le point est que c’est une très visqueux métrique et d’un nombre de personnes pouvant prétendre à la fonction de la façon dont ils choisir ou d’interpréter les chiffres. Comme d’habitude, Apple n’a pas de montrer leur travail ici, donc nous pouvons ainsi inventer un terme et de les appeler cela de l’éducation de bluff.

“Remarquable double système de caméra”

Comme Phil l’expliquera plus tard, beaucoup de la nouveauté vient d’améliorations pour le capteur et le processeur d’image. Mais comme il a dit que le système était de nouveau tout soutenu par une vue éclatée de l’appareil, on peut envisager de lui comme désignant aussi bien.

Ce n’est pas vraiment clair ce que le matériel est différent de l’iPhone X. Certes, si vous regardez les specs, ils sont presque identiques:

Si je l’ai dit, il s’agit de différentes caméras, vous me croyez? Même F des chiffres, pas de raison de penser que la stabilisation de l’image est différent ou mieux, et ainsi de suite. Il ne serait pas déraisonnable de penser que ce sont, autant que l’optique, les mêmes appareils photo comme avant. Encore une fois, pas qu’il y avait quelque chose de mal avec eux — elles sont fabuleuses optiques. Mais en montrant les composants qui sont en fait la même chose et de dire que c’est différent, c’est trompeur.

Étant donné qu’Apple a du style, si il y avait des changements réels pour les lentilles ou les OIS, ils me l’ont dit quelque chose. Il n’est pas trivial pour améliorer les choses et qu’ils avaient de prendre un crédit s’ils l’avaient fait.

Le capteur est bien sûr extrêmement important, et il est amélioré: la de 1,4 micromètre de pixel sur la grand-angle de la caméra principale est plus grande que la 1.22-micromètre de hauteur sur le X. Depuis mégapixels sont similaires, on peut probablement supposer que le “gros” capteur est une conséquence de cette différence de taille de pixel, pas de toute sorte de réel facteur de forme facteur de changement. Il est certainement plus grand, mais l’ensemble des pixels de hauteur, ce qui contribue à la sensibilité, est ce qui est vraiment amélioré, et l’augmentation des dimensions sont qu’une conséquence de qui.

Nous allons étudier le processeur d’image revendications ci-dessous.

“2x plus rapide du capteur… pour une meilleure qualité d’image”

Ce n’est pas vraiment clair ce que l’on veut dire quand il dit cela. “Pour profiter de toute cette technologie.” Est-il la cadence de lecture? Est-ce le processeur qui est plus rapide, puisque c’est ce que produirait probablement une meilleure qualité d’image (plus de puissance pour calculer les couleurs, de coder mieux, et ainsi de suite)? “Rapide” se réfère également à la collecte de la lumière — est que plus rapide?

Je ne pense pas que c’est par hasard que c’était juste une sorte de jetée là et n’est pas spécifié. Apple aime les grosses chiffres simples et ne veut pas jouer le jeu spec de la même façon que les autres. Mais cela, à mon avis, franchit la ligne de simplification trompeuse. Au moins Pomme ou de certains détails des tests tiers.

“Ce qu’il fait qui est entièrement nouveau, c’est de connecter ensemble les FAI avec que les neurones moteurs, de les utiliser ensemble.”

Maintenant, c’était un peu un tour de main sur Phil. Sans doute ce qui est nouveau, c’est que Apple a de mieux intégrer le traitement de l’image de la voie entre l’image traditionnelle du processeur, qui est en train de faire le cheval de bataille des trucs comme l’autofocus et de la couleur, et les “neurones moteur”, qui est en train de faire la détection de visage.

Il peut être nouvelle pour Apple, mais ce genre de chose a été la norme dans de nombreux appareils photo depuis des années. Les deux téléphones et de lentilles interchangeables comme les systèmes de Reflex numériques de visage et des yeux, détection de certains à l’aide de neurones de type modèles de, de guide de l’autofocus ou de l’exposition. Ce (et les problèmes qui vont avec) revenir des années et des années. Je me souviens de point-and-pousses qui l’a eu, mais malheureusement pas réussi à détecter les personnes qui avaient la peau sombre ou ont été en fronçant les sourcils.

Il a obtenu beaucoup mieux (Apple profondeur de détection des unités probablement aider beaucoup), mais l’idée d’attacher un face-système de suivi, quel que soit nom de fantaisie que vous l’appelez, à l’image du processus de capture est de l’histoire ancienne. Ce n’est probablement pas “entièrement nouvelle”, même pour Apple, encore moins dans le reste de la photographie.

“Nous avons une toute nouvelle fonction que nous appelons le smart HDR.”

Apple est la marque nouvelle fonctionnalité a été sur Google Pixel téléphones pour un certain temps maintenant. Beaucoup de caméras maintenant, garder un tampon de trame va, essentiellement mitraillage de photos en arrière-plan, tandis que l’application est ouverte, puis à l’aide de la dernière version disponible lorsque vous appuyez sur le bouton. Et Google, entre autres, a eu l’idée que vous pourriez utiliser ces invisibles photos comme matières premières pour une HDR photo.

Probablement d’Apple méthode est un peu différente, mais fondamentalement c’est la même chose. Encore une fois, “brand new” pour les utilisateurs de l’iPhone, mais bien connu parmi les flagship Android dispositifs.

“C’est ce que vous n’êtes pas censé le faire, le droit, de prendre une photo dans le soleil, parce que tu vas souffler de l’exposition.”

Je ne dis pas que vous devriez tirer directement dans le soleil, mais c’est vraiment pas rare que le soleil dans votre photo. Dans le coin, comme ça il peut faire pour quelques frais de lens flares, par exemple. Il ne souffle pas ces jours-ci parce que presque chaque appareil d’exposition automatique des algorithmes sont soit pondérée centrale ou intelligemment le déplacement pour trouver des visages, par exemple.

Lorsque le soleil est dans votre coup, votre problème n’est pas soufflé points forts, mais un manque de plage dynamique causée par une grande différence entre l’exposition nécessaire pour capturer le soleil-éclairé de fond et l’ombre de premier plan. C’est, bien sûr, comme le dit Phil, l’une des meilleures applications de HDR — un bracketing d’exposition assurez-vous d’avoir les détails de l’ombre, tout en gardant les lumineux.

Curieusement, dans l’image qu’il a choisi ici, les détails de l’ombre sont pour la plupart perdus — vous venez de voir un tas de bruit de fond. Vous n’avez pas besoin de HDR pour obtenir ces gouttelettes d’eau, c’est une vitesse d’obturation chose, vraiment. C’est toujours un grand coup, par la manière, je ne pense pas que c’est une illustration de ce que Phil est en train de parler.

“Vous pouvez régler la profondeur de champ… cela n’a pas été possible dans la photographie de n’importe quel type de caméra.”

Ce n’est pas vrai. Vous pouvez le faire sur le Galaxy S9, et il est en cours de déploiement dans Google Photos. Lytro était en train de faire quelque chose comme ça des années et des années il ya, si nous sommes compris “tout type d’appareil.” Je me sens un peu mal à ce que personne ne dit à Phil. Il est ici sans les faits.

Eh bien, c’est tous les plus grands. Il y avait beaucoup plus, dirons-nous, des embellissements à l’événement, mais c’est par pour le cours à n’importe quelle grande compagnie de lancement. J’ai juste l’impression que ceux-ci ne pouvaient pas rester sans réponse. Je n’ai rien contre l’iPhone camera — je utiliser un moi-même. Mais le garçon sont-ils sauvages avec ces allégations. Quelqu’un a eu à le dire, puisque manifestement pas de l’un à l’intérieur de la Pomme.

Découvrez le reste de notre événement Apple couverture ici:

more iPhone Event 2018 coverage

About the author

Cyriac

Je suis Zeh Cyriac , fondateur et chef de la direction de la société informatique DROP Corporation Inc. et blogueur indépendant aux États-Unis, avec une passion pour l'Entrepreneuriat en ligne, le marketing de contenu et toutes les choses qui tournent au tour du digital et ’informatique .

Add Comment

Click here to post a comment

Newsletter

Les dernières nouvelles du Web, de la high-tech et de l'innovation numérique tous les matins à l'heure du petit déjeuner.

Vous avez parfaitement souscrit ! Consultez vos mails pour confirmer l'inscription .