Hier ist, wie Google portrait-Modus auf die Pixel-3 noch besser

  • Google hat darüber gebloggt seiner jüngsten Verbesserungen in der KI-und Fotografie — insbesondere in Bezug auf portrait-Modus auf die Pixel-3.
  • Der Beitrag beschreibt, wie Google verbessert seine neuronalen Netzen Messen der Tiefe.
  • Das Ergebnis ist eine optimierte „bokeh“ – Effekt in seiner Porträt-Modus Aufnahmen.

Google hat detaillierte einer der wichtigsten Fotografie-Leistungen erreicht es auf der Pixel-3 auf seine AI-blog. In der post gestern veröffentlicht, Google besprochen, wie es verbessert portrait-Modus zwischen dem Pixel 2 und Pixel 3.

Portrait-Modus ist eine beliebte smartphone-Fotografie-Modus, verwischt der hintergrund einer Szene, während die Aufrechterhaltung der Fokussierung auf das Motiv im Vordergrund (das, was manchmal genannt wird der bokeh-Effekt). Die Pixel-3 und die Google Kamera app nutzen, Fortschritte in der neuronalen Netzwerke, maschinelles lernen und GPU-hardware zu helfen, diese Wirkung sogar noch besser.

Im Portrait-Modus auf die Pixel-2, die Kamera erfassen würde zwei Versionen der Szene, die in leicht unterschiedlichen Winkeln. In diesen Bildern, die Vorder-Figur, eine person in den meisten portrait-Bilder, erscheinen würden, um den übergang zu einem geringeren Maße als die hintergrund-Bilder (ein Effekt bekannt als parallax). Diese Diskrepanz wurde als Grundlage für die Interpretation der Tiefe des Bildes, und somit, welche Bereiche zu verwischen.

A Google Portrait Mode parallax scrolling example. Google Blog

Diese lieferten starke Ergebnisse auf die Pixel 2, aber es war nicht perfekt. Die beiden Versionen der Szene nur eine sehr kleine Menge von Informationen über die Tiefe, so dass Probleme auftreten könnten. Am häufigsten werden die Pixel-2 (und viele andere wie es) nicht genau trennen den Vordergrund vom hintergrund.

Mit der Google-Pixel 3 Kamera, Google enthalten mehr tiefeninformationen zu informieren, dieser blur-Effekt für eine größere Genauigkeit. Ebenso wie eine Parallaxe, die Google verwendet, Schärfe sowie eine Tiefe Indikator — weiter entfernte Objekte weniger scharf als nähere Objekte — und real-Welt-Objekt-Identifikation. Zum Beispiel, die Kamera könnte erkennen, das Gesicht einer person in einer Szene, und arbeiten Sie heraus, wie weit war es aufgrund der Anzahl der Pixel relativ zu den Objekten um ihn herum. Clever.

Google dann trainiert sein neuronales Netz mit Hilfe der neuen Variablen zu geben, es besser zu verstehen — oder vielmehr die Einschätzung von Tiefe in einem Bild.

Google Pixel 3 portrait mode bokeh skull

Die Pixel im portrait-Modus nicht nur ein menschliches Subjekt.

Was bedeutet das alles?

Das Ergebnis ist eine besser aussehende Porträt-Modus Aufnahmen bei der Verwendung der Pixel-3 im Vergleich zum vorherigen Pixel (und scheinbar vielen anderen Android-Smartphones) – Kameras Dank der genauere hintergrund-Unschärfe. Und ja, das soll bedeuten, dass weniger Haare verlor die hintergrund-Unschärfe.

Editor ‚ s Pick

Es ist eine interessante Schlussfolgerung aus all dies bezieht sich auf die chips zu. Viel Kraft ist erforderlich, um die notwendigen Daten zum erstellen dieser Fotos wenn Sie erst einmal eingerastet (Sie sind auf voller Auflösung, multi-megapixel-PDAF-Bilder); das Pixel-3 behandelt das ziemlich gut Dank seiner TensorFlow Lite-und GPU-Kombination.

Aber In der Zukunft, bessere Effizienz in der Verarbeitung und engagierten neuronale chips erweitern die Möglichkeiten nicht nur, wie schnell diese Aufnahmen geliefert wird, aber für das, was Verbesserungen der Entwickler selbst wählen zu integrieren.

Erfahren Sie mehr über die Pixel 3 Kamera, drücken Sie die link, und geben Sie uns Ihre Gedanken in den Kommentaren.

Ersten Kommentar schreiben

Antworten

Deine E-Mail-Adresse wird nicht veröffentlicht.


*