Pixel Camera es una aplicación de cámara para teléfono desarrollada por Google para el sistema operativo Android en los dispositivos Google Pixel . El desarrollo con lentes de zoom para la aplicación comenzó en 2011 en la incubadora de investigación Google X dirigida por Marc Levoy , que estaba desarrollando tecnología de fusión de imágenes para Google Glass . [3] Se lanzó públicamente para Android 4.4+ en Google Play el 16 de abril de 2014. [4] La aplicación se lanzó inicialmente como Google Camera y fue compatible con todos los dispositivos con Android 4.4 KitKat y superior. Sin embargo, en octubre de 2023, coincidiendo con el lanzamiento de la serie Pixel 8 , pasó a llamarse Pixel Camera y pasó a ser oficialmente compatible solo con dispositivos Google Pixel. [5]
Google Camera contiene una serie de funciones que se pueden activar en la página de Configuración o en la fila de íconos en la parte superior de la aplicación.
A partir de los dispositivos Pixel, la aplicación de la cámara ha sido asistida con aceleradores de hardware , un chip de procesamiento de imágenes oculto, para realizar su procesamiento de imágenes. La primera generación de teléfonos Pixel usó los DSP Hexagon de Qualcomm y las GPU Adreno para acelerar el procesamiento de imágenes. Los Pixel 2 y Pixel 3 (pero no el Pixel 3a ) incluyen el Pixel Visual Core para ayudar con el procesamiento de imágenes. El Pixel 4 introdujo el Pixel Neural Core . [6] Tenga en cuenta que el principal objetivo del Visual Core es llevar el procesamiento de imágenes HDR+ que es simbólico de la cámara Pixel a cualquier otra aplicación que tenga las API de Google relevantes . Pixel Visual Core está diseñado para realizar un procesamiento de imágenes pesado mientras conserva energía, ahorrando batería.
A diferencia de las versiones anteriores de imágenes de alto rango dinámico (HDR) , HDR+, también conocido como HDR+ en adelante, utiliza técnicas de fotografía computacional para lograr un rango dinámico más alto. HDR+ toma fotografías en ráfagas continuas con exposiciones cortas. Cuando se presiona el obturador, se analizan los últimos 5 a 15 fotogramas para elegir las tomas más nítidas (usando imágenes afortunadas ), que se alinean selectivamente y se combinan con el promedio de la imagen. HDR+ también utiliza la segmentación semántica para detectar rostros para iluminar con flash de relleno sintético y oscurecer y eliminar el ruido de los cielos. HDR+ también reduce el ruido de la toma y mejora los colores, al tiempo que evita que se apaguen las altas luces y el desenfoque de movimiento . HDR+ se introdujo en el Nexus 6 y regresó al Nexus 5. [ 7] [8] [9]
A diferencia de HDR+/HDR+ On, el modo 'HDR+ mejorado' no utiliza Zero Shutter Lag (ZSL). Al igual que Night Sight, el modo HDR+ mejorado cuenta con un retardo de obturación positivo (PSL): captura imágenes después de presionar el obturador. El modo HDR+ mejorado es similar al HDR+ del Nexus 5, Nexus 6, Nexus 5X y Nexus 6P . Se cree que utiliza fotogramas subexpuestos y sobreexpuestos como Smart HDR de Apple . Las capturas HDR+ mejoradas aumentan el rango dinámico en comparación con HDR+ activado. El modo HDR+ mejorado en el Pixel 3 utiliza el algoritmo AWB basado en aprendizaje de Night Sight. [10] [11]
A partir del Pixel 4, Live HDR+ reemplazó a HDR+, con un visor WYSIWYG con una vista previa en tiempo real de HDR+. [12] HDR+ en vivo utiliza el algoritmo AWB basado en aprendizaje de Night Sight y promedia hasta nueve imágenes subexpuestas. [13]
El modo 'Live HDR+' utiliza controles de exposición dual, con controles deslizantes separados para el brillo ( exposición de captura ) y para las sombras ( mapeo de tonos ). Esta función se puso a disposición para Pixel 4 y no se ha incorporado a los dispositivos Pixel más antiguos debido a limitaciones de hardware. [13] [12]
En abril de 2021, Google Camera v8.2 introdujo HDR+ con Bracketing, Night Sight con Bracketing y Portrait Mode con Bracketing. Google actualizó su algoritmo de horquillado de exposición para HDR+ para incluir un marco de exposición prolongada adicional y Night Sight para incluir 3 marcos de exposición prolongada. El algoritmo de fusión espacial también se rediseñó para decidir si se fusiona o no por píxel (como Super Res Zoom) y se actualizó para manejar exposiciones prolongadas (luces recortadas, más desenfoque de movimiento y diferentes características de ruido). Con Bracketing permite reducir aún más el ruido de lectura , mejorar los detalles/texturas y colores más naturales. Con Bracketing se habilita automáticamente según el rango dinámico y el movimiento. Con Bracketing es compatible con todos los modos para Pixel 4a (5G) y 5. Con Bracketing es compatible con Night Sight para Pixel 4 y 4a. [14]
El modo Motion Photo de Google Camera es similar al de Zoe de HTC y al de Live Photo de iOS . Cuando está habilitado, se combina con la foto original un videoclip corto, silencioso y de resolución relativamente baja. Si está habilitado el modo RAW, solo se crea un archivo DNG de 0,8 MP, no el DNG sin movimiento de 12,2 MP. Motion Photos se introdujo en el Pixel 2. Motion Photo está deshabilitado en el modo mejorado HDR+. [15] [16] [17]
La estabilización de video fusionada, una técnica que combina la estabilización de imagen óptica y la estabilización de imagen electrónica/digital , se puede habilitar para lograr videos significativamente más fluidos. Esta técnica también corrige la distorsión del obturador rotatorio y la respiración de enfoque , entre otros problemas. La estabilización de video fusionada se introdujo en el Pixel 2. [18] [19]
Super Res Zoom es una técnica de superresolución de múltiples fotogramas introducida con el Pixel 3 que desplaza el sensor de imagen para lograr una resolución más alta, que según Google es equivalente a un zoom óptico de 2-3x . Es similar al procesamiento de imágenes por llovizna . Super Res Zoom también se puede utilizar con lentes telefoto; por ejemplo, Google afirma que el Pixel 4 puede capturar un zoom de 8x con una calidad casi óptica. [20] [21]
Cuando se activa la función Motion Photos, Top Shot analiza hasta 90 fotogramas adicionales de 1,5 segundos antes y después de presionar el obturador. El Pixel Visual Core se utiliza para acelerar el análisis mediante técnicas de visión artificial y los clasifica en función del movimiento del objeto, el desenfoque de movimiento, la exposición automática, el enfoque automático y el balance de blancos automático. Se guardan unas diez fotos adicionales, incluida una foto HDR+ adicional de hasta 3 MP. Top Shot se introdujo en el Pixel 3. [22]
Como la mayoría de aplicaciones de cámara, Google Camera ofrece diferentes modos de uso que permiten al usuario tomar distintos tipos de fotos o vídeos. [24]
Se pueden capturar videos en cámara lenta con Google Camera a 120 o, en dispositivos compatibles, a 240 cuadros por segundo. [25]
La fotografía panorámica también es posible con Google Camera. Se admiten cuatro tipos de fotografía panorámica: horizontal, vertical, gran angular y ojo de pez . Una vez seleccionada la función Panorama, se puede seleccionar uno de estos cuatro modos a la vez desde una fila de iconos en la parte superior de la pantalla. [26]
Google Camera permite al usuario crear una 'Foto esférica', una foto panorámica de 360 grados , agregada originalmente en Android 4.2 en 2012. [27] Estas fotos pueden luego incrustarse en una página web con código HTML personalizado o cargarse en varios servicios de Google. [28]
El Pixel 8 se lanzó sin esta función, es el primer teléfono Pixel que no la tiene, lo que llevó a muchos a creer que la función se había descontinuado. [ cita requerida ]
El modo retrato (llamado Lens Blur antes del lanzamiento de la línea Pixel) ofrece una manera fácil para que los usuarios tomen "selfies" o retratos con un efecto Bokeh , en el que el sujeto de la foto está enfocado y el fondo está ligeramente borroso. Este efecto se logra a través de la información de paralaje de los sensores de doble píxel cuando están disponibles (como Pixel 2 y Pixel 3), y la aplicación de aprendizaje automático para identificar qué debe mantenerse enfocado y qué debe desenfocarse. El modo retrato se introdujo en el Pixel 2. [29] [30] [31]
Además, se puede activar una función de "retoque facial" que limpia manchas y otras imperfecciones de la piel del sujeto. [32]
El Pixel 4 presentó un modo Retrato mejorado, el algoritmo de aprendizaje automático utiliza información de paralaje del telefoto y los Dual Pixels, y la diferencia entre la cámara con telefoto y la cámara gran angular para crear mapas de profundidad más precisos. [33] Para la cámara frontal, utiliza la información de paralaje de la cámara frontal y las cámaras IR. [34] El efecto de desenfoque se aplica en la etapa Raw antes de la etapa de mapeo de tonos para un efecto bokeh similar al de una SLR más realista. [13] [33]
A finales de 2017, con el debut de Pixel 2 y Pixel 2 XL , Google presentó AR Stickers, una función que, utilizando la nueva plataforma ARCore de Google , permitía al usuario superponer objetos animados de realidad aumentada en sus fotos y vídeos. Con el lanzamiento de Pixel 3, AR Stickers pasó a llamarse Playground. [35] [36]
La cámara ofrece una funcionalidad impulsada por Google Lens , que permite a la cámara copiar el texto que ve, identificar productos, libros y películas y buscar otros similares, identificar animales y plantas, y escanear códigos de barras y códigos QR , entre otras cosas.
El modo Photobooth permite al usuario automatizar la captura de selfies. La IA puede detectar la sonrisa o las caras divertidas del usuario y tomar la fotografía en el mejor momento sin ninguna acción por parte del usuario, similar a Google Clips . Este modo también cuenta con un procesamiento de IA de dos niveles del rostro del sujeto que se puede habilitar o deshabilitar para suavizar su piel. La funcionalidad Motion Photos también está disponible en este modo. El balance de blancos también se puede ajustar a ajustes preestablecidos definidos. [37] En octubre de 2019, Photobooth se eliminó como modo independiente, convirtiéndose en una opción "Auto" en las opciones del obturador, [38] y luego se eliminó por completo. [ aclaración necesaria ]
Night Sight se basa en un principio similar al apilamiento de exposición, utilizado en astrofotografía . Night Sight utiliza algoritmos HDR+ o Super Res Zoom modificados. Una vez que el usuario presiona el disparador, se toman múltiples fotografías de exposición prolongada, hasta 15x de exposición de 1/15 de segundo o 6x de exposición de 1 segundo, para crear una exposición de hasta 6 segundos. La medición de movimiento y el procesamiento basado en mosaicos de la imagen permiten reducir, si no cancelar, el movimiento de la cámara, lo que da como resultado una toma clara y con la exposición adecuada. Google afirma que puede manejar hasta un ~8% de desplazamiento de cuadro a cuadro. Y cada cuadro se divide en alrededor de 12.000 mosaicos. También introdujo un algoritmo AWB basado en el aprendizaje para un balance de blancos más preciso en condiciones de poca luz. [39] [40] [13]
Night Sight también funciona bien a la luz del día, mejorando el balance de blancos, los detalles y la nitidez. Al igual que HDR+ mejorado, Night Sight cuenta con retardo de obturación positivo (PSL). Night Sight también admite un temporizador de retardo, así como un selector asistido para el enfoque con tres opciones (lejos, cerca y enfoque automático). Night Sight se introdujo con el Pixel 3, todos los teléfonos Pixel más antiguos se actualizaron con soporte. [41] [42] [43] [44]
El modo Astrofotografía se activa automáticamente cuando el modo Night Sight está habilitado y el teléfono detecta que está sobre un soporte estable como un trípode. En este modo, la cámara promedia hasta quince exposiciones de 16 segundos, para crear una exposición de 4 minutos para reducir significativamente el ruido de disparo . Al dividir la toma en varias exposiciones más cortas, la cámara logra lograr la captura de luz de una exposición prolongada sin tener que lidiar con rastros de estrellas , lo que de otro modo requeriría mover el teléfono con mucha precisión durante la exposición para compensar la rotación de la Tierra. El modo Astrofotografía también incluye algoritmos mejorados para eliminar píxeles calientes y píxeles cálidos causados por la corriente oscura y una red neuronal convolucional para detectar cielos para la reducción de ruido específico del cielo . [45] El modo Astrofotografía se introdujo con el Pixel 4, y se retroportó al Pixel 3 y Pixel 3a. [18] [46] [13]
Portrait Light es una función de posprocesamiento que permite agregar una fuente de luz a los retratos. Simula la direccionalidad y la intensidad para complementar la iluminación de la fotografía original mediante modelos de aprendizaje automático . Portrait Light se introdujo con el Pixel 5 y se incorporó al Pixel 4, Pixel 4a y Pixel 4a 5G. Cuando se usa el modo predeterminado o el modo Night Sight, se aplica automáticamente si hay una o más personas. Portrait Light fue una colaboración entre los equipos de Google Research, Google Daydream , Google Pixel y Google Photos . [47]
Con el lanzamiento del Pixel 8, Google anunció que la cámara Pixel recibiría soporte para Ultra HDR. Ultra HDR es un formato que almacena un conjunto adicional de datos junto con el JPG, con información adicional de luminosidad para producir una foto HDR. [48] Poco después, con la versión 9.2 de la aplicación, Ultra HDR se incorporó a los Pixel 7 y 6. [49]
Muchos desarrolladores han publicado versiones no oficiales que permiten su uso en teléfonos que no son de Google o que implementan sus funciones premium en teléfonos Google más antiguos. Estas aplicaciones no oficiales suelen solucionar la falta de ciertas funciones de hardware presentes en los dispositivos de gama alta de Google y, a veces, incluso llegan a habilitar funciones que no están disponibles en la versión oficial de la aplicación. Existen numerosas versiones diferentes, destinadas a distintos teléfonos Android.
Aunque muchas de las funciones están disponibles en las versiones portadas, no es inusual que algunas funciones no estén disponibles o no funcionen correctamente en teléfonos sin el soporte API adecuado [50] o hardware incompatible. [51] También se requiere Google Play Services o un reemplazo como microG para que la aplicación se ejecute. [52]
En 2016, una versión modificada trajo HDR+ con Zero Shutter Lag (ZSL) de vuelta al Nexus 5X y Nexus 6P. [53] A mediados de 2017, se creó una versión modificada de Google Camera para cualquier teléfono inteligente equipado con un procesador Snapdragon 820, 821 o 835. [54] En 2018, los desarrolladores lanzaron versiones modificadas que habilitaban Night Sight en teléfonos que no eran Pixel. [55] En agosto de 2020, se introdujo una nueva forma de acceder a cámaras adicionales, [56] eliminando la necesidad de usar root en teléfonos que no exponen todas las cámaras para aplicaciones de terceros. [57]