stringtranslate.com

Cámara de píxeles

Pixel Camera es una aplicación de cámara para teléfono desarrollada por Google para el sistema operativo Android . El desarrollo con lentes de zoom para la aplicación comenzó en 2011 en la incubadora de investigación Google X dirigida por Marc Levoy , que estaba desarrollando tecnología de fusión de imágenes para Google Glass . [3] Se lanzó públicamente para Android 4.4+ en Google Play el 16 de abril de 2014. [4] La aplicación se lanzó inicialmente como Google Camera y era compatible con todos los dispositivos con Android 4.4 KitKat y superior. Sin embargo, en octubre de 2023, coincidiendo con el lanzamiento de la serie Pixel 8 , pasó a llamarse Pixel Camera y pasó a ser oficialmente compatible solo con dispositivos Google Pixel. [5]

Características

Google Camera contiene una serie de funciones que se pueden activar en la página de Configuración o en la fila de íconos en la parte superior de la aplicación.

Núcleo visual/neuronal de píxeles

A partir de los dispositivos Pixel, la aplicación de la cámara ha sido asistida con aceleradores de hardware , un chip de procesamiento de imágenes oculto, para realizar su procesamiento de imágenes. La primera generación de teléfonos Pixel usó los DSP Hexagon de Qualcomm y las GPU Adreno para acelerar el procesamiento de imágenes. Los Pixel 2 y Pixel 3 (pero no el Pixel 3a ) incluyen Pixel Visual Core para ayudar con el procesamiento de imágenes. El Pixel 4 introdujo Pixel Neural Core . [6] Tenga en cuenta que el principal objetivo de Visual Core es llevar el procesamiento de imágenes HDR+ que es simbólico de la cámara Pixel a cualquier otra aplicación que tenga las API de Google relevantes . Pixel Visual Core está diseñado para realizar un procesamiento de imágenes pesado mientras conserva energía, ahorrando batería.

HDR+

A diferencia de las versiones anteriores de imágenes de alto rango dinámico (HDR) , HDR+, también conocido como HDR+ en adelante, utiliza técnicas de fotografía computacional para lograr un rango dinámico más alto. HDR+ toma fotografías en ráfagas continuas con exposiciones cortas. Cuando se presiona el obturador, se analizan los últimos 5 a 15 fotogramas para elegir las tomas más nítidas (usando imágenes afortunadas ), que se alinean selectivamente y se combinan con el promedio de la imagen. HDR+ también utiliza la segmentación semántica para detectar rostros para iluminar con flash de relleno sintético y oscurecer y eliminar el ruido de los cielos. HDR+ también reduce el ruido de la toma y mejora los colores, al tiempo que evita que se apaguen las altas luces y el desenfoque de movimiento . HDR+ se introdujo en el Nexus 6 y regresó al Nexus 5. [ 7] [8] [9]

HDR+ mejorado

A diferencia de HDR+/HDR+ On, el modo 'HDR+ mejorado' no utiliza Zero Shutter Lag (ZSL). Al igual que Night Sight, el modo HDR+ mejorado cuenta con un retardo de obturación positivo (PSL): captura imágenes después de presionar el obturador. El modo HDR+ mejorado es similar al HDR+ del Nexus 5, Nexus 6, Nexus 5X y Nexus 6P . Se cree que utiliza fotogramas subexpuestos y sobreexpuestos como Smart HDR de Apple . Las capturas HDR+ mejoradas aumentan el rango dinámico en comparación con HDR+ activado. El modo HDR+ mejorado en el Pixel 3 utiliza el algoritmo AWB basado en aprendizaje de Night Sight. [10] [11]

HDR+ en vivo

A partir del Pixel 4, Live HDR+ reemplazó a HDR+, con un visor WYSIWYG con una vista previa en tiempo real de HDR+. [12] HDR+ en vivo utiliza el algoritmo AWB basado en aprendizaje de Night Sight y promedia hasta nueve imágenes subexpuestas. [13]

Controles de exposición dual

El modo 'Live HDR+' utiliza controles de exposición dual, con controles deslizantes separados para el brillo ( exposición de captura ) y para las sombras ( mapeo de tonos ). Esta función se puso a disposición para Pixel 4 y no se ha incorporado a los dispositivos Pixel más antiguos debido a limitaciones de hardware. [13] [12]

Con horquillado

En abril de 2021, Google Camera v8.2 introdujo HDR+ con Bracketing, Night Sight con Bracketing y Portrait Mode con Bracketing. Google actualizó su algoritmo de horquillado de exposición para HDR+ para incluir un marco de exposición prolongada adicional y Night Sight para incluir 3 marcos de exposición prolongada. El algoritmo de fusión espacial también se rediseñó para decidir si se fusiona o no por píxel (como Super Res Zoom) y se actualizó para manejar exposiciones prolongadas (luces recortadas, más desenfoque de movimiento y diferentes características de ruido). Con Bracketing permite reducir aún más el ruido de lectura , mejorar los detalles/texturas y colores más naturales. Con Bracketing se habilita automáticamente según el rango dinámico y el movimiento. Con Bracketing es compatible con todos los modos para Pixel 4a (5G) y 5. Con Bracketing es compatible con Night Sight para Pixel 4 y 4a. [14]

Fotografías en movimiento

El modo Motion Photo de Google Camera es similar al de Zoe de HTC y al de Live Photo de iOS . Cuando está habilitado, se combina con la foto original un videoclip corto, silencioso y de resolución relativamente baja. Si está habilitado el modo RAW, solo se crea un archivo DNG de 0,8 MP, no el DNG sin movimiento de 12,2 MP. Motion Photos se introdujo en el Pixel 2. Motion Photo está deshabilitado en el modo mejorado HDR+. [15] [16] [17]

Estabilización de vídeo

La estabilización de video fusionada, una técnica que combina la estabilización de imagen óptica y la estabilización de imagen electrónica/digital , se puede habilitar para lograr videos significativamente más fluidos. Esta técnica también corrige la distorsión del obturador rotatorio y la respiración de enfoque , entre otros problemas. La estabilización de video fusionada se introdujo en el Pixel 2. [18] [19]

Zoom de súper resolución

Super Res Zoom es una técnica de superresolución de múltiples fotogramas introducida con el Pixel 3 que desplaza el sensor de imagen para lograr una resolución más alta, que según Google es equivalente a un zoom óptico de 2-3x . Es similar al procesamiento de imágenes por llovizna . Super Res Zoom también se puede utilizar con lentes telefoto; por ejemplo, Google afirma que el Pixel 4 puede capturar un zoom de 8x con una calidad casi óptica. [20] [21]

La mejor toma

Cuando se activa la función Motion Photos, Top Shot analiza hasta 90 fotogramas adicionales de 1,5 segundos antes y después de presionar el obturador. El Pixel Visual Core se utiliza para acelerar el análisis mediante técnicas de visión artificial y los clasifica en función del movimiento del objeto, el desenfoque de movimiento, la exposición automática, el enfoque automático y el balance de blancos automático. Se guardan unas diez fotos adicionales, incluida una foto HDR+ adicional de hasta 3 MP. Top Shot se introdujo en el Pixel 3. [22]

Otras características

Funciones

Como la mayoría de aplicaciones de cámara, Google Camera ofrece diferentes modos de uso que permiten al usuario tomar distintos tipos de fotos o vídeos. [24]

Cámara lenta

Se pueden capturar videos en cámara lenta con Google Camera a 120 o, en dispositivos compatibles, a 240 cuadros por segundo. [25]

Panorama

La fotografía panorámica también es posible con Google Camera. Se admiten cuatro tipos de fotografía panorámica: horizontal, vertical, gran angular y ojo de pez . Una vez seleccionada la función Panorama, se puede seleccionar uno de estos cuatro modos a la vez desde una fila de iconos en la parte superior de la pantalla. [26]

Foto esférica

Google Camera permite al usuario crear una 'Foto esférica', una foto panorámica de 360 ​​grados , agregada originalmente en Android 4.2 en 2012. [27] Estas fotos pueden luego incrustarse en una página web con código HTML personalizado o cargarse en varios servicios de Google. [28]

El Pixel 8 se lanzó sin esta función, es el primer teléfono Pixel que no la tiene, lo que llevó a muchos a creer que la función se había descontinuado. [ cita requerida ]

Retrato

El modo retrato (llamado Lens Blur antes del lanzamiento de la línea Pixel) ofrece una manera fácil para que los usuarios tomen "selfies" o retratos con un efecto Bokeh , en el que el sujeto de la foto está enfocado y el fondo está ligeramente borroso. Este efecto se logra a través de la información de paralaje de los sensores de doble píxel cuando están disponibles (como Pixel 2 y Pixel 3), y la aplicación de aprendizaje automático para identificar qué debe mantenerse enfocado y qué debe desenfocarse. El modo retrato se introdujo en el Pixel 2. [29] [30] [31]

Además, se puede activar una función de "retoque facial" que limpia manchas y otras imperfecciones de la piel del sujeto. [32]

El Pixel 4 presentó un modo Retrato mejorado, el algoritmo de aprendizaje automático utiliza información de paralaje del telefoto y los Dual Pixels, y la diferencia entre la cámara con telefoto y la cámara gran angular para crear mapas de profundidad más precisos. [33] Para la cámara frontal, utiliza la información de paralaje de la cámara frontal y las cámaras IR. [34] El efecto de desenfoque se aplica en la etapa Raw antes de la etapa de mapeo de tonos para un efecto bokeh similar al de una SLR más realista. [13] [33]

Patio de juegos

A finales de 2017, con el debut de Pixel 2 y Pixel 2 XL , Google presentó AR Stickers, una función que, utilizando la nueva plataforma ARCore de Google , permitía al usuario superponer objetos animados de realidad aumentada en sus fotos y vídeos. Con el lanzamiento de Pixel 3, AR Stickers pasó a llamarse Playground. [35] [36]

Lente de Google

La cámara ofrece una funcionalidad impulsada por Google Lens , que permite a la cámara copiar el texto que ve, identificar productos, libros y películas y buscar otros similares, identificar animales y plantas, y escanear códigos de barras y códigos QR , entre otras cosas.

Fotomatón

El modo Photobooth permite al usuario automatizar la captura de selfies. La IA puede detectar la sonrisa o las caras divertidas del usuario y tomar la fotografía en el mejor momento sin ninguna acción por parte del usuario, similar a Google Clips . Este modo también cuenta con un procesamiento de IA de dos niveles del rostro del sujeto que se puede habilitar o deshabilitar para suavizar su piel. La funcionalidad Motion Photos también está disponible en este modo. El balance de blancos también se puede ajustar a ajustes preestablecidos definidos. [37] En octubre de 2019, Photobooth se eliminó como modo independiente, convirtiéndose en una opción "Auto" en las opciones del obturador, [38] y luego se eliminó por completo. [ aclaración necesaria ]

Visión nocturna

Night Sight se basa en un principio similar al apilamiento de exposición, utilizado en astrofotografía . Night Sight utiliza algoritmos HDR+ o Super Res Zoom modificados. Una vez que el usuario presiona el disparador, se toman múltiples fotografías de exposición prolongada, hasta 15x de exposición de 1/15 de segundo o 6x de exposición de 1 segundo, para crear una exposición de hasta 6 segundos. La medición de movimiento y el procesamiento basado en mosaicos de la imagen permiten reducir, si no cancelar, el movimiento de la cámara, lo que da como resultado una toma clara y con la exposición adecuada. Google afirma que puede manejar hasta un ~8% de desplazamiento de cuadro a cuadro. Y cada cuadro se divide en alrededor de 12.000 mosaicos. También introdujo un algoritmo AWB basado en el aprendizaje para un balance de blancos más preciso en condiciones de poca luz. [39] [40] [13]

Night Sight también funciona bien a la luz del día, mejorando el balance de blancos, los detalles y la nitidez. Al igual que HDR+ mejorado, Night Sight cuenta con retardo de obturación positivo (PSL). Night Sight también admite un temporizador de retardo, así como un selector asistido para el enfoque con tres opciones (lejos, cerca y enfoque automático). Night Sight se introdujo con el Pixel 3, todos los teléfonos Pixel más antiguos se actualizaron con soporte. [41] [42] [43] [44]

Astrofotografía

El modo Astrofotografía se activa automáticamente cuando el modo Night Sight está habilitado y el teléfono detecta que está sobre un soporte estable como un trípode. En este modo, la cámara promedia hasta quince exposiciones de 16 segundos, para crear una exposición de 4 minutos para reducir significativamente el ruido de disparo . Al dividir la toma en varias exposiciones más cortas, la cámara logra lograr la captura de luz de una exposición prolongada sin tener que lidiar con rastros de estrellas , lo que de otro modo requeriría mover el teléfono con mucha precisión durante la exposición para compensar la rotación de la Tierra. El modo Astrofotografía también incluye algoritmos mejorados para eliminar píxeles calientes y píxeles cálidos causados ​​por la corriente oscura y una red neuronal convolucional para detectar cielos para la reducción de ruido específico del cielo . [45] El modo Astrofotografía se introdujo con el Pixel 4, y se retroportó al Pixel 3 y Pixel 3a. [18] [46] [13]

Luz de retrato

Portrait Light es una función de posprocesamiento que permite agregar una fuente de luz a los retratos. Simula la direccionalidad y la intensidad para complementar la iluminación de la fotografía original mediante modelos de aprendizaje automático . Portrait Light se introdujo con el Pixel 5 y se incorporó al Pixel 4, Pixel 4a y Pixel 4a 5G. Cuando se usa el modo predeterminado o el modo Night Sight, se aplica automáticamente si hay una o más personas. Portrait Light fue una colaboración entre los equipos de Google Research, Google Daydream , Google Pixel y Google Photos . [47]

Ultra HDR

Con el lanzamiento del Pixel 8, Google anunció que la cámara Pixel recibiría soporte para Ultra HDR. Ultra HDR es un formato que almacena un conjunto adicional de datos junto con el JPG, con información de luminosidad adicional para producir una foto HDR. [48] Poco después, con la versión 9.2 de la aplicación, Ultra HDR se incorporó a los Pixel 7 y 6. [49]

Puertos no oficiales

Muchos desarrolladores han publicado versiones no oficiales que permiten su uso en teléfonos que no son de Google o que implementan sus funciones premium en teléfonos Google más antiguos. Estas aplicaciones no oficiales suelen solucionar la falta de ciertas funciones de hardware presentes en los dispositivos de gama alta de Google y, a veces, incluso llegan a habilitar funciones que no están disponibles en la versión oficial de la aplicación. Existen numerosas versiones diferentes, destinadas a distintos teléfonos Android.

Aunque muchas de las funciones están disponibles en las versiones portadas, no es inusual que algunas funciones no estén disponibles o no funcionen correctamente en teléfonos sin el soporte API adecuado [50] o hardware incompatible. [51] También se requiere Google Play Services o un reemplazo como microG para que la aplicación se ejecute. [52]

En 2016, una versión modificada trajo HDR+ con Zero Shutter Lag (ZSL) de vuelta al Nexus 5X y Nexus 6P. [53] A mediados de 2017, se creó una versión modificada de Google Camera para cualquier teléfono inteligente equipado con un procesador Snapdragon 820, 821 o 835. [54] En 2018, los desarrolladores lanzaron versiones modificadas que habilitaban Night Sight en teléfonos que no eran Pixel. [55] En agosto de 2020, se introdujo una nueva forma de acceder a cámaras adicionales, [56] eliminando la necesidad de usar root en teléfonos que no exponen todas las cámaras para aplicaciones de terceros. [57]

Referencias

  1. ^ "Pixel Camera APKs". APKMirror . Consultado el 10 de abril de 2024 .
  2. ^ "Pixel Camera APKs". APKMirror . Consultado el 10 de abril de 2024 .
  3. ^ "Conoce a Gcam: la graduada de X que nos dio un punto de vista completamente nuevo". Medium . 2017-06-06 . Consultado el 2019-10-15 .
  4. ^ Kellex (16 de abril de 2014). "Vista rápida y recorrido por la cámara de Google". Droid Life .
  5. ^ Li, Abner (13 de octubre de 2023). «'Google Camera' ahora es 'Pixel Camera' en Play Store». 9to5Google . Archivado desde el original el 14 de octubre de 2023 . Consultado el 15 de octubre de 2023 .
  6. ^ "Presentación del conjunto de datos de fotografía en ráfaga HDR+". Blog de Google AI . Consultado el 2 de agosto de 2019 .
  7. ^ Shankland, Stephen (21 de octubre de 2016). "Cómo el teléfono Pixel de Google crea una mejor fotografía". CNET . Consultado el 14 de octubre de 2019 .
  8. ^ "HDR+: fotografía con poca luz y alto rango dinámico en la aplicación Cámara de Google". Blog de Google AI . Consultado el 14 de octubre de 2019 .
  9. ^ ab "5 maneras en las que la cámara del Google Pixel 3 supera los límites de la fotografía computacional". DPReview . Consultado el 15 de octubre de 2019 .
  10. ^ "¿HDR+ activado o HDR+ mejorado? - Publicación n.° 5". forum.xda-developers.com . Consultado el 5 de abril de 2018 .
  11. ^ Patel, Idrees (2017-11-20). "Google explica las decisiones tomadas en la cámara del Pixel 2". xda-developers . Consultado el 14 de octubre de 2019 .
  12. ^ ab "Controles de exposición dual y HDR+ en vivo en Pixel 4 y 4a". Blog de inteligencia artificial de Google . Consultado el 4 de agosto de 2020 .
  13. ^ abcde "Estas son las actualizaciones más importantes de la cámara del Google Pixel 4". DPReview . Consultado el 18 de octubre de 2019 .
  14. ^ "HDR+ con horquillado en teléfonos Pixel". Blog de inteligencia artificial de Google . Consultado el 28 de abril de 2021 .
  15. ^ "Detrás de la tecnología Motion Photos en Pixel 2". Blog de Google AI . Consultado el 14 de octubre de 2019 .
  16. ^ "Motion Stills – Crea hermosos GIF a partir de Live Photos". Blog de Google AI . Consultado el 14 de octubre de 2019 .
  17. ^ Segan, Sascha (11 de septiembre de 2015). "Cómo las 'Live Photos' de Apple pueden ganar donde Zoe de HTC perdió". PCMag . Consultado el 14 de octubre de 2019 .
  18. ^ ab Hecho por Google '19 , recuperado el 16 de octubre de 2019
  19. ^ "Estabilización de video fusionada en Pixel 2 y Pixel 2 XL". Blog de investigación . Consultado el 5 de abril de 2018 .
  20. ^ "Vea mejor y más lejos con Super Res Zoom en el Pixel 3". Blog de inteligencia artificial de Google . Consultado el 14 de octubre de 2019 .
  21. ^ ab "Google Pixel 4 promete 'fotos de estudio sin el estudio'". petapixel.com . Consultado el 16 de octubre de 2019 .
  22. ^ "La mejor toma en Pixel 3". Blog de Google AI . Consultado el 15 de octubre de 2019 .
  23. ^ Kundu, Kishalaya (12 de octubre de 2018). "Las 10 mejores características de la cámara del Google Pixel 3". Beebom . Consultado el 15 de octubre de 2019 .
  24. ^ "Configuración manual de todos los parámetros de la versión HDR+ de Google Camera". ZenTalk . Consultado el 5 de abril de 2018 .
  25. ^ "Google Camera - Aplicaciones en Google Play". Google Play . 2018-04-05 . Consultado el 2018-04-05 .
  26. ^ Biersdorfer, JD (23 de mayo de 2016). "Ampliar la imagen con la cámara de Google". The New York Times . ISSN  0362-4331 . Consultado el 5 de abril de 2018 .
  27. ^ "Ya llegó Android 4.2 Jelly Bean: cámara panorámica Photo Sphere, escritura gestual, transmisión inalámbrica de HDTV - TechCrunch". techcrunch.com . Consultado el 5 de abril de 2018 .
  28. ^ "Foto esférica". Android Central . 2016-04-26. Archivado desde el original el 2020-12-01 . Consultado el 2018-04-05 .
  29. ^ "Modo retrato en los smartphones Pixel 2 y Pixel 2 XL". Blog de Google AI . Consultado el 14 de octubre de 2019 .
  30. ^ "Aprender a predecir la profundidad en los teléfonos Pixel 3". Blog de inteligencia artificial de Google . Consultado el 14 de octubre de 2019 .
  31. ^ "Cómo usar el modo retrato en Google Pixel 2: consejos interesantes". Guiding Tech . 2017-12-26 . Consultado el 2018-04-05 .
  32. ^ "Descarga la aplicación Google Camera con Motion Photo + Face Retouching en Google Pixel". xda-developers . 2017-10-13 . Consultado el 2018-04-05 .
  33. ^ ab "Mejoras en el modo retrato en Google Pixel 4 y Pixel 4 XL". Blog de inteligencia artificial de Google . Consultado el 21 de diciembre de 2019 .
  34. ^ "uDepth: detección de profundidad 3D en tiempo real en el Pixel 4". Blog de inteligencia artificial de Google . Consultado el 10 de abril de 2020 .
  35. ^ "Cómo usar stickers AR en Google Pixel o Pixel 2". Android Authority . 2017-12-12 . Consultado el 2018-04-05 .
  36. ^ "Vea su mundo de manera diferente con Playground y Google Lens en Pixel 3". Google . 2018-10-09 . Consultado el 2019-10-15 .
  37. ^ "Toma tu mejor selfie automáticamente con Photobooth en Pixel 3". Blog de inteligencia artificial de Google . Consultado el 15 de octubre de 2019 .
  38. ^ "Las principales novedades de esta semana: Google Camera 7.1, prueba de Pixelbook Go y más". 12 de octubre de 2019.
  39. ^ "Night Sight: ver en la oscuridad con los teléfonos Pixel". Blog de Google AI . Consultado el 14 de octubre de 2019 .
  40. ^ "Vea la luz con Night Sight". Google . 2018-11-14 . Consultado el 2019-10-14 .
  41. ^ Savov, Vlad (14 de noviembre de 2018). «Google le da a la cámara Pixel una visión nocturna sobrehumana». The Verge . Consultado el 14 de octubre de 2019 .
  42. ^ "El modo de cámara Night Sight del Pixel realiza milagros en la captura de imágenes". Engadget . Consultado el 14 de octubre de 2019 .
  43. ^ "Pixel Night Sight también funciona durante el día, reduciendo el ruido y aumentando la resolución". Android Police . 2018-11-14 . Consultado el 2019-10-14 .
  44. ^ Savov, Vlad (26 de noviembre de 2018). "La función Night Sight de Google también es sutilmente impresionante durante el día". The Verge . Consultado el 14 de octubre de 2019 .
  45. ^ "Astrofotografía con Night Sight en teléfonos Pixel". Blog de Google AI . Consultado el 4 de diciembre de 2019 .
  46. ^ "Entre bastidores: las cámaras Pixel de Google no pretenden ser cámaras en absoluto". Android Authority . 2019-10-15 . Consultado el 2019-10-16 .
  47. ^ "Iluminación de retratos: mejora de la iluminación de retratos con aprendizaje automático". Blog de inteligencia artificial de Google . Consultado el 12 de diciembre de 2020 .
  48. ^ "Práctica con Ultra HDR en Android 14: el futuro de la fotografía". 2023-10-09.
  49. ^ "Google trae Ultra HDR y otras funciones a Pixel 7 y Pixel 6: lo que necesitas saber". 2023-12-06.
  50. ^ "Comentario de uno de los modders (cstark) sobre la compatibilidad con controles de exposición dual".
  51. ^ "Cómo instalar y usar el puerto de cámara de Google". www.celsoazevedo.com . Consultado el 27 de septiembre de 2020 .
  52. ^ "Puerto de cámara de Google: preguntas frecuentes y solución de problemas". www.celsoazevedo.com . Consultado el 27 de septiembre de 2020 .
  53. ^ Chow, Charles (5 de noviembre de 2016). "La cámara NX V4 permite tomar fotografías en ZSL con HDR+ en Nexus, al igual que los teléfonos Pixel (actualización para N6P)". ChromLoop . Archivado desde el original el 17 de septiembre de 2021 . Consultado el 15 de octubre de 2019 .
  54. ^ Andrew Liptak (12 de agosto de 2017). "El software de la cámara Pixel de Google ha sido diseñado para funcionar en otros teléfonos Android recientes".
  55. ^ "Consigue el puerto de Google Camera con Night Sight para Xiaomi Mi 5, Essential Phone". xda-developers . 2018-10-27 . Consultado el 2019-10-15 .
  56. ^ "El nuevo mod de Google Camera permite la compatibilidad con cámaras auxiliares en muchos dispositivos sin root". xda-developers . 2020-08-27 . Consultado el 2020-09-27 .
  57. ^ "Módulo habilitador de cámaras AUX". Páginas de Android . 2020-04-07 . Consultado el 2020-09-27 .

Lectura adicional

Enlaces externos