stringtranslate.com

Estabilización de imagen

Comparación de sistemas de estabilización de imagen simplificados:
  1. desestabilizado
  2. estabilización óptica basada en lentes
  3. Estabilización óptica por cambio de sensor.
  4. estabilización digital o electrónica

La estabilización de imagen ( IS ) es una familia de técnicas que reducen la borrosidad asociada con el movimiento de una cámara u otro dispositivo de imágenes durante la exposición .

Generalmente, compensa el giro y la inclinación (movimiento angular, equivalente a guiñada y cabeceo ) del dispositivo de imágenes, aunque la estabilización de imagen electrónica también puede compensar la rotación alrededor del eje óptico ( rollo ). [1] Se utiliza principalmente en binoculares con imagen estabilizada de alta gama , cámaras fotográficas y de video , telescopios astronómicos y también teléfonos inteligentes . En el caso de las cámaras fotográficas , el movimiento de la cámara es un problema particular con velocidades de obturación lentas o con lentes de distancia focal larga ( teleobjetivo o zoom ). Con las cámaras de video , el movimiento de la cámara provoca una fluctuación visible de cuadro a cuadro en el video grabado. En astronomía, al problema de la vibración de las lentes se suma la variación de la atmósfera , que cambia las posiciones aparentes de los objetos con el tiempo.

Aplicación en fotografía fija

Fotografía de un sistema de refuerzo de sonido antes de un concierto de pop, en la que la sala estaba casi a oscuras excepto por el foco azul y la tenue luz blanca del panel trasero del dispositivo. Aunque el tiempo de exposición de 14 s a una distancia focal de 180 mm (equivalente a 35 mm) normalmente daría como resultado un desenfoque relativamente fuerte según la "regla de 1/mm", la imagen es bastante nítida, lo cual es el resultado de la activación. Estabilizador de imagen de la cámara digital Lumix empleada .

En fotografía, la estabilización de imagen puede facilitar velocidades de obturación de 2 a 5,5 pasos más lentas (exposiciones de 4 a 22+12 veces más), y se han informado velocidades efectivas incluso más lentas.

Una regla general para determinar la velocidad de obturación más lenta posible al sostenerlo con la mano sin que se note un desenfoque debido al movimiento de la cámara es tomar el recíproco de la distancia focal equivalente a 35 mm de la lente, también conocida como la "regla de 1/mm" [a ] . Por ejemplo, a una distancia focal de 125 mm en una cámara de 35 mm, la vibración o el movimiento de la cámara podrían afectar la nitidez si la velocidad de obturación es inferior a 1125 segundos. Como resultado de las velocidades de obturación más lentas de 2 a 4,5 pasos permitidas por IS, una imagen tomada a una velocidad de 1125 segundos con una lente normal podría tomarse a 115 o 18 segundos con una lente equipada con IS y producir casi la misma calidad. La nitidez que se puede obtener a una velocidad determinada puede aumentar drásticamente. [3] Al calcular la distancia focal efectiva, es importante tener en cuenta el formato de imagen que utiliza una cámara. Por ejemplo, muchas cámaras SLR digitales utilizan un sensor de imagen que tiene 23 , 58 o 12 del tamaño de un fotograma de película de 35 mm. Esto significa que el marco de 35 mm es 1,5, 1,6 o 2 veces el tamaño del sensor digital. Estos últimos valores se denominan factor de recorte , factor de recorte del campo de visión, multiplicador de distancia focal o factor de formato. En una cámara con factor de recorte de 2×, por ejemplo, una lente de 50 mm produce el mismo campo de visión que una lente de 100 mm utilizada en una cámara de película de 35 mm y, por lo general, se puede colocar en la mano a 1100 de segundo.

Sin embargo, la estabilización de imagen no evita el desenfoque causado por el movimiento del sujeto o por movimientos extremos de la cámara. La estabilización de imagen solo está diseñada y es capaz de reducir la borrosidad que resulta del movimiento normal y diminuto de una lente debido al disparo sin trípode. Algunas lentes y cuerpos de cámara incluyen un modo de panorámica secundaria o un "modo activo" más agresivo, ambos descritos con mayor detalle a continuación en estabilización de imagen óptica.

La astrofotografía hace mucho uso de la fotografía de larga exposición , que requiere que la cámara esté fija en su lugar. Sin embargo, fijarlo a la Tierra no es suficiente, ya que la Tierra gira . Las Pentax K-5 y Kr, cuando están equipadas con el accesorio GPS O-GPS1 para datos de posición, pueden usar su capacidad de cambio de sensor para reducir los rastros de estrellas resultantes . [4]

La estabilización se puede aplicar en la lente o en el cuerpo de la cámara. Cada método tiene ventajas y desventajas distintivas. [5]

Técnicas

Estabilización de imagen óptica

Una comparación de fotografías en primer plano del teclado de una calculadora con y sin estabilización de imagen óptica

Un estabilizador de imagen óptico ( OIS , IS u OS ) es un mecanismo utilizado en cámaras fijas o de video que estabiliza la imagen grabada variando la ruta óptica hacia el sensor. Esta tecnología se implementa en la propia lente, a diferencia de la estabilización de imagen corporal ( IBIS ), que funciona moviendo el sensor como elemento final del camino óptico. El elemento clave de todos los sistemas de estabilización óptica es que estabilizan la imagen proyectada en el sensor antes de que el sensor convierta la imagen en información digital . IBIS puede tener hasta 5 ejes de movimiento: X, Y, Roll, Yaw y Pitch. IBIS tiene la ventaja adicional de trabajar con todos los lentes.

Beneficios de la OIS

La estabilización de imagen óptica prolonga la velocidad de obturación posible para la fotografía portátil al reducir la probabilidad de que la imagen se vea borrosa debido al movimiento durante el mismo tiempo de exposición.

Para la grabación de video portátil , independientemente de las condiciones de iluminación, la estabilización de imagen óptica compensa las pequeñas sacudidas cuya apariencia se magnifica cuando se mira en una pantalla grande, como un televisor o un monitor de computadora . [6] [7] [8]

Nombres de proveedores

Diferentes empresas tienen diferentes nombres para la tecnología OIS, por ejemplo:

La mayoría de los teléfonos inteligentes de alta gama a finales de 2014 utilizan estabilización de imagen óptica para fotos y vídeos. [11]

Basado en lentes

En la implementación de Nikon y Canon , funciona mediante el uso de un elemento de lente flotante que se mueve ortogonalmente al eje óptico de la lente mediante electroimanes. [12] La vibración se detecta utilizando dos sensores piezoeléctricos de velocidad angular (a menudo llamados sensores giroscópicos ), uno para detectar el movimiento horizontal y el otro para detectar el movimiento vertical. [13] Como resultado, este tipo de estabilizador de imagen corrige solo las rotaciones de los ejes de cabeceo y guiñada, [14] [15] y no puede corregir la rotación alrededor del eje óptico. Algunos lentes tienen un modo secundario que contrarresta el movimiento vertical de la cámara. Este modo es útil cuando se utiliza una técnica de panorámica . Algunas de estas lentes lo activan automáticamente; otros usan un interruptor en la lente.

Para compensar el movimiento de la cámara al grabar videos mientras camina, Panasonic introdujo Power Hybrid OIS+ con corrección de cinco ejes: rotación de ejes, rotación horizontal, rotación vertical y movimiento horizontal y vertical. [dieciséis]

Algunas lentes Nikon habilitadas para VR ofrecen un modo "activo" para disparar desde un vehículo en movimiento, como un automóvil o un barco, que se supone que corrige las sacudidas más fuertes que el modo "normal". [17] Sin embargo, el modo activo utilizado para disparos normales puede producir peores resultados que el modo normal. [18] Esto se debe a que el modo activo está optimizado para reducir los movimientos de velocidad angular más alta (normalmente cuando se dispara desde una plataforma en gran movimiento usando velocidades de obturación más rápidas), mientras que el modo normal intenta reducir los movimientos de velocidad angular más baja en una amplitud y período de tiempo mayores (normalmente el cuerpo). y movimiento de la mano al estar de pie sobre una plataforma fija o que se mueve lentamente mientras se utilizan velocidades de obturación más lentas).

La mayoría de los fabricantes sugieren que la función IS de una lente se desactive cuando la lente esté montada en un trípode, ya que puede causar resultados erráticos y generalmente es innecesario. Muchas lentes de estabilización de imagen modernas (en particular, las lentes IS más recientes de Canon) pueden detectar automáticamente que están montadas en un trípode (como resultado de lecturas de vibración extremadamente bajas) y desactivar IS automáticamente para evitar esto y cualquier reducción consiguiente de la calidad de la imagen. [19] El sistema también consume energía de la batería, por lo que desactivarlo cuando no es necesario prolonga la carga de la batería.

Una desventaja de la estabilización de imagen basada en lentes es el costo. Cada lente requiere su propio sistema de estabilización de imagen. Además, no todos los lentes están disponibles en una versión con imagen estabilizada. Este suele ser el caso de los objetivos fijos rápidos y gran angular. Sin embargo, el objetivo más rápido con estabilización de imagen es el Nocticron con una velocidad de f /1,2. Si bien la ventaja más obvia para la estabilización de imagen radica en distancias focales más largas, incluso las lentes normales y gran angular se benefician en aplicaciones con poca luz.

La estabilización basada en lentes también tiene ventajas sobre la estabilización corporal. En situaciones de poca luz o bajo contraste, el sistema de enfoque automático (que no tiene sensores estabilizados) puede funcionar con mayor precisión cuando la imagen proveniente de la lente ya está estabilizada. [ cita necesaria ] En cámaras con visores ópticos, la imagen vista por el fotógrafo a través de la lente estabilizada (a diferencia de la estabilización interna) revela más detalles debido a su estabilidad y también facilita el encuadre correcto. Este es especialmente el caso de los teleobjetivos más largos. Esto no es un problema para los sistemas de cámaras de lentes intercambiables sin espejo , porque la salida del sensor a la pantalla o al visor electrónico está estabilizada.

Cambio de sensor

El sensor que captura la imagen se puede mover de tal manera que contrarreste el movimiento de la cámara, una tecnología a menudo denominada estabilización de imagen mecánica. Cuando la cámara gira, provocando un error angular, los giroscopios codifican información para el actuador que mueve el sensor. [20] El sensor se mueve para mantener la proyección de la imagen en el plano de la imagen, que es función de la distancia focal de la lente que se utiliza. Las cámaras modernas pueden adquirir automáticamente información sobre la distancia focal de lentes modernos fabricados para esa cámara. Minolta y Konica Minolta utilizaron una técnica llamada Anti-Shake (AS) ahora comercializada como SteadyShot (SS) en la línea α de Sony y Shake Reduction (SR) en las cámaras Pentax de las series K y Q , que se basa en un ángulo muy preciso. Sensor de velocidad para detectar el movimiento de la cámara. [21] Olympus introdujo la estabilización de imagen con su cuerpo E-510 D-SLR , empleando un sistema construido alrededor de su Supersonic Wave Drive. [22] Otros fabricantes utilizan procesadores de señales digitales (DSP) para analizar la imagen sobre la marcha y luego mover el sensor de manera adecuada. El cambio de sensor también se utiliza en algunas cámaras de Fujifilm, Samsung, Casio Exilim y Ricoh Caplio. [23]

La ventaja de mover el sensor de imagen , en lugar del objetivo, es que la imagen se puede estabilizar incluso en objetivos fabricados sin estabilización. Esto puede permitir que la estabilización funcione con muchos lentes que de otro modo no estarían estabilizados y reduce el peso y la complejidad de los lentes. Además, cuando la tecnología de estabilización de imagen basada en sensores mejora, es necesario reemplazar solo la cámara para aprovechar las mejoras, lo que generalmente es mucho menos costoso que reemplazar todas las lentes existentes si se depende de la estabilización de imagen basada en lentes. Algunas implementaciones de estabilización de imagen basadas en sensores son capaces de corregir la rotación del carrete de la cámara , un movimiento que se excita fácilmente presionando el botón del obturador. Ningún sistema basado en lentes puede abordar esta posible fuente de imagen borrosa. Un subproducto de la compensación de "rollo" disponible es que la cámara puede corregir automáticamente los horizontes inclinados en el dominio óptico, siempre que esté equipada con un nivel de burbuja electrónico, como las cámaras Pentax K-7/K-5.

Una de las principales desventajas de mover el sensor de imagen es que la imagen proyectada en el visor no está estabilizada. De manera similar, la imagen proyectada a un sistema de enfoque automático por detección de fase que no forma parte del sensor de imagen, si se utiliza, no se estabiliza. Esto no es un problema en las cámaras que utilizan un visor electrónico (EVF), ya que la imagen proyectada en ese visor se toma del propio sensor de imagen.

Algunos cuerpos de cámara, pero no todos, con capacidad de estabilización interna se pueden preconfigurar manualmente a una distancia focal determinada. Su sistema de estabilización corrige como si esa lente de distancia focal estuviera colocada, por lo que la cámara puede estabilizar lentes más antiguas y lentes de otros fabricantes. Esto no es viable con lentes con zoom, porque su distancia focal es variable. Algunos adaptadores comunican información sobre la distancia focal del fabricante de una lente al cuerpo de otro fabricante. Algunas lentes que no informan su distancia focal se pueden adaptar con un chip que informa una distancia focal preprogramada al cuerpo de la cámara. A veces, ninguna de estas técnicas funciona y la estabilización de imagen no se puede utilizar con dichos lentes.

La estabilización de imagen en el cuerpo requiere que la lente tenga un círculo de imagen de salida más grande porque el sensor se mueve durante la exposición y, por lo tanto, utiliza una parte más grande de la imagen. En comparación con los movimientos de las lentes en los sistemas ópticos de estabilización de imagen, los movimientos del sensor son bastante grandes, por lo que la efectividad está limitada por el rango máximo de movimiento del sensor, donde una lente estabilizada ópticamente moderna típica tiene mayor libertad. Tanto la velocidad como el alcance del movimiento requerido del sensor aumentan con la distancia focal del objetivo que se utiliza, lo que hace que la tecnología de desplazamiento del sensor sea menos adecuada para teleobjetivos muy largos, especialmente cuando se utilizan velocidades de obturación más lentas, porque el rango de movimiento disponible del sensor rápidamente se vuelve insuficiente para hacer frente al creciente desplazamiento de la imagen.

En septiembre de 2023, Nikon anunció el lanzamiento de Nikon Z f , que cuenta con la primera tecnología Focus-Point VR del mundo que centra el eje de estabilización de imagen por desplazamiento del sensor en el punto de enfoque automático, en lugar de en el centro del sensor como el sensor convencional. sistema de estabilización de imagen por desplazamiento. Esto permite reducir la vibración en el punto enfocado en lugar de solo en el centro de la imagen. [24]

Doble

Toma de museo a mano alzada de un teodolito universal histórico tomada sin flash pero con estabilización de imagen dual. La imagen fue tomada con una Panasonic Lumix DMC-GX8 y un Nocticron con casi el doble de la distancia focal normal del sistema de cámara (42,5 mm) a f /1,2 y con un filtro polarizador para eliminar los reflejos del cristal transparente de la estuche de muestra . Velocidad ISO  = 800, tiempo de exposición  =  18  s, valor de exposición  = 0,5.

Comenzando con la Panasonic Lumix DMC-GX8 , anunciada en julio de 2015, y posteriormente con la Panasonic Lumix DC-GH5 , Panasonic, que anteriormente solo equipaba estabilización basada en lentes en su sistema de cámara de lentes intercambiables (del estándar Micro Four Thirds ), presentó Estabilización por cambio de sensor que funciona en conjunto con el sistema basado en lentes existente ("Dual IS").

Mientras tanto (2016), Olympus también ofreció dos lentes con estabilización de imagen que se pueden sincronizar con el sistema de estabilización de imagen incorporado de los sensores de imagen de las cámaras Micro Four Thirds de Olympus ("Sync IS"). Con esta tecnología se puede lograr una ganancia de 6,5 f -stops sin imágenes borrosas. [25] Esto está limitado por el movimiento de rotación de la superficie de la Tierra, que engaña a los acelerómetros de la cámara. Por lo tanto, dependiendo del ángulo de visión, el tiempo máximo de exposición no debe exceder 13 de segundo para tomas largas con teleobjetivo (con una distancia focal equivalente a 35 mm de 800 milímetros) y un poco más de diez segundos para tomas de gran angular (con una 35 mm (longitud focal equivalente a 24 milímetros), si el proceso de estabilización de imagen no tiene en cuenta el movimiento de la Tierra. [26]

En 2015, el sistema de cámara Sony E también permitía combinar sistemas de estabilización de imagen de lentes y cuerpos de cámara, pero sin sincronizar los mismos grados de libertad . En este caso, solo se activan los grados de compensación independientes de la estabilización del sensor de imagen incorporado para respaldar la estabilización de la lente. [27]

Canon y Nikon ahora tienen cuerpos sin espejo de fotograma completo que tienen IBIS y también admiten la estabilización basada en lentes de cada compañía. Los dos primeros cuerpos de este tipo de Canon, la EOS R y RP , no tienen IBIS, pero la característica se agregó para los modelos más recientes de gama alta R3 , R5 , R6 (y su versión MkII) y el APS-C R7 . Sin embargo, el R8 de fotograma completo y el APS-C R10 no tienen IBIS. Todos los cuerpos con montura Z de fotograma completo de Nikon ( Z 6 , Z 7 , las versiones Mark II de ambos, Z 8 y Z 9) tienen IBIS. Sin embargo, su APS-C Z 50 carece de IBIS.

Estabilización de imagen digital

Video corto que muestra la estabilización de imagen realizada exclusivamente en software en la etapa de posprocesamiento.

La estabilización de imagen digital en tiempo real , también llamada estabilización electrónica de imagen (EIS), se utiliza en algunas cámaras de vídeo. Esta técnica desplaza el área recortada leída por el sensor de imagen para cada cuadro para contrarrestar el movimiento. Esto requiere que la resolución del sensor de imagen supere la resolución del vídeo grabado y reduce ligeramente el campo de visión porque el área del sensor de imagen fuera del marco visible actúa como un amortiguador contra los movimientos de la mano. [28] Esta técnica reduce las vibraciones que distraen de los videos al suavizar la transición de un cuadro a otro.

Esta técnica no puede hacer nada con respecto al desenfoque de movimiento existente, lo que puede provocar que una imagen aparentemente pierda el enfoque a medida que el movimiento se compensa debido al movimiento durante los tiempos de exposición de fotogramas individuales. Este efecto es más visible en paisajes más oscuros debido a los tiempos de exposición prolongados por fotograma.

Algunos fabricantes de cámaras fotográficas promocionaron sus cámaras con estabilización de imagen digital cuando en realidad sólo tenían un modo de alta sensibilidad que utiliza un tiempo de exposición corto, lo que produce imágenes con menos desenfoque de movimiento, pero más ruido. [29] Reduce el desenfoque al fotografiar algo que se está moviendo, así como el movimiento de la cámara.

Otros ahora también utilizan el procesamiento de señales digitales (DSP) para reducir el desenfoque en las fotografías, por ejemplo, subdividiendo la exposición en varias exposiciones más cortas en rápida sucesión, descartando las borrosas, realineando las subexposiciones más nítidas y sumándolas, y usando el giroscopio para detectar el mejor momento para tomar cada fotograma. [30] [31] [32]

Filtros de estabilización

Muchos sistemas de edición de vídeo no lineal utilizan filtros de estabilización que pueden corregir una imagen no estabilizada siguiendo el movimiento de los píxeles de la imagen y corrigiéndola moviendo el fotograma. [33] [34] El proceso es similar a la estabilización de imagen digital, pero como no hay una imagen más grande para trabajar con el filtro, se recorta la imagen para ocultar el movimiento del marco o se intenta recrear la imagen perdida en el borde mediante técnicas espaciales. o extrapolación temporal . [35]

Los servicios en línea, incluido YouTube , también están comenzando a proporcionar estabilización de video como paso de posprocesamiento después de cargar el contenido. Esto tiene la desventaja de no tener acceso a los datos giroscópicos en tiempo real, pero la ventaja de una mayor potencia informática y la capacidad de analizar imágenes tanto antes como después de un cuadro en particular. [36]

CCD de transferencia ortogonal

Utilizado en astronomía, un CCD de transferencia ortogonal (OTCCD) en realidad desplaza la imagen dentro del propio CCD mientras se captura la imagen, basándose en el análisis del movimiento aparente de las estrellas brillantes. Este es un raro ejemplo de estabilización digital para fotografías. Un ejemplo de esto es el próximo telescopio de gigapíxeles Pan-STARRS que se está construyendo en Hawaii. [37]

Estabilizando el cuerpo de la cámara

Una cámara de televisión en movimiento controlada remotamente y giroestabilizada a través de un sistema de plataforma rodante con cabezal Newton sobre rieles.

Una técnica que no requiere capacidades adicionales de ninguna combinación de cuerpo de cámara y lente consiste en estabilizar todo el cuerpo de la cámara externamente en lugar de utilizar un método interno. Esto se logra acoplando un giroscopio al cuerpo de la cámara, generalmente usando el soporte para trípode incorporado en la cámara. Esto permite que el giroscopio externo (cardán) estabilice la cámara y generalmente se usa en fotografías desde un vehículo en movimiento, cuando no hay disponible una lente o cámara que ofrezca otro tipo de estabilización de imagen. [38]

Una forma común de estabilizar cámaras en movimiento después de aprox. año 2015 es mediante el uso de un estabilizador de cámara , como un cabezal de cámara remoto estabilizado. La cámara y el objetivo se montan en un soporte de cámara controlado remotamente que luego se monta en cualquier objeto en movimiento, como sistemas de rieles, cables, automóviles o helicópteros. Un ejemplo de cabezal estabilizado remoto que se utiliza para estabilizar cámaras de televisión en movimiento que transmiten en vivo es el cabezal estabilizado Newton. [39]

Otra técnica para estabilizar el cuerpo de una cámara de vídeo o de cine es el sistema Steadicam , que aísla la cámara del cuerpo del operador mediante un arnés y un brazo de cámara con contrapeso.[40]

Estabilizador de cámara

Un estabilizador de cámara es cualquier dispositivo u objeto que estabiliza externamente la cámara. Esto puede referirse a una Steadicam , un trípode , la mano del operador de la cámara o una combinación de estos.

En la fotografía de primeros planos, el uso de sensores de rotación para compensar los cambios en la dirección de orientación resulta insuficiente. Mover, en lugar de inclinar, la cámara hacia arriba/abajo o hacia la izquierda/derecha una fracción de milímetro se vuelve perceptible si intentas resolver detalles de tamaño milimétrico en el objeto. Los acelerómetros lineales de la cámara, junto con información como la distancia focal de la lente y la distancia enfocada, pueden introducir una corrección secundaria en el motor que mueve el sensor o la óptica, para compensar las sacudidas lineales y rotacionales.[41]

En ojos biológicos

En muchos animales, incluidos los seres humanos, el oído interno funciona como análogo biológico de un acelerómetro en los sistemas de estabilización de imagen de las cámaras, para estabilizar la imagen moviendo los ojos . Cuando se detecta una rotación de la cabeza, se envía una señal inhibidora a los músculos extraoculares de un lado y una señal excitadora a los músculos del otro lado. El resultado es un movimiento compensatorio de los ojos. Normalmente, los movimientos oculares se retrasan con respecto a los movimientos de la cabeza en menos de 10 ms. [42]

Ver también

Notas

  1. ^ Esta regla se inventó en la era del cine; Con sensores digitales modernos de alta resolución, una velocidad de obturación mínima recíproca del doble de la distancia focal puede ser más apropiada, es decir, 1/(2*mm). [2]

Referencias

  1. ^ "Corregir la vibración excesiva en Final Cut Pro". Apple Inc.
  2. ^ "Una regla simple para garantizar fotografías nítidas". 27 de julio de 2015 . Consultado el 29 de enero de 2021 .
  3. ^ "Estabilización de imagen (IS) y reducción de vibraciones (VR)". www.kenrockwell.com .
  4. ^ PENTAX O-GPS1 - Comunicado de prensa, Pentax.jp (archivado)
  5. ^ "Estabilización de imagen: lente frente a cuerpo". Bobatkins.com . Consultado el 11 de diciembre de 2009 .
  6. ^ "Cámara de fotograma completo Sony α7R IV de 35 mm con 61,0 MP". Sony .
  7. ^ "Revisión del sensor Sony A7R IV". 14 de noviembre de 2019.
  8. ^ "Estabilización de la lente frente a estabilización en la cámara". fotografíalife.com . 20 de febrero de 2012.
  9. ^ Modelos de cámaras Nikon 1992-1994 MIR
  10. ^ Chismes de la cámara Nikon Zoom 700VR
  11. ^ "15 cámaras de teléfonos inteligentes con estabilización óptica de imagen". 14 de diciembre de 2014.
  12. ^ ¿ Qué es el estabilizador de imagen óptico? Archivado el 16 de mayo de 2006 en Wayback Machine , Preguntas frecuentes sobre tecnología, Canon Broadcast Equipment
  13. ^ Glosario: Óptico: Estabilización de imagen, Vincent Bockaert, Revisión de fotografía digital
  14. ^ "Explicación de Panasonic MegaOIS". Archivado desde el original el 12 de enero de 2009 . Consultado el 16 de marzo de 2007 .{{cite web}}: Mantenimiento CS1: URL no apta ( enlace )
  15. ^ "Mega OIS". Archivado desde el original el 7 de enero de 2011 . Consultado el 5 de noviembre de 2011 .
  16. ^ "¿Por qué su cámara compacta necesita OIS?". Archivado desde el original el 3 de julio de 2013 . Consultado el 31 de diciembre de 2013 .
  17. ^ "Tecnología de reducción de vibraciones (VR)". Archivado desde el original el 4 de noviembre de 2007 . Consultado el 19 de mayo de 2007 .
  18. ^ "CameraHobby: Revisión de Nikon AF-S VR 70–200 mm f2.8". Archivado desde el original el 23 de mayo de 2007 . Consultado el 19 de mayo de 2007 .
  19. ^ "Informe técnico". Canon.com. Archivado desde el original el 25 de diciembre de 2009 . Consultado el 11 de diciembre de 2009 .
  20. ^ "Desarrollo de un método de prueba para sistemas de estabilización de imagen" (PDF) . Archivado desde el original (PDF) el 17 de enero de 2009 . Consultado el 4 de abril de 2008 .
  21. ^ Tecnología antivibración Dynax 7D Archivado el 19 de junio de 2006 en Wayback Machine , Konica Minolta
  22. ^ "Tecnología de estabilización de imagen de Olympus". Archivado desde el original el 2 de julio de 2007 . Consultado el 30 de junio de 2007 .
  23. ^ "Estabilización de imagen".
  24. ^ Nikon Zf | Focus Point VR , consultado el 11 de octubre de 2023
  25. ^ DL Cade: Olympus dice que la rotación de la Tierra limita la estabilización de la imagen a 6,5 ​​paradas como máximo, petapixel.com, 26 de septiembre de 2016, consultado el 26 de octubre de 2017
  26. ^ Markus Bautsch: Optomechanische Bildstabilisierung, alemán, Estabilización de imagen optomecánica , en: Wikibook Técnicas de imagen digital , consultado el 30 de octubre de 2017
  27. ^ Una comparación de cómo funcionan la estabilización de cinco ejes de Olympus y Sony, thephoblographer.com, 17 de diciembre de 2014, consultado el 26 de octubre de 2017
  28. ^ Chereau, R., Breckon, TP (septiembre de 2013). "Filtrado de movimiento robusto como facilitador de la estabilización de vídeo para un robot móvil teleoperado" (PDF) . En Kamerman, Gary W; Steinvall, Ove K; Obispo, Gary J; Gonglewski, John D (eds.). Proc. SPIE Teledetección electroóptica, tecnologías fotónicas y aplicaciones VII . Teledetección electroóptica, tecnologías fotónicas y aplicaciones VII; y aplicaciones militares en imágenes hiperespectrales y detección de alta resolución espacial. vol. 8897. ESPÍA. págs.88970I. doi :10.1117/12.2028360. S2CID  11556469 . Consultado el 5 de noviembre de 2013 .{{cite book}}: Mantenimiento CS1: varios nombres: lista de autores ( enlace )
  29. ^ "Deje de etiquetas engañosas de 'Estabilización de imagen': Revisión de fotografía digital". Dpreview.com. 2007-01-05 . Consultado el 11 de diciembre de 2009 .
  30. ^ "Características de Sony DSC-HX5V". sony.co.uk. 2010-04-01 . Consultado el 24 de junio de 2012 .
  31. ^ "Funciones de Fujifilm FinePix HS20EXR: triple estabilización de imagen". fujifilm.ca. 2011-01-05. Archivado desde el original el 12 de enero de 2012 . Consultado el 26 de junio de 2012 .
  32. ^ Zimmerman, Steven (12 de octubre de 2016). "Sony IMX378: desglose completo del sensor de Google Pixel y sus características". Desarrolladores XDA . Consultado el 17 de octubre de 2016 .
  33. ^ "El recurso del camarógrafo de eventos". EventDV.net . Consultado el 11 de diciembre de 2009 .
  34. ^ "Estabilización por software". studiodaily.com. 28 de febrero de 2011 . Consultado el 17 de marzo de 2014 .
  35. ^ "Capacidades | Estabilización". 2d3 . Archivado desde el original el 25 de noviembre de 2009 . Consultado el 11 de diciembre de 2009 .
  36. ^ "Secretos de la estabilización de vídeo en YouTube". 15 de mayo de 2013 . Consultado el 17 de octubre de 2014 .
  37. ^ Diseño de cámara CCD de transferencia ortogonal Pan-STARRS Archivado el 7 de agosto de 2004 en Wayback Machine , Gareth Wynn-Williams, Instituto de Astronomía
  38. ^ Multimedia: utilice estabilización de imagen, Andy King, optimización del sitio web, 2004
  39. ^ "Cabezas de cámara remotas estabilizadas NEWTON". newtonnordic.com. 2020-01-09 . Consultado el 26 de junio de 2020 .
  40. ^ Harris, Tom (22 de noviembre de 2001). "Cómo funcionan las Steadicams". HowStuffWorks.com . Descubrimiento Comunicaciones LLC . Consultado el 26 de julio de 2008 .
  41. ^ "Estabilizador de imagen híbrido". Comunicados de prensa globales de Canon . canon.com. 2009-07-22. Archivado desde el original el 17 de junio de 2012 . Consultado el 26 de junio de 2012 .
  42. ^ Barnes, GR (1979). "Función vestibulo-ocular durante los movimientos coordinados de la cabeza y los ojos para adquirir objetivos visuales". La Revista de Fisiología . 287 : 127-147. doi : 10.1113/jphysiol.1979.sp012650. PMC 1281486 . PMID  311828.