stringtranslate.com

Matriz de rotación

En álgebra lineal , una matriz de rotación es una matriz de transformación que se utiliza para realizar una rotación en el espacio euclidiano . Por ejemplo, utilizando la convención siguiente, la matriz

rota puntos en el plano xy en sentido antihorario a través de un ángulo θ alrededor del origen de un sistema de coordenadas cartesianas bidimensionales . Para realizar la rotación en un punto del plano con coordenadas estándar v = ( x , y ) , debe escribirse como un vector columna y multiplicarse por la matriz R :

Si x e y son las coordenadas de los extremos de un vector, donde x es coseno e y es seno, entonces las ecuaciones anteriores se convierten en las fórmulas trigonométricas de suma de ángulos . De hecho, una matriz de rotación puede verse como las fórmulas trigonométricas de suma de ángulos en forma matricial. Una forma de entender esto es decir que tenemos un vector en un ángulo de 30° desde el eje x , y deseamos rotar ese ángulo otros 45°. Simplemente necesitamos calcular las coordenadas del extremo del vector en 75°.

Los ejemplos de este artículo se aplican a rotaciones activas de vectores en sentido antihorario en un sistema de coordenadas diestro ( y en sentido antihorario desde x ) por premultiplicación ( R a la izquierda). Si se modifica alguno de estos factores (como rotar ejes en lugar de vectores, una transformación pasiva ), se debe utilizar la inversa de la matriz de ejemplo, que coincide con su transpuesta .

Dado que la multiplicación de matrices no tiene efecto sobre el vector cero (las coordenadas del origen), las matrices de rotación describen rotaciones sobre el origen. Las matrices de rotación proporcionan una descripción algebraica de dichas rotaciones y se utilizan ampliamente para cálculos en geometría , física y gráficos por computadora . En alguna literatura, el término rotación se generaliza para incluir rotaciones impropias , caracterizadas por matrices ortogonales con un determinante de −1 (en lugar de +1). Estas combinan rotaciones propias con reflexiones (que invierten la orientación ). En otros casos, donde no se consideran las reflexiones, se puede omitir la etiqueta de propias . Esta última convención se sigue en este artículo.

Las matrices de rotación son matrices cuadradas , con entradas reales . Más específicamente, se pueden caracterizar como matrices ortogonales con determinante  1; es decir, una matriz cuadrada R es una matriz de rotación si y solo si R T = R −1 y det R = 1 . El conjunto de todas las matrices ortogonales de tamaño n con determinante +1 es una representación de un grupo conocido como el grupo ortogonal especial SO( n ) , un ejemplo del cual es el grupo de rotación SO(3) . El conjunto de todas las matrices ortogonales de tamaño n con determinante +1 o −1 es una representación del grupo ortogonal (general) O( n ) .

En dos dimensiones

Rotación en sentido antihorario de un vector a través del ángulo θ . El vector está inicialmente alineado con el eje x .

En dos dimensiones, la matriz de rotación estándar tiene la siguiente forma:

Esto rota los vectores columna mediante la siguiente multiplicación de matrices ,

Por lo tanto, las nuevas coordenadas ( x ′, y ′) de un punto ( x , y ) después de la rotación son

Ejemplos

Por ejemplo, cuando el vector

se gira un ángulo θ , sus nuevas coordenadas son

y cuando el vector

se gira un ángulo θ , sus nuevas coordenadas son

Dirección

La dirección de rotación del vector es en sentido antihorario si θ es positivo (por ejemplo, 90°) y en sentido horario si θ es negativo (por ejemplo, −90°) para . Por lo tanto, la matriz de rotación en sentido horario se obtiene como

El caso bidimensional es el único caso no trivial (es decir, no unidimensional) en el que el grupo de matrices de rotación es conmutativo, de modo que no importa en qué orden se realizan las rotaciones múltiples. Una convención alternativa utiliza ejes rotatorios, [1] y las matrices anteriores también representan una rotación de los ejes en el sentido de las agujas del reloj a través de un ángulo θ .

Orientación no estándar del sistema de coordenadas

Una rotación a través del ángulo θ con ejes no estándar.

Si se utiliza un sistema de coordenadas cartesiano estándar para diestros , con el eje x a la derecha y el eje y hacia arriba, la rotación R ( θ ) es en sentido antihorario. Si se utiliza un sistema de coordenadas cartesiano para zurdos, con x dirigida a la derecha pero y dirigida hacia abajo, R ( θ ) es en el sentido de las agujas del reloj. Estas orientaciones no estándar rara vez se utilizan en matemáticas, pero son comunes en gráficos de computadora 2D , que a menudo tienen el origen en la esquina superior izquierda y el eje y hacia abajo en la pantalla o página. [2]

Consulte a continuación otras convenciones alternativas que pueden cambiar el sentido de la rotación producida por una matriz de rotación.

Rotaciones 2D comunes

Especialmente útiles son las matrices

para rotaciones en sentido antihorario de 90°, 180° y 270°.

Una rotación de 180° (centro) seguida de una rotación positiva de 90° (izquierda) equivale a una única rotación negativa de 90° (270° positiva) (derecha). Cada una de estas figuras representa el resultado de una rotación con respecto a una posición inicial vertical (abajo a la izquierda) e incluye la representación matricial de la permutación aplicada por la rotación (centro a la derecha), así como otros diagramas relacionados. Véase "Notación de permutación" en Wikiversidad para más detalles.

Relación con el plano complejo

Desde

Las matrices de la forma

forman un anillo isomorfo al cuerpo de los números complejos ⁠ ⁠ . Bajo este isomorfismo, las matrices de rotación corresponden al círculo de los números complejos unitarios , los números complejos de módulo 1 .

Si se identifica con a través del isomorfismo lineal la acción de una matriz de la forma anterior sobre vectores de corresponde a la multiplicación por el número complejo x + iy , y las rotaciones corresponden a la multiplicación por números complejos de módulo 1 .

Como toda matriz de rotación se puede escribir

La correspondencia anterior asocia dicha matriz con el número complejo

(esta última igualdad es la fórmula de Euler ).

En tres dimensiones

Una rotación positiva de 90° alrededor del eje y (izquierda) después de una alrededor del eje z
(centro) da como resultado una rotación de 120° alrededor de la diagonal principal (derecha). En la esquina superior izquierda están las matrices de rotación, en la esquina inferior derecha están las permutaciones correspondientes del cubo con el origen en su centro.

Rotaciones 3D básicas

Una rotación 3D básica (también llamada rotación elemental) es una rotación sobre uno de los ejes de un sistema de coordenadas. Las siguientes tres matrices de rotación básicas rotan vectores en un ángulo θ sobre el eje x , y o z , en tres dimensiones, utilizando la regla de la mano derecha , que codifica sus signos alternos. Observe que la regla de la mano derecha solo funciona cuando se multiplican . (Las mismas matrices también pueden representar una rotación en el sentido de las agujas del reloj de los ejes. [nb 1] )

En el caso de los vectores columna , cada una de estas rotaciones básicas de vector aparece en sentido antihorario cuando el eje sobre el que se producen apunta hacia el observador, el sistema de coordenadas es diestro y el ángulo θ es positivo. R z , por ejemplo, rotaría hacia el eje y un vector alineado con el eje x , como se puede comprobar fácilmente operando con R z sobre el vector (1,0,0) :

Esto es similar a la rotación producida por la matriz de rotación bidimensional mencionada anteriormente. Vea a continuación convenciones alternativas que pueden, aparentemente o en realidad, invertir el sentido de la rotación producida por estas matrices.

Rotaciones 3D generales

Se pueden obtener otras matrices de rotación 3D a partir de estas tres mediante la multiplicación de matrices . Por ejemplo, el producto

representa una rotación cuyos ángulos de guiñada, cabeceo y balanceo son α , β y γ , respectivamente. Más formalmente, es una rotación intrínseca cuyos ángulos de Tait-Bryan son α , β , γ , alrededor de los ejes z , y , x , respectivamente. De manera similar, el producto

representa una rotación extrínseca cuyos ángulos de Euler (impropios) son α , β , γ , alrededor de los ejes x , y , z .

Estas matrices producen el efecto deseado sólo si se utilizan para premultiplicar vectores columna y (ya que en general la multiplicación de matrices no es conmutativa ) sólo si se aplican en el orden especificado (ver Ambigüedades para más detalles). El orden de las operaciones de rotación es de derecha a izquierda; la matriz adyacente al vector columna es la primera en aplicarse, y luego la de la izquierda. [3]

Conversión de matriz de rotación a eje-ángulo

Cada rotación en tres dimensiones está definida por su eje (un vector a lo largo de este eje no cambia con la rotación) y su ángulo , la cantidad de rotación alrededor de ese eje ( teorema de rotación de Euler ).

Existen varios métodos para calcular el eje y el ángulo a partir de una matriz de rotación (véase también la representación eje-ángulo ). Aquí, solo describimos el método basado en el cálculo de los vectores y valores propios de la matriz de rotación. También es posible utilizar la traza de la matriz de rotación.

Determinación del eje

Una rotación R alrededor del eje u se puede descomponer utilizando 3 endomorfismos P , ( IP ) y Q (haga clic para ampliar).

Dada una matriz de rotación R de 3 × 3 , un vector u paralelo al eje de rotación debe satisfacer

ya que la rotación de u alrededor del eje de rotación debe dar como resultado u . La ecuación anterior se puede resolver para u , que es único hasta un factor escalar a menos que R = I .

Además, la ecuación puede reescribirse

lo que demuestra que u se encuentra en el espacio nulo de RI .

Visto de otra manera, u es un vector propio de R correspondiente al valor propio λ = 1. Toda matriz de rotación debe tener este valor propio, siendo los otros dos valores propios conjugados complejos entre sí. De ello se deduce que una matriz de rotación general en tres dimensiones tiene, salvo una constante multiplicativa, un solo vector propio real.

Una forma de determinar el eje de rotación es demostrando que:

Dado que ( RR T ) es una matriz antisimétrica , podemos elegir u tal que

El producto matriz-vector se convierte en un producto vectorial de un vector consigo mismo, lo que garantiza que el resultado sea cero:

Por lo tanto, si

entonces

La magnitud de u calculada de esta manera es u ‖ = 2 sen θ , donde θ es el ángulo de rotación.

Esto no funciona si R es simétrico. En el caso anterior, si RR T es cero, todos los pasos subsiguientes son inválidos. En este caso, es necesario diagonalizar R y encontrar el vector propio correspondiente a un valor propio de 1.

Determinación del ángulo

Para hallar el ángulo de una rotación, una vez conocido el eje de rotación, se selecciona un vector v perpendicular al eje. Entonces el ángulo de rotación es el ángulo entre v y R v .

Sin embargo, un método más directo consiste en calcular simplemente la traza : la suma de los elementos diagonales de la matriz de rotación. Se debe tener cuidado de seleccionar el signo correcto para el ángulo θ para que coincida con el eje elegido:

de lo cual se deduce que el valor absoluto del ángulo es

Para el eje de rotación , puede obtener el ángulo correcto [4] a partir de

dónde

Matriz de rotación a partir del eje y el ángulo

La matriz de una rotación propia R por un ángulo θ alrededor del eje u = ( u x , u y , u z ) , un vector unitario con u2x
+ 2
años
+ 2z
= 1
, viene dado por: [5] [6] [7] [8]

Una derivación de esta matriz a partir de los primeros principios se puede encontrar en la sección 9.2 aquí. [9] La idea básica para derivar esta matriz es dividir el problema en unos pocos pasos simples conocidos.

  1. Primero gire el eje dado y el punto de manera que el eje se encuentre en uno de los planos de coordenadas ( xy , yz o zx ).
  2. Luego, gire el eje dado y el punto de manera que el eje esté alineado con uno de los dos ejes de coordenadas para ese plano de coordenadas en particular ( x , y o z ).
  3. Utilice una de las matrices de rotación fundamentales para rotar el punto dependiendo del eje de coordenadas con el que está alineado el eje de rotación.
  4. Gire en sentido inverso el par eje-punto de modo que alcance la configuración final que tenía en el paso 2 (deshaciendo el paso 2)
  5. Gire en sentido inverso el par eje-punto que se realizó en el paso 1 (deshaciendo el paso 1)

Esto se puede escribir de forma más concisa como [10]

donde [ u ] × es la matriz de producto vectorial de u ; la expresión uu es el producto externo e I es la matriz identidad . Alternativamente, las entradas de la matriz son:

donde ε jkl es el símbolo de Levi-Civita con ε 123 = 1. Esta es una forma matricial de la fórmula de rotación de Rodrigues (o la fórmula de Euler-Rodrigues equivalente, parametrizada de manera diferente ) con [nb 2]

En la rotación de un vector x alrededor del eje u un ángulo θ se puede escribir como:

o equivalentemente:

Esto también se puede escribir en notación tensorial como: [11]

Si el espacio 3D es dextrógiro y θ > 0 , esta rotación será en sentido antihorario cuando u apunte hacia el observador ( regla de la mano derecha ). Explícitamente, con una base ortonormal dextrógira,

Obsérvense las sorprendentes diferencias, meramente aparentes, con la formulación algebraica de Lie equivalente que aparece a continuación.

Propiedades

Para cualquier matriz de rotación n -dimensional R que actúe sobre

(La rotación es una matriz ortogonal )

Resulta que:

Una rotación se denomina propia si det R = 1 , e impropia (o roto-reflexión) si det R = –1 . Para dimensiones pares n = 2 k , los n valores propios λ de una rotación propia ocurren como pares de conjugados complejos que son raíces de la unidad: λ = e ± j para j = 1, ..., k , que es real solo para λ = ±1 . Por lo tanto, puede que no haya vectores fijados por la rotación ( λ = 1 ), y por lo tanto no hay eje de rotación. Cualquier vector propio fijo ocurre en pares, y el eje de rotación es un subespacio de dimensión par.

Para dimensiones impares n = 2 k + 1 , una rotación propia R tendrá un número impar de valores propios, con al menos un λ = 1 y el eje de rotación será un subespacio de dimensión impar. Demostración:

Aquí I es la matriz identidad, y usamos det( R T ) = det( R ) = 1 , así como (−1) n = −1 ya que n es impar. Por lo tanto, det( RI ) = 0 , lo que significa que hay un vector distinto de cero v con ( R – I ) v = 0 , es decir R v = v , un vector propio fijo. También puede haber pares de vectores propios fijos en el subespacio de dimensión par ortogonal a v , por lo que la dimensión total de los vectores propios fijos es impar.

Por ejemplo, en el 2-espacio n = 2 , una rotación por un ángulo θ tiene valores propios λ = e y λ = e , por lo que no hay eje de rotación excepto cuando θ = 0 , el caso de la rotación nula. En el 3-espacio n = 3 , el eje de una rotación propia no nula es siempre una línea única, y una rotación alrededor de este eje por un ángulo θ tiene valores propios λ = 1, e , e . En el 4-espacio n = 4 , los cuatro valores propios son de la forma e ± , e ± . La rotación nula tiene θ = φ = 0 . El caso de θ = 0, φ ≠ 0 se denomina rotación simple , con dos valores propios unitarios que forman un plano de eje , y una rotación bidimensional ortogonal al plano de eje. De lo contrario, no hay plano de eje. El caso de θ = φ se denomina rotación isoclínica , que tiene valores propios e ± repetidos dos veces, por lo que cada vector rota un ángulo θ .

La traza de una matriz de rotación es igual a la suma de sus valores propios. Para n = 2 , una rotación en un ángulo θ tiene una traza 2 cos θ . Para n = 3 , una rotación alrededor de cualquier eje en un ángulo θ tiene una traza 1 + 2 cos θ . Para n = 4 , la traza es 2(cos θ + cos φ ) , que se convierte en 4 cos θ para una rotación isoclínica.

Ejemplos

Geometría

En geometría euclidiana , una rotación es un ejemplo de isometría , una transformación que mueve puntos sin cambiar las distancias entre ellos. Las rotaciones se distinguen de otras isometrías por dos propiedades adicionales: dejan (al menos) un punto fijo y dejan la " lateralidad " sin cambios. Por el contrario, una traslación mueve todos los puntos, una reflexión intercambia el orden hacia la izquierda y hacia la derecha, una reflexión de deslizamiento hace ambas cosas y una rotación impropia combina un cambio en la lateralidad con una rotación normal.

Si se toma un punto fijo como origen de un sistema de coordenadas cartesianas , entonces a cada punto se le pueden dar coordenadas como un desplazamiento desde el origen. De este modo, se puede trabajar con el espacio vectorial de desplazamientos en lugar de con los puntos mismos. Ahora supongamos que ( p 1 , ..., p n ) son las coordenadas del vector p desde el origen O hasta el punto P . Elijamos una base ortonormal para nuestras coordenadas; entonces, la distancia al cuadrado a P , según Pitágoras , es

que se puede calcular mediante la multiplicación de matrices

Una rotación geométrica transforma líneas en líneas y conserva las razones de las distancias entre puntos. A partir de estas propiedades se puede demostrar que una rotación es una transformación lineal de los vectores y, por lo tanto, se puede escribir en forma matricial , Q p . El hecho de que una rotación conserve, no solo las razones, sino también las distancias mismas, se enuncia como

o

Como esta ecuación es válida para todos los vectores, p , se concluye que cada matriz de rotación, Q , satisface la condición de ortogonalidad ,

Las rotaciones preservan la lateralidad porque no pueden cambiar el orden de los ejes, lo que implica la condición especial de la matriz ,

Igualmente importante es que se puede demostrar que cualquier matriz que satisfaga estas dos condiciones actúa como una rotación.

Multiplicación

La inversa de una matriz de rotación es su transpuesta, que también es una matriz de rotación:

El producto de dos matrices de rotación es una matriz de rotación:

Para n > 2 , la multiplicación de matrices de rotación n × n generalmente no es conmutativa .

Observando que cualquier matriz identidad es una matriz de rotación, y que la multiplicación de matrices es asociativa , podemos resumir todas estas propiedades diciendo que las matrices de rotación n × n forman un grupo , que para n > 2 es no abeliano , llamado grupo ortogonal especial , y denotado por SO( n ) , SO( n , R ) , SO n o SO n ( R ) , el grupo de matrices de rotación n × n es isomorfo al grupo de rotaciones en un espacio n -dimensional . Esto significa que la multiplicación de matrices de rotación corresponde a la composición de rotaciones, aplicada en orden de izquierda a derecha de sus matrices correspondientes.

Ambigüedades

Rotaciones de alias y coartadas

La interpretación de una matriz de rotación puede estar sujeta a muchas ambigüedades.

En la mayoría de los casos el efecto de la ambigüedad es equivalente al efecto de una inversión de la matriz de rotación (para estas matrices ortogonales es equivalente la matriz transpuesta ).

Transformación de alias o coartada (pasiva o activa)
Las coordenadas de un punto P pueden cambiar debido a una rotación del sistema de coordenadas CS ( alias ), o una rotación del punto P ( alibi ). En este último caso, la rotación de P también produce una rotación del vector v que representa a P. En otras palabras, o bien P y v son fijos mientras CS rota (alias), o bien CS es fijo mientras P y v rotan (alibi). Cualquier rotación dada puede describirse legítimamente de ambas formas, ya que los vectores y los sistemas de coordenadas en realidad rotan entre sí, alrededor del mismo eje pero en direcciones opuestas. A lo largo de este artículo, elegimos el enfoque alibi para describir las rotaciones. Por ejemplo,
representa una rotación en sentido antihorario de un vector v en un ángulo θ , o una rotación de CS en el mismo ángulo pero en la dirección opuesta (es decir, en el sentido de las agujas del reloj). Las transformaciones de coartada y alias también se conocen como transformaciones activas y pasivas , respectivamente.
Pre-multiplicación o post-multiplicación
El mismo punto P puede representarse mediante un vector columna v o un vector fila w . Las matrices de rotación pueden premultiplicar los vectores columna ( R v ), o posmultiplicar los vectores fila ( w R ). Sin embargo, R v produce una rotación en la dirección opuesta con respecto a w R . A lo largo de este artículo, las rotaciones producidas en vectores columna se describen mediante una premultiplicación. Para obtener exactamente la misma rotación (es decir, las mismas coordenadas finales del punto P ), el vector fila equivalente debe posmultiplicarse por la transpuesta de R (es decir, w R T ).
Coordenadas para diestros o zurdos
La matriz y el vector se pueden representar con respecto a un sistema de coordenadas dextrógiro o levógiro. A lo largo del artículo, asumimos una orientación dextrógira, a menos que se especifique lo contrario.
Vectores o formas
El espacio vectorial tiene un espacio dual de formas lineales , y la matriz puede actuar sobre vectores o formas.

Descomposiciones

Aviones independientes

Considere la matriz de rotación 3 × 3

Si Q actúa en una determinada dirección, v , puramente como una escala por un factor λ , entonces tenemos

de modo que

Por lo tanto, λ es una raíz del polinomio característico de Q ,

Dos características son dignas de mención. Primero, una de las raíces (o valores propios ) es 1, lo que nos dice que alguna dirección no se ve afectada por la matriz. Para rotaciones en tres dimensiones, este es el eje de la rotación (un concepto que no tiene significado en ninguna otra dimensión). Segundo, las otras dos raíces son un par de conjugados complejos, cuyo producto es 1 (el término constante de la cuadrática), y cuya suma es 2 cos θ (el término lineal negado). Esta factorización es de interés para matrices de rotación 3 × 3 porque ocurre lo mismo para todas ellas. (Como casos especiales, para una rotación nula los "conjugados complejos" son ambos 1, y para una rotación de 180° son ambos −1.) Además, una factorización similar se cumple para cualquier matriz de rotación n × n . Si la dimensión, n , es impar, habrá un valor propio "colgante" de 1; y para cualquier dimensión el resto de los factores polinomiales en términos cuadráticos como el de aquí (con los dos casos especiales anotados). Tenemos la garantía de que el polinomio característico tendrá grado n y por lo tanto n valores propios. Y como una matriz de rotación conmuta con su transpuesta, es una matriz normal , por lo que se puede diagonalizar. Concluimos que toda matriz de rotación, cuando se expresa en un sistema de coordenadas adecuado, se divide en rotaciones independientes de subespacios bidimensionales, como máximo norte/2 de ellos.

La suma de las entradas en la diagonal principal de una matriz se llama traza ; no cambia si reorientamos el sistema de coordenadas, y siempre es igual a la suma de los valores propios. Esto tiene la implicación conveniente para las matrices de rotación 2 × 2 y 3 × 3 de que la traza revela el ángulo de rotación , θ , en el espacio bidimensional (o subespacio). Para una matriz 2 × 2 la traza es 2 cos θ , y para una matriz 3 × 3 es 1 + 2 cos θ . En el caso tridimensional, el subespacio consiste en todos los vectores perpendiculares al eje de rotación (la dirección invariante, con valor propio 1). Por lo tanto, podemos extraer de cualquier matriz de rotación 3 × 3 un eje de rotación y un ángulo, y estos determinan completamente la rotación.

Ángulos secuenciales

Las restricciones de una matriz de rotación 2 × 2 implican que debe tener la forma

con a 2 + b 2 = 1 . Por lo tanto, podemos establecer a = cos θ y b = sen θ , para algún ángulo θ . Para resolver θ no es suficiente observar a solo o b solo; debemos considerar ambos juntos para colocar el ángulo en el cuadrante correcto , utilizando una función arcotangente de dos argumentos .

Ahora consideremos la primera columna de una matriz de rotación de 3 × 3 ,

Aunque a 2 + b 2 probablemente no será igual a 1, sino algún valor r 2 < 1 , podemos usar una ligera variación del cálculo anterior para encontrar una llamada rotación de Givens que transforma la columna a

Poniendo a cero b . Esto actúa sobre el subespacio abarcado por los ejes x e y . Podemos repetir el proceso para el subespacio xz hasta poner a cero c . Al actuar sobre la matriz completa, estas dos rotaciones producen la forma esquemática

Si nos centramos en la segunda columna, una rotación de Givens del subespacio yz puede ahora poner a cero el valor z . Esto hace que la matriz completa adopte la forma

que es una matriz identidad. Por lo tanto, hemos descompuesto Q como

Una matriz de rotación n × n tendrá ( n − 1) + ( n − 2) + ⋯ + 2 + 1 , o

entradas debajo de la diagonal a cero. Podemos ponerlas a cero extendiendo la misma idea de recorrer las columnas con una serie de rotaciones en una secuencia fija de planos. Concluimos que el conjunto de matrices de rotación n × n , cada una de las cuales tiene n 2 entradas, se puede parametrizar mediante 1/2n ( n − 1) ángulos.

En tres dimensiones, esto replantea en forma matricial una observación hecha por Euler , por lo que los matemáticos llaman a la secuencia ordenada de tres ángulos ángulos de Euler . Sin embargo, la situación es algo más complicada de lo que hemos indicado hasta ahora. A pesar de la pequeña dimensión, en realidad tenemos una libertad considerable en la secuencia de pares de ejes que usamos; y también tenemos cierta libertad en la elección de los ángulos. Por lo tanto, encontramos muchas convenciones diferentes empleadas cuando se parametrizan rotaciones tridimensionales para física, o medicina, o química, u otras disciplinas. Cuando incluimos la opción de ejes del mundo o ejes del cuerpo, son posibles 24 secuencias diferentes. Y mientras que algunas disciplinas llaman a cualquier secuencia ángulos de Euler, otras dan nombres diferentes (Cardano, Tait–Bryan, balanceo-cabeceo-guiñada ) a diferentes secuencias.

Una razón para la gran cantidad de opciones es que, como se señaló anteriormente, las rotaciones en tres dimensiones (y superiores) no conmutan. Si invertimos una secuencia dada de rotaciones, obtenemos un resultado diferente. Esto también implica que no podemos componer dos rotaciones sumando sus ángulos correspondientes. Por lo tanto, los ángulos de Euler no son vectores , a pesar de una similitud en apariencia como un triplete de números.

Dimensiones anidadas

Una matriz de rotación de 3 × 3 como

sugiere una matriz de rotación de 2 × 2 ,

Está incrustado en la esquina superior izquierda:

Esto no es una ilusión; no sólo una, sino muchas copias de rotaciones n -dimensionales se encuentran dentro de rotaciones ( n + 1) -dimensionales, como subgrupos . Cada incrustación deja una dirección fija, que en el caso de matrices 3 × 3 es el eje de rotación. Por ejemplo, tenemos

fijando el eje x , el eje y y el eje z , respectivamente. El eje de rotación no necesita ser un eje de coordenadas; si u = ( x , y , z ) es un vector unitario en la dirección deseada, entonces

donde c θ = cos θ , s θ = sen θ , es una rotación del ángulo θ dejando el eje u fijo.

Una dirección en un espacio de dimensión ( n + 1) será un vector de magnitud unitaria, que podemos considerar un punto en una esfera generalizada, S n . Por lo tanto, es natural describir el grupo de rotación SO( n + 1) como una combinación de SO( n ) y S n . Un formalismo adecuado es el fibrado ,

donde para cada dirección en el espacio base, S n , la fibra sobre ella en el espacio total, SO( n + 1) , es una copia del espacio de la fibra, SO( n ) , es decir, las rotaciones que mantienen fija esa dirección.

De esta manera, podemos construir una matriz de rotación n × n comenzando con una matriz 2 × 2 , apuntando su eje fijo a S 2 (la esfera ordinaria en el espacio tridimensional), apuntando la rotación resultante a S 3 , y así sucesivamente hasta S n −1 . Se puede seleccionar un punto en S n usando n números, por lo que nuevamente tenemos 1/2n ( n − 1) números para describir cualquiermatriz de rotación n × n .

De hecho, podemos ver la descomposición angular secuencial, analizada previamente, como una inversión de este proceso. La composición de n − 1 rotaciones de Givens lleva la primera columna (y fila) a (1, 0, ..., 0) , de modo que el resto de la matriz es una matriz de rotación de dimensión uno menos, incrustada de modo que (1, 0, ..., 0) quede fija.

Parámetros de sesgo mediante la fórmula de Cayley

Cuando una matriz de rotación n × n Q , no incluye un valor propio −1, por lo que ninguna de las rotaciones planares que comprende son rotaciones de 180°, entonces Q + I es una matriz invertible . La mayoría de las matrices de rotación se ajustan a esta descripción, y para ellas se puede demostrar que ( QI )( Q + I ) −1 es una matriz antisimétrica , A . Por lo tanto A T = − A ; y dado que la diagonal es necesariamente cero, y dado que el triángulo superior determina el inferior, A contiene 1/2n ( n − 1) números independientes.

Convenientemente, IA es invertible siempre que A sea antisimétrico; por lo tanto, podemos recuperar la matriz original utilizando la transformada de Cayley ,

que asigna cualquier matriz A antisimétrica a una matriz de rotación. De hecho, aparte de las excepciones señaladas, podemos producir cualquier matriz de rotación de esta manera. Aunque en aplicaciones prácticas difícilmente podemos permitirnos ignorar las rotaciones de 180°, la transformada de Cayley sigue siendo una herramienta potencialmente útil, que proporciona una parametrización de la mayoría de las matrices de rotación sin funciones trigonométricas.

En tres dimensiones, por ejemplo, tenemos (Cayley 1846)

Si condensamos las entradas sesgadas en un vector, ( x , y , z ) , entonces producimos una rotación de 90° alrededor del eje x para (1, 0, 0), alrededor del eje y para (0, 1, 0), y alrededor del eje z para (0, 0, 1). Las rotaciones de 180° están fuera de alcance; porque, en el límite cuando x → ∞ , ( x , 0, 0) se aproxima a una rotación de 180° alrededor del eje x , y de manera similar para otras direcciones.

Descomposición en cizallas

Para el caso 2D, una matriz de rotación se puede descomponer en tres matrices de corte (Paeth 1986):

Esto es útil, por ejemplo, en gráficos de computadora, ya que las operaciones de corte se pueden implementar con menos instrucciones de multiplicación que rotando un mapa de bits directamente. En las computadoras modernas, esto puede no tener importancia, pero puede ser relevante para microprocesadores muy antiguos o de gama baja.

Una rotación también puede escribirse como dos cortes y escalas (Daubechies y Sweldens 1998):

Teoría de grupos

A continuación se presentan algunos datos básicos sobre el papel de la colección de todas las matrices de rotación de una dimensión fija (aquí principalmente 3) en matemáticas y particularmente en física donde la simetría rotacional es un requisito de cada ley verdaderamente fundamental (debido al supuesto de isotropía del espacio ), y donde la misma simetría, cuando está presente, es una propiedad simplificadora de muchos problemas de naturaleza menos fundamental. Los ejemplos abundan en la mecánica clásica y la mecánica cuántica . El conocimiento de la parte de las soluciones perteneciente a esta simetría se aplica (con salvedades) a todos esos problemas y se puede factorizar de un problema específico en cuestión, reduciendo así su complejidad. Un excelente ejemplo, en matemáticas y física, sería la teoría de los armónicos esféricos . Su papel en la teoría de grupos de los grupos de rotación es el de ser un espacio de representación para todo el conjunto de representaciones irreducibles de dimensión finita del grupo de rotación SO(3). Para este tema, consulte Grupo de rotación SO(3) § Armónicos esféricos .

Para obtener más detalles se hace referencia a los artículos principales enumerados en cada subsección.

Grupo de mentiras

Las matrices de rotación n × n para cada n forman un grupo , el grupo ortogonal especial , SO( n ) . Esta estructura algebraica está acoplada con una estructura topológica heredada de de tal manera que las operaciones de multiplicación y toma de la inversa son funciones analíticas de las entradas de la matriz. Por lo tanto, SO( n ) es para cada n un grupo de Lie . Es compacto y conexo , pero no simplemente conexo . También es un grupo semisimple , de hecho un grupo simple con la excepción de SO(4). [12] La relevancia de esto es que todos los teoremas y toda la maquinaria de la teoría de variedades analíticas (las variedades analíticas son en particular variedades suaves ) se aplican y la teoría de representación bien desarrollada de grupos semisimples compactos está lista para su uso.

Álgebra de Lie

El álgebra de Lie so ( n ) de SO( n ) está dada por

y es el espacio de matrices antisimétricas de dimensión n , véase grupo clásico , donde o ( n ) es el álgebra de Lie de O( n ) , el grupo ortogonal . Como referencia, la base más común para ( 3) es

Mapa exponencial

La conexión del álgebra de Lie con el grupo de Lie es el mapa exponencial , que se define utilizando la serie exponencial matricial estándar para e A [13] Para cualquier matriz antisimétrica A , exp( A ) es siempre una matriz de rotación. [nb 3]

Un ejemplo práctico importante es el caso 3 × 3. En el grupo de rotación SO(3) , se muestra que se puede identificar cada Aso (3) con un vector de Euler ω = θ u , donde u = ( x , y , z ) es un vector de magnitud unitaria.

Por las propiedades de la identificación , u está en el espacio nulo de A. Por lo tanto, u queda invariante por exp( A ) y, por lo tanto, es un eje de rotación.

Según la fórmula de rotación de Rodrigues en forma matricial , se obtiene,

dónde

Esta es la matriz para una rotación alrededor del eje u con un ángulo θ . Para obtener más detalles, consulte el mapa exponencial SO(3) .

Fórmula de Baker-Campbell-Hausdorff

La fórmula BCH proporciona una expresión explícita para Z = log( e X e Y ) en términos de una expansión en serie de conmutadores anidados de X e Y . [14] Esta expansión general se desarrolla como [nb 4]

En el caso 3 × 3 , la expansión infinita general tiene una forma compacta, [15]

para coeficientes de funciones trigonométricas adecuados, detallados en la fórmula de Baker–Campbell–Hausdorff para SO(3) .

Como identidad de grupo, lo anterior se cumple para todas las representaciones fieles , incluido el doblete (representación de espinor), que es más simple. La misma fórmula explícita se deduce directamente a través de las matrices de Pauli; véase la derivación 2 × 2 para SU(2) . Para el caso general n × n , se podría utilizar la Ref. [16]

Grupo de spinning

El grupo de Lie de matrices de rotación n × n , SO( n ) , no está simplemente conexo , por lo que la teoría de Lie nos dice que es una imagen homomórfica de un grupo de recubrimiento universal . A menudo, el grupo de recubrimiento, que en este caso se denomina grupo de espín denotado por Spin( n ) , es más simple y más natural para trabajar. [17]

En el caso de rotaciones planares, SO(2) es topológicamente un círculo , S 1 . Su grupo de recubrimiento universal, Spin(2), es isomorfo a la línea real , R , bajo la adición. Siempre que se utilizan ángulos de magnitud arbitraria, se está aprovechando la conveniencia del recubrimiento universal. Cada matriz de rotación 2 × 2 se produce por una infinidad contable de ángulos, separados por múltiplos enteros de 2 π . En consecuencia, el grupo fundamental de SO(2) es isomorfo a los números enteros, Z .

En el caso de rotaciones espaciales, SO(3) es topológicamente equivalente al espacio proyectivo real tridimensional , RP 3 . Su grupo de recubrimiento universal, Spin(3), es isomorfo a la 3-esfera , S 3 . Toda matriz de rotación 3 × 3 se produce por dos puntos opuestos en la esfera. En consecuencia, el grupo fundamental de SO(3) es isomorfo al grupo de dos elementos, Z 2 .

También podemos describir Spin(3) como isomorfo a los cuaterniones de norma unitaria bajo multiplicación, o a ciertas matrices reales de 4 × 4 , o a matrices unitarias especiales complejas de 2 × 2 , a saber, SU(2). Las funciones de recubrimiento para el primer y el último caso se dan por

y

Para una descripción detallada de la cubierta SU(2) y la cubierta cuaterniónica, véase el grupo de espín SO(3) .

Muchas características de estos casos son las mismas para dimensiones superiores. Los recubrimientos son todos de dos a uno, con SO( n ) , n > 2 , que tiene un grupo fundamental Z 2 . El entorno natural para estos grupos está dentro de un álgebra de Clifford . Un tipo de acción de las rotaciones se produce por una especie de "sándwich", denotado por qvq . Más importante aún en aplicaciones a la física, la representación de espín correspondiente del álgebra de Lie se encuentra dentro del álgebra de Clifford. Puede ser exponenciada de la manera habitual para dar lugar a una representación de 2 valores , también conocida como representación proyectiva del grupo de rotación. Este es el caso de SO(3) y SU(2), donde la representación de 2 valores puede verse como una "inversa" de la función de recubrimiento. Por propiedades de las funciones de recubrimiento, la inversa puede elegirse de uno a uno como una sección local, pero no globalmente.

Rotaciones infinitesimales

Las matrices del álgebra de Lie no son en sí mismas rotaciones; las matrices antisimétricas son derivadas, diferencias proporcionales de rotaciones. Una verdadera "rotación diferencial", o matriz de rotación infinitesimal , tiene la forma

donde es extremadamente pequeño y Aentonces (n) , por ejemplo con A = L x ,

Las reglas de cálculo son las habituales, excepto que los infinitesimales de segundo orden se descartan rutinariamente. Con estas reglas, estas matrices no satisfacen todas las mismas propiedades que las matrices de rotación finita ordinarias bajo el tratamiento habitual de los infinitesimales. [18] Resulta que el orden en el que se aplican las rotaciones infinitesimales es irrelevante . Para ver esto ejemplificado, consulte las rotaciones infinitesimales SO(3) .

Conversiones

Hemos visto la existencia de varias descomposiciones que se aplican en cualquier dimensión, a saber, planos independientes, ángulos secuenciales y dimensiones anidadas. En todos estos casos podemos descomponer una matriz o construirla. También hemos prestado especial atención a las matrices de rotación 3 × 3 , y estas merecen una mayor atención, en ambas direcciones (Stuelpnagel 1964).

Cuaternio

Dado el cuaternión unitario q = w + x i + y j + z k , la matriz de rotación 3 × 3 premultiplicada equivalente (para usarse con vectores de columna) es [19]

Ahora, cada componente cuaternión aparece multiplicado por dos en un término de grado dos, y si todos esos términos son cero, lo que queda es una matriz identidad. Esto conduce a una conversión eficiente y robusta de cualquier cuaternión, ya sea unitario o no, a una matriz de rotación 3 × 3. Dado:

podemos calcular

Liberados de la exigencia de un cuaternión unitario, encontramos que los cuaterniones distintos de cero actúan como coordenadas homogéneas para matrices de rotación de 3 × 3. La transformada de Cayley, analizada anteriormente, se obtiene escalando el cuaternión de modo que su componente w sea 1. Para una rotación de 180° alrededor de cualquier eje, w será cero, lo que explica la limitación de Cayley.

The sum of the entries along the main diagonal (the trace), plus one, equals 4 − 4(x2 + y2 + z2), which is 4w2. Thus we can write the trace itself as 2w2 + 2w2 − 1; and from the previous version of the matrix we see that the diagonal entries themselves have the same form: 2x2 + 2w2 − 1, 2y2 + 2w2 − 1, and 2z2 + 2w2 − 1. So we can easily compare the magnitudes of all four quaternion components using the matrix diagonal. We can, in fact, obtain all four magnitudes using sums and square roots, and choose consistent signs using the skew-symmetric part of the off-diagonal entries:

Alternatively, use a single square root and division

This is numerically stable so long as the trace, t, is not negative; otherwise, we risk dividing by (nearly) zero. In that case, suppose Qxx is the largest diagonal entry, so x will have the largest magnitude (the other cases are derived by cyclic permutation); then the following is safe.

If the matrix contains significant error, such as accumulated numerical error, we may construct a symmetric 4 × 4 matrix,

and find the eigenvector, (x, y, z, w), of its largest magnitude eigenvalue. (If Q is truly a rotation matrix, that value will be 1.) The quaternion so obtained will correspond to the rotation matrix closest to the given matrix (Bar-Itzhack 2000) (Note: formulation of the cited article is post-multiplied, works with row vectors).

Polar decomposition

If the n × n matrix M is nonsingular, its columns are linearly independent vectors; thus the Gram–Schmidt process can adjust them to be an orthonormal basis. Stated in terms of numerical linear algebra, we convert M to an orthogonal matrix, Q, using QR decomposition. However, we often prefer a Q closest to M, which this method does not accomplish. For that, the tool we want is the polar decomposition (Fan & Hoffman 1955; Higham 1989).

To measure closeness, we may use any matrix norm invariant under orthogonal transformations. A convenient choice is the Frobenius norm, QMF, squared, which is the sum of the squares of the element differences. Writing this in terms of the trace, Tr, our goal is,

Find Q minimizing Tr( (QM)T(QM) ), subject to QTQ = I.

Though written in matrix terms, the objective function is just a quadratic polynomial. We can minimize it in the usual way, by finding where its derivative is zero. For a 3 × 3 matrix, the orthogonality constraint implies six scalar equalities that the entries of Q must satisfy. To incorporate the constraint(s), we may employ a standard technique, Lagrange multipliers, assembled as a symmetric matrix, Y. Thus our method is:

Differentiate Tr( (QM)T(QM) + (QTQI)Y ) with respect to (the entries of) Q, and equate to zero.

Consider a 2 × 2 example. Including constraints, we seek to minimize

Taking the derivative with respect to Qxx, Qxy, Qyx, Qyy in turn, we assemble a matrix.

In general, we obtain the equation

so that

where Q is orthogonal and S is symmetric. To ensure a minimum, the Y matrix (and hence S) must be positive definite. Linear algebra calls QS the polar decomposition of M, with S the positive square root of S2 = MTM.

When M is non-singular, the Q and S factors of the polar decomposition are uniquely determined. However, the determinant of S is positive because S is positive definite, so Q inherits the sign of the determinant of M. That is, Q is only guaranteed to be orthogonal, not a rotation matrix. This is unavoidable; an M with negative determinant has no uniquely defined closest rotation matrix.

Axis and angle

To efficiently construct a rotation matrix Q from an angle θ and a unit axis u, we can take advantage of symmetry and skew-symmetry within the entries. If x, y, and z are the components of the unit vector representing the axis, and

then

Determining an axis and angle, like determining a quaternion, is only possible up to the sign; that is, (u, θ) and (−u, −θ) correspond to the same rotation matrix, just like q and q. Additionally, axis–angle extraction presents additional difficulties. The angle can be restricted to be from 0° to 180°, but angles are formally ambiguous by multiples of 360°. When the angle is zero, the axis is undefined. When the angle is 180°, the matrix becomes symmetric, which has implications in extracting the axis. Near multiples of 180°, care is needed to avoid numerical problems: in extracting the angle, a two-argument arctangent with atan2(sin θ, cos θ) equal to θ avoids the insensitivity of arccos; and in computing the axis magnitude in order to force unit magnitude, a brute-force approach can lose accuracy through underflow (Moler & Morrison 1983).

A partial approach is as follows:

The x-, y-, and z-components of the axis would then be divided by r. A fully robust approach will use a different algorithm when t, the trace of the matrix Q, is negative, as with quaternion extraction. When r is zero because the angle is zero, an axis must be provided from some source other than the matrix.

Euler angles

Complexity of conversion escalates with Euler angles (used here in the broad sense). The first difficulty is to establish which of the twenty-four variations of Cartesian axis order we will use. Suppose the three angles are θ1, θ2, θ3; physics and chemistry may interpret these as

while aircraft dynamics may use

One systematic approach begins with choosing the rightmost axis. Among all permutations of (x,y,z), only two place that axis first; one is an even permutation and the other odd. Choosing parity thus establishes the middle axis. That leaves two choices for the left-most axis, either duplicating the first or not. These three choices gives us 3 × 2 × 2 = 12 variations; we double that to 24 by choosing static or rotating axes.

This is enough to construct a matrix from angles, but triples differing in many ways can give the same rotation matrix. For example, suppose we use the zyz convention above; then we have the following equivalent pairs:

Angles for any order can be found using a concise common routine (Herter & Lott 1993; Shoemake 1994).

The problem of singular alignment, the mathematical analog of physical gimbal lock, occurs when the middle rotation aligns the axes of the first and last rotations. It afflicts every axis order at either even or odd multiples of 90°. These singularities are not characteristic of the rotation matrix as such, and only occur with the usage of Euler angles.

The singularities are avoided when considering and manipulating the rotation matrix as orthonormal row vectors (in 3D applications often named the right-vector, up-vector and out-vector) instead of as angles. The singularities are also avoided when working with quaternions.

Vector to vector formulation

In some instances it is interesting to describe a rotation by specifying how a vector is mapped into another through the shortest path (smallest angle). In this completely describes the associated rotation matrix. In general, given x, yn, the matrix

belongs to SO(n + 1) and maps x to y.[20]

Uniform random rotation matrices

We sometimes need to generate a uniformly distributed random rotation matrix. It seems intuitively clear in two dimensions that this means the rotation angle is uniformly distributed between 0 and 2π. That intuition is correct, but does not carry over to higher dimensions. For example, if we decompose 3 × 3 rotation matrices in axis–angle form, the angle should not be uniformly distributed; the probability that (the magnitude of) the angle is at most θ should be 1/π(θ − sin θ), for 0 ≤ θ ≤ π.

Since SO(n) is a connected and locally compact Lie group, we have a simple standard criterion for uniformity, namely that the distribution be unchanged when composed with any arbitrary rotation (a Lie group "translation"). This definition corresponds to what is called Haar measure. León, Massé & Rivest (2006) show how to use the Cayley transform to generate and test matrices according to this criterion.

We can also generate a uniform distribution in any dimension using the subgroup algorithm of Diaconis & Shahshahani (1987). This recursively exploits the nested dimensions group structure of SO(n), as follows. Generate a uniform angle and construct a 2 × 2 rotation matrix. To step from n to n + 1, generate a vector v uniformly distributed on the n-sphere Sn, embed the n × n matrix in the next larger size with last column (0, ..., 0, 1), and rotate the larger matrix so the last column becomes v.

As usual, we have special alternatives for the 3 × 3 case. Each of these methods begins with three independent random scalars uniformly distributed on the unit interval. Arvo (1992) takes advantage of the odd dimension to change a Householder reflection to a rotation by negation, and uses that to aim the axis of a uniform planar rotation.

Another method uses unit quaternions. Multiplication of rotation matrices is homomorphic to multiplication of quaternions, and multiplication by a unit quaternion rotates the unit sphere. Since the homomorphism is a local isometry, we immediately conclude that to produce a uniform distribution on SO(3) we may use a uniform distribution on S3. In practice: create a four-element vector where each element is a sampling of a normal distribution. Normalize its length and you have a uniformly sampled random unit quaternion which represents a uniformly sampled random rotation. Note that the aforementioned only applies to rotations in dimension 3. For a generalised idea of quaternions, one should look into Rotors.

Euler angles can also be used, though not with each angle uniformly distributed (Murnaghan 1962; Miles 1965).

For the axis–angle form, the axis is uniformly distributed over the unit sphere of directions, S2, while the angle has the nonuniform distribution over [0,π] noted previously (Miles 1965).

See also

Remarks

  1. ^ Note that if instead of rotating vectors, it is the reference frame that is being rotated, the signs on the sin θ terms will be reversed. If reference frame A is rotated anti-clockwise about the origin through an angle θ to create reference frame B, then Rx (with the signs flipped) will transform a vector described in reference frame A coordinates to reference frame B coordinates. Coordinate frame transformations in aerospace, robotics, and other fields are often performed using this interpretation of the rotation matrix.
  2. ^ Note that
    so that, in Rodrigues' notation, equivalently,
  3. ^ Note that this exponential map of skew-symmetric matrices to rotation matrices is quite different from the Cayley transform discussed earlier, differing to the third order,
    Conversely, a skew-symmetric matrix A specifying a rotation matrix through the Cayley map specifies the same rotation matrix through the map exp(2 artanh A).
  4. ^ For a detailed derivation, see Derivative of the exponential map. Issues of convergence of this series to the right element of the Lie algebra are here swept under the carpet. Convergence is guaranteed when X‖ + ‖Y‖ < log 2 and Z‖ < log 2. If these conditions are not fulfilled, the series may still converge. A solution always exists since exp is onto[clarification needed] in the cases under consideration.

Notes

  1. ^ Swokowski, Earl (1979). Calculus with Analytic Geometry (Second ed.). Boston: Prindle, Weber, and Schmidt. ISBN 0-87150-268-2.
  2. ^ W3C recommendation (2003). "Scalable Vector Graphics – the initial coordinate system".{{cite web}}: CS1 maint: numeric names: authors list (link)
  3. ^ "Rotation Matrices" (PDF). Retrieved 30 November 2021.
  4. ^ Kuo Kan, Liang (6 October 2018). "Efficient conversion from rotating matrix to rotation axis and angle by extending Rodrigues' formula". arXiv:1810.02999 [cs.CG].
  5. ^ Taylor, Camillo J.; Kriegman, David J. (1994). "Minimization on the Lie Group SO(3) and Related Manifolds" (PDF). Technical Report No. 9405. Yale University.
  6. ^ Balakrishnan, V. (1999). "How is a vector rotated?". Resonance. 4 (10): 61–68.
  7. ^ Morawiec, Adam (2004). Orientations and Rotations. Springer. doi:10.1007/978-3-662-09156-2.
  8. ^ Palazzolo, A. (1976). "Formalism for the rotation matrix of rotations about an arbitrary axis". Am. J. Phys. 44 (1): 63–67. Bibcode:1976AmJPh..44...63P. doi:10.1119/1.10140.
  9. ^ Cole, Ian R. (January 2015). Modelling CPV (thesis). Loughborough University. hdl:2134/18050.
  10. ^ Mathews, Jon (1976). "Coordinate-free rotation formalism". Am. J. Phys. 44 (12): 121. Bibcode:1976AmJPh..44.1210M. doi:10.1119/1.10264.
  11. ^ Koehler, T. R.; Trickey, S. B. (1978). "Euler vectors and rotations about an arbitrary axis". Am. J. Phys. 46 (6): 650. Bibcode:1976AmJPh..46..650K. doi:10.1119/1.11223.
  12. ^ Baker (2003); Fulton & Harris (1991)
  13. ^ (Wedderburn 1934, §8.02)
  14. ^ Hall 2004, Ch. 3; Varadarajan 1984, §2.15
  15. ^ (Engø 2001)
  16. ^ Curtright, T L; Fairlie, D B; Zachos, C K (2014). "A compact formula for rotations as spin matrix polynomials". SIGMA. 10: 084. arXiv:1402.3541. Bibcode:2014SIGMA..10..084C. doi:10.3842/SIGMA.2014.084. S2CID 18776942.
  17. ^ Baker 2003, Ch. 5; Fulton & Harris 1991, pp. 299–315
  18. ^ (Goldstein, Poole & Safko 2002, §4.8)
  19. ^ Shoemake, Ken (1985). "Animating rotation with quaternion curves". Computer Graphics: SIGGRAPH '85 Conference Proceedings. SIGGRAPH '85, 22–26 July 1985, San Francisco. Vol. 19. Association for Computing Machinery. pp. 245–254. doi:10.1145/325334.325242. ISBN 0897911660.
  20. ^ Cid, Jose Ángel; Tojo, F. Adrián F. (2018). "A Lipschitz condition along a transversal foliation implies local uniqueness for ODEs". Electronic Journal of Qualitative Theory of Differential Equations. 13 (13): 1–14. arXiv:1801.01724. doi:10.14232/ejqtde.2018.1.13.

References

External links