Un índice de diversidad es un método para medir cuántos tipos diferentes (por ejemplo, especies ) hay en un conjunto de datos (por ejemplo, una comunidad). Algunos índices más sofisticados también tienen en cuenta la relación filogenética entre los tipos. [1] Los índices de diversidad son representaciones estadísticas de diferentes aspectos de la biodiversidad (por ejemplo, riqueza , uniformidad y dominancia ), que son simplificaciones útiles para comparar diferentes comunidades o sitios.
Cuando se utilizan índices de diversidad en ecología , los tipos de interés suelen ser especies, pero también pueden ser otras categorías, como géneros , familias , tipos funcionales o haplotipos . Las entidades de interés suelen ser organismos individuales (p. ej. plantas o animales), y la medida de abundancia puede ser, por ejemplo, número de individuos, biomasa o cobertura. En demografía , las entidades de interés pueden ser personas, y los tipos de interés diversos grupos demográficos. En ciencias de la información , las entidades pueden ser caracteres y los tipos de las distintas letras del alfabeto. Los índices de diversidad más utilizados son transformaciones simples del número efectivo de tipos (también conocido como 'diversidad verdadera'), pero cada índice de diversidad también puede interpretarse por derecho propio como una medida correspondiente a algún fenómeno real (pero uno diferente para cada índice de diversidad). [2] [3] [4] [5]
Muchos índices sólo tienen en cuenta la diversidad categórica entre sujetos o entidades. Sin embargo, estos índices no tienen en cuenta la variación total (diversidad) que puede existir entre sujetos o entidades, que sólo se produce cuando se calculan tanto la diversidad categórica como la cualitativa.
La diversidad verdadera, o el número efectivo de tipos, se refiere al número de tipos igualmente abundantes necesarios para que la abundancia proporcional promedio de los tipos sea igual a la observada en el conjunto de datos de interés (donde todos los tipos pueden no ser igualmente abundantes). La diversidad verdadera en un conjunto de datos se calcula tomando primero la media generalizada ponderada M q −1 de las abundancias proporcionales de los tipos en el conjunto de datos y luego tomando el recíproco de esto. La ecuación es: [4] [5]
El denominador M q −1 es igual a la abundancia proporcional promedio de los tipos en el conjunto de datos, calculada con la media generalizada ponderada con exponente q − 1 . En la ecuación, R es la riqueza (el número total de tipos en el conjunto de datos) y la abundancia proporcional del i ésimo tipo es p i . Las abundancias proporcionales en sí mismas se utilizan como pesos nominales. Los números se denominan números de Hill de orden q o número efectivo de especies . [6]
Cuando q = 1 , la ecuación anterior no está definida. Sin embargo, el límite matemático cuando q se acerca a 1 está bien definido y la diversidad correspondiente se calcula con la siguiente ecuación:
que es el exponencial de la entropía de Shannon calculado con logaritmos naturales (ver arriba). En otros dominios, esta estadística también se conoce como perplejidad .
La ecuación general de diversidad a menudo se escribe en la forma [2] [3]
y el término dentro de los paréntesis se llama suma básica. Algunos índices de diversidad populares corresponden a la suma básica calculada con diferentes valores de q . [3]
El valor de q se suele denominar orden de la diversidad. Define la sensibilidad de la diversidad real a las especies raras frente a las abundantes modificando el modo en que se calcula la media ponderada de las abundancias proporcionales de las especies. Con algunos valores del parámetro q , el valor de la media generalizada M q −1 asume tipos familiares de medias ponderadas como casos especiales. En particular,
En general, al aumentar el valor de q se incrementa el peso efectivo otorgado a las especies más abundantes. Esto lleva a obtener un valor M q −1 mayor y un valor de diversidad verdadera ( q D ) menor al aumentar q .
Cuando q = 1 , se utiliza la media geométrica ponderada de los valores p i y cada especie se pondera exactamente por su abundancia proporcional (en la media geométrica ponderada, los pesos son los exponentes). Cuando q > 1 , el peso dado a las especies abundantes es exagerado, y cuando q < 1 , el peso dado a las especies raras es. En q = 0 , los pesos de las especies cancelan exactamente las abundancias proporcionales de las especies, de modo que la media ponderada de los valores p i es igual a 1 / R incluso cuando no todas las especies son igualmente abundantes. En q = 0 , el número efectivo de especies, 0 D , es por tanto igual al número real de especies R. En el contexto de la diversidad, q se limita generalmente a valores no negativos. Esto se debe a que los valores negativos de q darían a las especies raras mucho más peso que a las abundantes, por lo que q D superaría a R. [4] [5]
La riqueza R simplemente cuantifica cuántos tipos diferentes contiene el conjunto de datos de interés. Por ejemplo, la riqueza de especies (generalmente notada como S ) es simplemente el número de especies, por ejemplo, en un sitio en particular. La riqueza es una medida simple, por lo que ha sido un índice de diversidad popular en ecología, donde los datos de abundancia a menudo no están disponibles. [7] Si la diversidad real se calcula con q = 0 , el número efectivo de tipos ( 0 D ) es igual al número real de tipos, que es idéntico a la riqueza ( R ). [3] [5]
El índice de Shannon ha sido un índice de diversidad popular en la literatura ecológica, donde también se lo conoce como índice de diversidad de Shannon , índice de Shannon- Wiener y (erróneamente) índice de Shannon- Weaver . [8] La medida fue propuesta originalmente por Claude Shannon en 1948 para cuantificar la entropía (de ahí la entropía de Shannon , relacionada con el contenido de información de Shannon ) en cadenas de texto. [9] La idea es que cuantas más letras haya y cuanto más cercanas sean sus abundancias proporcionales en la cadena de interés, más difícil será predecir correctamente qué letra será la siguiente en la cadena. La entropía de Shannon cuantifica la incertidumbre (entropía o grado de sorpresa) asociada con esta predicción. La mayoría de las veces se calcula de la siguiente manera:
donde p i es la proporción de caracteres que pertenecen al tipo i de letra en la cadena de interés. En ecología, p i suele ser la proporción de individuos que pertenecen a la especie i en el conjunto de datos de interés. Luego, la entropía de Shannon cuantifica la incertidumbre en la predicción de la identidad de especie de un individuo que se toma al azar del conjunto de datos.
Aunque la ecuación está escrita aquí con logaritmos naturales, la base del logaritmo utilizado al calcular la entropía de Shannon se puede elegir libremente. El propio Shannon discutió las bases logarítmicas 2, 10 y e , y estas se han convertido desde entonces en las bases más populares en aplicaciones que utilizan la entropía de Shannon. Cada base logarítmica corresponde a una unidad de medida diferente, que se ha llamado dígitos binarios (bits), dígitos decimales (decits) y dígitos naturales (nats) para las bases 2, 10 y e , respectivamente. La comparación de los valores de la entropía de Shannon que se calcularon originalmente con diferentes bases logarítmicas requiere convertirlos a la misma base logarítmica: el cambio de la base a a la base b se obtiene con la multiplicación por log b a . [9]
El índice de Shannon ( H' ) está relacionado con la media geométrica ponderada de las abundancias proporcionales de los tipos. Específicamente, es igual al logaritmo de la diversidad verdadera, calculado con q = 1 : [4]
Esto también se puede escribir
Lo cual es igual
Como la suma de los valores p i es igual a 1 por definición, el denominador es igual a la media geométrica ponderada de los valores p i , y los valores p i se utilizan como ponderaciones (exponentes en la ecuación). Por lo tanto, el término dentro de los paréntesis es igual a la diversidad verdadera 1 D , y H' es igual a ln( 1 D ) . [2] [4] [5]
Cuando todos los tipos en el conjunto de datos de interés son igualmente comunes, todos los valores p i son iguales a 1 / R , y el índice de Shannon toma, por lo tanto, el valor ln( R ) . Cuanto más desiguales sean las abundancias de los tipos, mayor será la media geométrica ponderada de los valores p i y menor la entropía de Shannon correspondiente. Si prácticamente toda la abundancia se concentra en un tipo, y los otros tipos son muy raros (aunque haya muchos de ellos), la entropía de Shannon se acerca a cero. Cuando solo hay un tipo en el conjunto de datos, la entropía de Shannon es exactamente igual a cero (no hay incertidumbre en la predicción del tipo de la siguiente entidad elegida aleatoriamente).
En el aprendizaje automático, el índice de Shannon también se denomina ganancia de información .
La entropía de Rényi es una generalización de la entropía de Shannon a otros valores de q distintos de 1. Puede expresarse:
Lo cual es igual
Esto significa que tomar el logaritmo de la diversidad verdadera basado en cualquier valor de q da la entropía de Rényi correspondiente al mismo valor de q .
El índice de Simpson fue introducido en 1949 por Edward H. Simpson para medir el grado de concentración cuando los individuos se clasifican en tipos. [10] El mismo índice fue redescubierto por Orris C. Herfindahl en 1950. [11] La raíz cuadrada del índice ya había sido introducida en 1945 por el economista Albert O. Hirschman . [12] Como resultado, la misma medida suele conocerse como el índice de Simpson en ecología, y como el índice de Herfindahl o el índice de Herfindahl-Hirschman (HHI) en economía.
La medida es igual a la probabilidad de que dos entidades tomadas al azar del conjunto de datos de interés representen el mismo tipo. [10] Es igual a:
donde R es la riqueza (el número total de tipos en el conjunto de datos). Esta ecuación también es igual a la media aritmética ponderada de las abundancias proporcionales p i de los tipos de interés, y las abundancias proporcionales mismas se utilizan como ponderaciones. [2] Las abundancias proporcionales están, por definición, restringidas a valores entre cero y uno, pero es una media aritmética ponderada, por lo tanto, λ ≥ 1/ R , que se alcanza cuando todos los tipos son igualmente abundantes.
Comparando la ecuación utilizada para calcular λ con las ecuaciones utilizadas para calcular la diversidad verdadera, se puede ver que 1/λ es igual a 2 D , es decir, la diversidad verdadera calculada con q = 2 . Por lo tanto, el índice de Simpson original es igual a la suma básica correspondiente. [3]
La interpretación de λ como la probabilidad de que dos entidades tomadas al azar del conjunto de datos de interés representen el mismo tipo supone que la primera entidad se reemplaza en el conjunto de datos antes de tomar la segunda entidad. Si el conjunto de datos es muy grande, el muestreo sin reemplazo da aproximadamente el mismo resultado, pero en conjuntos de datos pequeños, la diferencia puede ser sustancial. Si el conjunto de datos es pequeño y se supone un muestreo sin reemplazo, la probabilidad de obtener el mismo tipo con ambas extracciones aleatorias es:
donde n i es el número de entidades que pertenecen al tipo i y N es el número total de entidades en el conjunto de datos. [10] Esta forma del índice de Simpson también se conoce como el índice de Hunter-Gaston en microbiología. [13]
Dado que la abundancia proporcional media de los tipos aumenta con la disminución del número de tipos y el aumento de la abundancia del tipo más abundante, λ obtiene valores pequeños en conjuntos de datos de alta diversidad y valores grandes en conjuntos de datos de baja diversidad. Este es un comportamiento contraintuitivo para un índice de diversidad, por lo que a menudo se han utilizado en su lugar transformaciones de λ que aumentan con el aumento de la diversidad. Los más populares de estos índices han sido el índice de Simpson inverso (1/λ) y el índice de Gini -Simpson (1 − λ). [2] [3] Ambos también se han denominado índice de Simpson en la literatura ecológica, por lo que se debe tener cuidado para evitar comparar accidentalmente los diferentes índices como si fueran el mismo.
El índice de Simpson inverso es igual a:
Esto simplemente equivale a una diversidad real de orden 2, es decir, el número efectivo de tipos que se obtiene cuando se utiliza la media aritmética ponderada para cuantificar la abundancia proporcional promedio de tipos en el conjunto de datos de interés.
El índice también se utiliza como medida del número efectivo de partidos .
El índice de Gini-Simpson también se denomina impureza de Gini o índice de diversidad de Gini [14] en el campo del aprendizaje automático . El índice de Simpson original λ es igual a la probabilidad de que dos entidades tomadas al azar del conjunto de datos de interés (con reemplazo) representen el mismo tipo. Su transformación 1 − λ, por lo tanto, es igual a la probabilidad de que las dos entidades representen tipos diferentes. Esta medida también se conoce en ecología como probabilidad de encuentro interespecífico ( PIE ) [15] e índice de Gini-Simpson. [3] Puede expresarse como una transformación de la diversidad real de orden 2:
El índice Gibbs-Martin de estudios de sociología, psicología y gestión, [16] también conocido como índice Blau, es la misma medida que el índice de Gini-Simpson.
La cantidad también se conoce como heterocigosidad esperada en genética de poblaciones.
El índice de Berger-Parker, llamado así por Wolfgang H. Berger y Frances Lawrence Parker , [17] es igual al valor máximo de p i en el conjunto de datos, es decir, la abundancia proporcional del tipo más abundante. Esto corresponde a la media generalizada ponderada de los valores de p i cuando q se acerca al infinito y, por lo tanto, es igual a la inversa de la verdadera diversidad de orden infinito ( 1/ ∞ D ).