La ponderación implícita describe un grupo de métodos utilizados en el análisis filogenético para asignar la mayor importancia a los caracteres que tienen más probabilidades de ser homólogos . Se trata de métodos a posteriori , que incluyen también la ponderación dinámica, a diferencia de los métodos a priori, que incluyen categorías adaptativas, independientes y químicas (consulte Ponderación en el sitio web del Museo Americano de Historia Natural).
El primer intento de implementar esta técnica fue realizado por Farris (1969), [1] a la que llamó ponderación de aproximaciones sucesivas, mediante la cual se construyó un árbol con pesos iguales y los caracteres que aparecían como homoplasias en este árbol se ponderaban a la baja en función del índice de consistencia (CI ) o el índice de consistencia reescalado (RCI), que son medidas de homología. El análisis se repitió con estos nuevos pesos y los caracteres se volvieron a ponderar; la iteración posterior continuó hasta que se alcanzó un estado estable. Farris sugirió que cada carácter podría considerarse de forma independiente con respecto a un peso implícito en la frecuencia de cambio. Sin embargo, el árbol final dependía en gran medida de los pesos iniciales y los criterios de finalización. [2]
El método más utilizado e implementado, llamado ponderación implícita, se deriva de Goloboff (1993). [2] La primera vez que un carácter cambia de estado en un árbol, a este cambio de estado se le asigna el peso '1'; los cambios posteriores son menos 'costosos' y se les asignan pesos menores a medida que la tendencia de los caracteres a la homoplasia se hace más evidente. Los árboles que maximizan la función cóncava de la homoplasia resuelven el conflicto de caracteres a favor de los caracteres que tienen más homología (menos homoplasia) e implican que el peso promedio de los caracteres es lo más alto posible.
Goloboff reconoce que los árboles con los pesos promedio más altos dan el mayor "respeto" a los datos: un peso promedio bajo implica que los algoritmos de construcción de árboles "ignoran" la mayoría de los caracteres. [2]
Aunque originalmente se propuso con una ponderación severa de k = 3, Goloboff ahora prefiere concavidades más "suaves" (por ejemplo, k = 12), [3] que han demostrado ser más efectivas en casos simulados y del mundo real. [4]