El análisis de ADN es la determinación de un perfil de ADN con fines legales y de investigación. Los métodos de análisis de ADN han cambiado innumerables veces a lo largo de los años a medida que la tecnología evoluciona y permite determinar más información con menos material de partida. El análisis de ADN moderno se basa en el cálculo estadístico de la rareza del perfil producido dentro de una población.
Si bien es más conocido como una herramienta en investigaciones forenses, el perfil de ADN también se puede utilizar para fines no forenses, como pruebas de paternidad e investigación genealógica humana.
Los métodos para producir un perfil de ADN fueron desarrollados por Alec Jeffreys y su equipo en 1985. Jefferys descubrió que una muestra desconocida de ADN, como sangre, cabello, saliva o semen, podía analizarse y se podía desarrollar un patrón/perfil de ADN único. [1] Un año después de su descubrimiento, se le pidió a Jefferys que usara su nuevo análisis de ADN para condenar a un hombre que la policía creía que era responsable de dos asesinatos por violación. Jefferys demostró que el hombre era inocente utilizando ADN de la escena del crimen. [2]
Cuando se descubrió por primera vez el análisis de ADN, se utilizó un proceso llamado polimorfismo de longitud de fragmentos de restricción (RFLP, por sus siglas en inglés) para analizar el ADN. Sin embargo, el RFLP era un proceso ineficiente debido a que utilizaba grandes cantidades de ADN que no siempre se podían obtener de la escena de un crimen. La tecnología actual ha evolucionado más allá del RFLP. El análisis de repetición corta en tándem (STR, por sus siglas en inglés) es el equivalente moderno del RFLP. El análisis STR no solo utiliza menos muestra para analizar el ADN, sino que también es parte de un proceso más amplio llamado reacción en cadena de la polimerasa (PCR, por sus siglas en inglés). La PCR es un proceso que se puede utilizar para reproducir rápidamente hasta mil millones de copias de un segmento singular de ADN. [3]
El primer método verdadero de elaboración de perfiles de ADN fue el análisis de polimorfismos de longitud de fragmentos de restricción. El primer uso del análisis RFLP en casos forenses fue en 1985 en el Reino Unido. [4] Este tipo de análisis utilizó repeticiones en tándem de número variable (VNTR) para distinguir entre individuos. Las VNTR son comunes en todo el genoma y consisten en la misma secuencia de ADN repetida una y otra vez. [5] Diferentes individuos pueden tener un número diferente de repeticiones en una ubicación específica en el genoma. [4] Por ejemplo, la persona A podría tener 4 mientras que la persona B podría tener 5 repeticiones. Las diferencias se visualizaron a través de un proceso llamado electroforesis en gel . Los fragmentos más pequeños viajarían más lejos a través del gel que los fragmentos más grandes separándolos. [6] Estas diferencias se utilizaron para distinguir entre individuos y cuando se ejecutaron múltiples sitios VNTR juntos, el análisis RFLP tiene un alto grado de poder de individualización. [7]
El proceso de análisis RFLP era extremadamente lento y debido a la longitud de las repeticiones utilizadas, entre 9 y 100 pares de bases, [5] [8] no se podían utilizar métodos de amplificación como la reacción en cadena de la polimerasa . Esto limitaba el RFLP a muestras que ya tenían una mayor cantidad de ADN disponible para empezar y no funcionaba bien con muestras degradadas. [9] El análisis RFLP fue el principal tipo de análisis realizado en la mayoría de los laboratorios forenses antes de ser finalmente retirado y reemplazado por métodos más nuevos. Fue abandonado por completo por el FBI en 2000 y reemplazado por el análisis STR. [10]
Desarrollada en 1991, [10] la prueba DQ alfa fue la primera técnica forense de ADN que utilizó la reacción en cadena de la polimerasa. [11] Esta técnica permitió el uso de muchas menos células que el análisis RFLP, lo que la hizo más útil para escenas de crímenes que no tenían las grandes cantidades de material de ADN que se requerían anteriormente. [12] El locus (o ubicación) DQ alfa 1 también era polimórfico y tenía múltiples alelos diferentes que podían usarse para limitar el grupo de individuos que podrían haber producido ese resultado y aumentar la probabilidad de exclusión. [13]
El locus alfa DQ se combinó con otros loci en un kit disponible comercialmente llamado Polymarker en 1993. [14] Polymarker fue un precursor de los modernos kits de multiplexación y permitió examinar múltiples loci diferentes con un solo producto. Si bien era más sensible que el análisis RFLP, Polymarker no tenía el mismo poder discriminatorio que las pruebas RFLP más antiguas. [14] En 1995, los científicos intentaron volver a un análisis basado en VNTR combinado con tecnología de PCR llamada polimorfismos de longitud de fragmentos amplificados (AmpFLP). [10]
AmpFLP fue el primer intento de combinar el análisis VNTR con PCR para casos forenses. Este método utilizó VNTR más cortos que el análisis RFLP, entre 8 y 16 pares de bases. Los tamaños de pares de bases más cortos de AmpFLP fueron diseñados para funcionar mejor con el proceso de amplificación de PCR. [8] Se esperaba que esta técnica permitiera el poder discriminatorio del análisis RFLP con la capacidad de procesar muestras que tienen menos ADN molde con el que trabajar o que de otra manera estaban degradadas. Sin embargo, solo unos pocos loci fueron validados para aplicaciones forenses para trabajar con el análisis AmpFLP, ya que los laboratorios forenses rápidamente pasaron a otras técnicas que limitaron su capacidad discriminatoria para muestras forenses. [15]
La técnica nunca se utilizó ampliamente, aunque todavía se utiliza en países más pequeños debido a su menor costo y configuración más sencilla en comparación con los métodos más nuevos. [16] [17] A fines de la década de 1990, los laboratorios comenzaron a cambiar a métodos más nuevos, incluido el análisis STR. Estos usaban fragmentos de ADN aún más cortos y podían amplificarse de manera más confiable mediante PCR, al mismo tiempo que mantenían y mejoraban el poder discriminatorio de los métodos más antiguos. [10]
El análisis de repetición corta en tándem (STR) es el principal tipo de análisis de ADN forense que se realiza en los laboratorios de ADN modernos. El análisis STR se basa en el RFLP y AmpFLP utilizados en el pasado al reducir el tamaño de las unidades de repetición a entre 2 y 6 pares de bases y al combinar múltiples loci diferentes en una reacción de PCR. Estos kits de ensayo de multiplexación pueden producir valores de alelos para docenas de loci diferentes en todo el genoma simultáneamente, lo que limita la cantidad de tiempo que se necesita para obtener un perfil completo e individualizado. El análisis STR se ha convertido en el estándar de oro para la elaboración de perfiles de ADN y se utiliza ampliamente en aplicaciones forenses.
El análisis de STR también se puede restringir únicamente al cromosoma Y. El análisis de Y-STR se puede utilizar en casos que involucran paternidad o en búsquedas familiares , ya que el cromosoma Y es idéntico a lo largo de la línea paterna (excepto en casos en los que se produjo una mutación ). Ciertos kits de multiplexación combinan loci autosómicos y Y-STR en un solo kit, lo que reduce aún más la cantidad de tiempo que lleva obtener una gran cantidad de datos.
En la actualidad, el análisis de STR requiere múltiples células para crear un perfil de ADN completo. Sin embargo, la ciencia está cada vez más cerca de crear un perfil de ADN completo mediante el análisis de STR en células individuales. [18]
La secuenciación del ADN mitocondrial es una técnica especializada que utiliza el ADN mitocondrial separado presente en la mayoría de las células. Este ADN se transmite por línea materna y no es exclusivo de cada individuo. Sin embargo, debido a la cantidad de mitocondrias presentes en las células, el análisis del ADNmt se puede utilizar para muestras altamente degradadas o muestras en las que el análisis de STR no produciría suficientes datos para ser útil. El ADNmt también está presente en lugares en los que no habría ADN autosómico, como en los tallos del cabello.
Debido a que existe una mayor probabilidad de contaminación al manipular ADNmt, pocos laboratorios procesan muestras mitocondriales. Los que lo hacen cuentan con protocolos especializados que separan aún más las distintas muestras para evitar la contaminación cruzada.
Rapid DNA es una tecnología que permite extraer el perfil del ADN mediante un hisopo y automatizar por completo todo el proceso de extracción, amplificación y análisis del ADN. Los instrumentos Rapid DNA pueden pasar de un hisopo a un perfil de ADN en tan solo 90 minutos y eliminan la necesidad de que científicos capacitados realicen el proceso. Se está estudiando la posibilidad de utilizar estos instrumentos en el proceso de registro de delincuentes, lo que permite a los agentes de policía obtener el perfil de ADN de la persona detenida.
Recientemente, en Estados Unidos se aprobó la Ley de ADN Rápido de 2017, que ordena al FBI crear protocolos para la implementación de esta tecnología en todo el país. Actualmente, el ADN obtenido con estos instrumentos no es elegible para ser cargado en bases de datos nacionales de ADN, ya que no analizan suficientes loci para cumplir con el umbral estándar. Sin embargo, varias agencias policiales ya utilizan instrumentos de ADN rápido para recolectar muestras de personas arrestadas en su área. Estas bases de datos de ADN locales no están sujetas a regulaciones federales o estatales.
También conocida como secuenciación de próxima generación, la secuenciación masiva paralela (MPS) se basa en el análisis STR al introducir la secuenciación directa de los loci. En lugar de la cantidad de repeticiones presentes en cada ubicación, la MPS le daría al científico la secuencia real de pares de bases. En teoría, la MPS tiene la capacidad de distinguir entre gemelos idénticos, ya que se verían mutaciones puntuales aleatorias dentro de los segmentos repetidos que no serían detectados por el análisis STR tradicional.
Cuando se utiliza un perfil de ADN de manera probatoria, se proporciona una estadística de coincidencia que explica cuán raro es un perfil dentro de una población. Específicamente, esta estadística es la probabilidad de que una persona elegida al azar de una población tenga ese perfil de ADN específico. No es la probabilidad de que el perfil "coincida" con alguien . Existen múltiples métodos diferentes para determinar esta estadística y cada uno es utilizado por varios laboratorios en función de su experiencia y preferencia. Sin embargo, los cálculos de la razón de verosimilitud se están convirtiendo en el método preferido sobre los otros dos métodos más utilizados, el hombre aleatorio no excluido y la probabilidad combinada de inclusión. Las estadísticas de coincidencia son especialmente importantes en la interpretación de mezclas donde hay más de un contribuyente a un perfil de ADN. Cuando estas estadísticas se dan en un entorno judicial o en un informe de laboratorio, generalmente se dan para las tres razas más comunes de esa área específica. Esto se debe a que las frecuencias de los alelos en diferentes loci cambiaron en función de la ascendencia del individuo. https://strbase.nist.gov/training/6_Mixture-Statistics.pdf Archivado el 15 de agosto de 2022 en Wayback Machine.
La probabilidad producida con este método es la probabilidad de que una persona seleccionada al azar de la población no pueda ser excluida de los datos analizados. Este tipo de estadística de coincidencia es fácil de explicar en un tribunal a personas que no tienen formación científica, pero también pierde mucho poder de discriminación, ya que no tiene en cuenta el genotipo del sospechoso. Este enfoque se utiliza habitualmente cuando la muestra está degradada o contiene tantos contribuyentes que no se puede determinar un perfil singular. También es útil para explicar a los legos, ya que el método de obtención de la estadística es sencillo. Sin embargo, debido a su limitado poder de discriminación, la RMNE no se realiza generalmente a menos que no se pueda utilizar ningún otro método. No se recomienda el uso de la RMNE en datos que indiquen la presencia de una mezcla.
La probabilidad combinada de inclusión o exclusión calcula la probabilidad de que una persona aleatoria, no relacionada, sea un contribuyente a un perfil de ADN o mezcla de ADN. En este método, las estadísticas para cada locus individual se determinan utilizando estadísticas de población y luego se combinan para obtener el CPI o CPE total. Estos cálculos se repiten para todos los loci disponibles con todos los datos disponibles y luego cada valor se multiplica para obtener la probabilidad combinada total de inclusión o exclusión. Dado que los valores se multiplican entre sí, se pueden lograr números extremadamente pequeños utilizando el CPI. El CPI o el CPE se consideran un cálculo estadístico aceptable cuando se indica una mezcla. https://www.promega.com/-/media/files/resources/conference-proceedings/ishi-15/parentage-and-mixture-statistics-workshop/generalpopulationstats.pdf?la=en
Probabilidad de que un caucásico tenga un alelo 14 en vWA = .10204
Probabilidad de que un caucásico tenga un alelo 17 en vWA = .26276
Probabilidad de que un caucásico tenga un alelo 14 o 17 (P) = .10204 + .26276 = .3648
Probabilidad de que estén presentes otros alelos (Q) = 1 - P o 1 - .3648 = .6352
Probabilidad de exclusión para vWA = Q 2 + 2Q(1-Q) o .6352 2 + 2(.6352)(1 - .6352) = .86692096 ≈ 86.69%
Probabilidad de inclusión para vWA = 1 - CPE o 1 - .86692096 = .13307904 ≈ 13.31%
Probabilidad de que un caucásico tenga un alelo 14 en vWA = .10204
Probabilidad de que un caucásico tenga un alelo 15 en vWA = .11224
Probabilidad de que un caucásico tenga un alelo 16 en vWA = .20153
Probabilidad de que un caucásico tenga un alelo 19 en vWA = .08418
Probabilidad de que un caucásico tenga cualquiera de 14, 15, 16 o 19 alelos (P) = .10204 + .11224 + .20153 + .08418 = .49999
Probabilidad de que estén presentes otros alelos (Q) = 1 - P o 1 - .49999 = .50001
Probabilidad de exclusión para vWA = Q 2 + 2Q(1-Q) o .50001 2 + 2(.50001)(1 - .50001) = .7500099999 ≈ 75%
Probabilidad de inclusión para vWA = 1 - CPE o 1 - .7500099999 = .2499900001 ≈ 25%
Los cocientes de verosimilitud (LR) son una comparación de dos probabilidades diferentes para determinar cuál es más probable. Cuando se trata de un juicio, el LR es la probabilidad del argumento de la fiscalía frente a la probabilidad del argumento de la defensa dadas sus suposiciones iniciales. En este escenario, la probabilidad de la fiscalía suele ser igual a 1, ya que la suposición es que la fiscalía no procesaría a un sospechoso a menos que estuviera absolutamente segura (100%) de que tiene a la persona correcta. Los cocientes de verosimilitud se están volviendo más comunes en los laboratorios debido a su utilidad para presentar estadísticas para datos que indican múltiples contribuyentes, así como su uso en software de genotipado probabilístico que predice las combinaciones de alelos más probables dado un conjunto de datos.
Las desventajas de utilizar razones de verosimilitud es que es muy difícil entender cómo los analistas llegaron a un valor específico y las matemáticas involucradas se complican mucho a medida que se introducen más datos en las ecuaciones. Para combatir estos problemas en un tribunal, algunos laboratorios han creado una "escala verbal" que reemplaza el valor numérico real de la razón de verosimilitud.