stringtranslate.com

Calidad de los datos

La calidad de los datos se refiere al estado de los datos cualitativos o cuantitativos . Existen muchas definiciones de calidad de los datos, pero generalmente se considera que los datos son de alta calidad si son "aptos para los usos previstos en operaciones , toma de decisiones y planificación ". [1] [2] [3] Además, se considera que los datos son de alta calidad si representan correctamente el constructo del mundo real al que se refieren. Además, aparte de estas definiciones, a medida que aumenta el número de fuentes de datos, la cuestión de la coherencia interna de los datos se vuelve importante, independientemente de su idoneidad para cualquier propósito externo particular. Las opiniones de las personas sobre la calidad de los datos a menudo pueden estar en desacuerdo, incluso cuando se habla del mismo conjunto de datos utilizados para el mismo propósito. Cuando este es el caso, se utiliza la gobernanza de datos para formar definiciones y estándares acordados para la calidad de los datos. En tales casos, puede ser necesaria la limpieza de datos , incluida la estandarización , para garantizar la calidad de los datos. [4]

Definiciones

Definir la calidad de los datos es difícil debido a los numerosos contextos en los que se utilizan, así como a las diferentes perspectivas entre los usuarios finales, los productores y los custodios de los datos. [5]

Desde la perspectiva del consumidor, la calidad de los datos es: [5]

Desde una perspectiva empresarial, la calidad de los datos es:

Desde una perspectiva basada en estándares, la calidad de los datos es:

Se podría decir que, en todos estos casos, la "calidad de los datos" es una comparación del estado real de un conjunto particular de datos con un estado deseado, y que el estado deseado suele definirse como "apto para el uso", "según las especificaciones", "que cumple con las expectativas del consumidor", "libre de defectos" o "que cumple con los requisitos". Estas expectativas, especificaciones y requisitos suelen estar definidos por una o más personas o grupos, organizaciones de normalización, leyes y reglamentos, políticas empresariales o políticas de desarrollo de software. [5]

Dimensiones de la calidad de los datos

Profundizando más, esas expectativas, especificaciones y requisitos se expresan en términos de características o dimensiones de los datos, como: [5] [6] [7] [8] [11]

Una revisión sistemática del alcance de la literatura sugiere que las dimensiones y los métodos de calidad de los datos con datos del mundo real no son consistentes en la literatura y, como resultado, las evaluaciones de calidad son un desafío debido a la naturaleza compleja y heterogénea de estos datos. [11]

Historia

Antes de la aparición de los sistemas de almacenamiento de datos informáticos de bajo costo , se utilizaban grandes computadoras centrales para mantener los datos de nombres y direcciones para los servicios de entrega. Esto era para que el correo pudiera ser enrutado correctamente a su destino. Las computadoras centrales utilizaban reglas comerciales para corregir errores ortográficos y tipográficos comunes en los datos de nombres y direcciones, así como para rastrear a los clientes que se habían mudado, fallecido, ido a prisión, se habían casado, se habían divorciado o habían experimentado otros eventos que cambiaron su vida. Las agencias gubernamentales comenzaron a poner los datos postales a disposición de algunas empresas de servicios para que cruzaran los datos de los clientes con el registro nacional de cambio de dirección (NCOA) . Esta tecnología les ahorró a las grandes empresas millones de dólares en comparación con la corrección manual de los datos de los clientes. Las grandes empresas ahorraron en franqueo, ya que las facturas y los materiales de marketing directo llegaban al cliente previsto con mayor precisión. Inicialmente vendidos como un servicio, la calidad de los datos se trasladó al interior de las paredes de las corporaciones, a medida que se disponía de tecnología de servidores potente y de bajo costo. [ cita requerida ]

Las empresas que se centran en el marketing suelen centrar sus esfuerzos de calidad en la información sobre nombres y direcciones, pero la calidad de los datos es reconocida [¿ por quién? ] como una propiedad importante de todos los tipos de datos. Los principios de la calidad de los datos se pueden aplicar a los datos de la cadena de suministro, los datos transaccionales y casi todas las demás categorías de datos que se encuentren. Por ejemplo, hacer que los datos de la cadena de suministro se ajusten a un determinado estándar tiene valor para una organización al: 1) evitar el exceso de existencias de existencias similares pero ligeramente diferentes; 2) evitar la falsa falta de existencias; 3) mejorar la comprensión de las compras de los proveedores para negociar descuentos por volumen; y 4) evitar los costos logísticos en el almacenamiento y envío de piezas en una organización grande. [ cita requerida ]

Para las empresas con importantes esfuerzos de investigación, la calidad de los datos puede incluir el desarrollo de protocolos para métodos de investigación, la reducción de errores de medición , la verificación de límites de datos, la tabulación cruzada , el modelado y la detección de valores atípicos , la verificación de la integridad de los datos , etc. [ cita requerida ]

Descripción general

Existen varios marcos teóricos para comprender la calidad de los datos. Un enfoque teórico de sistemas influenciado por el pragmatismo estadounidense amplía la definición de calidad de los datos para incluir la calidad de la información y enfatiza la inclusión de las dimensiones fundamentales de exactitud y precisión sobre la base de la teoría de la ciencia (Ivanov, 1972). Un marco, denominado "Datos sin defectos" (Hansen, 1991), adapta los principios del control estadístico de procesos a la calidad de los datos. Otro marco busca integrar la perspectiva del producto (conformidad con las especificaciones) y la perspectiva del servicio (satisfacción de las expectativas de los consumidores) (Kahn et al. 2002). Otro marco se basa en la semiótica para evaluar la calidad de la forma, el significado y el uso de los datos (Price y Shanks, 2004). Un enfoque altamente teórico analiza la naturaleza ontológica de los sistemas de información para definir la calidad de los datos de manera rigurosa (Wand y Wang, 1996).

Una cantidad considerable de investigación sobre la calidad de los datos implica la investigación y descripción de varias categorías de atributos deseables (o dimensiones) de los datos. Se han identificado casi 200 términos de este tipo y hay poco acuerdo sobre su naturaleza (¿son conceptos, objetivos o criterios?), sus definiciones o medidas (Wang et al., 1993). Los ingenieros de software pueden reconocer esto como un problema similar a las " capacidades ".

El MIT cuenta con un Programa de Calidad de la Información (MITIQ), dirigido por el profesor Richard Wang, que produce un gran número de publicaciones y organiza una importante conferencia internacional en este campo (Conferencia Internacional sobre Calidad de la Información, ICIQ). Este programa surgió del trabajo realizado por Hansen sobre el marco de trabajo "Datos sin defectos" (Hansen, 1991).

En la práctica, la calidad de los datos es una preocupación para los profesionales que trabajan con una amplia gama de sistemas de información, desde el almacenamiento de datos y la inteligencia empresarial hasta la gestión de las relaciones con los clientes y la gestión de la cadena de suministro . Un estudio del sector estimó que el coste total para la economía estadounidense de los problemas de calidad de los datos supera los 600.000 millones de dólares al año (Eckerson, 2002). Los datos incorrectos (que incluyen información no válida y obsoleta) pueden tener su origen en distintas fuentes de datos (por ejemplo, en la introducción de datos o en proyectos de migración y conversión de datos ) . [12]

En 2002, el USPS y PricewaterhouseCoopers publicaron un informe que afirmaba que el 23,6 por ciento de todo el correo enviado desde EE. UU. tenía una dirección incorrecta. [13]

Una de las razones por las que los datos de contacto se vuelven obsoletos muy rápidamente en la base de datos promedio es que más de 45 millones de estadounidenses cambian su dirección cada año. [14]

De hecho, el problema es tan preocupante que las empresas están empezando a crear un equipo de gobernanza de datos cuyo único papel en la corporación es ser responsable de la calidad de los datos. En algunas organizaciones [¿ quiénes? ] , esta función de gobernanza de datos se ha establecido como parte de una función más amplia de cumplimiento normativo, lo que supone un reconocimiento de la importancia de la calidad de los datos y la información para las organizaciones.

Los problemas con la calidad de los datos no solo surgen de datos incorrectos ; los datos inconsistentes también son un problema. Eliminar los sistemas de almacenamiento oculto de datos y centralizar los datos en un almacén es una de las iniciativas que una empresa puede tomar para garantizar la coherencia de los datos.

Las empresas, los científicos y los investigadores están empezando a participar en comunidades de curación de datos para mejorar la calidad de sus datos comunes. [15]

El mercado está avanzando en la provisión de garantía de calidad de los datos. Varios proveedores crean herramientas para analizar y reparar datos de mala calidad in situ , los proveedores de servicios pueden limpiar los datos mediante un contrato y los consultores pueden brindar asesoramiento sobre cómo reparar procesos o sistemas para evitar problemas de calidad de los datos desde el principio. La mayoría de las herramientas de calidad de datos ofrecen una serie de herramientas para mejorar los datos, que pueden incluir algunas o todas las siguientes:

  1. Perfil de datos : evaluación inicial de los datos para comprender su estado actual, que a menudo incluye distribuciones de valores.
  2. Estandarización de datos: un motor de reglas comerciales que garantiza que los datos se ajusten a los estándares
  3. Geocodificación: para datos de nombres y direcciones. Corrige los datos según los estándares geográficos de EE. UU. y del mundo entero.
  4. Coincidencia o vinculación : una forma de comparar datos para que se puedan alinear registros similares, pero ligeramente diferentes. La comparación puede utilizar la "lógica difusa" para encontrar duplicados en los datos. A menudo reconoce que "Bob" y "Bbo" pueden ser la misma persona. Puede ser capaz de gestionar la "gestión doméstica" o encontrar vínculos entre cónyuges en la misma dirección, por ejemplo. Por último, a menudo puede crear un registro "best of breed", tomando los mejores componentes de múltiples fuentes de datos y creando un único superregistro.
  5. Monitoreo: seguimiento de la calidad de los datos a lo largo del tiempo e informes sobre variaciones en la calidad de los datos. El software también puede corregir automáticamente las variaciones según reglas comerciales predefinidas.
  6. Por lotes y en tiempo real: una vez que los datos se limpian inicialmente (por lotes), las empresas a menudo desean incorporar los procesos en aplicaciones empresariales para mantenerlos limpios.

ISO 8000 es un estándar internacional para la calidad de datos. [16]

Garantía de calidad de los datos

La garantía de calidad de los datos es el proceso de elaboración de perfiles de datos para descubrir inconsistencias y otras anomalías en los datos, así como la realización de actividades de limpieza de datos [17] [18] (por ejemplo, eliminación de valores atípicos , interpolación de datos faltantes ) para mejorar la calidad de los datos.

Estas actividades pueden llevarse a cabo como parte del almacenamiento de datos o como parte de la administración de la base de datos de un software de aplicación existente . [19]

Control de calidad de datos

El control de calidad de los datos es el proceso de controlar el uso de los datos para una aplicación o un proceso. Este proceso se lleva a cabo antes y después de un proceso de garantía de calidad de los datos (QA), que consiste en detectar inconsistencias en los datos y corregirlas.

Antes:

Después del proceso de control de calidad, se recopilan las siguientes estadísticas para guiar el proceso de control de calidad (QC):

El proceso de control de calidad de datos utiliza la información del proceso de control de calidad para decidir si se utilizan los datos para el análisis o en una aplicación o proceso empresarial. Ejemplo general: si un proceso de control de calidad de datos descubre que los datos contienen demasiados errores o inconsistencias, evita que se utilicen para el proceso previsto, lo que podría causar interrupciones. Ejemplo específico: proporcionar mediciones no válidas de varios sensores a la función de piloto automático de una aeronave podría provocar que se estrelle. Por lo tanto, establecer un proceso de control de calidad proporciona protección para el uso de los datos. [ cita requerida ]

Uso óptimo de la calidad de los datos

La calidad de datos (DQ) es un área específica necesaria para la integridad de la gestión de datos, ya que cubre las lagunas que puedan surgir en relación con los problemas relacionados con los datos. Esta es una de las funciones clave que ayudan a la gobernanza de datos, ya que permite supervisar los datos para encontrar excepciones que no hayan sido descubiertas por las operaciones de gestión de datos actuales. Las comprobaciones de calidad de datos se pueden definir a nivel de atributo para tener un control total sobre los pasos de solución. [ cita requerida ]

Las comprobaciones de calidad de datos y las reglas de negocio pueden superponerse fácilmente si una organización no presta atención al alcance de su DQ. Los equipos de negocios deben comprender el alcance de DQ a fondo para evitar superposiciones. Las comprobaciones de calidad de datos son redundantes si la lógica empresarial cubre la misma funcionalidad y cumple el mismo propósito que DQ. El alcance de DQ de una organización debe definirse en la estrategia de DQ e implementarse correctamente. Algunas comprobaciones de calidad de datos pueden traducirse en reglas de negocio después de repetidas instancias de excepciones en el pasado. [ cita requerida ]

A continuación se presentan algunas áreas de flujos de datos que pueden necesitar verificaciones DQ periódicas:

Las comprobaciones de integridad y precisión de todos los datos se pueden realizar en el punto de entrada para cada atributo obligatorio de cada sistema de origen. Algunos valores de atributo se crean mucho después de la creación inicial de la transacción; en tales casos, la administración de estas comprobaciones se vuelve complicada y debe realizarse inmediatamente después de que se cumplan el evento definido de la fuente de ese atributo y las demás condiciones de atributo básicas de la transacción.

Todos los datos que tengan atributos que hagan referencia a los datos de referencia de la organización pueden validarse con el conjunto de valores válidos bien definidos de los datos de referencia para descubrir valores nuevos o discrepantes mediante la verificación de validez DQ. Los resultados pueden utilizarse para actualizar los datos de referencia administrados en el marco de la gestión de datos maestros (MDM) .

Todos los datos que provienen de un tercero y que se envían a los equipos internos de la organización pueden someterse a una verificación de precisión (DQ) en comparación con los datos de terceros. Estos resultados de la verificación DQ son valiosos cuando se administran en datos que han realizado múltiples saltos después del punto de entrada de esos datos, pero antes de que esos datos se autoricen o almacenen para la inteligencia empresarial.

Todas las columnas de datos que hacen referencia a los datos maestros pueden validarse para comprobar su coherencia . Una comprobación de calidad de datos realizada en los datos en el punto de entrada descubre nuevos datos para el proceso de MDM, pero una comprobación de calidad de datos realizada después del punto de entrada descubre la falla (no las excepciones) de coherencia.

A medida que los datos se transforman, se capturan múltiples marcas de tiempo y las posiciones de esas marcas de tiempo y se pueden comparar entre sí y con su margen de maniobra para validar su valor, deterioro y significancia operativa en relación con un SLA (acuerdo de nivel de servicio) definido. Esta verificación de calidad de datos de puntualidad se puede utilizar para reducir la tasa de deterioro del valor de los datos y optimizar las políticas de cronograma de movimiento de datos.

En una organización, la lógica compleja suele segregarse en una lógica más simple a lo largo de múltiples procesos. Las comprobaciones de calidad de datos de razonabilidad sobre una lógica tan compleja que produce un resultado lógico dentro de un rango específico de valores o interrelaciones estáticas (reglas de negocio agregadas) pueden validarse para descubrir procesos de negocio complicados pero cruciales y valores atípicos de los datos, su desviación de las expectativas habituales (BAU) y pueden proporcionar posibles excepciones que eventualmente resulten en problemas de datos. Esta comprobación puede ser una simple regla de agregación genérica envuelta en una gran cantidad de datos o puede ser una lógica complicada sobre un grupo de atributos de una transacción perteneciente al negocio principal de la organización. Esta comprobación de calidad de datos requiere un alto grado de conocimiento y perspicacia empresarial. El descubrimiento de problemas de razonabilidad puede ayudar a los cambios de política y estrategia ya sea por parte de la empresa o de la gobernanza de datos o de ambos.

Las comprobaciones de conformidad y de integridad no necesitan estar cubiertas por todas las necesidades del negocio, queda estrictamente a criterio de la arquitectura de la base de datos.

Existen muchos lugares en el movimiento de datos donde las verificaciones DQ pueden no ser necesarias. Por ejemplo, la verificación DQ de integridad y precisión en columnas no nulas es redundante para los datos provenientes de una base de datos. De manera similar, los datos deben ser validados para su precisión con respecto al tiempo cuando se combinan en distintas fuentes. Sin embargo, esa es una regla comercial y no debería estar dentro del alcance de DQ. [ cita requerida ]

Lamentablemente, desde una perspectiva de desarrollo de software, la calidad de datos suele considerarse un requisito no funcional y, como tal, los controles y procesos clave de calidad de datos no se tienen en cuenta en la solución de software final. En el ámbito de la atención sanitaria, las tecnologías portátiles o las redes de área corporal generan grandes volúmenes de datos. [20] El nivel de detalle necesario para garantizar la calidad de los datos es extremadamente alto y, a menudo, se subestima. Esto también es cierto para la gran mayoría de aplicaciones de mHealth , EHR y otras soluciones de software relacionadas con la salud. Sin embargo, existen algunas herramientas de código abierto que examinan la calidad de los datos. [21] La razón principal de esto se debe al coste adicional que implica y al mayor grado de rigor dentro de la arquitectura del software.

Seguridad y privacidad de los datos sanitarios

El uso de dispositivos móviles en el ámbito de la salud, o mHealth, plantea nuevos desafíos a la seguridad y privacidad de los datos sanitarios , de maneras que afectan directamente a la calidad de los mismos. [2] La mHealth es una estrategia cada vez más importante para la prestación de servicios sanitarios en países de ingresos bajos y medios. [22] Los teléfonos móviles y las tabletas se utilizan para la recopilación, la presentación de informes y el análisis de datos casi en tiempo real. Sin embargo, estos dispositivos móviles también se utilizan habitualmente para actividades personales, lo que los deja más vulnerables a los riesgos de seguridad que podrían dar lugar a violaciones de datos. Sin las salvaguardas de seguridad adecuadas, este uso personal podría poner en peligro la calidad, la seguridad y la confidencialidad de los datos sanitarios . [23]

Calidad de datos en salud pública

En los últimos años, la calidad de los datos se ha convertido en un tema central de los programas de salud pública, especialmente a medida que aumenta la demanda de rendición de cuentas. [24] El trabajo hacia objetivos ambiciosos relacionados con la lucha contra enfermedades como el SIDA, la tuberculosis y la malaria debe basarse en sistemas sólidos de seguimiento y evaluación que produzcan datos de calidad relacionados con la implementación del programa. [25] Estos programas, y sus auditores, buscan cada vez más herramientas para estandarizar y agilizar el proceso de determinación de la calidad de los datos, [26] verificar la calidad de los datos notificados y evaluar los sistemas subyacentes de gestión de datos y presentación de informes para los indicadores. [27] Un ejemplo es la herramienta de revisión de la calidad de los datos de la OMS y MEASURE Evaluation . [28] La OMS, el Fondo Mundial, GAVI y MEASURE Evaluation han colaborado para producir un enfoque armonizado para el aseguramiento de la calidad de los datos en diferentes enfermedades y programas. [29]

Calidad de datos abiertos

Existen numerosos trabajos científicos dedicados al análisis de la calidad de los datos en fuentes de datos abiertas , como Wikipedia , Wikidata , DBpedia y otras. En el caso de Wikipedia, el análisis de calidad puede relacionarse con todo el artículo [30] . El modelado de la calidad se lleva a cabo mediante varios métodos. Algunos de ellos utilizan algoritmos de aprendizaje automático , incluidos Random Forest , [31] Support Vector Machine , [32] y otros. Los métodos para evaluar la calidad de los datos en Wikidata, DBpedia y otras fuentes LOD difieren. [33]

Asociaciones profesionales

IQ International—la Asociación Internacional para la Información y la Calidad de los Datos [34]
IQ International es una asociación profesional sin fines de lucro, neutral en cuanto a proveedores, formada en 2004, dedicada a desarrollar la profesión de calidad de información y datos.

ECCMA (Asociación de Gestión del Código de Comercio Electrónico)

La Asociación de Gestión de Códigos de Comercio Electrónico (ECCMA, por sus siglas en inglés) es una asociación internacional sin fines de lucro, formada por miembros, cuyo compromiso es mejorar la calidad de los datos mediante la implementación de estándares internacionales. La ECCMA es actualmente la líder del proyecto para el desarrollo de las normas ISO 8000 e ISO 22745, que son los estándares internacionales para la calidad de los datos y el intercambio de datos maestros de materiales y servicios, respectivamente. La ECCMA proporciona una plataforma para la colaboración entre expertos en la materia sobre calidad y gobernanza de datos de todo el mundo para crear y mantener diccionarios globales y de estándares abiertos que se utilizan para etiquetar la información de forma inequívoca. La existencia de estos diccionarios de etiquetas permite que la información pase de un sistema informático a otro sin perder su significado. [35]

Véase también

Referencias

  1. ^ Redman, Thomas C. (30 de diciembre de 2013). Datos basados ​​en datos: cómo sacar provecho de su activo empresarial más importante. Harvard Business Press. ISBN 978-1-4221-6364-1.
  2. ^ ab Fadahunsi, Kayode Philip; Akinlua, James Tosin; O'Connor, Siobhan; Wark, Petra A; Gallagher, Joseph; Carroll, Christopher; Majeed, Azeem; O'Donoghue, John (marzo de 2019). "Protocolo para una revisión sistemática y síntesis cualitativa de los marcos de calidad de la información en eSalud". BMJ Open . 9 (3): e024722. doi :10.1136/bmjopen-2018-024722. ISSN  2044-6055. PMC 6429947 . PMID  30842114. 
  3. ^ Fadahunsi, Kayode Philip; O'Connor, Siobhan; Akinlua, James Tosin; Wark, Petra A.; Gallagher, Joseph; Carroll, Christopher; Car, Josip; Majeed, Azeem; O'Donoghue, John (17 de mayo de 2021). "Marcos de calidad de la información para tecnologías de salud digital: revisión sistemática". Revista de investigación médica en Internet . 23 (5): e23479. doi : 10.2196/23479 . PMC 8167621 . PMID  33835034. 
  4. ^ Smallwood, RF (2014). Gobernanza de la información: conceptos, estrategias y mejores prácticas. John Wiley and Sons. pág. 110. ISBN 9781118218303. Archivado del original el 30 de julio de 2020. Consultado el 18 de abril de 2020. Contar con un programa de gobernanza de datos estandarizado implica limpiar los datos corruptos o duplicados y proporcionar a los usuarios datos limpios y precisos como base para las aplicaciones de software de línea de negocios y para el análisis de apoyo a la toma de decisiones en aplicaciones de inteligencia empresarial (BI).
  5. ^ abcde Fürber, C. (2015). "3. Calidad de los datos". Gestión de la calidad de los datos con tecnologías semánticas . Springer. pp. 20–55. ISBN 9783658122249Archivado del original el 31 de julio de 2020 . Consultado el 18 de abril de 2020 .
  6. ^ ab Herzog, TN; Scheuren, FJ; Winkler, WE (2007). "Capítulo 2: ¿Qué es la calidad de los datos y por qué debería importarnos?". Técnicas de vinculación de registros y calidad de datos . Springer Science & Business Media. págs. 7–15. ISBN 9780387695020Archivado del original el 31 de julio de 2020 . Consultado el 18 de abril de 2020 .{{cite book}}: CS1 maint: varios nombres: lista de autores ( enlace )
  7. ^ ab Fleckenstein, M.; Becarios, L. (2018). "Capítulo 11: Calidad de los datos". Estrategia de datos moderna . Saltador. págs. 101-120. ISBN 9783319689920Archivado del original el 31 de julio de 2020 . Consultado el 18 de abril de 2020 .{{cite book}}: CS1 maint: varios nombres: lista de autores ( enlace )
  8. ^ ab Mahanti, R. (2019). "Capítulo 1: Datos, calidad de los datos y costo de la mala calidad de los datos". Calidad de los datos: dimensiones, medición, estrategia, gestión y gobernanza. Quality Press. págs. 5-6. ISBN 9780873899772Archivado del original el 23 de noviembre de 2020 . Consultado el 18 de abril de 2020 .
  9. ^ Organización Internacional de Normalización (septiembre de 2015). «ISO 9000:2015(en) Quality management systems — Fundamentals and dictionary». Organización Internacional de Normalización. Archivado desde el original el 19 de mayo de 2020. Consultado el 18 de abril de 2020 .
  10. ^ NIST Big Data Public Working Group, Definitions and Taxonomies Subgroup (octubre de 2019). "NIST Big Data Interoperability Framework: Volume 4, Security and Privacy" (PDF) . Publicación especial 1500-4r2 del NIST (3.ª ed.). Instituto Nacional de Normas y Tecnología. doi : 10.6028/NIST.SP.1500-4r2 . Archivado (PDF) del original el 9 de mayo de 2020. Consultado el 18 de abril de 2020. La validez se refiere a la utilidad, precisión y corrección de los datos para su aplicación. Tradicionalmente, esto se ha denominado calidad de los datos.
  11. ^ ab Bian, Jiang; Lyu, Tianchen; Loiacono, Alexander; Viramontes, Tonatiuh Mendoza; Lipori, Gloria; Guo, Yi; Wu, Yonghui; Prosperi, Mattia; George, Thomas J; Harle, Christopher A; Shenkman, Elizabeth A (9 de diciembre de 2020). "Evaluación de la práctica de la evaluación de la calidad de los datos en una red nacional de investigación de datos clínicos a través de una revisión sistemática del alcance en la era de los datos del mundo real". Revista de la Asociación Estadounidense de Informática Médica . 27 (12): 1999–2010. doi :10.1093/jamia/ocaa245. ISSN  1527-974X. PMC 7727392 . PMID  33166397. 
  12. ^ "Responsabilidad y apalancamiento: un caso a favor de la calidad de los datos". Gestión de la información. Agosto de 2006. Archivado desde el original el 27 de enero de 2011. Consultado el 25 de junio de 2010 .
  13. ^ "Administración de direcciones para pedidos por correo y venta minorista". Revista Directions. Archivado desde el original el 28 de abril de 2005. Consultado el 25 de junio de 2010 .
  14. ^ "USPS | PostalPro" (PDF) . Archivado (PDF) del original el 15 de febrero de 2010. Consultado el 25 de junio de 2010 .
  15. ^ E. Curry, A. Freitas y S. O'Riáin, "El papel de la curación de datos impulsada por la comunidad para las empresas", archivado el 23 de enero de 2012 en Wayback Machine en Linking Enterprise Data , D. Wood, Ed. Boston, Mass.: Springer US, 2010, págs. 25-47.
  16. ^ "ISO/TS 8000-1:2011 Calidad de los datos - Parte 1: Descripción general". Organización Internacional de Normalización. Archivado desde el original el 21 de diciembre de 2016 . Consultado el 8 de diciembre de 2016 .
  17. ^ "¿Puedes confiar en la calidad de tus datos?". spotlessdata.com. Archivado desde el original el 11 de febrero de 2017.
  18. ^ "¿Qué es la limpieza de datos? - Experian Data Quality". 13 de febrero de 2015. Archivado desde el original el 11 de febrero de 2017. Consultado el 9 de febrero de 2017 .
  19. ^ "Tutorial de conceptos de calidad de datos de la lección 23: almacenamiento de datos". Vea el video de capacitación gratuito en línea. Archivado desde el original el 2016-12-21 . Consultado el 8 de diciembre de 2016 .
  20. ^ O'Donoghue, John y John Herbert. "Gestión de datos en entornos de mHealth: sensores de pacientes, dispositivos móviles y bases de datos". Journal of Data and Information Quality ( JDIQ ) 4.1 (2012): 5.
  21. ^ Huser, Vojtech; DeFalco, Frank J; Schuemie, Martijn; Ryan, Patrick B; Shang, Ning; Velez, Mark; Park, Rae Woong; Boyce, Richard D; Duke, Jon; Khare, Ritu; Utidjian, Levon; Bailey, Charles (30 de noviembre de 2016). "Evaluación multisitio de una herramienta de calidad de datos para conjuntos de datos clínicos a nivel de paciente". eGEMs . 4 (1): 24. doi :10.13063/2327-9214.1239. PMC 5226382 . PMID  28154833. 
  22. ^ MEASURE Evaluation. (2017) Mejorar la calidad de los datos en los sistemas de información sanitaria comunitarios móviles: directrices para el diseño y la implementación (tr-17-182). Chapel Hill, NC: MEASURE Evaluation, University of North Carolina. Recuperado de https://www.measureevaluation.org/resources/publications/tr-17-182 Archivado el 8 de agosto de 2017 en Wayback Machine.
  23. ^ Wambugu, S. y Villella, C. (2016). mHealth para sistemas de información sanitaria en países de ingresos bajos y medios: desafíos y oportunidades en materia de calidad, privacidad y seguridad de los datos (tr-16-140). Chapel Hill, NC: MEASURE Evaluation, University of North Carolina. Recuperado de https://www.measureevaluation.org/resources/publications/tr-16-140 Archivado el 8 de agosto de 2017 en Wayback Machine.
  24. ^ MEASURE Evaluation. (2016) Calidad de los datos para sistemas de seguimiento y evaluación (fs-16-170). Chapel Hill, NC: MEASURE Evaluation, University of North Carolina. Recuperado de https://www.measureevaluation.org/resources/publications/fs-16-170-en Archivado el 8 de agosto de 2017 en Wayback Machine.
  25. ^ MEASURE Evaluation. (2016). Sistemas de información de salud rutinaria: un plan de estudios sobre conceptos básicos y práctica - Programa de estudios (sr-16-135a). Chapel Hill, NC: MEASURE Evaluation, University of North Carolina. Recuperado de https://www.measureevaluation.org/resources/publications/sr-16-135a Archivado el 8 de agosto de 2017 en Wayback Machine.
  26. ^ "Herramientas de aseguramiento de la calidad de los datos". MEASURE Evaluation . Archivado desde el original el 8 de agosto de 2017. Consultado el 8 de agosto de 2017 .
  27. ^ "Módulo 4: Calidad de los datos del SIRH". Evaluación de MEASURE . Archivado desde el original el 8 de agosto de 2017. Consultado el 8 de agosto de 2017 .
  28. ^ Evaluación de MEASURE. «Calidad de los datos». Evaluación de MEASURE . Archivado desde el original el 8 de agosto de 2017. Consultado el 8 de agosto de 2017 .
  29. ^ Organización Mundial de la Salud (OMS). (2009). Seguimiento y evaluación del fortalecimiento de los sistemas de salud . Ginebra, Suiza: OMS. Recuperado de http://www.who.int/healthinfo/HSS_MandE_framework_Nov_2009.pdf Archivado el 28 de agosto de 2017 en Wayback Machine.
  30. ^ Mesgari, Mostafa; Chitu, Okoli; Mehdi, Mohamad; Finn Årup, Nielsen; Lanamäki, Arto (2015). «"La suma de todo el conocimiento humano": una revisión sistemática de la investigación académica sobre el contenido de Wikipedia» (PDF) . Revista de la Asociación de Ciencia y Tecnología de la Información . 66 (2): 219–245. doi :10.1002/asi.23172. S2CID  218071987. Archivado (PDF) desde el original el 2020-05-10 . Consultado el 2020-01-21 .
  31. ^ Warncke-Wang, Morten; Cosley, Dan; Riedl, John (2013). "Cuéntame más". Actas del 9.º Simposio Internacional sobre Colaboración Abierta . págs. 1–10. doi :10.1145/2491055.2491063. ISBN . 9781450318525. Número de identificación del sujeto  18523960.
  32. ^ Hasan Dalip, Daniel; André Gonçalves, Marcos; Cristo, Marco; Calado, Pável (2009). "Evaluación automática de la calidad de contenido creado de forma colaborativa por comunidades web". Actas de la conferencia internacional conjunta de 2009 sobre bibliotecas digitales - JCDL '09 . p. 295. doi :10.1145/1555400.1555449. ISBN 9781605583228. Número de identificación del sujeto  14421291.
  33. ^ Färber, Michael; Bartscherer, Frederic; Menne, Carsten; Rettinger, Achim (30 de noviembre de 2017). «Calidad de datos vinculados de DBpedia, Freebase, OpenCyc, Wikidata y YAGO». Web semántica . 9 (1): 77–129. doi :10.3233/SW-170275. Archivado desde el original el 22 de enero de 2018.
  34. ^ "IQ International - Asociación Internacional para la Información y la Calidad de los Datos". Sitio web de IQ International. Archivado desde el original el 2017-05-10 . Consultado el 2016-08-05 .
  35. ^ "Inicio". ECCMA . Archivado desde el original el 19 de agosto de 2018 . Consultado el 3 de octubre de 2018 .

Lectura adicional

Enlaces externos