stringtranslate.com

Calidad de datos

La calidad de los datos se refiere al estado de la información cualitativa o cuantitativa . Existen muchas definiciones de calidad de los datos, pero los datos generalmente se consideran de alta calidad si son "aptos para [sus] usos previstos en operaciones , toma de decisiones y planificación ". [1] [2] [3] Además, los datos se consideran de alta calidad si representan correctamente la construcción del mundo real a la que se refieren. Además, aparte de estas definiciones, a medida que aumenta el número de fuentes de datos, la cuestión de la coherencia interna de los datos se vuelve significativa, independientemente de su idoneidad para su uso para cualquier propósito externo particular. Las opiniones de las personas sobre la calidad de los datos a menudo pueden estar en desacuerdo, incluso cuando se habla del mismo conjunto de datos utilizados para el mismo propósito. Cuando este es el caso, la gobernanza de datos se utiliza para formular definiciones y estándares acordados para la calidad de los datos. En tales casos, es posible que sea necesaria la limpieza de datos , incluida la estandarización , para garantizar la calidad de los datos. [4]

Definiciones

Definir la calidad de los datos es difícil debido a los numerosos contextos en los que se utilizan los datos, así como a las diferentes perspectivas entre los usuarios finales, productores y custodios de los datos. [5]

Desde la perspectiva del consumidor, la calidad de los datos es: [5]

Desde una perspectiva empresarial, la calidad de los datos es:

Desde una perspectiva basada en estándares, la calidad de los datos es:

Podría decirse que, en todos estos casos, la "calidad de los datos" es una comparación del estado real de un conjunto particular de datos con un estado deseado, denominándose típicamente el estado deseado como "apto para el uso", "según las especificaciones", " "satisfacer las expectativas del consumidor", "libre de defectos" o "cumplir con los requisitos". Estas expectativas, especificaciones y requisitos generalmente están definidos por uno o más individuos o grupos, organizaciones de estándares, leyes y regulaciones, políticas comerciales o políticas de desarrollo de software. [5]

Dimensiones de la calidad de los datos

Profundizando más, esas expectativas, especificaciones y requisitos se expresan en términos de características o dimensiones de los datos, como por ejemplo: [5] [6] [7] [8] [11]

Una revisión sistemática del alcance de la literatura sugiere que las dimensiones y métodos de calidad de los datos con datos del mundo real no son consistentes en la literatura y, como resultado, las evaluaciones de calidad son desafiantes debido a la naturaleza compleja y heterogénea de estos datos. [11]

Historia

Antes del auge del almacenamiento de datos informáticos de bajo costo, se utilizaban computadoras centrales masivas para mantener datos de nombres y direcciones para los servicios de entrega. Esto fue para que el correo pudiera enrutarse adecuadamente a su destino. Los mainframes utilizaban reglas comerciales para corregir errores ortográficos y tipográficos comunes en los datos de nombres y direcciones, así como para rastrear a los clientes que se habían mudado, fallecido, ido a prisión, casados, divorciados o experimentado otros eventos que cambiaron sus vidas. Las agencias gubernamentales comenzaron a poner datos postales a disposición de algunas empresas de servicios para comparar los datos de los clientes con el Registro Nacional de Cambio de Dirección (NCOA) . Esta tecnología ahorró a las grandes empresas millones de dólares en comparación con la corrección manual de los datos de los clientes. Las grandes empresas ahorraron en gastos de envío, ya que las facturas y los materiales de marketing directo llegaron al cliente previsto con mayor precisión. Inicialmente vendido como un servicio, la calidad de los datos se trasladó dentro de los muros de las corporaciones, a medida que se dispuso de tecnología de servidor potente y de bajo costo. [ cita necesaria ]

Las empresas con énfasis en marketing a menudo centraron sus esfuerzos de calidad en la información de nombres y direcciones, pero la calidad de los datos es reconocida [ ¿por quién? ] como una propiedad importante de todo tipo de datos. Los principios de calidad de los datos se pueden aplicar a los datos de la cadena de suministro, a los datos transaccionales y a casi todas las demás categorías de datos encontradas. Por ejemplo, hacer que los datos de la cadena de suministro se ajusten a un determinado estándar tiene valor para una organización al: 1) evitar el exceso de existencias similares pero ligeramente diferentes; 2) evitar falsos desabastecimientos; 3) mejorar la comprensión de las compras de los proveedores para negociar descuentos por volumen; y 4) evitar costos de logística en el almacenamiento y envío de piezas en una organización grande. [ cita necesaria ]

Para las empresas con importantes esfuerzos de investigación, la calidad de los datos puede incluir el desarrollo de protocolos para métodos de investigación, la reducción del error de medición , la verificación de límites de los datos, la tabulación cruzada , el modelado y la detección de valores atípicos , la verificación de la integridad de los datos , etc. [ cita necesaria ]

Descripción general

Existen varios marcos teóricos para comprender la calidad de los datos. Un enfoque teórico de sistemas influenciado por el pragmatismo estadounidense amplía la definición de calidad de los datos para incluir la calidad de la información y enfatiza la inclusión de las dimensiones fundamentales de exactitud y precisión sobre la base de la teoría de la ciencia (Ivanov, 1972). Un marco, denominado "Datos sin defectos" (Hansen, 1991) adapta los principios del control de procesos estadísticos a la calidad de los datos. Otro marco busca integrar la perspectiva del producto (conformidad con las especificaciones) y la perspectiva del servicio (satisfacer las expectativas de los consumidores) (Kahn et al. 2002). Otro marco se basa en la semiótica para evaluar la calidad de la forma, significado y uso de los datos (Price y Shanks, 2004). Un enfoque altamente teórico analiza la naturaleza ontológica de los sistemas de información para definir rigurosamente la calidad de los datos (Wand y Wang, 1996).

Una cantidad considerable de investigaciones sobre la calidad de los datos implica investigar y describir varias categorías de atributos (o dimensiones) deseables de los datos. Se han identificado casi 200 de estos términos y hay poco acuerdo sobre su naturaleza (¿son conceptos, objetivos o criterios?), sus definiciones o medidas (Wang et al., 1993). Los ingenieros de software pueden reconocer esto como un problema similar a las " ilidades ".

El MIT cuenta con un Programa de Calidad de la Información (MITIQ), dirigido por el profesor Richard Wang, que produce un gran número de publicaciones y alberga una importante conferencia internacional en este campo (Conferencia Internacional sobre Calidad de la Información, ICIQ). Este programa surgió del trabajo realizado por Hansen en el marco "Zero Defect Data" (Hansen, 1991).

En la práctica, la calidad de los datos es una preocupación para los profesionales involucrados con una amplia gama de sistemas de información, que van desde el almacenamiento de datos y la inteligencia empresarial hasta la gestión de las relaciones con los clientes y la gestión de la cadena de suministro . Un estudio de la industria estimó el costo total para la economía estadounidense de los problemas de calidad de los datos en más de 600 mil millones de dólares por año (Eckerson, 2002). Los datos incorrectos, que incluyen información no válida y desactualizada, pueden provenir de diferentes fuentes de datos, a través de la entrada de datos o de proyectos de conversión y migración de datos . [12]

En 2002, USPS y PricewaterhouseCoopers publicaron un informe que afirmaba que el 23,6 por ciento de todo el correo enviado en EE. UU. tiene la dirección incorrecta. [13]

Una de las razones por las que los datos de contacto se vuelven obsoletos muy rápidamente en una base de datos promedio: más de 45 millones de estadounidenses cambian su dirección cada año. [14]

De hecho, el problema es tal que las empresas están empezando a crear un equipo de gobierno de datos cuyo único papel en la corporación es ser responsable de la calidad de los datos. En algunos [ ¿quién? ] organizaciones, esta función de gobernanza de datos se ha establecido como parte de una función más amplia de Cumplimiento normativo: un reconocimiento de la importancia de la calidad de los datos/información para las organizaciones.

Los problemas con la calidad de los datos no solo surgen de datos incorrectos ; los datos inconsistentes también son un problema. Eliminar los sistemas de sombra de datos y centralizar los datos en un almacén es una de las iniciativas que una empresa puede tomar para garantizar la coherencia de los datos.

Empresas, científicos e investigadores están empezando a participar en comunidades de curación de datos para mejorar la calidad de sus datos comunes. [15]

El mercado está avanzando en cierta medida para garantizar la calidad de los datos. Varios proveedores fabrican herramientas para analizar y reparar datos de mala calidad in situ , los proveedores de servicios pueden limpiar los datos por contrato y los consultores pueden asesorar sobre cómo arreglar procesos o sistemas para evitar problemas de calidad de los datos en primer lugar. La mayoría de las herramientas de calidad de datos ofrecen una serie de herramientas para mejorar los datos, que pueden incluir algunas o todas las siguientes:

  1. Elaboración de perfiles de datos : evaluación inicial de los datos para comprender su estado actual, que a menudo incluye distribuciones de valores.
  2. Estandarización de datos: un motor de reglas comerciales que garantiza que los datos cumplan con los estándares
  3. Geocodificación: para datos de nombre y dirección. Corrige los datos según los estándares geográficos de EE. UU. y de todo el mundo.
  4. Coincidencia o vinculación : una forma de comparar datos para que se puedan alinear registros similares, pero ligeramente diferentes. La comparación puede utilizar "lógica difusa" para encontrar duplicados en los datos. A menudo reconoce que "Bob" y "Bbo" pueden ser el mismo individuo. Podría ser capaz de gestionar el "hogar" o encontrar vínculos entre cónyuges en la misma dirección, por ejemplo. Finalmente, a menudo puede construir un registro "mejor de su clase", tomando los mejores componentes de múltiples fuentes de datos y construyendo un único súper registro.
  5. Monitoreo: realizar un seguimiento de la calidad de los datos a lo largo del tiempo e informar sobre las variaciones en la calidad de los datos. El software también puede corregir automáticamente las variaciones basándose en reglas comerciales predefinidas.
  6. Por lotes y en tiempo real: una vez que los datos se limpian inicialmente (por lotes), las empresas a menudo quieren integrar los procesos en aplicaciones empresariales para mantenerlos limpios.

ISO 8000 es un estándar internacional para la calidad de los datos. [16]

Garantía de calidad de los datos

El aseguramiento de la calidad de los datos es el proceso de creación de perfiles de datos para descubrir inconsistencias y otras anomalías en los datos, así como realizar actividades de limpieza de datos [17] [18] (por ejemplo, eliminar valores atípicos , interpolación de datos faltantes ) para mejorar la calidad de los datos.

Estas actividades pueden llevarse a cabo como parte del almacenamiento de datos o como parte de la administración de la base de datos de una pieza de software de aplicación existente . [19]

Control de calidad de datos

El control de calidad de los datos es el proceso de controlar el uso de datos para una aplicación o un proceso. Este proceso se realiza antes y después de un proceso de Garantía de calidad de los datos (QA), que consiste en el descubrimiento de inconsistencias en los datos y su corrección.

Antes:

Después del proceso de control de calidad, se recopilan las siguientes estadísticas para guiar el proceso de control de calidad (QC):

El proceso de control de calidad de datos utiliza la información del proceso de control de calidad para decidir si utilizar los datos para análisis o en una aplicación o proceso comercial. Ejemplo general: si un proceso de control de calidad de datos encuentra que los datos contienen demasiados errores o inconsistencias, evita que esos datos se utilicen para el proceso previsto, lo que podría causar interrupciones. Ejemplo específico: proporcionar mediciones no válidas de varios sensores a la función de piloto automático de una aeronave podría provocar que se estrellara. Por lo tanto, establecer un proceso de control de calidad proporciona protección del uso de datos. [ cita necesaria ]

Uso óptimo de la calidad de los datos.

La calidad de los datos (DQ) es un área de nicho necesaria para la integridad de la gestión de datos al cubrir las lagunas de los problemas de datos. Esta es una de las funciones clave que ayudan a la gobernanza de datos al monitorearlos para encontrar excepciones no descubiertas por las operaciones actuales de gestión de datos. Las comprobaciones de calidad de los datos se pueden definir a nivel de atributo para tener control total sobre sus pasos de remediación. [ cita necesaria ]

Las verificaciones de DQ y las reglas comerciales pueden superponerse fácilmente si una organización no está atenta a su alcance de DQ. Los equipos comerciales deben comprender a fondo el alcance de la DQ para evitar superposiciones. Los controles de calidad de los datos son redundantes si la lógica empresarial cubre la misma funcionalidad y cumple el mismo propósito que DQ. El alcance de la DQ de una organización debe definirse en la estrategia de DQ y estar bien implementado. Algunas comprobaciones de calidad de los datos pueden traducirse en reglas comerciales después de repetidos casos de excepciones en el pasado. [ cita necesaria ]

A continuación se presentan algunas áreas de flujos de datos que pueden necesitar controles DQ perennes:

Se pueden realizar verificaciones DQ de integridad y precisión de todos los datos en el punto de entrada para cada atributo obligatorio de cada sistema fuente. Pocos valores de atributos se crean mucho después de la creación inicial de la transacción; en tales casos, administrar estas comprobaciones se vuelve complicado y debe realizarse inmediatamente después de que se cumpla el evento definido del origen de ese atributo y las otras condiciones de atributos principales de la transacción.

Todos los datos que tengan atributos que se refieran a Datos de Referencia en la organización pueden validarse contra el conjunto de valores válidos bien definidos de Datos de Referencia para descubrir valores nuevos o discrepantes a través de la verificación de validez DQ. Los resultados se pueden utilizar para actualizar los datos de referencia administrados en Master Data Management (MDM) .

Todos los datos obtenidos de un tercero a los equipos internos de la organización pueden someterse a una verificación de precisión (DQ) con respecto a los datos de terceros. Estos resultados de la verificación DQ son valiosos cuando se administran en datos que realizaron múltiples saltos después del punto de entrada de esos datos, pero antes de que esos datos sean autorizados o almacenados para inteligencia empresarial.

Todas las columnas de datos que hagan referencia a Datos Maestros podrán ser validadas para su verificación de coherencia . Una verificación DQ administrada sobre los datos en el punto de entrada descubre nuevos datos para el proceso MDM, pero una verificación DQ administrada después del punto de entrada descubre fallas (no excepciones) de coherencia.

A medida que los datos se transforman, se capturan múltiples marcas de tiempo y las posiciones de esas marcas de tiempo y se pueden comparar entre sí y su margen de maniobra para validar su valor, deterioro e importancia operativa frente a un SLA (acuerdo de nivel de servicio) definido. Esta verificación de puntualidad de DQ se puede utilizar para disminuir la tasa de deterioro del valor de los datos y optimizar las políticas de cronograma del movimiento de datos.

En una organización, la lógica compleja generalmente se segrega en una lógica más simple en múltiples procesos. Razonabilidad Las comprobaciones DQ de una lógica tan compleja que produce un resultado lógico dentro de un rango específico de valores o interrelaciones estáticas (reglas de negocios agregadas) pueden validarse para descubrir procesos de negocios complicados pero cruciales y valores atípicos de los datos, su desviación de BAU (business as usual) ) expectativas y puede proporcionar posibles excepciones que eventualmente resulten en problemas de datos. Esta verificación puede ser una simple regla de agregación genérica envuelta en una gran cantidad de datos o puede ser una lógica complicada sobre un grupo de atributos de una transacción perteneciente al negocio principal de la organización. Esta verificación de calidad requiere un alto grado de conocimiento y perspicacia empresarial. El descubrimiento de cuestiones de razonabilidad puede ayudar a realizar cambios en políticas y estrategias tanto por parte del negocio como del gobierno de datos, o ambos.

No es necesario cubrir las comprobaciones de conformidad y de integridad en todas las necesidades comerciales, ya que quedan estrictamente a discreción de la arquitectura de la base de datos.

Hay muchos lugares en el movimiento de datos donde es posible que no se requieran controles de calidad. Por ejemplo, la verificación DQ de integridad y precisión en columnas no nulas es redundante para los datos obtenidos de la base de datos. De manera similar, se debe validar la exactitud de los datos con respecto al momento en que se unen a través de fuentes dispares. Sin embargo, esa es una regla comercial y no debería estar dentro del alcance de DQ. [ cita necesaria ]

Lamentablemente, desde la perspectiva del desarrollo de software, la DQ a menudo se considera un requisito no funcional. Y como tal, los procesos/verificaciones clave de calidad de los datos no se tienen en cuenta en la solución de software final. Dentro de la Salud, las tecnologías wearables o Body Area Networks , generan grandes volúmenes de datos. [20] El nivel de detalle necesario para garantizar la calidad de los datos es extremadamente alto y a menudo se subestima. Esto también es válido para la gran mayoría de aplicaciones de mHealth , EHR y otras soluciones de software relacionadas con la salud. Sin embargo, existen algunas herramientas de código abierto que examinan la calidad de los datos. [21] La razón principal de esto se debe al costo adicional involucrado y al agregado de un mayor grado de rigor dentro de la arquitectura del software.

Seguridad y privacidad de los datos sanitarios

El uso de dispositivos móviles en salud, o mHealth, crea nuevos desafíos para la seguridad y privacidad de los datos de salud , en formas que afectan directamente la calidad de los datos. [2] La salud móvil es una estrategia cada vez más importante para la prestación de servicios de salud en países de ingresos bajos y medios. [22] Los teléfonos móviles y las tabletas se utilizan para recopilar, generar informes y analizar datos casi en tiempo real. Sin embargo, estos dispositivos móviles también se utilizan comúnmente para actividades personales, lo que los hace más vulnerables a riesgos de seguridad que podrían provocar violaciones de datos. Sin las medidas de seguridad adecuadas, este uso personal podría poner en peligro la calidad, la seguridad y la confidencialidad de los datos de salud . [23]

Calidad de los datos en salud pública.

La calidad de los datos se ha convertido en un foco importante de los programas de salud pública en los últimos años, especialmente a medida que aumenta la demanda de rendición de cuentas. [24] El trabajo hacia objetivos ambiciosos relacionados con la lucha contra enfermedades como el SIDA, la tuberculosis y la malaria debe basarse en sistemas sólidos de seguimiento y evaluación que produzcan datos de calidad relacionados con la implementación del programa. [25] Estos programas, y sus auditores, buscan cada vez más herramientas para estandarizar y agilizar el proceso de determinación de la calidad de los datos, [26] verificar la calidad de los datos reportados y evaluar los sistemas subyacentes de gestión de datos y presentación de informes para los indicadores. [27] Un ejemplo es la herramienta de revisión de la calidad de los datos de la OMS y MEASURE Evaluación [28] La OMS, el Fondo Mundial, GAVI y MEASURE Evaluación han colaborado para producir un enfoque armonizado para el aseguramiento de la calidad de los datos en diferentes enfermedades y programas. [29]

Calidad de datos abiertos

Hay una serie de trabajos científicos dedicados al análisis de la calidad de los datos en fuentes de datos abiertas , como Wikipedia , Wikidata , DBpedia y otras. En el caso de Wikipedia, el análisis de calidad puede referirse a todo el artículo [30]. Allí el modelado de la calidad se lleva a cabo mediante varios métodos. Algunos de ellos utilizan algoritmos de aprendizaje automático , incluidos Random Forest , [31] Support Vector Machine , [32] y otros. Los métodos para evaluar la calidad de los datos en Wikidata, DBpedia y otras fuentes LOD difieren. [33]

Asociaciones profesionales

IQ International: la Asociación Internacional para la Calidad de la Información y los Datos [34]
IQ International es una asociación profesional, independiente de proveedores y sin fines de lucro, formada en 2004, dedicada a desarrollar la profesión de calidad de la información y los datos.

ECCMA (Asociación de Gestión de Códigos de Comercio Electrónico)

La Asociación de Gestión de Códigos de Comercio Electrónico (ECCMA) es una asociación internacional sin fines de lucro basada en miembros comprometida con mejorar la calidad de los datos mediante la implementación de estándares internacionales. ECCMA es el actual líder del proyecto para el desarrollo de ISO 8000 e ISO 22745, que son los estándares internacionales para la calidad de los datos y el intercambio de datos maestros de materiales y servicios, respectivamente. ECCMA proporciona una plataforma para la colaboración entre expertos en calidad y gobernanza de datos de todo el mundo para crear y mantener diccionarios estándar abiertos y globales que se utilizan para etiquetar información sin ambigüedades. La existencia de estos diccionarios de etiquetas permite pasar información de un sistema informático a otro sin que pierda significado. [35]

Ver también

Referencias

  1. ^ Redman, Thomas C. (30 de diciembre de 2013). Basado en datos: cómo sacar provecho de su activo comercial más importante. Prensa empresarial de Harvard. ISBN 978-1-4221-6364-1.
  2. ^ ab Fadahunsi, Kayode Philip; Akinlua, James Tosin; O'Connor, Siobhan; Wark, Petra A; Gallagher, José; Carroll, Cristóbal; Majeed, Azeem; O'Donoghue, John (marzo de 2019). "Protocolo para una revisión sistemática y síntesis cualitativa de marcos de calidad de la información en eSalud". Abierto BMJ . 9 (3): e024722. doi : 10.1136/bmjopen-2018-024722. ISSN  2044-6055. PMC 6429947 . PMID  30842114. 
  3. ^ Fadahunsi, Kayode Philip; O'Connor, Siobhan; Akinlua, James Tosin; Wark, Petra A.; Gallagher, José; Carroll, Cristóbal; Coche, Josip; Majeed, Azeem; O'Donoghue, John (17 de mayo de 2021). "Marcos de calidad de la información para tecnologías de salud digital: revisión sistemática". Revista de investigación médica en Internet . 23 (5): e23479. doi : 10.2196/23479 . PMC 8167621 . PMID  33835034. 
  4. ^ Smallwood, RF (2014). Gobernanza de la información: conceptos, estrategias y mejores prácticas. John Wiley e hijos. pag. 110.ISBN 9781118218303. Archivado desde el original el 30 de julio de 2020 . Consultado el 18 de abril de 2020 . Tener implementado un programa de gobierno de datos estandarizado significa limpiar datos corruptos o duplicados y brindar a los usuarios datos limpios y precisos como base para aplicaciones de software de línea de negocios y para análisis de soporte de decisiones en aplicaciones de inteligencia de negocios (BI).
  5. ^ abcde Fürber, C. (2015). "3. Calidad de los datos". Gestión de la Calidad de Datos con Tecnologías Semánticas . Saltador. págs. 20–55. ISBN 9783658122249. Archivado desde el original el 31 de julio de 2020 . Consultado el 18 de abril de 2020 .
  6. ^ ab Herzog, TN; Scheuren, FJ; Winkler, NOSOTROS (2007). "Capítulo 2: ¿Qué es la calidad de los datos y por qué debería importarnos?". Técnicas de vinculación de registros y calidad de datos . Medios de ciencia y negocios de Springer. págs. 7-15. ISBN 9780387695020. Archivado desde el original el 31 de julio de 2020 . Consultado el 18 de abril de 2020 .{{cite book}}: Mantenimiento CS1: varios nombres: lista de autores ( enlace )
  7. ^ ab Fleckenstein, M.; Becarios, L. (2018). "Capítulo 11: Calidad de los datos". Estrategia de datos moderna . Saltador. págs. 101-120. ISBN 9783319689920. Archivado desde el original el 31 de julio de 2020 . Consultado el 18 de abril de 2020 .{{cite book}}: Mantenimiento CS1: varios nombres: lista de autores ( enlace )
  8. ^ ab Mahanti, R. (2019). "Capítulo 1: Datos, calidad de los datos y costo de la mala calidad de los datos". Calidad de datos: dimensiones, medición, estrategia, gestión y gobernanza. Prensa de calidad. págs. 5–6. ISBN 9780873899772. Archivado desde el original el 23 de noviembre de 2020 . Consultado el 18 de abril de 2020 .
  9. ^ Organización Internacional de Normalización (septiembre de 2015). "ISO 9000:2015 (en) Sistemas de gestión de la calidad - Fundamentos y vocabulario". Organización Internacional de Normalización. Archivado desde el original el 19 de mayo de 2020 . Consultado el 18 de abril de 2020 .
  10. ^ Grupo de trabajo público de Big Data del NIST, Subgrupo de definiciones y taxonomías (octubre de 2019). "Marco de interoperabilidad de Big Data del NIST: volumen 4, seguridad y privacidad" (PDF) . Publicación especial del NIST 1500-4r2 (3.ª ed.). Instituto Nacional de Estándares y Tecnología. doi : 10.6028/NIST.SP.1500-4r2 . Archivado (PDF) desde el original el 9 de mayo de 2020 . Consultado el 18 de abril de 2020 . La validez se refiere a la utilidad, exactitud y corrección de los datos para su aplicación. Tradicionalmente, esto se ha denominado calidad de los datos.
  11. ^ ab Bian, Jiang; Lyu, Tianchen; Loiacono, Alejandro; Viramontes, Tonatiuh Mendoza; Lipori, Gloria; Guo, Yi; Wu, Yonghui; Prosperi, Mattia; George, Thomas J; Harle, Christopher A; Shenkman, Elizabeth A (9 de diciembre de 2020). "Evaluación de la práctica de evaluación de la calidad de los datos en una red nacional de investigación de datos clínicos mediante una revisión sistemática del alcance en la era de los datos del mundo real". Revista de la Asociación Estadounidense de Informática Médica . 27 (12): 1999-2010. doi :10.1093/jamia/ocaa245. ISSN  1527-974X. PMC 7727392 . PMID  33166397. 
  12. ^ "Responsabilidad y apalancamiento: un caso a favor de la calidad de los datos". Gestión de la Información. Agosto de 2006. Archivado desde el original el 27 de enero de 2011 . Consultado el 25 de junio de 2010 .
  13. ^ "Gestión de direcciones para pedidos por correo y venta minorista". Revista Direcciones. Archivado desde el original el 28 de abril de 2005 . Consultado el 25 de junio de 2010 .
  14. ^ "USPS | PostalPro" (PDF) . Archivado (PDF) desde el original el 15 de febrero de 2010 . Consultado el 25 de junio de 2010 .
  15. ^ E. Curry, A. Freitas y S. O'Riáin, "El papel de la conservación de datos impulsada por la comunidad para las empresas", archivado el 23 de enero de 2012 en Wayback Machine para vincular datos empresariales , D. Wood, Ed. Boston, Mass.: Springer US, 2010, págs. 25-47.
  16. ^ "ISO/TS 8000-1:2011 Calidad de datos - Parte 1: Descripción general". Organización Internacional de Normalización. Archivado desde el original el 21 de diciembre de 2016 . Consultado el 8 de diciembre de 2016 .
  17. ^ "¿Puede confiar en la calidad de sus datos?". spotlessdata.com. Archivado desde el original el 11 de febrero de 2017.
  18. ^ "¿Qué es la limpieza de datos? - Calidad de datos de Experian". 13 de febrero de 2015. Archivado desde el original el 11 de febrero de 2017 . Consultado el 9 de febrero de 2017 .
  19. ^ "Tutorial de conceptos de calidad de datos de la lección 23: almacenamiento de datos". Vea videos de capacitación gratuitos en línea. Archivado desde el original el 21 de diciembre de 2016 . Consultado el 8 de diciembre de 2016 .
  20. ^ O'Donoghue, John y John Herbert. "Gestión de datos en entornos mHealth: sensores de pacientes, dispositivos móviles y bases de datos". Revista de Calidad de Datos e Información ( JDIQ ) 4.1 (2012): 5.
  21. ^ Huser, Vojtech; DeFalco, Frank J; Schuemie, Martijn; Ryan, Patricio B; Shang, Ning; Vélez, Marcos; Park, Rae Woong; Boyce, Richard D; Duque, Jon; Khare, Ritu; Utidjian, Levon; Bailey, Charles (30 de noviembre de 2016). "Evaluación multisitio de una herramienta de calidad de datos para conjuntos de datos clínicos a nivel de paciente". eGEM . 4 (1): 24. doi :10.13063/2327-9214.1239. PMC 5226382 . PMID  28154833. 
  22. ^ MEDIDA Evaluación. (2017) Mejora de la calidad de los datos en sistemas móviles de información sanitaria comunitarios: directrices para el diseño y la implementación (tr-17-182). Chapel Hill, Carolina del Norte: Evaluación MEASURE, Universidad de Carolina del Norte. Obtenido de https://www.measureevaluación.org/resources/publications/tr-17-182 Archivado el 8 de agosto de 2017 en Wayback Machine.
  23. ^ Wambugu, S. y Villella, C. (2016). mSalud para sistemas de información sanitaria en países de ingresos bajos y medios: desafíos y oportunidades en calidad, privacidad y seguridad de los datos (tr-16-140). Chapel Hill, Carolina del Norte: Evaluación MEASURE, Universidad de Carolina del Norte. Obtenido de https://www.measureevaluación.org/resources/publications/tr-16-140 Archivado el 8 de agosto de 2017 en Wayback Machine.
  24. ^ MEDIDA Evaluación. (2016) Calidad de datos para sistemas de seguimiento y evaluación (fs-16-170). Chapel Hill, Carolina del Norte: Evaluación MEASURE, Universidad de Carolina del Norte. Obtenido de https://www.measureevaluación.org/resources/publications/fs-16-170-en Archivado el 8 de agosto de 2017 en Wayback Machine.
  25. ^ MEDIDA Evaluación. (2016). Sistemas de información sanitaria de rutina: un plan de estudios sobre conceptos y prácticas básicos - Programa de estudios (sr-16-135a). Chapel Hill, Carolina del Norte: Evaluación MEASURE, Universidad de Carolina del Norte. Obtenido de https://www.measureevaluación.org/resources/publications/sr-16-135a Archivado el 8 de agosto de 2017 en Wayback Machine.
  26. ^ "Herramientas de control de calidad de los datos". MEDIDA Evaluación . Archivado desde el original el 8 de agosto de 2017 . Consultado el 8 de agosto de 2017 .
  27. ^ "Módulo 4: Calidad de los datos RHIS". MEDIDA Evaluación . Archivado desde el original el 8 de agosto de 2017 . Consultado el 8 de agosto de 2017 .
  28. ^ MEDIDA Evaluación. "Calidad de los datos". MEDIDA Evaluación . Archivado desde el original el 8 de agosto de 2017 . Consultado el 8 de agosto de 2017 .
  29. ^ La Organización Mundial de la Salud (OMS). (2009). Monitoreo y evaluación del fortalecimiento de los sistemas de salud . Ginebra, Suiza: OMS. Obtenido de http://www.who.int/healthinfo/HSS_MandE_framework_Nov_2009.pdf Archivado el 28 de agosto de 2017 en Wayback Machine.
  30. ^ Mesgari, Mostafa; Chitu, Okoli; Mehdi, Mahoma; Finn Arup, Nielsen; Lanamäki, Arto (2015). ""La suma de todo el conocimiento humano ": una revisión sistemática de la investigación académica sobre el contenido de Wikipedia" (PDF) . Revista de la Asociación de Ciencia y Tecnología de la Información . 66 (2): 219–245. doi :10.1002/asi.23172. S2CID  218071987. Archivado (PDF) desde el original el 10 de mayo de 2020 . Consultado el 21 de enero de 2020 .
  31. ^ Warncke-Wang, Morten; Cosley, Dan; Riedl, Juan (2013). "Cuéntame más". Actas del noveno Simposio Internacional sobre Colaboración Abierta . págs. 1–10. doi :10.1145/2491055.2491063. ISBN 9781450318525. S2CID  18523960.
  32. ^ Hasán Dalip, Daniel; André Gonçalves, Marcos; Cristo, Marco; Calado, Pável (2009). "Evaluación automática de la calidad de contenidos creados colaborativamente por comunidades web". Actas de la conferencia internacional conjunta de 2009 sobre bibliotecas digitales - JCDL '09 . pag. 295. doi :10.1145/1555400.1555449. ISBN 9781605583228. S2CID  14421291.
  33. ^ Farber, Michael; Bartscherer, Federico; Menne, Carsten; Rettinger, Achim (30 de noviembre de 2017). "Calidad de los datos vinculados de DBpedia, Freebase, OpenCyc, Wikidata y YAGO". Web Semántica . 9 (1): 77-129. doi :10.3233/SW-170275. Archivado desde el original el 22 de enero de 2018.
  34. ^ "IQ International: la Asociación Internacional para la Calidad de la Información y los Datos". Sitio web de IQ Internacional. Archivado desde el original el 10 de mayo de 2017 . Consultado el 5 de agosto de 2016 .
  35. ^ "Inicio". ECCMA . Archivado desde el original el 19 de agosto de 2018 . Consultado el 3 de octubre de 2018 .

Lectura adicional

Enlaces externos