stringtranslate.com

Información

Información es un concepto abstracto que hace referencia a aquello que tiene el poder de informar . En el nivel más fundamental, la información pertenece a la interpretación (quizás formalmente ) de lo que se puede sentir , o de sus abstracciones . Se puede decir que cualquier proceso natural que no sea completamente aleatorio y cualquier patrón observable en cualquier medio transmite cierta cantidad de información. Mientras que las señales digitales y otros datos utilizan signos discretos para transmitir información, otros fenómenos y artefactos como señales analógicas , poemas , imágenes , música u otros sonidos y corrientes transmiten información de una forma más continua. [1] La información no es el conocimiento en sí, sino el significado que puede derivarse de una representación a través de la interpretación. [2]

El concepto de información es relevante o está conectado a varios conceptos, [3] incluyendo restricción , comunicación , control , datos , forma , educación , conocimiento , significado , comprensión , estímulos mentales , patrón , percepción , proposición , representación y entropía .

La información a menudo se procesa de forma iterativa: los datos disponibles en un paso se procesan en información que se interpretará y procesará en el siguiente paso. Por ejemplo, en un texto escrito cada símbolo o letra transmite información relevante a la palabra de la que forma parte, cada palabra transmite información relevante a la frase de la que forma parte, cada frase transmite información relevante a la oración de la que forma parte, y así sucesivamente. hasta que en el paso final la información se interpreta y se convierte en conocimiento en un dominio determinado . En una señal digital , los bits pueden interpretarse en símbolos, letras, números o estructuras que transmiten la información disponible en el siguiente nivel. La característica clave de la información es que está sujeta a interpretación y procesamiento.

La derivación de información a partir de una señal o mensaje puede considerarse como la resolución de la ambigüedad o incertidumbre que surge durante la interpretación de patrones dentro de la señal o mensaje. [4]

La información puede estructurarse como datos . Los datos redundantes se pueden comprimir hasta un tamaño óptimo, que es el límite teórico de compresión.

La información disponible a través de una recopilación de datos puede derivarse mediante análisis. Por ejemplo, un restaurante recopila datos de cada pedido de un cliente. Esa información puede analizarse para producir conocimiento que se utilice cuando la empresa posteriormente quiera identificar el plato más popular o el menos popular. [5]

La información se puede transmitir en el tiempo, mediante el almacenamiento de datos , y en el espacio, mediante la comunicación y las telecomunicaciones . [6] La información se expresa ya sea como contenido de un mensaje o mediante observación directa o indirecta . Lo que se percibe puede interpretarse como un mensaje en sí mismo y, en ese sentido, toda información siempre se transmite como contenido de un mensaje.

La información se puede codificar en varias formas para su transmisión e interpretación (por ejemplo, la información puede codificarse en una secuencia de signos o transmitirse mediante una señal ). También se puede cifrar para un almacenamiento y comunicación seguros.

La incertidumbre de un evento se mide por su probabilidad de ocurrencia. La incertidumbre es inversamente proporcional a la probabilidad de que ocurra. La teoría de la información aprovecha esto al concluir que eventos más inciertos requieren más información para resolver su incertidumbre. El bit es una unidad típica de información . Es "aquello que reduce la incertidumbre a la mitad". [7] Se pueden utilizar otras unidades como el nat . Por ejemplo, la información codificada en un lanzamiento de moneda "justo" es log 2 (2/1) = 1 bit, y en dos lanzamientos de moneda justo es log 2 (4/1) = 2 bits. Un artículo de Science de 2011 estima que el 97% de la información almacenada tecnológicamente ya estaba en bits digitales en 2007 y que el año 2002 fue el comienzo de la era digital para el almacenamiento de información (con la capacidad de almacenamiento digital superando a la analógica por primera vez). [8]

Definición exacta de información y aplicación digital.

La información se puede definir exactamente mediante la teoría de conjuntos:

"La información es una selección del dominio de la información".

El "dominio de información" es un conjunto que el emisor y el receptor de información deben conocer antes de intercambiar información. La información digital, por ejemplo, consta de bloques de construcción que son todos secuencias numéricas. Cada secuencia numérica representa una selección de su dominio. El remitente y el receptor de información digital (secuencias numéricas) deben conocer el dominio y el formato binario de cada secuencia numérica antes de intercambiar información. Al definir secuencias numéricas en línea, esto sería utilizable de manera sistemática y universal. Antes de intercambiar la secuencia numérica digital, se puede establecer un enlace único y eficiente a su definición en línea. Esta información digital definida en línea (secuencia numérica) sería globalmente comparable y se podría buscar en todo el mundo. [9]

Etimología

La palabra inglesa "información" proviene del francés medio enformacion/informacion/information 'una investigación criminal' y su etimo, el latín informatiō(n) 'concepción, enseñanza, creación'. [10]

En inglés, "información" es un sustantivo masivo incontable .

Teoría de la información

La teoría de la información es el estudio científico de la cuantificación , almacenamiento y comunicación de la información. El campo fue establecido fundamentalmente por los trabajos de Harry Nyquist y Ralph Hartley en la década de 1920, y de Claude Shannon en la década de 1940. El campo se encuentra en la intersección de la teoría de la probabilidad , la estadística , la informática, la mecánica estadística , la ingeniería de la información y la ingeniería eléctrica .

Una medida clave en la teoría de la información es la entropía . La entropía cuantifica la cantidad de incertidumbre involucrada en el valor de una variable aleatoria o el resultado de un proceso aleatorio . Por ejemplo, identificar el resultado de un lanzamiento de moneda justo (con dos resultados igualmente probables) proporciona menos información (menor entropía) que especificar el resultado de una tirada de un dado (con seis resultados igualmente probables). Algunas otras medidas importantes en la teoría de la información son la información mutua , la capacidad del canal, los exponentes de error y la entropía relativa . Los subcampos importantes de la teoría de la información incluyen la codificación fuente , la teoría de la complejidad algorítmica , la teoría algorítmica de la información y la seguridad de la teoría de la información .

Existe otra opinión sobre la definición universal de información. Consiste en el hecho de que el concepto mismo ha cambiado junto con el cambio de las diferentes épocas históricas, y para encontrar tal definición, es necesario encontrar características y patrones estándar de esta transformación. Por ejemplo, los investigadores en el campo de la información Petrichenko EA y Semenova VG, basándose en un análisis retrospectivo de los cambios en el concepto de información, dan la siguiente definición universal: "La información es una forma de transmisión de la experiencia humana (conocimiento)". En su opinión, el cambio en la esencia del concepto de información se produce después de varias tecnologías innovadoras para la transferencia de experiencia (conocimiento), es decir, la aparición de la escritura, la imprenta, las primeras enciclopedias, el telégrafo, el desarrollo de la cibernética, la creación de un microprocesador, Internet, teléfonos inteligentes, etc. Cada nueva forma de transferencia de experiencias es una síntesis de las anteriores. Es por eso que vemos tal variedad de definiciones de información, porque, según la ley de la dialéctica "negación-negación", todas las ideas previas sobre la información están contenidas en una forma "filmada" y en su representación moderna. [11]

Las aplicaciones de temas fundamentales de la teoría de la información incluyen codificación de fuente/ compresión de datos (por ejemplo, para archivos ZIP ) y codificación de canales/ detección y corrección de errores (por ejemplo, para DSL ). Su impacto ha sido crucial para el éxito de las misiones Voyager al espacio profundo, la invención del disco compacto , la viabilidad de los teléfonos móviles y el desarrollo de Internet. La teoría también ha encontrado aplicaciones en otras áreas, incluida la inferencia estadística , [12] criptografía , neurobiología , [13] percepción , [14] lingüística, la evolución [15] y función [16] de códigos moleculares ( bioinformática ), física térmica. , [17] computación cuántica , agujeros negros , recuperación de información , recopilación de inteligencia , detección de plagio , [18] reconocimiento de patrones , detección de anomalías [19] e incluso creación de arte.

Como entrada sensorial

A menudo la información puede verse como un tipo de entrada a un organismo o sistema . Los insumos son de dos tipos; Algunas entradas son importantes para el funcionamiento del organismo (por ejemplo, alimentos) o del sistema ( energía ) por sí mismas. En su libro Sensory Ecology [20], el biofísico David B. Dusenbery los denominó entradas causales. Otros insumos (información) son importantes sólo porque están asociados con insumos causales y pueden usarse para predecir la ocurrencia de un insumo causal en un momento posterior (y tal vez en otro lugar). Alguna información es importante debido a su asociación con otra información, pero eventualmente debe haber una conexión con una entrada causal.

En la práctica, la información suele ser transportada por estímulos débiles que deben ser detectados por sistemas sensoriales especializados y amplificados mediante entradas de energía antes de que puedan ser funcionales para el organismo o sistema. Por ejemplo, la luz es principalmente (pero no sólo, por ejemplo, las plantas pueden crecer en la dirección de la fuente de luz) un insumo causal para las plantas, pero para los animales sólo proporciona información. La luz coloreada reflejada por una flor es demasiado débil para la fotosíntesis, pero el sistema visual de la abeja la detecta y el sistema nervioso de la abeja utiliza la información para guiar a la abeja hasta la flor, donde la abeja a menudo encuentra néctar o polen, que son aportes causales. , una función nutricional.

Como representación y complejidad

El científico cognitivo y matemático aplicado Ronaldo Vigo sostiene que la información es un concepto que requiere al menos dos entidades relacionadas para tener sentido cuantitativo. Estos son cualquier categoría de objetos S definida dimensionalmente, y cualquiera de sus subconjuntos R. R, en esencia, es una representación de S o, en otras palabras, transmite información representacional (y por tanto, conceptual) sobre S. Vigo luego define la cantidad de información que R transmite sobre S como la tasa de cambio en la complejidad de S siempre que los objetos en R se eliminan de S. En "Información de Vigo", patrón, invariancia, complejidad, representación e información: cinco construcciones fundamentales de ciencia universal – están unificados bajo un marco matemático novedoso. [21] [22] [23] Entre otras cosas, el marco tiene como objetivo superar las limitaciones de la información de Shannon-Weaver al intentar caracterizar y medir información subjetiva.

Como sustituto de la tarea desperdiciada en tiempo, energía y material.

Michael Grieves ha propuesto que la información debería centrarse en lo que hace, en lugar de definir qué es. Grieves ha propuesto [24] que la información puede sustituir los recursos físicos, el tiempo, la energía y el material desperdiciados en tareas orientadas a objetivos. Las tareas orientadas a objetivos se pueden dividir en dos componentes: el uso más rentable de los recursos físicos: tiempo, energía y material, y el uso adicional de los recursos físicos utilizados por la tarea. Esta segunda categoría son, por definición, recursos físicos desperdiciados. La información no sustituye ni reemplaza el uso más rentable de los recursos físicos, pero puede utilizarse para reemplazar los recursos físicos desperdiciados. La condición bajo la cual esto ocurre es que el costo de la información sea menor que el costo de los recursos físicos desperdiciados. Dado que la información es un bien no rival, esto puede resultar especialmente beneficioso para tareas repetibles. En la fabricación, la categoría de tareas de uso más rentable de los recursos físicos se denomina fabricación ajustada.

Como influencia que conduce a la transformación

Información es cualquier tipo de patrón que influye en la formación o transformación de otros patrones. [25] [26] En este sentido, no hay necesidad de que una mente consciente perciba, y mucho menos aprecie, el patrón. Consideremos, por ejemplo, el ADN . La secuencia de nucleótidos es un patrón que influye en la formación y desarrollo de un organismo sin necesidad de una mente consciente. Sin embargo, se podría argumentar que para que un ser humano defina conscientemente un patrón, por ejemplo un nucleótido, naturalmente implica el procesamiento consciente de la información. Sin embargo, la existencia de organismos unicelulares y multicelulares , con la compleja bioquímica que conduce, entre otros eventos, a la existencia de enzimas y polinucleótidos que interactúan manteniendo el orden biológico y participando en el desarrollo de los organismos multicelulares, precede por millones de años al surgimiento. de la conciencia humana y la creación de la cultura científica que produjo la nomenclatura química.

La teoría de sistemas a veces parece referirse a la información en este sentido, asumiendo que la información no involucra necesariamente ninguna mente consciente, y que los patrones que circulan (debido a la retroalimentación ) en el sistema pueden denominarse información. En otras palabras, se puede decir que la información en este sentido es algo potencialmente percibido como representación, aunque no creado o presentado con ese propósito. Por ejemplo, Gregory Bateson define "información" como una "diferencia que marca la diferencia". [27]

Sin embargo, si la premisa de "influencia" implica que la información ha sido percibida por una mente consciente y también interpretada por ella, el contexto específico asociado con esta interpretación puede provocar la transformación de la información en conocimiento . Las definiciones complejas tanto de "información" como de "conocimiento" dificultan dicho análisis semántico y lógico, pero la condición de "transformación" es un punto importante en el estudio de la información en su relación con el conocimiento, especialmente en la disciplina empresarial de la gestión del conocimiento . En esta práctica, se utilizan herramientas y procesos para ayudar a un trabajador del conocimiento a realizar investigaciones y tomar decisiones, incluidos pasos tales como:

Stewart (2001) sostiene que la transformación de información en conocimiento es fundamental y constituye el núcleo de la creación de valor y la ventaja competitiva de la empresa moderna.

En un marco biológico, Mizraji [28] ha descrito la información como una entidad que emerge de la interacción de patrones con sistemas receptores (por ejemplo: en receptores moleculares o neuronales capaces de interactuar con patrones específicos, la información emerge de esas interacciones). Además, ha incorporado la idea de "catalizadores de información", estructuras donde la información emergente promueve la transición del reconocimiento de patrones a la acción dirigida a un objetivo (por ejemplo, la transformación específica de un sustrato en un producto mediante una enzima, o la recepción auditiva de palabras y la producción de una respuesta oral)

El Diccionario Danés de Términos de Información [29] sostiene que la información sólo proporciona una respuesta a una pregunta planteada. Que la respuesta proporcione conocimiento depende de la persona informada. Por lo que una definición generalizada del concepto debería ser: "Información" = Respuesta a una pregunta específica".

Cuando Marshall McLuhan habla de los medios y sus efectos en las culturas humanas, se refiere a la estructura de los artefactos que a su vez dan forma a nuestros comportamientos y mentalidades. Además, a menudo se dice que las feromonas son "información" en este sentido.

Información mediada tecnológicamente

Estas secciones utilizan mediciones de datos en lugar de información, ya que la información no se puede medir directamente.

A partir de 2007

Se estima que la capacidad tecnológica mundial para almacenar información creció de 2,6 exabytes (óptimamente comprimidos) en 1986 –que es el equivalente informativo a menos de un CD-ROM de 730 MB por persona (539 MB por persona)– a 295 (óptimamente comprimidos) comprimidos) exabytes en 2007. [8] Esto es el equivalente informativo de casi 61 CD-ROM por persona en 2007. [6]

La capacidad tecnológica combinada del mundo para recibir información a través de redes de transmisión unidireccionales fue el equivalente informativo de 174 periódicos por persona por día en 2007. [8]

La capacidad efectiva combinada del mundo para intercambiar información a través de redes de telecomunicaciones bidireccionales fue el equivalente informativo de 6 periódicos por persona por día en 2007. [6]

En 2007, se estima que el 90% de toda la información nueva es digital, en su mayor parte almacenada en discos duros. [30]

A partir de 2020

Se pronostica que la cantidad total de datos creados, capturados, copiados y consumidos a nivel mundial aumentará rápidamente, alcanzando los 64,2 zettabytes en 2020. Durante los próximos cinco años hasta 2025, se proyecta que la creación global de datos crecerá a más de 180 zettabytes. [31]

Como registros

Los registros son formas especializadas de información. Esencialmente, los registros son información producida conscientemente o como subproducto de actividades o transacciones comerciales y retenida debido a su valor. Principalmente, su valor es como evidencia de las actividades de la organización, pero también pueden conservarse por su valor informativo. La buena gestión de registros [32] garantiza que la integridad de los registros se preserve durante el tiempo que sea necesario.

La norma internacional sobre gestión de registros, ISO 15489, define los registros como "información creada, recibida y mantenida como evidencia e información por una organización o persona, en cumplimiento de obligaciones legales o en la transacción de negocios". [33] El Comité sobre registros electrónicos del Comité Internacional de Archivos (ICA) definió un registro como "información registrada producida o recibida al inicio, realización o finalización de una actividad institucional o individual y que comprende contenido, contexto y estructura suficientes para proporcionar evidencia de la actividad”. [34]

Se pueden mantener registros para conservar la memoria corporativa de la organización o para cumplir con requisitos legales, fiscales o de rendición de cuentas impuestos a la organización. Willis expresó la opinión de que una gestión sólida de los registros y la información empresarial ofrecía "...seis requisitos clave para un buen gobierno corporativo ...transparencia; rendición de cuentas; debido proceso; cumplimiento; cumplimiento de los requisitos legales y del derecho común; y seguridad de la información personal y corporativa". ". [35]

Semiótica

Michael Buckland ha clasificado la "información" en términos de sus usos: "información como proceso", "información como conocimiento" e "información como cosa". [36]

Beynon-Davies [37] [38] explica el concepto multifacético de información en términos de señales y sistemas señal-señal. Los signos mismos pueden considerarse en términos de cuatro niveles, capas o ramas interdependientes de la semiótica : pragmática, semántica, sintaxis y empírica. Estas cuatro capas sirven para conectar el mundo social, por un lado, con el mundo físico o técnico, por el otro.

La pragmática se ocupa del propósito de la comunicación. La pragmática vincula la cuestión de los signos con el contexto en el que se utilizan los signos. El foco de la pragmática está en las intenciones de los agentes vivos que subyacen al comportamiento comunicativo. En otras palabras, la pragmática vincula el lenguaje con la acción.

La semántica se ocupa del significado de un mensaje transmitido en un acto comunicativo. La semántica considera el contenido de la comunicación. La semántica es el estudio del significado de los signos: la asociación entre signos y comportamiento. La semántica puede considerarse como el estudio del vínculo entre los símbolos y sus referentes o conceptos, en particular la forma en que los signos se relacionan con el comportamiento humano.

La sintaxis se ocupa del formalismo utilizado para representar un mensaje. La sintaxis como área estudia la forma de comunicación en términos de la lógica y gramática de los sistemas de signos. La sintaxis se dedica al estudio de la forma más que del contenido de los signos y sistemas de signos.

Nielsen (2008) analiza la relación entre semiótica e información en relación con los diccionarios. Introduce el concepto de costos de información lexicográfica y se refiere al esfuerzo que debe hacer un usuario de un diccionario para primero encontrar y luego comprender datos para poder generar información.

La comunicación normalmente existe dentro del contexto de alguna situación social. La situación social establece el contexto de las intenciones transmitidas (pragmática) y la forma de comunicación. En una situación comunicativa, las intenciones se expresan a través de mensajes que comprenden colecciones de signos interrelacionados tomados de un lenguaje mutuamente comprendido por los agentes involucrados en la comunicación. El entendimiento mutuo implica que los agentes involucrados entienden el lenguaje elegido en términos de su sintaxis y semántica acordadas. El remitente codifica el mensaje en el idioma y lo envía como señales a lo largo de algún canal de comunicación (empírico). El canal de comunicación elegido tiene propiedades inherentes que determinan resultados como la velocidad a la que puede tener lugar la comunicación y a qué distancia.

La aplicación del estudio de la información.

El ciclo de la información (abordado en su conjunto o en sus distintos componentes) es de gran preocupación para la tecnología de la información , los sistemas de información , así como para la ciencia de la información . Estos campos se ocupan de aquellos procesos y técnicas relacionados con la captura de información (a través de sensores ) y generación (mediante computación , formulación o composición), procesamiento (incluyendo codificación, cifrado, compresión, empaquetado), transmisión (incluidos todos los métodos de telecomunicaciones ), presentación (incluidos métodos de visualización / visualización ), almacenamiento (como magnético u óptico, incluidos métodos holográficos ), etc.

La visualización de información (abreviada como InfoVis) depende del cálculo y la representación digital de los datos y ayuda a los usuarios en el reconocimiento de patrones y la detección de anomalías .

La seguridad de la información (abreviada como InfoSec) es el proceso continuo de ejercer la debida diligencia para proteger la información y los sistemas de información del acceso, uso, divulgación, destrucción, modificación, interrupción o distribución no autorizados, a través de algoritmos y procedimientos enfocados en el monitoreo y la detección, como así como respuesta y reparación de incidentes.

El análisis de la información es el proceso de inspeccionar, transformar y modelar información, convirtiendo datos sin procesar en conocimiento procesable, en apoyo del proceso de toma de decisiones.

La calidad de la información (abreviada como InfoQ) es el potencial de un conjunto de datos para lograr un objetivo específico (científico o práctico) utilizando un método de análisis empírico determinado.

La comunicación de la información representa la convergencia de la informática, las telecomunicaciones y los medios y contenidos audiovisuales.

Ver también

Referencias

  1. ^ John B.Anderson; Rolf Johnnesson (1996). Comprender la transmisión de información . Prensa IEEE. ISBN 978-0471711209.
  2. ^ Hubert P. Yockey (2005). Teoría de la información, evolución y origen de la vida . Prensa de la Universidad de Cambridge. pag. 7.ISBN _ 978-0511546433.
  3. ^ Luciano Floridi (2010). Información: una introducción muy breve. Prensa de la Universidad de Oxford. ISBN 978-0-19-160954-1.
  4. ^ Webler, Forrest (25 de febrero de 2022). "Medición en la era de la información". Información . 13 (3): 111. doi : 10.3390/info13030111 .
  5. ^ "¿Cuál es la diferencia entre datos e información?". PORJUS . 21 de julio de 2020 . Consultado el 5 de agosto de 2021 .
  6. ^ abc "World_info_capacity_animation". YouTube . 11 de junio de 2011. Archivado desde el original el 21 de diciembre de 2021 . Consultado el 1 de mayo de 2017 .
  7. ^ "DT&SC 4-5: Introducción a la teoría de la información, curso en línea". YouTube . Universidad de California. 2015.
  8. ^ a b C Hilbert, Martín; López, Priscila (2011). "La capacidad tecnológica del mundo para almacenar, comunicar y calcular información". Ciencia . 332 (6025): 60–65. Código Bib : 2011 Ciencia... 332... 60H. doi : 10.1126/ciencia.1200970 . PMID  21310967. S2CID  206531385.Acceso gratuito al artículo en martinhilbert.net/WorldInfoCapacity.html
  9. ^ Orthuber, Wolfgang (16 de mayo de 2022). "Podemos definir el dominio de la información en línea y, por tanto, de manera global y uniforme". Información. 13(5), 256. https://doi.org/10.3390/info13050256.
  10. ^ Oxford English Dictionary , tercera edición, 2009, texto completo
  11. ^ Semenova, Verónica; Petrichenko, Evgeny (2022). "Información: la historia de la noción, su presente y futuro". Universidad Izvestia. La región del Cáucaso Norte. Serie: Ciencias Sociales . 1 (213): 16–26. doi :10.18522/2687-0770-2022-1-16-26. ISSN  2687-0770. S2CID  249796993.
  12. ^ Burnham, KP y Anderson DR (2002) Selección de modelos e inferencia multimodelo: un enfoque práctico de teoría de la información, segunda edición (Springer Science, Nueva York) ISBN 978-0-387-95364-9
  13. ^ F. Rieke; D. Warland; R Ruyter van Steveninck; W. Bialek (1997). Spikes: explorando el código neuronal . La prensa del MIT. ISBN 978-0262681087.
  14. ^ Delgado-Bonal, Alfonso; Martín-Torres, Javier (3 de noviembre de 2016). "La visión humana se determina con base en la teoría de la información". Informes científicos . 6 (1): 36038. Código bibliográfico : 2016NatSR...636038D. doi :10.1038/srep36038. ISSN  2045-2322. PMC 5093619 . PMID  27808236. 
  15. ^ ver; Huelsenbeck, JP; Ronquist, F.; Nielsen, R.; Bolback, JP (2001). "Inferencia bayesiana de la filogenia y su impacto en la biología evolutiva". Ciencia . 294 (5550): 2310–2314. Código Bib : 2001 Ciencia... 294.2310H. doi : 10.1126/ciencia.1065889. PMID  11743192. S2CID  2138288.
  16. ^ Allikmets, Rando; Wasserman, Wyeth W.; Hutchinson, Amy; Smallwood, Felipe; Nathans, Jeremy; Rogan, Peter K. (1998). "Thomas D. Schneider], Michael Dean (1998) Organización del gen ABCR: análisis de secuencias de unión de empalme y promotor". Gen. _ 215 (1): 111-122. doi : 10.1016/s0378-1119(98)00269-8 . PMID  9666097.
  17. ^ Jaynes, et (1957). "Teoría de la información y mecánica estadística". Física. Rdo . 106 (4): 620. Código bibliográfico : 1957PhRv..106..620J. doi : 10.1103/physrev.106.620. S2CID  17870175.
  18. ^ Bennett, Charles H.; Li, Ming; Mamá, Bin (2003). "Cartas en cadena e historias evolutivas". Científico americano . 288 (6): 76–81. Código Bib : 2003SciAm.288f..76B. doi : 10.1038/scientificamerican0603-76. PMID  12764940. Archivado desde el original el 7 de octubre de 2007 . Consultado el 11 de marzo de 2008 .
  19. ^ David R. Anderson (1 de noviembre de 2003). "Algunos antecedentes sobre por qué las personas en las ciencias empíricas pueden querer comprender mejor los métodos de la teoría de la información" (PDF) . Archivado desde el original (PDF) el 23 de julio de 2011 . Consultado el 23 de junio de 2010 .
  20. ^ Dusenbery, David B. (1992). Ecología Sensorial . Nueva York: WH Freeman. ISBN 978-0-7167-2333-2.
  21. Vigo, R. (2011). «Información representacional: una nueva noción general y medida de información» (PDF) . Ciencias de la Información . 181 (21): 4847–4859. doi :10.1016/j.ins.2011.05.020.
  22. Vigo, R. (2013). "Complejidad sobre incertidumbre en la teoría de la información representacional generalizada (GRIT): una teoría general de la información sensible a la estructura". Información . 4 (1): 1–30. doi : 10.3390/info4010001 .
  23. Vigo, R. (2014). Principios matemáticos del comportamiento conceptual humano: la naturaleza estructural de la representación y el procesamiento conceptuales . Nueva York y Londres: Serie de Psicología Científica, Routledge. ISBN 978-0415714365.
  24. ^ Se aflige, Michael (2006). Gestión del ciclo de vida del producto: impulsando la próxima generación de pensamiento Lean . Nueva York: McGraw Hill. págs. 6-12. ISBN 0-07-145230-3.
  25. ^ Shannon, Claude E. (1949). La teoria matematica de la comunicacion .
  26. ^ Casagrande, David (1999). "Información como verbo: Reconceptualización de la información para modelos cognitivos y ecológicos" (PDF) . Revista de Antropología Ecológica . 3 (1): 4–13. doi : 10.5038/2162-4593.3.1.1 .
  27. ^ Bateson, Gregorio (1972). Forma, sustancia y diferencia, en pasos hacia una ecología de la mente . Prensa de la Universidad de Chicago. págs. 448–466.
  28. ^ Mizraji, E. (2021). "Los demonios biológicos de Maxwell: explorando ideas sobre el procesamiento de la información en sistemas biológicos". Teoría en Biociencias . 140 (3): 307–318. doi :10.1007/s12064-021-00354-6. PMC 8568868 . PMID  34449033. 
  29. ^ Simonsen, Bo Krantz. "Informationsordbogen - vis begreb". Informaciónsordbogen.dk . Consultado el 1 de mayo de 2017 .
  30. ^ Tendencias de fallas en una población de unidades de disco grandes. Eduardo Pinheiro, Wolf-Dietrich Weber y Luiz André Barroso
  31. ^ "Volumen total de datos en todo el mundo 2010-2025". Estatista . Consultado el 6 de agosto de 2021 .
  32. ^ "¿Qué es la gestión de registros?" . Consultado el 29 de enero de 2021 .
  33. ^ ISO 15489
  34. ^ Comité de Registros Electrónicos (febrero de 1997). "Guía para la gestión de registros electrónicos desde una perspectiva archivística" (PDF) . www.ica.org . Comité Internacional de Archivos. pag. 22 . Consultado el 9 de febrero de 2019 .
  35. ^ Willis, Anthony (1 de agosto de 2005). "Gobierno corporativo y gestión de la información y registros". Diario de gestión de registros . 15 (2): 86–97. doi :10.1108/09565690510614238.
  36. ^ Buckland, Michael K. (junio de 1991). "La información como cosa". Revista de la Sociedad Estadounidense de Ciencias de la Información . 42 (5): 351–360. doi :10.1002/(SICI)1097-4571(199106)42:5<351::AID-ASI5>3.0.CO;2-3.
  37. ^ Beynon-Davies, P. (2002). Sistemas de Información: una introducción a la informática en las Organizaciones . Basingstoke, Reino Unido: Palgrave. ISBN 978-0-333-96390-6.
  38. ^ Beynon-Davies, P. (2009). Sistemas de Información Empresarial . Basingstoke: Palgrave. ISBN 978-0-230-20368-6.

Otras lecturas

enlaces externos