stringtranslate.com

Burbuja de filtro

Las redes sociales aíslan inadvertidamente a los usuarios en sus propias burbujas de filtros ideológicos, según el activista de Internet Eli Pariser

Una burbuja de filtro o marco ideológico es un estado de aislamiento intelectual [1] que puede resultar de búsquedas personalizadas , sistemas de recomendación y curación algorítmica . Los resultados de búsqueda se basan en información sobre el usuario, como su ubicación, comportamiento de clic anterior e historial de búsqueda. [2] En consecuencia, los usuarios se separan de la información que no coincide con sus puntos de vista, aislándolos efectivamente en sus propias burbujas culturales o ideológicas, lo que resulta en una visión limitada y personalizada del mundo. [3] Las elecciones que hacen estos algoritmos solo a veces son transparentes. [4] Los principales ejemplos incluyen los resultados de búsqueda personalizados de Google y el flujo de noticias personalizado de Facebook.

Sin embargo, existen informes contradictorios sobre hasta qué punto se produce el filtrado personalizado y si dicha actividad es beneficiosa o perjudicial, y varios estudios producen resultados no concluyentes.

El término burbuja de filtro fue acuñado por el activista de Internet Eli Pariser alrededor de 2010. En el influyente libro de Pariser bajo el mismo nombre, The Filter Bubble (2011), se predijo que la personalización individualizada por filtrado algorítmico conduciría al aislamiento intelectual y la fragmentación social. [5] El efecto burbuja puede tener implicaciones negativas para el discurso cívico , según Pariser, pero puntos de vista contrastantes consideran que el efecto es mínimo [6] y abordable. [7] Según Pariser, los usuarios tienen menos exposición a puntos de vista conflictivos y están aislados intelectualmente en su burbuja informativa. [8] Relató un ejemplo en el que un usuario buscó "BP" en Google y obtuvo noticias de inversión sobre BP , mientras que otro buscador obtuvo información sobre el derrame de petróleo de Deepwater Horizon , señalando que las dos páginas de resultados de búsqueda eran "notablemente diferentes" a pesar del uso de las mismas palabras clave. [8] [9] [10] [6] Los resultados de las elecciones presidenciales de Estados Unidos en 2016 se han asociado con la influencia de plataformas de redes sociales como Twitter y Facebook, [11] y como resultado han puesto en tela de juicio los efectos del fenómeno de la "burbuja de filtros" en la exposición de los usuarios a noticias falsas y cámaras de eco , [12] estimulando un nuevo interés en el término, [13] y muchos están preocupados de que el fenómeno pueda dañar la democracia y el bienestar al empeorar los efectos de la desinformación. [14] [15] [13] [16] [17] [18]

Concepto

El término “burbuja de filtro” fue acuñado por el activista de Internet Eli Pariser, alrededor de 2010.

Pariser definió su concepto de burbuja de filtro en términos más formales como "ese ecosistema personal de información que ha sido abastecido por estos algoritmos". [8] El historial de navegación y búsqueda anterior de un usuario de Internet se construye con el tiempo cuando indica interés en temas al "hacer clic en enlaces, ver amigos, poner películas en [su] cola, leer noticias", etc. [19] Una empresa de Internet luego utiliza esta información para orientar la publicidad al usuario o hacer que ciertos tipos de información aparezcan de manera más destacada en las páginas de resultados de búsqueda . [19]

Este proceso no es aleatorio, ya que funciona en tres pasos, según Pariser, quien afirma: "Primero, se descubre quiénes son las personas y qué les gusta. Luego, se les proporciona el contenido y los servicios que mejor se adaptan a ellas. Por último, se sintoniza para encontrar el ajuste perfecto. Su identidad da forma a sus medios". [20] Pariser también informa:

Según un estudio del Wall Street Journal , los cincuenta sitios de Internet más importantes, desde CNN hasta Yahoo y MSN , instalan una media de 64 cookies y balizas de seguimiento personales cargadas de datos. Si busca una palabra como "depresión" en Dictionary.com, el sitio instala hasta 223 cookies y balizas de seguimiento en su ordenador para que otros sitios web puedan ofrecerle antidepresivos. Si comparte un artículo sobre cocina en ABC News, puede que le persigan por toda la Web anuncios de ollas revestidas de teflón. Abra, aunque sea por un instante, una página que enumere las señales de que su cónyuge puede estar engañándole y prepárese para que le acosen los anuncios de pruebas de paternidad de ADN. [21]

El acceso a los datos de clics en enlaces que se muestran a través de las mediciones de tráfico del sitio determina que las burbujas de filtro pueden ser colectivas o individuales. [22]

En 2011, un ingeniero le dijo a Pariser que Google analizaba 57 datos diferentes para personalizar los resultados de búsqueda de un usuario, incluidos datos que no eran cookies, como el tipo de computadora utilizada y la ubicación física del usuario. [23]

La idea de Pariser de la burbuja de filtro se popularizó después de la charla TED de mayo de 2011, en la que dio ejemplos de cómo funcionan las burbujas de filtro y dónde se pueden ver. En una prueba que buscaba demostrar el efecto de la burbuja de filtro, Pariser pidió a varios amigos que buscaran la palabra "Egipto" en Google y le enviaran los resultados. Al comparar las primeras páginas de resultados de dos de los amigos, si bien había superposición entre ellos en temas como noticias y viajes, los resultados de un amigo incluían de manera destacada enlaces a información sobre la revolución egipcia de 2011 , que estaba en curso en ese momento , mientras que la primera página de resultados del otro amigo no incluía tales enlaces. [24]

En The Filter Bubble , Pariser advierte que una posible desventaja de la búsqueda filtrada es que "nos cierra a nuevas ideas, temas e información importante" [25] y "crea la impresión de que nuestro estrecho interés personal es todo lo que existe". [9] En su opinión, las burbujas de filtro son potencialmente dañinas tanto para los individuos como para la sociedad. Criticó a Google y Facebook por ofrecer a los usuarios "demasiados dulces y no suficientes zanahorias". [26] Advirtió que la "edición algorítmica invisible de la web" puede limitar nuestra exposición a nueva información y limitar nuestra perspectiva. [26] Según Pariser, los efectos perjudiciales de las burbujas de filtro incluyen el daño a la sociedad en general en el sentido de que tienen la posibilidad de "socavar el discurso cívico" y hacer que las personas sean más vulnerables a la "propaganda y la manipulación". [9] Escribió:

Un mundo construido a partir de lo familiar es un mundo en el que no hay nada que aprender... (ya que hay) autopropaganda invisible que nos adoctrina con nuestras propias ideas.

—  Eli Pariser en The Economist , 2011 [27]

Mucha gente ni siquiera sabe que existen las burbujas de filtro. Esto se puede comprobar en un artículo de The Guardian, que menciona el hecho de que "más del 60% de los usuarios de Facebook desconocen por completo la existencia de un sistema de curación de contenidos en Facebook, y creen que todas las historias de sus amigos y páginas seguidas aparecen en su sección de noticias". [28] Una breve explicación de cómo Facebook decide qué se publica en la sección de noticias de un usuario es a través de un algoritmo que tiene en cuenta "cómo ha interactuado con publicaciones similares en el pasado". [28]

Extensiones de concepto

Se ha dicho que la burbuja de filtros exacerba un fenómeno llamado splinternet o ciberbalcanización [Nota 1] , que ocurre cuando Internet se divide en subgrupos de personas con ideas afines que quedan aisladas dentro de su propia comunidad en línea y no logran exponerse a diferentes puntos de vista. Esta preocupación se remonta a los primeros días de Internet de acceso público, cuando el término "ciberbalcanización" se acuñó en 1996. [29] [30] [31] Se han utilizado otros términos para describir este fenómeno, incluidos " marcos ideológicos " [9] y "la esfera figurativa que te rodea mientras buscas en Internet". [19]

El concepto de burbuja de filtro se ha extendido a otras áreas para describir sociedades que se autosegregan según opiniones políticas pero también situaciones económicas, sociales y culturales. [32] Esa burbuja da como resultado una pérdida de la comunidad más amplia y crea la sensación de que, por ejemplo, los niños no tienen cabida en eventos sociales a menos que esos eventos hayan sido especialmente planificados para ser atractivos para los niños y poco atractivos para los adultos sin niños. [32]

El discurso de despedida de Barack Obama identificó un concepto similar al de las burbujas de filtro como una "amenaza a la democracia [de los estadounidenses]", es decir, el "refugio en nuestras propias burbujas, ... especialmente en nuestros canales de redes sociales, rodeados de personas que se parecen a nosotros y comparten la misma perspectiva política y nunca desafían nuestras suposiciones... Y cada vez más, nos volvemos tan seguros en nuestras burbujas que comenzamos a aceptar solo información, sea verdadera o no, que se ajuste a nuestras opiniones, en lugar de basar nuestras opiniones en la evidencia que está ahí afuera". [33]

Comparación con cámaras de eco

Tanto las "cámaras de eco" como las "burbujas de filtro" describen situaciones en las que los individuos están expuestos a un rango estrecho de opiniones y perspectivas que refuerzan sus creencias y prejuicios existentes, pero hay algunas diferencias sutiles entre ambas, especialmente en las prácticas relacionadas con las redes sociales. [34] [35]

En el caso específico de los medios de comunicación , una cámara de eco es una descripción metafórica de una situación en la que las creencias se amplifican o refuerzan mediante la comunicación y la repetición dentro de un sistema cerrado. [36] [37] Basado en el concepto sociológico de la teoría de la exposición selectiva , el término es una metáfora basada en la cámara de eco acústica, donde los sonidos resuenan en un recinto hueco. En lo que respecta a las redes sociales, este tipo de situación alimenta mecanismos explícitos de personalización autoseleccionada , que describe todos los procesos en los que los usuarios de una plataforma determinada pueden optar activamente por consumir información o no, como la capacidad de un usuario de seguir a otros usuarios o seleccionar grupos. [38]

En una cámara de eco, las personas pueden buscar información que refuerce sus puntos de vista existentes, potencialmente como un ejercicio inconsciente de sesgo de confirmación . Este tipo de regulación de la retroalimentación puede aumentar la polarización política y social y el extremismo. Esto puede llevar a que los usuarios se agrupen en grupos homofílicos dentro de las redes sociales, lo que contribuye a la polarización grupal. [39] Las "cámaras de eco" refuerzan las creencias de un individuo sin respaldo fáctico. Los individuos están rodeados de personas que reconocen y siguen los mismos puntos de vista, pero también poseen la capacidad de salir de las cámaras de eco. [40]

Por otra parte, las burbujas de filtro son mecanismos implícitos de personalización preseleccionada , donde el consumo de medios de un usuario es creado por algoritmos personalizados; el contenido que ve un usuario se filtra a través de un algoritmo impulsado por IA que refuerza sus creencias y preferencias existentes, excluyendo potencialmente perspectivas contrarias o diversas. En este caso, los usuarios tienen un papel más pasivo y son percibidos como víctimas de una tecnología que limita automáticamente su exposición a información que desafiaría su visión del mundo. [38] Algunos investigadores argumentan, sin embargo, que debido a que los usuarios todavía juegan un papel activo en la curaduría selectiva de sus propios canales de noticias y fuentes de información a través de sus interacciones con motores de búsqueda y redes sociales, ayudan directamente en el proceso de filtrado por algoritmos impulsados ​​​​por IA, participando así efectivamente en burbujas de filtro autosegregantes. [41]

A pesar de sus diferencias, el uso de estos términos va de la mano tanto en los estudios académicos como en los de plataformas. A menudo es difícil distinguir entre los dos conceptos en los estudios de redes sociales, debido a las limitaciones en la accesibilidad de los algoritmos de filtrado, que tal vez podrían permitir a los investigadores comparar y contrastar las agencias de los dos conceptos. [42] Este tipo de investigación seguirá siendo cada vez más difícil de realizar, ya que muchas redes sociales también han comenzado a limitar el acceso a las API necesarias para la investigación académica. [43]

Reacciones y estudios

Reacciones de los medios

Existen informes contradictorios sobre el grado en que se produce el filtrado personalizado y si dicha actividad es beneficiosa o perjudicial. El analista Jacob Weisberg, escribiendo en junio de 2011 para Slate , realizó un pequeño experimento no científico para probar la teoría de Pariser que involucró a cinco asociados con diferentes antecedentes ideológicos que realizaron una serie de búsquedas, " John Boehner ", " Barney Frank ", " Plan Ryan " y " Obamacare ", y enviaron a Weisberg capturas de pantalla de sus resultados. Los resultados variaron solo en aspectos menores de persona a persona, y cualquier diferencia no pareció estar relacionada con la ideología, lo que llevó a Weisberg a concluir que no estaba en efecto una burbuja de filtros y a escribir que la idea de que la mayoría de los usuarios de Internet estaban "alimentándose del comedero de un Daily Me " era exagerada. [9] Weisberg le pidió a Google que comentara, y un portavoz declaró que los algoritmos estaban en su lugar para deliberadamente "limitar la personalización y promover la variedad". [9] El crítico de libros Paul Boutin realizó un experimento similar al de Weisberg entre personas con diferentes historiales de búsqueda y nuevamente descubrió que los diferentes buscadores recibían resultados de búsqueda casi idénticos. [6] Al entrevistar a programadores de Google, de manera extraoficial, el periodista Per Grankvist  [sv] descubrió que los datos de los usuarios solían desempeñar un papel más importante en la determinación de los resultados de búsqueda, pero que Google, a través de pruebas, descubrió que la consulta de búsqueda es, por lejos, el mejor determinante de qué resultados mostrar. [44]

Hay informes de que Google y otros sitios mantienen vastos "dossiers" de información sobre sus usuarios, lo que podría permitirles personalizar aún más las experiencias individuales en Internet si así lo deciden. Por ejemplo, existe la tecnología para que Google realice un seguimiento de los historiales de los usuarios incluso si no tienen una cuenta personal de Google o no han iniciado sesión en una. [6] Un informe afirmó que Google había recopilado "10 años" de información acumulada de diversas fuentes, como Gmail , Google Maps y otros servicios además de su motor de búsqueda, [10] [ verificación fallida ] aunque un informe contrario fue que intentar personalizar Internet para cada usuario era técnicamente un desafío para una empresa de Internet a pesar de las enormes cantidades de datos disponibles. [ cita requerida ] El analista Doug Gross de CNN sugirió que la búsqueda filtrada parecía ser más útil para los consumidores que para los ciudadanos , y ayudaría a un consumidor que busca "pizza" a encontrar opciones de entrega local basadas en una búsqueda personalizada y filtrar adecuadamente las pizzerías distantes. [10] [ verificación fallida ] Organizaciones como el Washington Post , The New York Times y otras han experimentado con la creación de nuevos servicios de información personalizados, con el objetivo de adaptar los resultados de búsqueda a aquellos que probablemente agraden a los usuarios o con los que estén de acuerdo. [9]

Estudios y reacciones de la academia

Un estudio científico de Wharton que analizó las recomendaciones personalizadas también descubrió que estos filtros pueden crear puntos en común, no fragmentación, en los gustos musicales en línea. [45] Según se informa, los consumidores utilizan los filtros para ampliar sus gustos en lugar de limitarlos. [45] El profesor de derecho de Harvard Jonathan Zittrain cuestionó el grado en que los filtros de personalización distorsionan los resultados de búsqueda de Google, diciendo que "los efectos de la personalización de búsqueda han sido leves". [9] Además, Google ofrece a los usuarios la posibilidad de desactivar las funciones de personalización si así lo desean [46] eliminando el registro de Google de su historial de búsqueda y configurando Google para que no recuerde sus palabras clave de búsqueda y los enlaces visitados en el futuro. [6]

Un estudio de Internet Policy Review abordó la falta de una definición clara y comprobable de las burbujas de filtro en las distintas disciplinas; esto suele dar lugar a que los investigadores definan y estudien las burbujas de filtro de distintas maneras. [47] Posteriormente, el estudio explicó la falta de datos empíricos sobre la existencia de burbujas de filtro en las distintas disciplinas [12] y sugirió que los efectos que se les atribuyen pueden deberse más a sesgos ideológicos preexistentes que a algoritmos. Se pueden encontrar puntos de vista similares en otros proyectos académicos, que también abordan las preocupaciones sobre las definiciones de burbujas de filtro y las relaciones entre los factores ideológicos y tecnológicos asociados a ellas. [48] Una revisión crítica de las burbujas de filtro sugirió que "la tesis de la burbuja de filtro a menudo postula un tipo especial de humano político que tiene opiniones que son fuertes, pero al mismo tiempo muy maleables" y que es una "paradoja que las personas tengan una agencia activa cuando seleccionan contenido, pero sean receptores pasivos una vez que se exponen al contenido curado algorítmicamente que se les recomienda". [49]

Un estudio realizado por investigadores de Oxford, Stanford y Microsoft examinó los historiales de navegación de 1,2 millones de usuarios estadounidenses del complemento Bing Toolbar para Internet Explorer entre marzo y mayo de 2013. Seleccionaron a 50.000 de esos usuarios que eran consumidores activos de noticias, luego clasificaron si los medios de comunicación que visitaban eran de izquierda o de derecha, basándose en si la mayoría de los votantes en los condados asociados con las direcciones IP de los usuarios votaron por Obama o Romney en la elección presidencial de 2012. Luego identificaron si las noticias se leyeron después de acceder directamente al sitio del editor, a través del servicio de agregación de Google News, búsquedas web o redes sociales. Los investigadores descubrieron que, si bien las búsquedas web y las redes sociales contribuyen a la segregación ideológica, la gran mayoría del consumo de noticias en línea consistía en usuarios que visitaban directamente sitios de noticias de tendencia izquierdista o derechista y, en consecuencia, estaban expuestos casi exclusivamente a opiniones de un solo lado del espectro político. Las limitaciones del estudio incluyeron problemas de selección como que los usuarios de Internet Explorer tenían una mayor inclinación por edad que la población general de Internet; El uso de la barra de herramientas de Bing y la participación voluntaria (o inconsciente) de la selección del historial de navegación por parte de usuarios que están menos preocupados por la privacidad; la suposición de que todas las historias en publicaciones de tendencia izquierdista son de tendencia izquierdista, y lo mismo ocurre con las de tendencia derechista; y la posibilidad de que los usuarios que no son consumidores activos de noticias puedan obtener la mayoría de sus noticias a través de las redes sociales y, por lo tanto, experimentar efectos más fuertes de sesgo social o algorítmico que aquellos usuarios que esencialmente autoseleccionan su sesgo a través de su elección de publicaciones de noticias (asumiendo que son conscientes de los sesgos de las publicaciones). [50]

Un estudio realizado por investigadores de la Universidad de Princeton y la Universidad de Nueva York tuvo como objetivo estudiar el impacto de la burbuja de filtros y el filtrado algorítmico en la polarización de las redes sociales. Utilizaron un modelo matemático llamado " modelo de bloques estocásticos " para probar su hipótesis en los entornos de Reddit y Twitter. Los investigadores midieron los cambios en la polarización en las redes sociales regularizadas y en las redes no regularizadas, midiendo específicamente los cambios porcentuales en la polarización y el desacuerdo en Reddit y Twitter. Descubrieron que la polarización aumentó significativamente en un 400% en las redes no regularizadas, mientras que la polarización aumentó en un 4% en las redes regularizadas y el desacuerdo en un 5%. [51]

Estudios de plataforma

Si bien los algoritmos limitan la diversidad política, algunas de las burbujas de filtro son el resultado de la elección del usuario. [52] Un estudio realizado por científicos de datos de Facebook descubrió que los usuarios tienen un amigo con puntos de vista contrastantes por cada cuatro amigos de Facebook que comparten una ideología. [53] [54] Sin importar cuál sea el algoritmo de Facebook para su News Feed , las personas tienen más probabilidades de hacerse amigos o seguir a personas que comparten creencias similares. [53] La naturaleza del algoritmo es que clasifica las historias en función del historial de un usuario, lo que resulta en una reducción del "contenido políticamente transversal en un 5 por ciento para los conservadores y un 8 por ciento para los liberales". [53] Sin embargo, incluso cuando a las personas se les da la opción de hacer clic en un enlace que ofrece puntos de vista contrastantes, aún así eligen por defecto sus fuentes más vistas. [53] "[L]a elección del usuario disminuye la probabilidad de hacer clic en un enlace transversal en un 17 por ciento para los conservadores y un 6 por ciento para los liberales". [53] Un enlace transversal es aquel que introduce un punto de vista diferente al punto de vista presunto del usuario o lo que el sitio web ha catalogado como las creencias del usuario. [55] Un estudio reciente de Levi Boxell, Matthew Gentzkow y Jesse M. Shapiro sugiere que los medios en línea no son la fuerza impulsora de la polarización política. [56] El documento sostiene que la polarización ha sido impulsada por los grupos demográficos que pasan menos tiempo en línea. La mayor división ideológica se experimenta entre los estadounidenses mayores de 75 años, mientras que solo el 20% informó usar las redes sociales en 2012. En contraste, el 80% de los estadounidenses de 18 a 39 años informaron usar las redes sociales en 2012. Los datos sugieren que el grupo demográfico más joven no está más polarizado en 2012 de lo que lo estaba cuando los medios en línea apenas existían en 1996. El estudio destaca las diferencias entre los grupos de edad y cómo el consumo de noticias sigue polarizado a medida que las personas buscan información que apele a sus preconcepciones. Los estadounidenses mayores suelen permanecer estancados en sus opiniones políticas, ya que los medios de comunicación tradicionales siguen siendo una fuente principal de noticias, mientras que los medios en línea son la principal fuente para el grupo demográfico más joven. Aunque los algoritmos y las burbujas de filtros debilitan la diversidad de contenidos, este estudio revela que las tendencias de polarización política están impulsadas principalmente por opiniones preexistentes y por la incapacidad de reconocer fuentes externas. Un estudio de 2020 realizado en Alemania utilizó el modelo de psicología de los cinco grandes para probar los efectos de la personalidad, la demografía y las ideologías individuales en el consumo de noticias de los usuarios. [57]Basando su estudio en la idea de que la cantidad de fuentes de noticias que consumen los usuarios afecta la probabilidad de que queden atrapados en una burbuja de filtros (y que una mayor diversidad de medios reduce las probabilidades), sus resultados sugieren que ciertos datos demográficos (mayor edad y sexo masculino) junto con ciertos rasgos de personalidad (alta apertura) se correlacionan positivamente con una cantidad de fuentes de noticias consumidas por los individuos. El estudio también encontró una asociación ideológica negativa entre la diversidad de medios y el grado en que los usuarios se alinean con el autoritarismo de derecha. Además de ofrecer diferentes factores individuales de los usuarios que pueden influir en el papel de la elección del usuario, este estudio también plantea preguntas y asociaciones entre la probabilidad de que los usuarios queden atrapados en burbujas de filtros y el comportamiento de voto de los usuarios. [57]

El estudio de Facebook concluyó que no era "concluyente" si el algoritmo desempeñaba un papel tan importante en el filtrado de los canales de noticias como la gente suponía. [58] El estudio también concluyó que la "elección individual", o sesgo de confirmación, también afectaba a lo que se filtraba de los canales de noticias. [58] Algunos científicos sociales criticaron esta conclusión porque el objetivo de protestar contra la burbuja de filtros es que los algoritmos y la elección individual trabajan juntos para filtrar los canales de noticias. [59] También criticaron el pequeño tamaño de la muestra de Facebook, que es de aproximadamente el "9% de los usuarios reales de Facebook", y el hecho de que los resultados del estudio "no son reproducibles" debido al hecho de que el estudio fue realizado por "científicos de Facebook" que tenían acceso a datos que Facebook no pone a disposición de investigadores externos. [60]

Aunque el estudio encontró que sólo entre el 15 y el 20% de los amigos promedio de Facebook de un usuario se suscriben al lado opuesto del espectro político, Julia Kaman de Vox teorizó que esto podría tener implicaciones potencialmente positivas para la diversidad de puntos de vista. Estos "amigos" suelen ser conocidos con quienes probablemente no compartiríamos nuestra política sin Internet. Facebook puede fomentar un entorno único en el que un usuario ve y posiblemente interactúa con el contenido publicado o republicado por estos amigos de "segundo nivel". El estudio encontró que "el 24 por ciento de las noticias que vieron los liberales eran de tendencia conservadora y el 38 por ciento de las noticias que vieron los conservadores eran de tendencia liberal". [61] "Los liberales tienden a estar conectados con menos amigos que comparten información del otro lado, en comparación con sus contrapartes conservadoras". [62] Esta interacción tiene la capacidad de proporcionar información y fuentes diversas que podrían moderar las opiniones de los usuarios.

De manera similar, un estudio de las burbujas de filtro de Twitter realizado por la Universidad de Nueva York concluyó que "los individuos ahora tienen acceso a una gama más amplia de puntos de vista sobre los eventos noticiosos, y la mayor parte de esta información no llega a través de los canales tradicionales, sino directamente de actores políticos o a través de sus amigos y familiares. Además, la naturaleza interactiva de las redes sociales crea oportunidades para que las personas discutan eventos políticos con sus pares, incluidos aquellos con quienes tienen vínculos sociales débiles". [63] Según estos estudios, las redes sociales pueden estar diversificando la información y las opiniones con las que los usuarios entran en contacto, aunque hay mucha especulación en torno a las burbujas de filtro y su capacidad para crear una polarización política más profunda .

Un factor impulsor y una posible solución al problema es el papel de las emociones en el contenido en línea. Un estudio de 2018 muestra que las diferentes emociones de los mensajes pueden conducir a la polarización o convergencia: la alegría prevalece en la polarización emocional, mientras que la tristeza y el miedo juegan un papel importante en la convergencia emocional. [64] Dado que es relativamente fácil detectar el contenido emocional de los mensajes, estos hallazgos pueden ayudar a diseñar algoritmos más socialmente responsables al comenzar a centrarse en el contenido emocional de las recomendaciones algorítmicas.

Visualización del proceso y el crecimiento de dos bots de redes sociales utilizados en el estudio de Weibo de 2019. Los diagramas representan dos aspectos de la estructura de las burbujas de filtro, según el estudio: grandes concentraciones de usuarios en torno a temas únicos y una estructura unidireccional en forma de estrella que afecta los flujos de información clave.

Los bots sociales han sido utilizados por diferentes investigadores para probar la polarización y los efectos relacionados que se atribuyen a las burbujas de filtro y las cámaras de eco. [65] [66] Un estudio de 2018 utilizó bots sociales en Twitter para probar la exposición deliberada de los usuarios a puntos de vista partidistas. [65] El estudio afirmó que demostró diferencias partidistas entre la exposición a diferentes puntos de vista, aunque advirtió que los hallazgos deberían limitarse a los usuarios estadounidenses de Twitter registrados en el partido. Uno de los principales hallazgos fue que después de la exposición a diferentes puntos de vista (proporcionados por los bots), los republicanos auto-registrados se volvieron más conservadores, mientras que los liberales auto-registrados mostraron menos cambio ideológico o ninguno en absoluto. Un estudio diferente de la República Popular China utilizó bots sociales en Weibo , la plataforma de redes sociales más grande de China, para examinar la estructura de las burbujas de filtro con respecto a sus efectos sobre la polarización. [66] El estudio establece una distinción entre dos concepciones de polarización. Uno de ellos es cuando las personas con puntos de vista similares forman grupos, comparten opiniones similares y se bloquean a sí mismas ante puntos de vista diferentes (polarización de la opinión), y el otro es cuando las personas no tienen acceso a contenidos y fuentes de información diversos (polarización de la información). Al utilizar bots sociales en lugar de voluntarios humanos y centrarse más en la polarización de la información que en la polarización de la opinión, los investigadores concluyeron que hay dos elementos esenciales de una burbuja de filtros: una gran concentración de usuarios en torno a un único tema y una estructura unidireccional, en forma de estrella, que afecta a los flujos de información clave.

En junio de 2018, la plataforma DuckDuckGo realizó un estudio de investigación sobre la plataforma de navegadores web de Google. Para este estudio, 87 adultos en varias ubicaciones de los Estados Unidos continentales buscaron en Google tres palabras clave al mismo tiempo: inmigración, control de armas y vacunas. Incluso en el modo de navegación privada, la mayoría de las personas vieron resultados exclusivos de ellos. Google incluyó ciertos enlaces para algunos que no incluyó para otros participantes, y los cuadros de información de Noticias y Videos mostraron una variación significativa. Google cuestionó públicamente estos resultados diciendo que la personalización de la página de resultados del motor de búsqueda (SERP) es en su mayoría un mito. El enlace de búsqueda de Google, Danny Sullivan, afirmó que "A lo largo de los años, se ha desarrollado un mito de que la Búsqueda de Google personaliza tanto que para la misma consulta, diferentes personas pueden obtener resultados significativamente diferentes entre sí. Este no es el caso. Los resultados pueden diferir, pero generalmente por razones no personalizadas ". [67]

Cuando se utilizan filtros burbuja, pueden crear momentos específicos que los científicos llaman momentos "Whoa". Un momento "Whoa" es cuando aparece en tu computadora un artículo, anuncio, publicación, etc., que está relacionado con una acción actual o el uso actual de un objeto. Los científicos descubrieron este término después de que una mujer joven estaba realizando su rutina diaria, que incluía tomar café, cuando abrió su computadora y vio un anuncio de la misma marca de café que estaba bebiendo. "Me senté y abrí Facebook esta mañana mientras tomaba mi café, y allí estaban dos anuncios de Nespresso . Una especie de momento "whoa" cuando el producto que estás bebiendo aparece en la pantalla frente a ti". [68] Los momentos "Whoa" ocurren cuando se "encuentran" a las personas. Lo que significa que los algoritmos de publicidad se dirigen a usuarios específicos en función de su "comportamiento de clic" para aumentar sus ingresos por ventas.

Varios diseñadores han desarrollado herramientas para contrarrestar los efectos de las burbujas de filtro (véase § Contramedidas). [69] La estación de radio suiza SRF votó la palabra filterblase (la traducción alemana de burbuja de filtro) como la palabra del año 2016. [70]

Contramedidas

Por individuos

En The Filter Bubble: What the Internet Is Hiding from You [71], el activista de Internet Eli Pariser destaca cómo la creciente aparición de burbujas de filtro enfatiza aún más el valor del capital social puente de uno , tal como lo define Robert Putman. Pariser sostiene que las burbujas de filtro refuerzan una sensación de homogeneidad social, lo que debilita los vínculos entre personas con intereses y puntos de vista potencialmente divergentes. [72] En ese sentido, un alto capital puente puede promover la inclusión social al aumentar nuestra exposición a un espacio que va más allá de los intereses personales. Fomentar el capital puente de uno, por ejemplo, conectándose con más personas en un entorno informal, puede ser una forma eficaz de reducir el fenómeno de la burbuja de filtro.

Los usuarios pueden tomar muchas medidas para romper sus burbujas de filtro, por ejemplo, haciendo un esfuerzo consciente para evaluar a qué información se están exponiendo y pensando críticamente si están interactuando con una amplia gama de contenidos. [73] Los usuarios pueden evitar conscientemente las fuentes de noticias que no se pueden verificar o que son débiles. Chris Glushko, vicepresidente de marketing de IAB, aboga por el uso de sitios de verificación de datos para identificar noticias falsas. [74] La tecnología también puede desempeñar un papel valioso en la lucha contra las burbujas de filtro. [75]

Algunos complementos de navegador tienen como objetivo ayudar a las personas a salir de sus burbujas de filtros y hacerlos conscientes de sus perspectivas personales; por lo tanto, estos medios muestran contenido que contradice sus creencias y opiniones. Además de los complementos, existen aplicaciones creadas con la misión de alentar a los usuarios a abrir sus cámaras de eco. Las aplicaciones de noticias como Read Across the Aisle incitan a los usuarios a leer diferentes perspectivas si su patrón de lectura está sesgado hacia un lado o ideología. [76] Aunque las aplicaciones y los complementos son herramientas que los humanos pueden usar, Eli Pariser afirmó que "sin duda, existe cierta responsabilidad individual aquí para buscar realmente nuevas fuentes y personas que no sean como tú". [52]

Dado que la publicidad basada en la web puede potenciar el efecto de las burbujas de filtro al exponer a los usuarios a más del mismo contenido, los usuarios pueden bloquear gran parte de la publicidad borrando su historial de búsqueda, desactivando los anuncios dirigidos y descargando extensiones del navegador. Algunos utilizan motores de búsqueda anónimos o no personalizados como YaCy , DuckDuckGo , Qwant , Startpage.com , Disconnect y Searx para evitar que las empresas recopilen sus datos de búsqueda web. El diario suizo Neue Zürcher Zeitung está probando la versión beta de una aplicación de motor de noticias personalizado que utiliza el aprendizaje automático para adivinar qué contenido le interesa a un usuario, mientras que "siempre incluye un elemento de sorpresa"; la idea es mezclar historias que es poco probable que un usuario haya seguido en el pasado. [77]

La Unión Europea está tomando medidas para reducir el efecto de la burbuja de filtro. El Parlamento Europeo está patrocinando investigaciones sobre cómo las burbujas de filtro afectan la capacidad de las personas para acceder a noticias diversas. [78] Además, presentó un programa destinado a educar a los ciudadanos sobre las redes sociales. [79] En los EE. UU., el panel CSCW sugiere el uso de aplicaciones de agregación de noticias para ampliar la ingesta de noticias de los consumidores de medios. Las aplicaciones de agregación de noticias escanean todos los artículos de noticias actuales y lo dirigen a diferentes puntos de vista sobre un tema determinado. Los usuarios también pueden usar un balanceador de noticias con conciencia de diversidad que muestra visualmente al consumidor de medios si se inclina hacia la izquierda o hacia la derecha cuando se trata de leer las noticias, indicando la inclinación hacia la derecha con una barra roja más grande o la inclinación hacia la izquierda con una barra azul más grande. Un estudio que evaluó este balanceador de noticias encontró "un cambio pequeño pero notable en el comportamiento de lectura, hacia una exposición más equilibrada, entre los usuarios que vieron la retroalimentación, en comparación con un grupo de control". [80]

Por empresas de medios

En vista de las recientes preocupaciones sobre el filtrado de información en las redes sociales, Facebook reconoció la presencia de burbujas de filtro y ha tomado medidas para eliminarlas. [81] En enero de 2017, Facebook eliminó la personalización de su lista de temas de tendencia en respuesta a los problemas con algunos usuarios que no veían allí los eventos más comentados. [82] La estrategia de Facebook es revertir la función de artículos relacionados que había implementado en 2013, que publicaría noticias relacionadas después de que el usuario leyera un artículo compartido. Ahora, la estrategia renovada invertiría este proceso y publicaría artículos desde diferentes perspectivas sobre el mismo tema. Facebook también está intentando pasar por un proceso de investigación mediante el cual solo se mostrarán artículos de fuentes confiables. Junto con el fundador de Craigslist y algunos otros, Facebook ha invertido $ 14 millones en esfuerzos "para aumentar la confianza en el periodismo en todo el mundo y para informar mejor la conversación pública". [81] La idea es que incluso si las personas solo leen publicaciones compartidas por sus amigos, al menos estas publicaciones serán creíbles.

De manera similar, Google, a partir del 30 de enero de 2018, también reconoció la existencia de dificultades con las burbujas de filtro dentro de su plataforma. Debido a que las búsquedas actuales de Google obtienen resultados clasificados algorítmicamente en función de su "autoridad" y "relevancia", que muestran y ocultan ciertos resultados de búsqueda, Google está tratando de combatir esto. Al entrenar a su motor de búsqueda para que reconozca la intención de una consulta de búsqueda en lugar de la sintaxis literal de la pregunta, Google está tratando de limitar el tamaño de las burbujas de filtro. A partir de ahora, la fase inicial de este entrenamiento se introducirá en el segundo trimestre de 2018. Las preguntas que involucran sesgo y/o opiniones controvertidas no se abordarán hasta un momento posterior, lo que da lugar a un problema mayor que todavía existe: si el motor de búsqueda actúa como árbitro de la verdad o como una guía informada por la cual tomar decisiones. [83]

En abril de 2017, surgió la noticia de que Facebook, Mozilla y Craigslist contribuyeron con la mayor parte de una donación de 14 millones de dólares a la "Iniciativa de Integridad de Noticias" de CUNY , destinada a eliminar las noticias falsas y crear medios de comunicación más honestos. [84]

Más tarde, en agosto, Mozilla, los creadores del navegador web Firefox , anunciaron la formación de la Mozilla Information Trust Initiative (MITI). La +MITI serviría como un esfuerzo colectivo para desarrollar productos, investigaciones y soluciones comunitarias para combatir los efectos de las burbujas de filtros y la proliferación de noticias falsas. El equipo de Innovación Abierta de Mozilla lidera la iniciativa, que se esfuerza por combatir la desinformación, con un enfoque específico en el producto en lo que respecta a la alfabetización, la investigación y las intervenciones creativas. [85]

Implicaciones éticas

A medida que aumenta la popularidad de los servicios en la nube , se espera que los algoritmos personalizados utilizados para construir burbujas de filtro se generalicen. [86] Los académicos han comenzado a considerar el efecto de las burbujas de filtro en los usuarios de las redes sociales desde un punto de vista ético , particularmente en lo que respecta a las áreas de libertad personal , seguridad y sesgo de información . [87] Las burbujas de filtro en las redes sociales populares y los sitios de búsqueda personalizados pueden determinar el contenido particular visto por los usuarios, a menudo sin su consentimiento o conocimiento directo, [86] debido a los algoritmos utilizados para curar ese contenido. El contenido creado por uno mismo que se manifiesta a partir de patrones de comportamiento puede conducir a una ceguera informativa parcial. [88] Los críticos del uso de burbujas de filtro especulan que los individuos pueden perder autonomía sobre su propia experiencia en las redes sociales y tener sus identidades construidas socialmente como resultado de la omnipresencia de las burbujas de filtro. [86]

Los tecnólogos, ingenieros de medios sociales y especialistas en informática también han examinado la prevalencia de las burbujas de filtro. [89] Mark Zuckerberg , fundador de Facebook, y Eli Pariser, autor de The Filter Bubble , han expresado su preocupación por los riesgos de la privacidad y la polarización de la información. [90] [91] La información de los usuarios de motores de búsqueda personalizados y plataformas de medios sociales no es privada, aunque algunas personas creen que debería serlo. [90] La preocupación por la privacidad ha dado lugar a un debate sobre si es moral o no que los tecnólogos de la información tomen la actividad en línea de los usuarios y manipulen la exposición futura a información relacionada. [91]

Algunos académicos han expresado su preocupación por los efectos de las burbujas de filtro en el bienestar individual y social, es decir, la difusión de información de salud al público en general y los posibles efectos de los motores de búsqueda de Internet para alterar el comportamiento relacionado con la salud. [16] [17] [18] [92] Un libro multidisciplinario de 2019 informó sobre investigaciones y perspectivas sobre el papel que desempeñan las burbujas de filtro en lo que respecta a la desinformación sobre la salud. [18] Partiendo de diversos campos como el periodismo, el derecho, la medicina y la psicología de la salud, el libro aborda diferentes creencias de salud controvertidas (por ejemplo, la medicina alternativa y la pseudociencia), así como posibles remedios a los efectos negativos de las burbujas de filtro y las cámaras de eco en diferentes temas del discurso de la salud. Un estudio de 2016 sobre los posibles efectos de las burbujas de filtro en los resultados de los motores de búsqueda relacionados con el suicidio descubrió que los algoritmos juegan un papel importante en si las líneas de ayuda y resultados de búsqueda similares se muestran o no a los usuarios y analizó las implicaciones que su investigación puede tener para las políticas de salud. [17] Otro estudio de 2016 de la revista médica croata propuso algunas estrategias para mitigar los efectos potencialmente dañinos de las burbujas de filtro en la información de salud, como: informar más al público sobre las burbujas de filtro y sus efectos asociados, que los usuarios opten por probar motores de búsqueda alternativos [a Google] y una mayor explicación de los procesos que utilizan los motores de búsqueda para determinar los resultados que muestran. [16]

Dado que el contenido que ven los usuarios individuales de las redes sociales está influenciado por algoritmos que producen burbujas de filtros, los usuarios de las plataformas de redes sociales son más susceptibles al sesgo de confirmación [ 93] y pueden estar expuestos a información sesgada y engañosa. [94] También se anticipan la clasificación social y otras prácticas discriminatorias no intencionales como resultado del filtrado personalizado. [95]

A la luz de las elecciones presidenciales estadounidenses de 2016, los académicos también han expresado su preocupación por el efecto de las burbujas de filtro en la democracia y los procesos democráticos, así como por el auge de los "medios ideológicos". [11] Estos académicos temen que los usuarios no puedan "[pensar] más allá de [su] estrecho interés personal", ya que las burbujas de filtro crean canales sociales personalizados, aislándolos de diversos puntos de vista y de sus comunidades circundantes. [96] Por esta razón, una posibilidad cada vez más discutida es diseñar redes sociales con más serendipia, es decir, recomendar de manera proactiva contenido que se encuentre fuera de la burbuja de filtro de uno, incluida información política desafiante y, eventualmente, proporcionar filtros y herramientas empoderadores a los usuarios. [97] [98] [99] Una preocupación relacionada es, de hecho, cómo las burbujas de filtro contribuyen a la proliferación de " noticias falsas " y cómo esto puede influir en la inclinación política, incluida la forma en que los usuarios votan. [11] [100] [101]

Las revelaciones en marzo de 2018 sobre la recolección y uso por parte de Cambridge Analytica de datos de usuarios de al menos 87 millones de perfiles de Facebook durante las elecciones presidenciales de 2016 resaltan las implicaciones éticas de las burbujas de filtros. [102] El cofundador y denunciante de Cambridge Analytica, Christopher Wylie, detalló cómo la empresa tenía la capacidad de desarrollar perfiles "psicográficos" de esos usuarios y usar la información para dar forma a su comportamiento electoral. [103] El acceso a los datos de los usuarios por parte de terceros como Cambridge Analytica puede exasperar y amplificar las burbujas de filtros existentes que los usuarios han creado, aumentando artificialmente los sesgos existentes y dividiendo aún más a las sociedades.

Peligros

Las burbujas de filtro han surgido de un aumento en la personalización de los medios, que puede atrapar a los usuarios. El uso de IA para personalizar las ofertas puede llevar a los usuarios a ver solo contenido que refuerza sus propios puntos de vista sin cuestionarlos. Los sitios web de redes sociales como Facebook también pueden presentar el contenido de una manera que dificulta que los usuarios determinen la fuente del contenido, lo que los lleva a decidir por sí mismos si la fuente es confiable o falsa. [104] Eso puede hacer que las personas se acostumbren a escuchar lo que quieren escuchar, lo que puede hacer que reaccionen de manera más radical cuando ven un punto de vista opuesto. La burbuja de filtro puede hacer que la persona vea cualquier punto de vista opuesto como incorrecto y, por lo tanto, podría permitir que los medios impongan puntos de vista a los consumidores. [105] [104] [106]

Las investigaciones explican que el filtro burbuja refuerza lo que uno ya está pensando. [107] Por eso es sumamente importante utilizar recursos que ofrezcan diversos puntos de vista. [107]

Véase también

Notas

  1. ^ El término ciberbalcanización (a veces con un guion) es un híbrido de ciber , relacionado con Internet, y balcanización , que se refiere a esa región de Europa que históricamente estuvo subdividida por idiomas, religiones y culturas; el término fue acuñado en un artículo de los investigadores del MIT Van Alstyne y Brynjolfsson.

Referencias

  1. ^ Technopedia, Definición – ¿Qué significa Filtro Burbuja? Archivado el 10 de octubre de 2017 en Wayback Machine , Consultado el 10 de octubre de 2017, "....Una burbuja de filtro es el aislamiento intelectual que puede ocurrir cuando los sitios web hacen uso de algoritmos para asumir selectivamente la información que un usuario querría ver y luego le dan información al usuario de acuerdo con esta suposición... Una burbuja de filtro, por lo tanto, puede hacer que los usuarios tengan un contacto significativamente menor con puntos de vista contradictorios, lo que hace que el usuario se aísle intelectualmente..."
  2. ^ Bozdag, Engin (septiembre de 2013). "Sesgo en el filtrado algorítmico y la personalización". Ética y tecnología de la información . 15 (3): 209–227. doi :10.1007/s10676-013-9321-6. S2CID  14970635.
  3. ^ Huffington Post, The Huffington Post "¿Las burbujas de filtro están encogiendo nuestras mentes?" Archivado el 3 de noviembre de 2016 en Wayback Machine
  4. ^ Encrypt, Search (26 de febrero de 2019). «Qué son las burbujas de filtro y cómo evitarlas». Blog de Search Encrypt . Archivado desde el original el 25 de febrero de 2019. Consultado el 19 de marzo de 2019 .
  5. ^ Kitchens, Brent; Johnson, Steve L.; Gray, Peter (1 de diciembre de 2020). "Entender las cámaras de eco y las burbujas de filtro: el impacto de las redes sociales en la diversificación y los cambios partidistas en el consumo de noticias". MIS Quarterly . 44 (4): 1619–1649. doi :10.25300/MISQ/2020/16371. S2CID  229294134.
  6. ^ abcde Boutin, Paul (20 de mayo de 2011). "Sus resultados pueden variar: ¿Se convertirá la autopista de la información en un callejón sin salida debido a los filtros automatizados?". The Wall Street Journal . Archivado desde el original el 5 de abril de 2015. Consultado el 15 de agosto de 2011. Al rastrear navegadores web individuales con cookies, Google ha podido personalizar los resultados incluso para los usuarios que no crean una cuenta personal de Google o no han iniciado sesión en una. ...
  7. ^ Zhang, Yuan Cao; Séaghdha, Diarmuid Ó; Quercia, Daniele; Jambor, Tamas (2012). "Auralist: Introducing serendipity into music recommendation". Actas de la quinta conferencia internacional de la ACM sobre búsqueda web y minería de datos . págs. 13–22. doi :10.1145/2124295.2124300. ISBN 9781450307475.S2CID2956587  .​
  8. ^ abc Parramore, Lynn (10 de octubre de 2010). "The Filter Bubble". The Atlantic . Archivado desde el original el 22 de agosto de 2017 . Consultado el 20 de abril de 2011 . Desde el 4 de diciembre de 2009, Google está personalizado para todos. Así que, cuando dos amigos míos buscaron "BP" en Google esta primavera, uno de ellos obtuvo un conjunto de enlaces sobre oportunidades de inversión en BP. El otro obtuvo información sobre el derrame de petróleo...
  9. ^ abcdefgh Weisberg, Jacob (10 de junio de 2011). "Bubble Trouble: Is Web personalization turning us into solipsistic twits?" [El problema de las burbujas: ¿la personalización web nos está convirtiendo en imbéciles solipsistas?"]. Slate . Archivado desde el original el 12 de junio de 2011. Consultado el 15 de agosto de 2011 .
  10. ^ abc Gross, Doug (19 de mayo de 2011). "Lo que Internet te está ocultando". CNN . Archivado del original el 9 de abril de 2016. Consultado el 15 de agosto de 2011. Mis amigos buscaron en Google BP cuando se produjo el derrame de petróleo. Se trata de dos mujeres que eran bastante similares en muchos aspectos. Una obtuvo muchos resultados sobre las consecuencias ambientales de lo que estaba sucediendo y del derrame. La otra solo obtuvo información sobre inversiones y nada sobre el derrame en absoluto.
  11. ^ abc Baer, ​​Drake. «La 'burbuja de filtros' explica por qué Trump ganó y no lo viste venir». Science of Us . Archivado desde el original el 19 de abril de 2017. Consultado el 19 de abril de 2017 .
  12. ^ ab DiFranzo, Dominic; Gloria-Garcia, Kristine (5 de abril de 2017). "Burbujas de filtro y noticias falsas". XRDS . 23 (3): 32–35. doi :10.1145/3055153. S2CID  7069187.
  13. ^ ab Jasper Jackson (8 de enero de 2017). "Eli Pariser: activista cuyas advertencias de burbuja de filtro presagiaron a Trump y al Brexit: el jefe de Upworthy advirtió sobre los peligros de las cámaras de eco de Internet cinco años antes de las votaciones de 2016". The Guardian . Archivado desde el original el 7 de marzo de 2017. Consultado el 3 de marzo de 2017. ..."Si solo ves publicaciones de personas que son como tú, te sorprenderás cuando alguien muy diferente a ti gane la presidencia", le dice Pariser a The Guardian....
  14. ^ Mostafa M. El-Bermawy (18 de noviembre de 2016). "Su burbuja de filtros está destruyendo la democracia". Wired . Archivado desde el original el 9 de marzo de 2017. Consultado el 3 de marzo de 2017. ...La aldea global que una vez fue Internet... islas digitales de aislamiento que se alejan cada día más... su experiencia en línea se vuelve cada vez más personalizada...
  15. ^ Drake Baer (9 de noviembre de 2016). "La 'burbuja de filtros' explica por qué Trump ganó y usted no lo vio venir". New York Magazine . Archivado del original el 26 de febrero de 2017. Consultado el 3 de marzo de 2017. ...La victoria de Trump es una sorpresa... porque, como lo entienden los expertos en medios, vivimos cada vez más en una "burbuja de filtros": la información que recibimos es tan personalizada que somos ciegos a otras perspectivas....
  16. ^ abc Holone, Harald (junio de 2016). "La burbuja de filtros y su efecto en la información personal de salud en línea". Revista Médica Croata . 57 (3): 298–301. doi :10.3325/cmj.2016.57.298. PMC 4937233 . PMID  27374832. 
  17. ^ abc Haim, Mario; Arendt, Florian; Scherr, Sebastian (febrero de 2017). "¿Abismo o refugio? Sobre la relevancia de los resultados de búsqueda de los motores de búsqueda web cuando la gente busca suicidio en Google". Comunicación en salud . 32 (2): 253–258. doi :10.1080/10410236.2015.1113484. PMID  27196394. S2CID  3399012.
  18. ^ abc "Desinformación médica y daño social en prácticas de salud no basadas en la ciencia: una perspectiva multidisciplinaria". CRC Press . Archivado desde el original el 4 de agosto de 2020. Consultado el 22 de abril de 2020 .
  19. ^ abc Lazar, Shira (1 de junio de 2011). "¿Algoritmos y la burbuja de filtro arruinan tu experiencia en línea?". Huffington Post . Archivado desde el original el 13 de abril de 2016. Consultado el 15 de agosto de 2011. Una burbuja de filtro es la esfera figurativa que te rodea mientras buscas en Internet .
  20. ^ Pariser, Eli (12 de mayo de 2011). La burbuja de filtros: cómo la nueva web personalizada está cambiando lo que leemos y cómo pensamos. Penguin. ISBN 9781101515129Archivado del original el 19 de enero de 2021 . Consultado el 11 de octubre de 2020 .
  21. ^ "Cómo las burbujas de filtro distorsionan la realidad: todo lo que necesitas saber". 31 de julio de 2017. Archivado desde el original el 3 de julio de 2019. Consultado el 23 de junio de 2019 .
  22. ^ Nikolov, Dimitar; Oliveira, Diego FM; Flammini, Alessandro; Menczer, Filippo (2 de diciembre de 2015). "Medición de las burbujas sociales en línea". PeerJ Computer Science . 1 : e38. arXiv : 1502.07162 . Bibcode :2015arXiv150207162N. doi : 10.7717/peerj-cs.38 .
  23. ^ Pariser, Eli (marzo de 2011). «Cuidado con las «burbujas de filtro» en Internet». Archivado desde el original el 28 de mayo de 2018. Consultado el 30 de mayo de 2018 .
  24. ^ Pariser, Eli (marzo de 2011). «Cuidado con las 'burbujas de filtro' en Internet». TED.com . Archivado desde el original el 22 de septiembre de 2017. Consultado el 24 de septiembre de 2017 .
  25. ^ "First Monday: What's on tap this month on TV and in movies and books: The Filter Bubble by Eli Pariser". USA Today . 2011. Archivado desde el original el 3 de mayo de 2011 . Consultado el 20 de abril de 2011 . Pariser explica que alimentarnos sólo con lo que nos resulta familiar y cómodo nos cierra a nuevas ideas, temas e información importante.
  26. ^ ab Bosker, Bianca (7 de marzo de 2011). "Facebook y Google nos ofrecen información basura, advierte Eli Pariser". Huffington Post . Archivado desde el original el 13 de marzo de 2011 . Consultado el 20 de abril de 2011 . En lo que respecta al contenido, Google y Facebook nos ofrecen demasiados dulces y no suficientes zanahorias.
  27. ^ "Invisible sieve: Hidden, Especially for you". The Economist . 30 de junio de 2011. Archivado desde el original el 3 de julio de 2011. Consultado el 27 de junio de 2011. El libro de Pariser ofrece un estudio de la evolución de Internet hacia la personalización, examina cómo la presentación de la información altera la forma en que se percibe y concluye con recetas para hacer estallar la burbuja de filtros que rodea a cada usuario.
  28. ^ ab Hern (22 de mayo de 2017). «Cómo influyen las burbujas de filtros y los algoritmos de las redes sociales en las elecciones». The Guardian . Archivado desde el original el 31 de mayo de 2018. Consultado el 30 de mayo de 2018 .
  29. ^ Van Alstyne, Marshall; Brynjolfsson, Erik (marzo de 1997) [Copyright 1996]. "Comunidades electrónicas: ¿aldea global o ciberbalcanes?" (PDF) . Archivado (PDF) desde el original el 5 de abril de 2016. Consultado el 24 de septiembre de 2017 .
  30. ^ Van Alstyne, Marshall; Brynjolfsson, Erik (noviembre de 1996). "¿Podría Internet balcanizar la ciencia?". Science . 274 (5292): 1479–1480. Bibcode :1996Sci...274.1479V. doi :10.1126/science.274.5292.1479. S2CID  62546078.
  31. ^ Alex Pham; Jon Healey (24 de septiembre de 2005). "Los sistemas esperan decirte lo que te gustaría: los 'motores de preferencias' guían a los usuarios a través de la inundación de contenido". Chicago Tribune . Archivado desde el original el 8 de diciembre de 2015 . Consultado el 4 de diciembre de 2015 . ...si los recomendadores fueran perfectos, podría tener la opción de hablar solo con personas que son como yo....La ciberbalcanización, como Brynjolfsson acuñó el escenario, no es un efecto inevitable de las herramientas de recomendación.
  32. ^ ab Menkedick, Sarah (14 de mayo de 2020). "¿Por qué se trata a los niños estadounidenses como una especie diferente a los adultos?". Aeon . Archivado desde el original el 15 de mayo de 2020. Consultado el 15 de mayo de 2020 .
  33. ^ Obama, Barack (10 de enero de 2017). Discurso de despedida del presidente Obama (discurso). Washington, DC Archivado desde el original el 24 de enero de 2017 . Consultado el 24 de enero de 2017 .
  34. ^ Hosanagar, Kartik (25 de noviembre de 2016). "Échale la culpa a la cámara de eco de Facebook. Pero échate la culpa a ti mismo también". Wired . Archivado desde el original el 25 de septiembre de 2017. Consultado el 24 de septiembre de 2017 .
  35. ^ DiFonzo, Nicholas (21 de abril de 2011). «El efecto de la cámara de eco». The New York Times . Archivado desde el original el 13 de junio de 2017. Consultado el 24 de septiembre de 2017 .
  36. ^ sdf (23 de junio de 2004). «John Gorenfeld, Moon the Messiah y la cámara de eco de los medios». Daily Kos . Archivado desde el original el 2 de mayo de 2016. Consultado el 24 de septiembre de 2017 .
  37. ^ Jamieson, Kathleen Hall ; Cappella, Joseph N. (22 de julio de 2008). Cámara de eco: Rush Limbaugh y el establishment mediático conservador . Oxford University Press . ISBN 978-0-19-536682-2. Recuperado el 24 de septiembre de 2017 .
  38. ^ ab "¿Qué son las burbujas de filtro y las cámaras de eco digital? | Heinrich-Böll-Stiftung | Tel Aviv - Israel". Fundación Heinrich Böll . Consultado el 8 de marzo de 2023 .
  39. ^ Cinelli, Matteo; De Francisci Morales, Gianmarco; Galeazzi, Alessandro; Quattrociocchi, Walter; Starnini, Michele (2 de marzo de 2021). "El efecto de la cámara de eco en las redes sociales". Actas de la Academia Nacional de Ciencias . 118 (9): e2023301118. Bibcode :2021PNAS..11823301C. doi : 10.1073/pnas.2023301118 . ISSN  0027-8424. PMC 7936330 . PMID  33622786. 
  40. ^ Elanor Colleoni; Alessandro Rozza; Adam Arvidsson (abril de 2014). "¿Cámara de eco o esfera pública? Predicción de la orientación política y medición de la homofilia política en Twitter utilizando Big Data". Revista de comunicación . 64 (2): 317–332. doi :10.1111/jcom.12084. hdl : 10281/66011 .
  41. ^ Ekström, Axel G.; Niehorster, Diederick C.; Olsson, Erik J. (1 de agosto de 2022). "Burbujas de filtro autoimpuestas: atención selectiva y exposición en la búsqueda en línea". Computers in Human Behavior Reports . 7 : 100226. doi : 10.1016/j.chbr.2022.100226 . ISSN  2451-9588. S2CID  251434172.
  42. ^ Reviglio, Urbano; Agosti, Claudio (abril de 2020). "Pensar más allá de la caja negra: el caso de la "soberanía algorítmica" en las redes sociales". Redes sociales + Sociedad . 6 (2): 205630512091561. doi :10.1177/2056305120915613. hdl : 2434/840214 . ISSN  2056-3051. S2CID  219019544.
  43. ^ "El plan de Twitter de cortar el acceso gratuito a los datos provoca 'una gran cantidad de pánico' entre los científicos". www.science.org . Consultado el 8 de marzo de 2023 .
  44. ^ Grankvist, Per (8 de febrero de 2018). La gran burbuja: cómo la tecnología dificulta la comprensión del mundo . United Stories Publishing. pág. 179. ISBN 978-91-639-5990-5.
  45. ^ ab Hosanagar, Kartik; Fleder, Daniel; Lee, Dokyun; Buja, Andreas (diciembre de 2013). "¿Se dividirá la aldea global en tribus? Sistemas de recomendación y sus efectos sobre los consumidores". Management Science, de próxima aparición . SSRN  1321962.
  46. ^ Ludwig, Amber. "Google Personality on Your Search Results Plus How to Turn it Off" (Personalización de Google en los resultados de búsqueda y cómo desactivarla). NGNG. Archivado desde el original el 17 de agosto de 2011. Consultado el 15 de agosto de 2011. La personalización de los resultados de búsqueda de Google es una función automática, pero puedes desactivarla.
  47. ^ Bruns, Axel (29 de noviembre de 2019). «Burbuja de filtro». Internet Policy Review . 8 (4). doi : 10.14763/2019.4.1426 . hdl : 10419/214088 .
  48. ^ Davies, Huw C (septiembre de 2018). «Redefiniendo las burbujas de filtro como recursión sociotécnica (escapable)». Sociological Research Online . 23 (3): 637–654. doi :10.1177/1360780418763824. S2CID  149367030. Archivado desde el original el 19 de enero de 2021 . Consultado el 29 de agosto de 2020 .
  49. ^ Dahlgren, Peter M. (29 de enero de 2021). "Una revisión crítica de las burbujas de filtro y una comparación con la exposición selectiva". Nordicom Review . 42 (1): 15–33. doi : 10.2478/nor-2021-0002 .
  50. ^ Flaxman, Seth; Goel, Sharad; Rao, Justin M. (2016). "Burbujas de filtro, cámaras de eco y consumo de noticias en línea". Public Opinion Quarterly . 80 (S1): 298–320. doi :10.1093/poq/nfw006. S2CID 2386849 . 
  51. ^ Chitra, Uthsav; Musco, Christopher (2020). "Análisis del impacto de las burbujas de filtro en la polarización de las redes sociales". WSDM '20: Actas de la 13.ª Conferencia internacional sobre búsqueda web y minería de datos . págs. 115–123. doi :10.1145/3336191.3371825.
  52. ^ ab "5 preguntas a Eli Pariser, autor de 'La burbuja de filtros'". Time . 16 de mayo de 2011. Archivado desde el original el 14 de abril de 2017 . Consultado el 24 de mayo de 2017 .
  53. ^ abcde Bleiberg, Joshua; West, Darrell M. (24 de mayo de 2017). «Polarización política en Facebook». Brookings Institution . Archivado desde el original el 10 de octubre de 2017. Consultado el 24 de mayo de 2017 .
  54. ^ Bakshy, E.; Messing, S.; Adamic, LA (5 de junio de 2015). "Exposición a noticias y opiniones ideológicamente diversas en Facebook". Science . 348 (6239): 1130–1132. Bibcode :2015Sci...348.1130B. doi : 10.1126/science.aaa1160 . PMID  25953820. S2CID  206632821.
  55. ^ Lumb (8 de mayo de 2015). «Por qué los científicos están molestos por el estudio de la burbuja de filtros de Facebook». Archivado desde el original el 11 de noviembre de 2017. Consultado el 10 de noviembre de 2017 .
  56. ^ Oremus, Will (5 de abril de 2017). "The Filter Bubble Revisited". Revista Slate . Archivado desde el original el 6 de febrero de 2020. Consultado el 2 de marzo de 2020 .
  57. ^ ab Sindermann, Cornelia; Elhai, Jon D.; Moshagen, Morten; Montag, Christian (enero de 2020). "Edad, género, personalidad, actitudes ideológicas y diferencias individuales en el espectro noticioso de una persona: ¿cuántas y quiénes podrían ser propensas a las 'burbujas de filtro' y las 'cámaras de eco' en línea?". Heliyon . 6 (1): e03214. Bibcode :2020Heliy...603214S. doi : 10.1016/j.heliyon.2020.e03214 . PMC 7002846 . PMID  32051860. 
  58. ^ ab Pariser, Eli (7 de mayo de 2015). «Datos curiosos del nuevo estudio sobre la burbuja de filtros de Facebook». Medium . Archivado desde el original el 11 de noviembre de 2017. Consultado el 24 de octubre de 2017 .
  59. ^ Lumb, David (8 de mayo de 2015). «Por qué los científicos están molestos por el estudio de la burbuja de filtros de Facebook». Fast Company . Archivado desde el original el 23 de octubre de 2017. Consultado el 24 de octubre de 2017 .
  60. ^ Pariser, Eli (7 de mayo de 2015). "¿El gran estudio de Facebook acabó con mi tesis sobre la burbuja de filtros?". Wired . Archivado desde el original el 11 de noviembre de 2017. Consultado el 24 de octubre de 2017 .
  61. ^ "Contrariamente a lo que se ha oído, Facebook puede ayudar a pinchar nuestras "burbujas" políticas". Vox . Archivado desde el original el 13 de junio de 2018 . Consultado el 30 de mayo de 2018 .
  62. ^ Bakshy, E.; Messing, S.; Adamic, LA (2015). "Exposición a noticias y opiniones ideológicamente diversas en Facebook". Science . 348 (6239): 1130–1132. Bibcode :2015Sci...348.1130B. doi : 10.1126/science.aaa1160 . PMID  25953820. S2CID  206632821.
  63. ^ Barberá, Pabló (agosto de 2015). "Cómo las redes sociales reducen la polarización política masiva. Evidencias de Alemania, España y Estados Unidos" CiteSeerX 10.1.1.658.5476 . 
  64. ^ Hilbert, M., Ahmed, S., Cho, J., Liu, B. y Luu, J. (2018). Comunicación con algoritmos: un análisis de entropía de transferencia de los escapes basados ​​en emociones de las cámaras de eco en línea. Métodos y medidas de comunicación, 12(4), 260–275. https://doi.org/10.1080/19312458.2018.1479843 Archivado el 19 de enero de 2021 en Wayback Machine  ; https://www.martinhilbert.net/communicating-with-algorithms/ Archivado el 9 de mayo de 2019 en Wayback Machine
  65. ^ ab Bail, Christopher; Argyle, Lisa; Brown, Taylor; Chen, Haohan; Hunzaker, MBF; Lee, Jaemin (2018). "Exposure to opposing views on social media can increase political polarization" (PDF) . Actas de la Academia Nacional de Ciencias . 115 (37): 9216–9221. Bibcode :2018PNAS..115.9216B. doi : 10.1073/pnas.1804840115 . PMC 6140520 . PMID  30154168. Archivado (PDF) desde el original el 10 de abril de 2020 . Consultado el 22 de abril de 2020 . 
  66. ^ ab Min, Yong; Jiang, Tingjun; Jin, Cheng; Li, Qu; Jin, Xiaogang (2019). "Estructura endogenética de la burbuja de filtro en redes sociales". Royal Society Open Science . 6 (11): 190868. arXiv : 1907.02703 . Bibcode :2019RSOS....690868M. doi :10.1098/rsos.190868. PMC 6894573 . PMID  31827834. 
  67. ^ Statt, Nick (4 de diciembre de 2018). «Google personaliza los resultados de búsqueda incluso cuando no estás conectado, según afirma un nuevo estudio». The Verge . Archivado desde el original el 31 de julio de 2020. Consultado el 22 de abril de 2020 .
  68. ^ Bucher, Taina (25 de febrero de 2016). "El imaginario algorítmico: explorando los efectos ordinarios de los algoritmos de Facebook". Información, comunicación y sociedad . 20 – vía Taylor & Francis Online.
  69. ^ "¿Cómo rompemos la burbuja de filtros y diseñamos para la democracia?". 3 de marzo de 2017. Archivado desde el original el 3 de marzo de 2017 . Consultado el 3 de marzo de 2017 .
  70. ^ ""Filterblase "ist das Wort des Jahres 2016". 7 de diciembre de 2016. Archivado desde el original el 20 de diciembre de 2016 . Consultado el 27 de diciembre de 2016 .
  71. ^ Eli Pariser (mayo de 2011). La burbuja de filtros: lo que Internet te oculta . Nueva York: Penguin Press. pág. 17. ISBN 978-1-59420-300-8.
  72. ^ Stephen Baron; John Field; Tom Schuller (30 de noviembre de 2000). "Social capital: A review and critique". Capital social: perspectivas críticas . Oxford University Press. ISBN 9780199243679.
  73. ^ "¿Estamos atrapados en burbujas de filtros? Aquí hay cinco posibles salidas". Nieman Lab . Archivado desde el original el 4 de marzo de 2017. Consultado el 3 de marzo de 2017 .
  74. ^ Glushko, Chris (8 de febrero de 2017). "Elimine las burbujas de los filtros de personalización y preserve la diversidad en línea". Marketing Land . Archivado desde el original el 15 de marzo de 2017. Consultado el 22 de mayo de 2017 .
  75. ^ Ritholtz, Barry (2 de febrero de 2017). "Intente romper la burbuja de los filtros de los medios". Bloomberg . Archivado desde el original el 21 de agosto de 2017. Consultado el 22 de mayo de 2017 .
  76. ^ "Una aplicación de noticias pretende romper las burbujas de filtros al incitar a los lectores a una dieta mediática más 'equilibrada'". Nieman Lab . Archivado desde el original el 15 de mayo de 2017. Consultado el 24 de mayo de 2017 .
  77. ^ Mădălina Ciobanu (3 de marzo de 2017). "NZZ está desarrollando una aplicación que ofrece a los lectores noticias personalizadas sin crear una burbuja de filtros: la aplicación utiliza el aprendizaje automático para ofrecer a los lectores un flujo de 25 historias que podrían interesarles según sus preferencias, pero "siempre incluyendo un elemento de sorpresa". Journalism.co.uk. Archivado del original el 3 de marzo de 2017 . Consultado el 3 de marzo de 2017 . ... si, según su historial de consumo, alguien no ha expresado interés en los deportes, su flujo incluirá noticias sobre grandes historias importantes relacionadas con los deportes,...
  78. ^ Catalina Albeanu (17 de noviembre de 2016). "Estallando la burbuja de filtros tras las elecciones estadounidenses: ¿los medios están condenados al fracaso? En un evento celebrado esta semana en Bruselas, los medios y los políticos debatieron sobre las cámaras de eco en las redes sociales y la lucha contra las noticias falsas". Journalism.co.uk. Archivado del original el 10 de marzo de 2017. Consultado el 3 de marzo de 2017. ... referéndum de la UE en el Reino Unido en un panel en el evento "Políticos en una tormenta de comunicación"... Además de la burbuja de filtros, las páginas partidistas de Facebook también sirvieron una dieta rica en noticias falsas....
  79. ^ «Comisión Europea». Archivado desde el original el 4 de marzo de 2017. Consultado el 3 de marzo de 2017 .
  80. ^ Resnick, Paul; Garrett, R. Kelly; Kriplean, Travis; Munson, Sean A.; Stroud, Natalie Jomini (2013). "Cómo hacer estallar la burbuja (de filtros)". Actas de la conferencia de 2013 sobre Computer Supported Cooperative Work Companion - CSCW '13 . p. 95. doi :10.1145/2441955.2441981. ISBN 978-1-4503-1332-2.S2CID20865375  .​
  81. ^ ab Vanian, Jonathan (25 de abril de 2017). "Facebook prueba la función de artículos relacionados para combatir las burbujas de filtro". Fortune.com . Archivado desde el original el 25 de septiembre de 2017. Consultado el 24 de septiembre de 2017 .
  82. ^ Sydell, Laura (25 de enero de 2017). "Facebook modifica su algoritmo de 'temas de tendencia' para reflejar mejor las noticias reales". KQED Public Media. NPR. Archivado desde el original el 26 de febrero de 2018. Consultado el 5 de abril de 2018 .
  83. ^ Hao, Karen. «Google finalmente está admitiendo que tiene un problema con la burbuja de filtros». Quartz . Archivado desde el original el 4 de mayo de 2018. Consultado el 30 de mayo de 2018 .
  84. ^ "Facebook, Mozilla y Craigslist financian a un bombero que difunde noticias falsas". Archivado desde el original el 23 de noviembre de 2018. Consultado el 14 de enero de 2019 .
  85. ^ "La Iniciativa de Confianza en la Información de Mozilla: Construyendo un movimiento para combatir la desinformación en línea". El blog de Mozilla . Archivado desde el original el 14 de enero de 2019. Consultado el 14 de enero de 2019 .
  86. ^ abc Bozdag, Engin; Timmerman, Job. "Valores en la burbuja de filtros Ética de los algoritmos de personalización en la computación en la nube". ResearchGate . Archivado desde el original el 14 de diciembre de 2020. Consultado el 6 de marzo de 2017 .
  87. ^ Al-Rodhan, Nayef. «Las múltiples implicaciones éticas de las tecnologías emergentes». Scientific American . Archivado desde el original el 8 de abril de 2017. Consultado el 6 de marzo de 2017 .
  88. ^ Haim, Mario; Graefe, Andreas; Brosius, Hans-Bernd (16 de marzo de 2018). "¿Estallido de la burbuja del filtro?". Periodismo Digital . 6 (3): 330–343. doi : 10.1080/21670811.2017.1338145 . S2CID  168906316.
  89. ^ "La burbuja de filtros plantea cuestiones importantes. Solo hay que filtrarlas para descartarlas". Rainforest Action Network . Archivado desde el original el 8 de abril de 2017. Consultado el 6 de marzo de 2017 .
  90. ^ ab Sterling, Greg (20 de febrero de 2017). «El manifiesto de Mark Zuckerberg: cómo Facebook conectará al mundo, vencerá las noticias falsas y hará estallar la burbuja de filtros». Marketing Land . Archivado desde el original el 8 de marzo de 2017. Consultado el 6 de marzo de 2017 .
  91. ^ ab Morozov, Evgeny (10 de junio de 2011). "Your Own Facts". The New York Times . Archivado desde el original el 4 de marzo de 2017. Consultado el 6 de marzo de 2017 .
  92. ^ Hesse, Bradford W.; Nelson, David E.; Kreps, Gary L.; Croyle, Robert T.; Arora, Neeraj K.; Rimer, Barbara K.; Viswanath, Kasisomayajula (12 de diciembre de 2005). "Confianza y fuentes de información sanitaria: el impacto de Internet y sus implicaciones para los proveedores de atención sanitaria: resultados de la primera encuesta nacional sobre tendencias de la información sanitaria". Archivos de Medicina Interna . 165 (22): 2618–24. doi :10.1001/archinte.165.22.2618. PMID  16344419.
  93. ^ El-Bermawy, Mostafa (18 de noviembre de 2016). "Su burbuja de filtros está destruyendo la democracia". Wired . Archivado desde el original el 9 de marzo de 2017. Consultado el 6 de marzo de 2017 .
  94. ^ "Cómo hacer estallar la "burbuja de filtro" que nos protege de las opiniones opuestas". MIT Technology Review . Archivado desde el original el 19 de enero de 2021 . Consultado el 6 de marzo de 2017 .
  95. ^ Borgesius, Frederik; Trilling, Damian; Möller, Judith; Bodó, Balázs; de Vreese, Claes; Helberger, Natali (31 de marzo de 2016). «¿Deberíamos preocuparnos por las burbujas de filtros?». Internet Policy Review . Archivado desde el original el 20 de marzo de 2017. Consultado el 6 de marzo de 2017 .
  96. ^ Pariser, Eli (2011). La burbuja de filtros: cómo la nueva web personalizada está cambiando lo que leemos y cómo pensamos . Nueva York: Penguin Press. ISBN 978-1-59420-300-8.
  97. ^ "Elogio de la serendipia". The Economist . 9 de marzo de 2017. Archivado desde el original el 15 de enero de 2019 . Consultado el 14 de enero de 2019 .
  98. ^ Reviglio, Urbano (junio de 2019). "La serendipia como principio de diseño emergente de la infoesfera: desafíos y oportunidades". Ética y Tecnología de la Información . 21 (2): 151–166. doi :10.1007/s10676-018-9496-y. S2CID  57426650.
  99. ^ Harambam, Jaron; Helberger, Natali; van Hoboken, Joris (28 de noviembre de 2018). "Democratizar los recomendadores de noticias algorítmicos: cómo materializar la voz en un ecosistema de medios saturado de tecnología". Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences . 376 (2133): 20180088. Bibcode :2018RSPTA.37680088H. doi :10.1098/rsta.2018.0088. PMC 6191663 . PMID  30323002. 
  100. ^ Herrman, John (24 de agosto de 2016). «Dentro de la (totalmente demente, involuntariamente gigantesca, hiperpartidaria) maquinaria política-mediática de Facebook». The New York Times . Archivado desde el original el 19 de octubre de 2017. Consultado el 24 de octubre de 2017 .
  101. ^ Del Vicario, Michela; Bessi, Alessandro; Zollo, Fabiana; Petroni, Fabio; Scala, Antonio; Caldarelli, Guido; Stanley, H. Eugene; Quattrociocchi, Walter (19 de enero de 2016). "La difusión de información errónea en línea". Actas de la Academia Nacional de Ciencias . 113 (3): 554–559. Bibcode :2016PNAS..113..554D. doi : 10.1073/pnas.1517441113 . PMC 4725489 . PMID  26729863. 
  102. ^ Granville, Kevin (19 de marzo de 2018). «Facebook y Cambridge Analytica: lo que hay que saber a medida que se amplían las repercusiones». The New York Times . Archivado desde el original el 19 de octubre de 2018. Consultado el 19 de octubre de 2018 .
  103. ^ Meredith, Sam (10 de abril de 2018). «Facebook-Cambridge Analytica: cronología del escándalo de secuestro de datos». CNBC . Archivado desde el original el 19 de octubre de 2018. Consultado el 19 de octubre de 2018 .
  104. ^ ab Gross, Michael (enero de 2017). "Los peligros de un mundo posverdad". Current Biology . 27 (1): R1–R4. Bibcode :2017CBio...27...R1G. doi : 10.1016/j.cub.2016.12.034 .
  105. ^ "Cómo las burbujas de filtro distorsionan la realidad: todo lo que necesitas saber". Farnam Street . 31 de julio de 2017. Archivado desde el original el 20 de mayo de 2019 . Consultado el 21 de mayo de 2019 .
  106. ^ Dish, The Daily (10 de octubre de 2010). «The Filter Bubble». The Atlantic . Archivado desde el original el 22 de agosto de 2017. Consultado el 21 de mayo de 2019 .
  107. ^ ab "Burbujas de filtro y sesgo de confirmación: noticias falsas (y cómo combatirlas) - LibGuides en Miami Dade College Learning Resources". Archivado desde el original el 23 de octubre de 2020 . Consultado el 22 de octubre de 2020 .

Lectura adicional

Enlaces externos