stringtranslate.com

Burbuja de filtro

Las redes sociales aíslan inadvertidamente a los usuarios en sus propias burbujas de filtro ideológico, según el activista de Internet Eli Pariser

Una burbuja de filtro o marco ideológico es un estado de aislamiento intelectual [1] que puede resultar de búsquedas personalizadas , sistemas de recomendación y curación algorítmica . Los resultados de la búsqueda se basan en información sobre el usuario, como su ubicación, comportamiento de clics anteriores e historial de búsqueda. [2] En consecuencia, los usuarios quedan separados de la información que no está de acuerdo con sus puntos de vista, aislándolos efectivamente en sus propias burbujas culturales o ideológicas, lo que resulta en una visión limitada y personalizada del mundo. [3] Las elecciones realizadas por estos algoritmos sólo a veces son transparentes. [4] Los principales ejemplos incluyen los resultados de la Búsqueda personalizada de Google y el flujo de noticias personalizado de Facebook.

Sin embargo, existen informes contradictorios sobre hasta qué punto se produce el filtrado personalizado y si dicha actividad es beneficiosa o perjudicial, y varios estudios arrojan resultados no concluyentes.

El término burbuja de filtro fue acuñado por el activista de Internet Eli Pariser alrededor de 2010. En el influyente libro de Pariser con el mismo nombre, The Filter Bubble (2011), se predijo que la personalización individualizada mediante filtrado algorítmico conduciría al aislamiento intelectual y la fragmentación social. [5] El efecto burbuja puede tener implicaciones negativas para el discurso cívico , según Pariser, pero puntos de vista contrastantes consideran que el efecto es mínimo [6] y abordable. [7] Según Pariser, los usuarios están menos expuestos a puntos de vista contradictorios y están aislados intelectualmente en su burbuja informativa. [8] Relató un ejemplo en el que un usuario buscó en Google "BP" y obtuvo noticias sobre inversiones sobre British Petroleum , mientras que otro buscador obtuvo información sobre el derrame de petróleo de Deepwater Horizon , y señaló que las dos páginas de resultados de búsqueda eran "sorprendentemente diferentes" a pesar de Uso de las mismas palabras clave. [8] [9] [10] [6] Los resultados de las elecciones presidenciales estadounidenses de 2016 se han asociado con la influencia de plataformas de redes sociales como Twitter y Facebook, [11] y como resultado han puesto en duda los efectos del fenómeno de la "burbuja de filtro" sobre la exposición de los usuarios a noticias falsas y cámaras de eco , [12] estimulando un nuevo interés en el término, [13] y a muchos les preocupa que el fenómeno pueda dañar la democracia y el bienestar al empeorar los efectos de la desinformación. . [14] [15] [13 ] [16] [17] [18]

Concepto

El término burbuja de filtro fue acuñado por el activista de Internet Eli Pariser, alrededor de 2010.

Pariser definió su concepto de burbuja de filtro en términos más formales como "ese ecosistema personal de información que ha sido atendido por estos algoritmos". [8] El historial de navegación y búsqueda de un usuario de Internet se acumula con el tiempo cuando indica interés en temas al "hacer clic en enlaces, ver amigos, poner películas en [su] cola, leer noticias", etc. [19] Luego, una empresa de Internet utiliza esta información para dirigir la publicidad al usuario o hacer que ciertos tipos de información aparezcan de manera más destacada en las páginas de resultados de búsqueda . [19]

Este proceso no es aleatorio, ya que opera bajo un proceso de tres pasos, según Pariser, quien afirma: "Primero, descubres quiénes son las personas y qué les gusta. Luego, les proporcionas el contenido y los servicios que mejor se adaptan a ellos. Finalmente, sintonizas para lograr el ajuste perfecto. Tu identidad da forma a tus medios". [20] Pariser también informa:

Según un estudio del Wall Street Journal , los cincuenta principales sitios de Internet, desde CNN hasta Yahoo y MSN, instalan un promedio de 64 cookies cargadas de datos y balizas de seguimiento personal. Busque una palabra como "depresión" en Dictionary.com y el sitio instalará hasta 223 cookies y balizas de seguimiento en su computadora para que otros sitios web puedan enviarle antidepresivos. Comparta un artículo sobre cocina en ABC News y es posible que le persigan anuncios de ollas recubiertas de teflón en la Web. Abra, aunque sea por un instante, una página que enumere señales de que su cónyuge puede estar infiel y prepárese para ser perseguido por anuncios de pruebas de paternidad de ADN. [21]

El acceso a los datos de clics en enlaces que se muestran a través de las mediciones de tráfico del sitio determina que las burbujas de filtro pueden ser colectivas o individuales. [22]

En 2011, un ingeniero le había dicho a Pariser que Google analizaba 57 datos diferentes para adaptar personalmente los resultados de búsqueda de un usuario, incluidos datos que no son cookies, como el tipo de computadora que se utiliza y la ubicación física del usuario. [23]

La idea de Pariser de la burbuja de filtro se popularizó después de la charla TED de mayo de 2011, en la que dio ejemplos de cómo funcionan las burbujas de filtro y dónde se pueden ver. En una prueba que buscaba demostrar el efecto de la burbuja del filtro, Pariser pidió a varios amigos que buscaran la palabra "Egipto" en Google y le enviaran los resultados. Al comparar las primeras páginas de resultados de dos de los amigos, si bien había superposición entre ellos en temas como noticias y viajes, los resultados de un amigo incluían de manera destacada enlaces a información sobre la entonces en curso revolución egipcia de 2011 , mientras que la primera página de resultados del otro amigo no incluía dichos enlaces. [24]

En The Filter Bubble , Pariser advierte que una posible desventaja de la búsqueda filtrada es que "nos cierra a nuevas ideas, temas e información importante" [25] y "crea la impresión de que nuestro estrecho interés personal es todo lo que existe". ". [9] En su opinión, las burbujas filtrantes son potencialmente dañinas tanto para los individuos como para la sociedad. Criticó a Google y Facebook por ofrecer a los usuarios "demasiados dulces y pocas zanahorias". [26] Advirtió que la "edición algorítmica invisible de la web" puede limitar nuestra exposición a nueva información y reducir nuestra perspectiva. [26] Según Pariser, los efectos perjudiciales de las burbujas de filtro incluyen daños a la sociedad en general en el sentido de que tienen la posibilidad de "socavar el discurso cívico" y hacer que las personas sean más vulnerables a la "propaganda y la manipulación". [9] Él escribió:

Un mundo construido a partir de lo familiar es un mundo en el que no hay nada que aprender... (ya que hay) autopropaganda invisible, adoctrinándonos con nuestras propias ideas.

—  Eli Pariser en The Economist , 2011 [27]

Mucha gente ni siquiera sabe que existen las burbujas filtrantes. Esto se puede ver en un artículo de The Guardian, que menciona el hecho de que "más del 60% de los usuarios de Facebook desconocen por completo cualquier curación en Facebook, creyendo en cambio que cada historia de sus amigos y páginas seguidas apareció en sus noticias." [28] Una breve explicación de cómo Facebook decide lo que sucede en las noticias de un usuario es a través de un algoritmo que tiene en cuenta "cómo ha interactuado con publicaciones similares en el pasado". [28]

Extensiones de concepto

Se ha descrito que una burbuja de filtro exacerba un fenómeno llamado splinternet o ciberbalcanización , [Nota 1] que ocurre cuando Internet se divide en subgrupos de personas con ideas afines que quedan aisladas dentro de su propia comunidad en línea y no logran exponerse a diferentes puntos de vista. Esta preocupación se remonta a los primeros días de Internet de acceso público, cuando el término "ciberbalcanización" se acuñó en 1996. [29] [30] [31] Se han utilizado otros términos para describir este fenómeno, incluidos " marcos ideológicos " [ 9] y "la esfera figurativa que te rodea mientras buscas en Internet". [19]

El concepto de burbuja de filtro se ha extendido a otras áreas, para describir sociedades que se autosegregan según puntos de vista políticos pero también situaciones económicas, sociales y culturales. [32] Ese burbujeo resulta en una pérdida de la comunidad en general y crea la sensación de que, por ejemplo, los niños no pertenecen a eventos sociales a menos que esos eventos hayan sido especialmente planificados para ser atractivos para los niños y poco atractivos para los adultos sin hijos. [32]

El discurso de despedida de Barack Obama identificó un concepto similar para filtrar las burbujas como una "amenaza a la democracia [de los estadounidenses]", es decir, la "retirada a nuestras propias burbujas,... especialmente a nuestras redes sociales, rodeadas de personas que se parecen a nosotros y compartimos la misma perspectiva política y nunca cuestionamos nuestras suposiciones... Y cada vez más, nos volvemos tan seguros en nuestras burbujas que empezamos a aceptar sólo información, sea cierta o no, que se ajuste a nuestras opiniones, en lugar de basar nuestras opiniones en la evidencia de que está ahí afuera." [33]

Comparación con cámaras de eco.

Tanto las "cámaras de eco" como las "burbujas de filtro" describen situaciones en las que las personas están expuestas a una gama limitada de opiniones y perspectivas que refuerzan sus creencias y prejuicios existentes, pero existen algunas diferencias sutiles entre las dos, especialmente en las prácticas relacionadas con las redes sociales. [34] [35]

Específicamente para los medios de comunicación , una cámara de eco es una descripción metafórica de una situación en la que las creencias se amplifican o refuerzan mediante la comunicación y la repetición dentro de un sistema cerrado. [36] [37] Basado en el concepto sociológico de la teoría de la exposición selectiva , el término es una metáfora basada en la cámara de eco acústico, donde los sonidos reverberan en un recinto hueco. Con respecto a las redes sociales, este tipo de situación alimenta mecanismos explícitos de personalización autoseleccionada , que describe todos los procesos en los que los usuarios de una plataforma determinada pueden optar activamente por participar o no en el consumo de información, como la capacidad de un usuario de seguir a otros usuarios. o seleccionar en grupos. [38]

En una cámara de resonancia, las personas pueden buscar información que refuerce sus puntos de vista existentes, potencialmente como un ejercicio inconsciente de sesgo de confirmación . Este tipo de regulación por retroalimentación puede aumentar la polarización y el extremismo político y social . Esto puede llevar a que los usuarios se agreguen en grupos homofílicos dentro de las redes sociales, lo que contribuye a la polarización del grupo. [39] Las "cámaras de eco" refuerzan las creencias de un individuo sin apoyo fáctico. Los individuos están rodeados de quienes reconocen y siguen los mismos puntos de vista, pero también poseen la capacidad de salir de las cámaras de eco. [40]

Por otro lado, las burbujas de filtro son mecanismos implícitos de personalización preseleccionada , donde el consumo de medios de un usuario es creado mediante algoritmos personalizados; El contenido que ve un usuario se filtra a través de un algoritmo impulsado por IA que refuerza sus creencias y preferencias existentes, excluyendo potencialmente perspectivas contrarias o diversas. En este caso, los usuarios tienen un papel más pasivo y son percibidos como víctimas de una tecnología que automáticamente limita su exposición a información que desafiaría su visión del mundo. [38] Algunos investigadores argumentan, sin embargo, que debido a que los usuarios todavía desempeñan un papel activo en la selección selectiva de sus propias fuentes de noticias y fuentes de información a través de sus interacciones con los motores de búsqueda y las redes sociales, ayudan directamente en el proceso de filtrado mediante algoritmos impulsados ​​por IA. , participando así eficazmente en burbujas de filtro autosegregantes. [41]

A pesar de sus diferencias, el uso de estos términos va de la mano tanto en estudios académicos como de plataformas. A menudo es difícil distinguir entre los dos conceptos en los estudios de redes sociales, debido a las limitaciones en la accesibilidad de los algoritmos de filtrado, que tal vez podrían permitir a los investigadores comparar y contrastar las agencias de los dos conceptos. [42] Este tipo de investigación seguirá siendo cada vez más difícil de realizar, ya que muchas redes sociales también han comenzado a limitar el acceso a API necesario para la investigación académica. [43]

Reacciones y estudios

Reacciones de los medios

Hay informes contradictorios sobre hasta qué punto se realiza el filtrado personalizado y si dicha actividad es beneficiosa o perjudicial. El analista Jacob Weisberg, que escribió en junio de 2011 para Slate , realizó un pequeño experimento no científico para probar la teoría de Pariser en el que participaron cinco asociados con diferentes antecedentes ideológicos que realizaron una serie de búsquedas: " John Boehner ", " Barney Frank " , " plan Ryan " , " y " Obamacare ", y enviando a Weisberg capturas de pantalla de sus resultados. Los resultados variaron sólo en aspectos menores de persona a persona, y cualquier diferencia no parecía estar relacionada con la ideología, lo que llevó a Weisberg a concluir que una burbuja de filtro no estaba en efecto, y a escribir que la idea de que la mayoría de los usuarios de Internet estaban "alimentando en el punto más bajo de un Daily Me " fue exagerado. [9] Weisberg pidió a Google que hiciera comentarios, y un portavoz declaró que se habían implementado algoritmos para "limitar deliberadamente la personalización y promover la variedad". [9] El crítico de libros Paul Boutin hizo un experimento similar al de Weisberg entre personas con diferentes historiales de búsqueda y nuevamente encontró que los diferentes buscadores recibían resultados de búsqueda casi idénticos. [6] Entrevistando a programadores de Google, extraoficialmente, el periodista Per Grankvist  [sv] descubrió que los datos del usuario solían desempeñar un papel más importante en la determinación de los resultados de búsqueda, pero que Google, a través de pruebas, descubrió que la consulta de búsqueda es, con diferencia, el mejor determinante. de qué resultados mostrar. [44]

Hay informes de que Google y otros sitios mantienen vastos "expedientes" de información sobre sus usuarios, lo que podría permitirles personalizar aún más las experiencias individuales de Internet si así lo deciden. Por ejemplo, existe la tecnología para que Google realice un seguimiento de los historiales de los usuarios incluso si no tienen una cuenta personal de Google o no han iniciado sesión en una. [6] Un informe afirmó que Google había recopilado "10 años" de información recopilada de diversas fuentes, como Gmail , Google Maps y otros servicios además de su motor de búsqueda, [10] [ verificación fallida ] aunque se informó lo contrario. que intentar personalizar Internet para cada usuario era técnicamente un desafío para una empresa de Internet a pesar de las enormes cantidades de datos disponibles. [ cita necesaria ] El analista Doug Gross de CNN sugirió que la búsqueda filtrada parecía ser más útil para los consumidores que para los ciudadanos , y ayudaría a un consumidor que busca "pizza" a encontrar opciones de entrega local basadas en una búsqueda personalizada y filtrar adecuadamente las pizzerías distantes. . [10] [ verificación fallida ] Organizaciones como el Washington Post , The New York Times y otras han experimentado con la creación de nuevos servicios de información personalizados, con el objetivo de adaptar los resultados de búsqueda a aquellos que a los usuarios probablemente les gusten o con los que estén de acuerdo. [9]

Estudios académicos y reacciones.

Un estudio científico de Wharton que analizó recomendaciones personalizadas también encontró que estos filtros pueden crear puntos en común, no fragmentación, en el gusto musical en línea. [45] Según se informa, los consumidores utilizan los filtros para ampliar su gusto en lugar de limitarlo. [45] El profesor de derecho de Harvard, Jonathan Zittrain, cuestionó hasta qué punto los filtros de personalización distorsionan los resultados de búsqueda de Google, diciendo que "los efectos de la personalización de la búsqueda han sido leves". [9] Además, Google ofrece a los usuarios la posibilidad de desactivar las funciones de personalización si así lo desean [46] eliminando el registro de Google de su historial de búsqueda y configurando a Google para que no recuerde sus palabras clave de búsqueda y enlaces visitados en el futuro. [6]

Un estudio de Internet Policy Review abordó la falta de una definición clara y comprobable de burbujas de filtro en todas las disciplinas; Esto a menudo da como resultado que los investigadores definan y estudien las burbujas de filtro de diferentes maneras. [47] Posteriormente, el estudio explicó la falta de datos empíricos sobre la existencia de burbujas de filtro en todas las disciplinas [12] y sugirió que los efectos atribuidos a ellas pueden deberse más a sesgos ideológicos preexistentes que a algoritmos. Se pueden encontrar puntos de vista similares en otros proyectos académicos, que también abordan inquietudes sobre las definiciones de burbujas de filtro y las relaciones entre los factores ideológicos y tecnológicos asociados con ellas. [48] ​​Una revisión crítica de las burbujas de filtro sugirió que "la tesis de la burbuja de filtro a menudo postula un tipo especial de ser humano político que tiene opiniones fuertes, pero al mismo tiempo altamente maleables" y que es una "paradoja que la gente tenga una agencia activa cuando seleccionan contenido, pero son receptores pasivos una vez que están expuestos al contenido seleccionado algorítmicamente que se les recomienda". [49]

Un estudio realizado por investigadores de Oxford, Stanford y Microsoft examinó los historiales de navegación de 1,2 millones de usuarios estadounidenses del complemento Bing Toolbar para Internet Explorer entre marzo y mayo de 2013. Seleccionaron 50.000 de esos usuarios que eran consumidores activos de noticias y luego clasificaron si los medios de comunicación que visitaron eran de izquierda o de derecha, según si la mayoría de los votantes en los condados asociados con las direcciones IP de los usuarios votaron por Obama o Romney en las elecciones presidenciales de 2012. Luego identificaron si las noticias se leyeron después de acceder directamente al sitio del editor, a través del servicio de agregación de Google News, búsquedas web o redes sociales. Los investigadores descubrieron que, si bien las búsquedas en la web y las redes sociales contribuyen a la segregación ideológica, la gran mayoría del consumo de noticias en línea consistía en usuarios que visitaban directamente sitios de noticias de izquierda o de derecha y, en consecuencia, estaban expuestos casi exclusivamente a opiniones de un solo lado de la sociedad. el espectro político. Las limitaciones del estudio incluyeron cuestiones de selección, como que los usuarios de Internet Explorer tenían una edad mayor que la de la población general de Internet; El uso de la barra de herramientas de Bing y el intercambio voluntario (o sin saberlo) de la selección del historial de navegación para usuarios que están menos preocupados por la privacidad; la suposición de que todas las historias en las publicaciones de izquierda son de izquierda, y lo mismo ocurre con las de derecha; y la posibilidad de que los usuarios que no son consumidores activos de noticias obtengan la mayor parte de sus noticias a través de las redes sociales y, por lo tanto, experimenten efectos más fuertes de sesgo social o algorítmico que aquellos usuarios que esencialmente autoseleccionan su sesgo a través de su elección de publicaciones de noticias (suponiendo que son conscientes de los sesgos de las publicaciones). [50]

Un estudio realizado por investigadores de la Universidad de Princeton y la Universidad de Nueva York tuvo como objetivo estudiar el impacto de la burbuja de filtro y el filtrado algorítmico en la polarización de las redes sociales. Utilizaron un modelo matemático llamado " modelo de bloques estocásticos " para probar su hipótesis en los entornos de Reddit y Twitter. Los investigadores midieron los cambios en la polarización en las redes sociales regularizadas y en las redes no regularizadas, midiendo específicamente los cambios porcentuales en la polarización y el desacuerdo en Reddit y Twitter. Descubrieron que la polarización aumentó significativamente en un 400% en las redes no regularizadas, mientras que la polarización aumentó un 4% en las redes regularizadas y el desacuerdo en un 5%. [51]

Estudios de plataforma

Si bien los algoritmos limitan la diversidad política, algunas de las burbujas de filtro son el resultado de la elección del usuario. [52] Un estudio realizado por científicos de datos de Facebook encontró que los usuarios tienen un amigo con opiniones contrastantes por cada cuatro amigos de Facebook que comparten una ideología. [53] [54] No importa cuál sea el algoritmo de Facebook para su sección de noticias , es más probable que las personas se hagan amigas o sigan a personas que comparten creencias similares. [53] La naturaleza del algoritmo es que clasifica las historias basándose en el historial de un usuario, lo que resulta en una reducción del "contenido políticamente transversal en un 5 por ciento para los conservadores y un 8 por ciento para los liberales". [53] Sin embargo, incluso cuando a las personas se les da la opción de hacer clic en un enlace que ofrece vistas contrastantes, siguen accediendo de forma predeterminada a sus fuentes más vistas. [53] "La elección del usuario reduce la probabilidad de hacer clic en un enlace transversal en un 17 por ciento para los conservadores y un 6 por ciento para los liberales". [53] Un vínculo transversal es aquel que introduce un punto de vista diferente al presunto punto de vista del usuario o lo que el sitio web ha catalogado como creencias del usuario. [55] Un estudio reciente de Levi Boxell, Matthew Gentzkow y Jesse M. Shapiro sugiere que los medios en línea no son la fuerza impulsora de la polarización política. [56] El artículo sostiene que la polarización ha sido impulsada por los grupos demográficos que pasan menos tiempo en línea. La mayor división ideológica se experimenta entre los estadounidenses mayores de 75 años, mientras que solo el 20% informó usar las redes sociales en 2012. En contraste, el 80% de los estadounidenses entre 18 y 39 años informaron usar las redes sociales en 2012. Los datos sugieren que el grupo demográfico más joven no está más polarizado en 2012 que cuando los medios en línea apenas existían en 1996. El estudio destaca las diferencias entre los grupos de edad y cómo el consumo de noticias sigue polarizado a medida que las personas buscan información que apele a sus ideas preconcebidas. Los estadounidenses mayores suelen permanecer estancados en sus opiniones políticas, ya que los medios de comunicación tradicionales siguen siendo la principal fuente de noticias, mientras que los medios en línea son la principal fuente para el grupo demográfico más joven. Aunque los algoritmos y las burbujas de filtro debilitan la diversidad de contenidos, este estudio revela que las tendencias de polarización política están impulsadas principalmente por opiniones preexistentes y la falta de reconocimiento de fuentes externas. Un estudio de 2020 realizado en Alemania utilizó el modelo de Psicología de los Cinco Grandes para probar los efectos de la personalidad, la demografía y las ideologías individuales en el consumo de noticias de los usuarios. [57]Basando su estudio en la noción de que la cantidad de fuentes de noticias que consumen los usuarios afecta su probabilidad de quedar atrapados en una burbuja de filtro (y una mayor diversidad de medios disminuye las posibilidades), sus resultados sugieren que ciertos datos demográficos (mayor edad y hombres) junto con cierta personalidad Los rasgos (alta apertura) se correlacionan positivamente con una serie de fuentes de noticias consumidas por los individuos. El estudio también encontró una asociación ideológica negativa entre la diversidad de los medios y el grado en que los usuarios se alinean con el autoritarismo de derecha. Más allá de ofrecer diferentes factores de usuario individuales que pueden influir en el papel de la elección del usuario, este estudio también plantea preguntas y asociaciones entre la probabilidad de que los usuarios queden atrapados en burbujas de filtro y el comportamiento de votación de los usuarios. [57]

El estudio de Facebook encontró que no era "concluyente" si el algoritmo desempeñaba o no un papel tan importante en el filtrado de noticias como la gente suponía. [58] El estudio también encontró que la "elección individual", o sesgo de confirmación, también afectó lo que se filtra de las fuentes de noticias. [58] Algunos científicos sociales criticaron esta conclusión porque el objetivo de protestar contra la burbuja de filtro es que los algoritmos y la elección individual trabajan juntos para filtrar las fuentes de noticias. [59] También criticaron el pequeño tamaño de la muestra de Facebook, que es aproximadamente "el 9% de los usuarios reales de Facebook", y el hecho de que los resultados del estudio "no son reproducibles" debido al hecho de que el estudio fue realizado por "científicos de Facebook" que tuvo acceso a datos que Facebook no pone a disposición de investigadores externos. [60]

Aunque el estudio encontró que sólo entre el 15% y el 20% de los amigos de un usuario promedio de Facebook se suscriben al lado opuesto del espectro político, Julia Kaman de Vox teorizó que esto podría tener implicaciones potencialmente positivas para la diversidad de puntos de vista. Estos "amigos" suelen ser conocidos con quienes probablemente no compartiríamos nuestra política sin Internet. Facebook puede fomentar un entorno único donde un usuario ve y posiblemente interactúa con el contenido publicado o vuelto a publicar por estos amigos de "segundo nivel". El estudio encontró que "el 24 por ciento de las noticias que vieron los liberales eran de tendencia conservadora y el 38 por ciento de las noticias que vieron los conservadores eran de tendencia liberal". [61] "Los liberales tienden a estar conectados con menos amigos que comparten información del otro lado, en comparación con sus homólogos conservadores". [62] Esta interacción tiene la capacidad de proporcionar información diversa y fuentes que podrían moderar las opiniones de los usuarios.

De manera similar, un estudio de las burbujas de filtro de Twitter realizado por la Universidad de Nueva York concluyó que "los individuos ahora tienen acceso a una gama más amplia de puntos de vista sobre los acontecimientos noticiosos, y la mayor parte de esta información no proviene de los canales tradicionales, sino directamente de los actores políticos". o a través de sus amigos y familiares. Además, la naturaleza interactiva de las redes sociales crea oportunidades para que las personas discutan eventos políticos con sus pares, incluidos aquellos con quienes tienen vínculos sociales débiles". [63] Según estos estudios, las redes sociales pueden estar diversificando la información y las opiniones con las que los usuarios entran en contacto, aunque hay mucha especulación sobre las burbujas de filtro y su capacidad para crear una polarización política más profunda .

Un factor y una posible solución al problema es el papel de las emociones en el contenido en línea. Un estudio de 2018 muestra que las diferentes emociones de los mensajes pueden conducir a la polarización o la convergencia: la alegría prevalece en la polarización emocional, mientras que la tristeza y el miedo desempeñan un papel importante en la convergencia emocional. [64] Dado que es relativamente fácil detectar el contenido emocional de los mensajes, estos hallazgos pueden ayudar a diseñar algoritmos más socialmente responsables al comenzar a centrarse en el contenido emocional de las recomendaciones algorítmicas.

Visualización del proceso y crecimiento de dos bots de redes sociales utilizados en el estudio de Weibo de 2019. Los diagramas representan dos aspectos de la estructura de las burbujas de filtro, según el estudio: grandes concentraciones de usuarios en torno a temas únicos y una estructura unidireccional en forma de estrella que impacta los flujos de información clave.

Diferentes investigadores han utilizado robots sociales para probar la polarización y los efectos relacionados que se atribuyen a las burbujas de filtro y las cámaras de eco. [65] [66] Un estudio de 2018 utilizó robots sociales en Twitter para probar la exposición deliberada de los usuarios a puntos de vista partidistas. [65] El estudio afirmó que demostraba diferencias partidistas entre la exposición a diferentes puntos de vista, aunque advirtió que los hallazgos deberían limitarse a los usuarios estadounidenses de Twitter registrados en partidos. Uno de los principales hallazgos fue que después de exponerse a diferentes puntos de vista (proporcionados por los robots), los republicanos autoregistrados se volvieron más conservadores, mientras que los liberales autoregistrados mostraron menos cambios ideológicos, o ninguno. Un estudio diferente de la República Popular China utilizó robots sociales en Weibo , la plataforma de redes sociales más grande de China, para examinar la estructura de las burbujas de filtro con respecto a sus efectos sobre la polarización. [66] El estudio establece una distinción entre dos concepciones de polarización. Uno es cuando personas con puntos de vista similares forman grupos, comparten opiniones similares y se bloquean de puntos de vista diferentes (polarización de opiniones), y el otro es donde las personas no acceden a contenidos y fuentes de información diversos (polarización de información). Al utilizar robots sociales en lugar de voluntarios humanos y centrarse más en la polarización de la información que en la opinión, los investigadores concluyeron que hay dos elementos esenciales de una burbuja de filtro: una gran concentración de usuarios en torno a un solo tema y una estrella unidireccional. -estructura similar que impacta los flujos de información clave.

En junio de 2018, la plataforma DuckDuckGo realizó un estudio de investigación sobre Google Web Browser Platform. Para este estudio, 87 adultos en varios lugares de los Estados Unidos continentales buscaron en Google tres palabras clave exactamente al mismo tiempo: inmigración, control de armas y vacunas. Incluso en el modo de navegación privada, la mayoría de las personas vieron resultados exclusivos para ellos. Google incluyó ciertos enlaces para algunos que no incluyó para otros participantes, y los cuadros de información de Noticias y Videos mostraron una variación significativa. Google cuestionó públicamente estos resultados diciendo que la personalización de la página de resultados del motor de búsqueda (SERP) es principalmente un mito. El enlace de búsqueda de Google, Danny Sullivan, afirmó que “a lo largo de los años, se ha desarrollado el mito de que la Búsqueda de Google se personaliza tanto que, para la misma consulta, diferentes personas pueden obtener resultados significativamente diferentes entre sí. Este no es el caso. Los resultados pueden diferir, pero normalmente por motivos no personalizados”. [67]

Cuando las burbujas de filtro están en su lugar, pueden crear momentos específicos que los científicos llaman momentos "Guau". Un momento 'Wow' es cuando aparece en su computadora un artículo, anuncio, publicación, etc. que está relacionado con una acción actual o el uso actual de un objeto. Los científicos descubrieron este término después de que una joven estaba realizando su rutina diaria, que incluía tomar café cuando abrió su computadora y notó un anuncio de la misma marca de café que estaba bebiendo. "Me senté y abrí Facebook esta mañana mientras tomaba mi café, y allí había dos anuncios de Nespresso . Es una especie de momento 'whoa' cuando el producto que estás bebiendo aparece en la pantalla frente a ti". [68] Los momentos de "guau" ocurren cuando "encuentran" a las personas. Lo que significa que los algoritmos publicitarios se dirigen a usuarios específicos en función de su "comportamiento de clic" para aumentar sus ingresos por ventas.

Varios diseñadores han desarrollado herramientas para contrarrestar los efectos de las burbujas de filtro (ver § Contramedidas). [69] La emisora ​​de radio suiza SRF votó la palabra filterblase (la traducción alemana de burbuja de filtro) como palabra del año 2016. [70]

Contramedidas

Por individuos

En The Filter Bubble: What the Internet Is Hiding from You , [71] el activista de Internet Eli Pariser destaca cómo la creciente aparición de burbujas de filtro enfatiza aún más el valor del capital social puente según lo define Robert Putman. Pariser sostiene que las burbujas de filtro refuerzan una sensación de homogeneidad social, lo que debilita los vínculos entre personas con intereses y puntos de vista potencialmente divergentes. [72] En ese sentido, un alto capital puente puede promover la inclusión social al aumentar nuestra exposición a un espacio que va más allá de los intereses propios. Fomentar el capital puente, por ejemplo conectando con más personas en un entorno informal, puede ser una forma eficaz de reducir el fenómeno de la burbuja de filtros.

Los usuarios pueden realizar muchas acciones para superar sus burbujas de filtro, por ejemplo, haciendo un esfuerzo consciente para evaluar a qué información se exponen y pensando críticamente si están interactuando con una amplia gama de contenidos. [73] Los usuarios pueden evitar conscientemente fuentes de noticias que no sean verificables o débiles. Chris Glushko, vicepresidente de marketing de IAB, aboga por el uso de sitios de verificación de datos para identificar noticias falsas. [74] La tecnología también puede desempeñar un papel valioso en la lucha contra las burbujas de filtro. [75]

Algunos complementos de navegador tienen como objetivo ayudar a las personas a salir de sus burbujas de filtro y hacerles conscientes de sus perspectivas personales; así, estos medios muestran contenidos que contradicen sus creencias y opiniones. Además de los complementos, existen aplicaciones creadas con la misión de animar a los usuarios a abrir sus cámaras de eco. Las aplicaciones de noticias como Read Across the Aisle empujan a los usuarios a leer diferentes perspectivas si su patrón de lectura está sesgado hacia un lado/ideología. [76] Aunque las aplicaciones y los complementos son herramientas que los humanos pueden usar, Eli Pariser afirmó que "ciertamente, aquí existe cierta responsabilidad individual de buscar realmente nuevas fuentes y personas que no sean como usted". [52]

Dado que la publicidad basada en web puede aumentar el efecto de las burbujas de filtro al exponer a los usuarios a más del mismo contenido, los usuarios pueden bloquear gran parte de la publicidad eliminando su historial de búsqueda, desactivando los anuncios dirigidos y descargando extensiones del navegador. Algunos utilizan motores de búsqueda anónimos o no personalizados como YaCy , DuckDuckGo , Qwant , Startpage.com , Disconnect y Searx para evitar que las empresas recopilen sus datos de búsqueda web. El diario suizo Neue Zürcher Zeitung está probando una aplicación de motor de noticias personalizado que utiliza el aprendizaje automático para adivinar qué contenido le interesa a un usuario, "siempre incluyendo un elemento sorpresa"; La idea es mezclar historias que es poco probable que un usuario haya seguido en el pasado. [77]

La Unión Europea está tomando medidas para paliar el efecto de la burbuja del filtro. El Parlamento Europeo está patrocinando investigaciones sobre cómo las burbujas de filtro afectan la capacidad de las personas para acceder a diversas noticias. [78] Además, introdujo un programa destinado a educar a los ciudadanos sobre las redes sociales. [79] En Estados Unidos, el panel de CSCW sugiere el uso de aplicaciones de agregación de noticias para ampliar la ingesta de noticias de los consumidores de medios. Las aplicaciones de agregación de noticias escanean todos los artículos de noticias actuales y lo dirigen a diferentes puntos de vista sobre un tema determinado. Los usuarios también pueden utilizar un balanceador de noticias con conciencia diversa que muestra visualmente al consumidor de medios si se inclina hacia la izquierda o hacia la derecha cuando se trata de leer las noticias, indicando si se inclina hacia la derecha con una barra roja más grande o si se inclina hacia la izquierda con una barra azul más grande. Un estudio que evaluó este equilibrador de noticias encontró "un cambio pequeño pero notable en el comportamiento de lectura, hacia una exposición más equilibrada, entre los usuarios que vieron los comentarios, en comparación con un grupo de control". [80]

Por empresas de medios

A la luz de las recientes preocupaciones sobre el filtrado de información en las redes sociales, Facebook reconoció la presencia de burbujas de filtro y ha tomado medidas para eliminarlas. [81] En enero de 2017, Facebook eliminó la personalización de su lista de Trending Topics en respuesta a problemas con algunos usuarios que no veían allí eventos muy comentados. [82] La estrategia de Facebook es revertir la función de artículos relacionados que había implementado en 2013, que publicaría noticias relacionadas después de que el usuario leyera un artículo compartido. Ahora, la estrategia renovada invertiría este proceso y publicaría artículos desde diferentes perspectivas sobre el mismo tema. Facebook también está intentando pasar por un proceso de investigación mediante el cual sólo se mostrarán artículos de fuentes confiables. Junto con el fundador de Craigslist y algunos otros, Facebook ha invertido 14 millones de dólares en esfuerzos "para aumentar la confianza en el periodismo en todo el mundo e informar mejor la conversación pública". [81] La idea es que incluso si las personas solo leen publicaciones compartidas por sus amigos, al menos estas publicaciones serán creíbles.

Asimismo, Google, a 30 de enero de 2018, también ha reconocido la existencia de una burbuja de filtros con dificultades dentro de su plataforma. Debido a que las búsquedas actuales de Google obtienen resultados clasificados algorítmicamente según la "autoridad" y la "relevancia" que muestran y ocultan ciertos resultados de búsqueda, Google está tratando de combatir esto. Al entrenar su motor de búsqueda para que reconozca la intención de una consulta de búsqueda en lugar de la sintaxis literal de la pregunta, Google intenta limitar el tamaño de las burbujas de filtro. A partir de ahora, la fase inicial de esta formación se introducirá en el segundo trimestre de 2018. Las cuestiones que impliquen sesgos y/u opiniones controvertidas no se abordarán hasta más adelante, lo que provocará un problema mayor que aún existe: si el motor de búsqueda Actúa como árbitro de la verdad o como guía experto para tomar decisiones. [83]

En abril de 2017, surgió la noticia de que Facebook, Mozilla y Craigslist contribuyeron con la mayor parte de una donación de 14 millones de dólares a la "Iniciativa de Integridad de las Noticias" de CUNY , destinada a eliminar las noticias falsas y crear medios de comunicación más honestos. [84]

Más tarde, en agosto, Mozilla, creadores del navegador web Firefox , anunció la formación de Mozilla Information Trust Initiative (MITI). El +MITI serviría como un esfuerzo colectivo para desarrollar productos, investigaciones y soluciones comunitarias para combatir los efectos de las burbujas de filtro y la proliferación de noticias falsas. El equipo de Innovación Abierta de Mozilla lidera la iniciativa, esforzándose por combatir la desinformación, con un enfoque específico en el producto en lo que respecta a alfabetización, investigación e intervenciones creativas. [85]

Implicaciones éticas

A medida que aumenta la popularidad de los servicios en la nube , se espera que se generalicen los algoritmos personalizados utilizados para construir burbujas de filtros. [86] Los académicos han comenzado a considerar el efecto de las burbujas de filtro en los usuarios de las redes sociales desde un punto de vista ético , particularmente en lo que respecta a las áreas de libertad personal , seguridad y sesgo de información . [87] Las burbujas de filtro en las redes sociales populares y los sitios de búsqueda personalizados pueden determinar el contenido particular que ven los usuarios, a menudo sin su consentimiento o conocimiento directo, [86] debido a los algoritmos utilizados para seleccionar ese contenido. El contenido de creación propia que se manifiesta a partir de patrones de comportamiento puede conducir a una ceguera parcial de la información. [88] Los críticos del uso de burbujas de filtro especulan que los individuos pueden perder autonomía sobre su propia experiencia en las redes sociales y tener sus identidades socialmente construidas como resultado de la omnipresencia de las burbujas de filtro. [86]

Tecnólogos, ingenieros de redes sociales y especialistas en informática también han examinado la prevalencia de las burbujas de filtro. [89] Mark Zuckerberg , fundador de Facebook, y Eli Pariser, autor de The Filter Bubble , han expresado su preocupación por los riesgos de la privacidad y la polarización de la información. [90] [91] La información de los usuarios de motores de búsqueda personalizados y plataformas de redes sociales no es privada, aunque algunas personas creen que debería serlo. [90] La preocupación por la privacidad ha dado lugar a un debate sobre si es moral o no que los tecnólogos de la información tomen la actividad en línea de los usuarios y manipulen la exposición futura a información relacionada. [91]

Algunos académicos han expresado su preocupación por los efectos de las burbujas de filtro en el bienestar individual y social, es decir, la difusión de información sanitaria al público en general y los efectos potenciales de los motores de búsqueda de Internet para alterar el comportamiento relacionado con la salud. [16] [17] [18] [92] Un libro multidisciplinario de 2019 informó investigaciones y perspectivas sobre el papel que desempeñan las burbujas de filtro con respecto a la desinformación sobre la salud. [18] Partiendo de diversos campos como el periodismo, el derecho, la medicina y la psicología de la salud, el libro aborda diferentes creencias controvertidas sobre la salud (por ejemplo, medicina alternativa y pseudociencia), así como posibles remedios a los efectos negativos de las burbujas de filtro y las cámaras de eco en diferentes áreas. Temas en el discurso de salud. Un estudio de 2016 sobre los posibles efectos de las burbujas de filtro en los resultados de los motores de búsqueda relacionados con el suicidio encontró que los algoritmos desempeñan un papel importante a la hora de mostrar o no a los usuarios las líneas de ayuda y resultados de búsqueda similares y analizó las implicaciones que su investigación puede tener para las políticas de salud. [17] Otro estudio de 2016 de la revista Croatian Medical propuso algunas estrategias para mitigar los efectos potencialmente dañinos de las burbujas de filtro en la información de salud, tales como: informar más al público sobre las burbujas de filtro y sus efectos asociados, que los usuarios elijan probar alternativas [a Google ] motores de búsqueda y más explicaciones de los procesos que utilizan los motores de búsqueda para determinar los resultados mostrados. [dieciséis]

Dado que el contenido que ven los usuarios individuales de las redes sociales está influenciado por algoritmos que producen burbujas de filtro, los usuarios de las plataformas de redes sociales son más susceptibles al sesgo de confirmación , [93] y pueden estar expuestos a información sesgada y engañosa. [94] También se prevé la clasificación social y otras prácticas discriminatorias no intencionadas como resultado del filtrado personalizado. [95]

A la luz de las elecciones presidenciales estadounidenses de 2016, los académicos también han expresado su preocupación por el efecto de las burbujas de filtro en la democracia y los procesos democráticos, así como por el surgimiento de los "medios ideológicos". [11] Estos académicos temen que los usuarios no puedan "[pensar] más allá de [su] estrecho interés personal", ya que las burbujas de filtro crean feeds sociales personalizados, aislándolos de diversos puntos de vista y de sus comunidades circundantes. [96] Por esta razón, una posibilidad cada vez más discutida es diseñar redes sociales con más serendipia, es decir, recomendar proactivamente contenido que se encuentre fuera de la burbuja de filtro, incluida información política desafiante y, eventualmente, proporcionar filtros y herramientas empoderadores a los usuarios. . [97] [98] [99] Una preocupación relacionada es, de hecho, cómo las burbujas de filtro contribuyen a la proliferación de " noticias falsas " y cómo esto puede influir en la inclinación política, incluida la forma en que votan los usuarios. [11] [100] [101]

Las revelaciones de marzo de 2018 sobre la recopilación y el uso de datos de usuarios de Cambridge Analytica para al menos 87 millones de perfiles de Facebook durante las elecciones presidenciales de 2016 resaltan las implicaciones éticas de las burbujas de filtro. [102] El cofundador y denunciante de Cambridge Analytica, Christopher Wylie, detalló cómo la empresa tenía la capacidad de desarrollar perfiles "psicográficos" de esos usuarios y utilizar la información para moldear su comportamiento de votación. [103] El acceso a los datos de los usuarios por parte de terceros como Cambridge Analytica puede exasperar y amplificar las burbujas de filtro existentes que los usuarios han creado, aumentando artificialmente los sesgos existentes y dividiendo aún más a las sociedades.

Peligros

Las burbujas de filtros surgieron de un aumento en la personalización de los medios, que puede atrapar a los usuarios. El uso de IA para personalizar ofertas puede llevar a que los usuarios vean solo contenido que refuerce sus propios puntos de vista sin desafiarlos. Los sitios web de redes sociales como Facebook también pueden presentar contenido de una manera que dificulte a los usuarios determinar la fuente del contenido, lo que los lleva a decidir por sí mismos si la fuente es confiable o falsa. [104] Eso puede hacer que las personas se acostumbren a escuchar lo que quieren escuchar, lo que puede hacer que reaccionen de manera más radical cuando ven un punto de vista opuesto. La burbuja del filtro puede hacer que la persona vea cualquier punto de vista opuesto como incorrecto y, por lo tanto, podría permitir que los medios impongan opiniones a los consumidores. [105] [104] [106]

Las investigaciones explican que la burbuja filtrante refuerza lo que ya se está pensando. [107] Por eso es extremadamente importante utilizar recursos que ofrezcan diversos puntos de vista. [107]

Ver también

Notas

  1. ^ El término ciberbalcanización (a veces con un guión) es un híbrido de ciber , relacionado con Internet, y balcanización , en referencia a esa región de Europa que históricamente estuvo subdividida por lenguas, religiones y culturas; El término fue acuñado en un artículo de los investigadores del MIT Van Alstyne y Brynjolfsson.

Referencias

  1. ^ Technopedia, Definición: ¿Qué significa Filter Bubble? Archivado el 10 de octubre de 2017 en Wayback Machine , obtenido el 10 de octubre de 2017, "....Una burbuja de filtro es el aislamiento intelectual que puede ocurrir cuando los sitios web utilizan algoritmos para asumir selectivamente la información que un usuario querría ver. , y luego brindar información al usuario de acuerdo con esta suposición... Por lo tanto, una burbuja de filtro puede hacer que los usuarios tengan mucho menos contacto con puntos de vista contradictorios, lo que hace que el usuario se aísle intelectualmente...."
  2. ^ Bozdag, Engin (septiembre de 2013). "Sesgo en el filtrado y personalización algorítmicos". Ética y Tecnología de la Información . 15 (3): 209–227. doi :10.1007/s10676-013-9321-6. S2CID  14970635.
  3. ^ Huffington Post, The Huffington Post "¿Las burbujas de filtro están encogiendo nuestras mentes?" Archivado el 3 de noviembre de 2016 en Wayback Machine.
  4. ^ Cifrar, buscar (26 de febrero de 2019). "¿Qué son las burbujas de filtro y cómo evitarlas?". Buscar blog de cifrado . Archivado desde el original el 25 de febrero de 2019 . Consultado el 19 de marzo de 2019 .
  5. ^ Cocinas, Brent; Johnson, Steve L.; Gray, Peter (1 de diciembre de 2020). "Comprensión de las cámaras de eco y las burbujas de filtro: el impacto de las redes sociales en la diversificación y los cambios partidistas en el consumo de noticias". MIS trimestral . 44 (4): 1619-1649. doi : 10.25300/MISQ/2020/16371. S2CID  229294134.
  6. ^ abcde Boutin, Paul (20 de mayo de 2011). "Sus resultados pueden variar: ¿La autopista de la información se convertirá en un callejón sin salida debido a los filtros automatizados?". El periodico de Wall Street . Archivado desde el original el 5 de abril de 2015 . Consultado el 15 de agosto de 2011 . Al rastrear navegadores web individuales con cookies, Google ha podido personalizar los resultados incluso para usuarios que no crean una cuenta personal de Google o no han iniciado sesión en una. ...
  7. ^ Zhang, Yuan Cao; Séaghdha, Diarmuid Ó; Quercia, Daniele; Jambor, Tamas (2012). "Auralist: Introducción de la casualidad en la recomendación musical". Actas de la quinta conferencia internacional ACM sobre búsqueda web y minería de datos . págs. 13-22. doi :10.1145/2124295.2124300. ISBN 9781450307475. S2CID  2956587.
  8. ^ a b C Parramore, Lynn (10 de octubre de 2010). "La burbuja del filtro". El Atlántico . Archivado desde el original el 22 de agosto de 2017 . Consultado el 20 de abril de 2011 . Desde el 4 de diciembre de 2009, Google está personalizado para todos. Entonces, cuando tuve dos amigos esta primavera en Google "BP", uno de ellos obtuvo un conjunto de enlaces que trataban sobre oportunidades de inversión en BP. El otro consiguió información sobre el derrame de petróleo....
  9. ^ abcdefgh Weisberg, Jacob (10 de junio de 2011). "Bubble Trouble: ¿La personalización web nos está convirtiendo en idiotas solipsistas?". Pizarra . Archivado desde el original el 12 de junio de 2011 . Consultado el 15 de agosto de 2011 .
  10. ^ abc Gross, Doug (19 de mayo de 2011). "Lo que Internet te oculta". CNN . Archivado desde el original el 9 de abril de 2016 . Consultado el 15 de agosto de 2011 . Tenía amigos que buscaban en Google BP cuando estaba ocurriendo el derrame de petróleo. Se trata de dos mujeres que eran bastante similares en muchos aspectos. Se obtuvieron muchos resultados sobre las consecuencias ambientales de lo que estaba sucediendo y del derrame. El otro acaba de recibir información sobre inversiones y nada sobre el derrame.
  11. ^ abc Baer, ​​Drake. "La 'burbuja de filtro' explica por qué ganó Trump y usted no lo vio venir". Ciencia de nosotros . Archivado desde el original el 19 de abril de 2017 . Consultado el 19 de abril de 2017 .
  12. ^ ab DiFranzo, Dominic; Gloria-García, Kristine (5 de abril de 2017). "Filtrar burbujas y noticias falsas". XRDS . 23 (3): 32–35. doi :10.1145/3055153. S2CID  7069187.
  13. ^ ab Jasper Jackson (8 de enero de 2017). "Eli Pariser: activista cuyas advertencias de burbujas de filtro presagiaron a Trump y el Brexit: el jefe Upworthy advirtió sobre los peligros de las cámaras de eco de Internet cinco años antes de las votaciones de 2016". El guardián . Archivado desde el original el 7 de marzo de 2017 . Consultado el 3 de marzo de 2017 . "Si sólo ves publicaciones de personas como tú, te sorprenderá que alguien muy diferente a ti gane la presidencia", le dice Pariser a The Guardian....
  14. ^ Mostafa M. El-Bermawy (18 de noviembre de 2016). "Su burbuja de filtro está destruyendo la democracia". Cableado . Archivado desde el original el 9 de marzo de 2017 . Consultado el 3 de marzo de 2017 . ...La aldea global que alguna vez fue Internet... islas digitales de aislamiento que se están alejando cada día más... su experiencia en línea se vuelve cada vez más personalizada...
  15. ^ Drake Baer (9 de noviembre de 2016). "La 'burbuja de filtro' explica por qué ganó Trump y usted no lo vio venir". Revista de Nueva York . Archivado desde el original el 26 de febrero de 2017 . Consultado el 3 de marzo de 2017 . ...La victoria de Trump es sorprendente... porque, como lo entienden los estudiosos de los medios, vivimos cada vez más en una "burbuja de filtro": la información que recibimos es tan personalizada que estamos ciegos a otras perspectivas...
  16. ^ abc Holone, Harald (junio de 2016). "La burbuja de filtro y su efecto sobre la información de salud personal online". Revista médica croata . 57 (3): 298–301. doi :10.3325/cmj.2016.57.298. PMC 4937233 . PMID  27374832. 
  17. ^ abc Haim, Mario; Arendt, Florián; Scherr, Sebastián (febrero de 2017). "¿Abismo o refugio? Sobre la relevancia de los resultados de búsqueda de los motores de búsqueda web cuando la gente busca suicidio en Google". Comunicación de Salud . 32 (2): 253–258. doi :10.1080/10410236.2015.1113484. PMID  27196394. S2CID  3399012.
  18. ^ abc "Desinformación médica y daño social en prácticas de salud no científicas: una perspectiva multidisciplinaria". Prensa CRC . Archivado desde el original el 4 de agosto de 2020 . Consultado el 22 de abril de 2020 .
  19. ^ abc Lazar, Shira (1 de junio de 2011). "¿Los algoritmos y la burbuja de filtros arruinan su experiencia en línea?". Correo Huffington . Archivado desde el original el 13 de abril de 2016 . Consultado el 15 de agosto de 2011 . una burbuja de filtro es la esfera figurativa que te rodea mientras buscas en Internet.
  20. ^ Pariser, Eli (12 de mayo de 2011). La burbuja del filtro: cómo la nueva web personalizada está cambiando lo que leemos y cómo pensamos. Pingüino. ISBN 9781101515129. Archivado desde el original el 19 de enero de 2021 . Consultado el 11 de octubre de 2020 .
  21. ^ "Cómo las burbujas de filtro distorsionan la realidad: todo lo que necesita saber". 31 de julio de 2017. Archivado desde el original el 3 de julio de 2019 . Consultado el 23 de junio de 2019 .
  22. ^ Nikólov, Dimitar; Oliveira, Diego FM; Flammini, Alessandro; Menczer, Filippo (2 de diciembre de 2015). "Medición de las burbujas sociales online". PeerJ Ciencias de la Computación . 1 : e38. arXiv : 1502.07162 . Código Bib : 2015arXiv150207162N. doi : 10.7717/peerj-cs.38 .
  23. ^ Pariser, Eli (marzo de 2011). Burbujas de filtro "Cuidado con Internet""". Archivado desde el original el 28 de mayo de 2018 . Consultado el 30 de mayo de 2018 .
  24. ^ Pariser, Eli (marzo de 2011). "Cuidado con las 'burbujas de filtro' en línea'". TED.com . Archivado desde el original el 22 de septiembre de 2017 . Consultado el 24 de septiembre de 2017 .
  25. ^ "Primer lunes: lo que hay este mes en la televisión, las películas y los libros: The Filter Bubble de Eli Pariser". EE.UU. Hoy en día . 2011. Archivado desde el original el 3 de mayo de 2011 . Consultado el 20 de abril de 2011 . Pariser explica que alimentarnos sólo con lo que nos resulta familiar y cómodo nos cierra a nuevas ideas, temas e información importante.
  26. ^ ab Bosker, Bianca (7 de marzo de 2011). "Facebook y Google nos brindan información sobre comida chatarra, advierte Eli Pariser". Correo Huffington . Archivado desde el original el 13 de marzo de 2011 . Consultado el 20 de abril de 2011 . Cuando se trata de contenido, Google y Facebook nos ofrecen demasiados dulces y pocas zanahorias.
  27. ^ "Tamiz invisible: Oculto, especialmente para ti". El economista . 30 de junio de 2011. Archivado desde el original el 3 de julio de 2011 . Consultado el 27 de junio de 2011 . El libro del Sr. Pariser ofrece un estudio de la evolución de Internet hacia la personalización, examina cómo la presentación de la información altera la forma en que se percibe y concluye con recetas para romper la burbuja de filtro que rodea a cada usuario.
  28. ^ ab Hern (22 de mayo de 2017). "Cómo las redes sociales filtran las burbujas y los algoritmos influyen en las elecciones". El guardián . Archivado desde el original el 31 de mayo de 2018 . Consultado el 30 de mayo de 2018 .
  29. ^ Van Alstyne, Marshall; Brynjolfsson, Erik (marzo de 1997) [Copyright 1996]. "Comunidades electrónicas: ¿aldea global o ciberbalcanes?" (PDF) . Archivado (PDF) desde el original el 5 de abril de 2016 . Consultado el 24 de septiembre de 2017 .
  30. ^ Van Alstyne, Marshall; Brynjolfsson, Erik (noviembre de 1996). "¿Podría Internet balcanizar la ciencia?". Ciencia . 274 (5292): 1479-1480. Código Bib : 1996 Ciencia... 274.1479V. doi : 10.1126/ciencia.274.5292.1479. S2CID  62546078.
  31. ^ Alex Pham; Jon Healey (24 de septiembre de 2005). "Los sistemas esperan decirle lo que le gustaría: los 'motores de preferencias' guían a los usuarios a través de la avalancha de contenido". Tribuna de Chicago . Archivado desde el original el 8 de diciembre de 2015 . Consultado el 4 de diciembre de 2015 . ...si los recomendadores fueran perfectos, puedo tener la opción de hablar sólo con personas que sean como yo....La ciberbalcanización, como acuñó Brynjolfsson el escenario, no es un efecto inevitable de las herramientas de recomendación.
  32. ^ ab Menkedick, Sarah (14 de mayo de 2020). "¿Por qué se trata a los niños estadounidenses como una especie diferente a la de los adultos?". Eón . Archivado desde el original el 15 de mayo de 2020 . Consultado el 15 de mayo de 2020 .
  33. ^ Obama, Barack (10 de enero de 2017). Discurso de despedida del presidente Obama (Discurso). Washington, DC Archivado desde el original el 24 de enero de 2017 . Consultado el 24 de enero de 2017 .
  34. ^ Hosanagar, Kartik (25 de noviembre de 2016). "Culpe a la cámara de eco en Facebook. Pero culpe a usted mismo también". Cableado . Archivado desde el original el 25 de septiembre de 2017 . Consultado el 24 de septiembre de 2017 .
  35. ^ DiFonzo, Nicholas (21 de abril de 2011). "El efecto cámara de eco". Los New York Times . Archivado desde el original el 13 de junio de 2017 . Consultado el 24 de septiembre de 2017 .
  36. ^ sdf (23 de junio de 2004). "John Gorenfeld, Moon the Messiah y la cámara de eco de los medios". Cos diario . Archivado desde el original el 2 de mayo de 2016 . Consultado el 24 de septiembre de 2017 .
  37. ^ Jamieson, Kathleen Hall ; Cappella, Joseph N. (22 de julio de 2008). Cámara de eco: Rush Limbaugh y el establishment de los medios conservadores . Prensa de la Universidad de Oxford . ISBN 978-0-19-536682-2. Consultado el 24 de septiembre de 2017 .
  38. ^ ab "¿Qué son las burbujas de filtro y las cámaras de eco digital? | Heinrich-Böll-Stiftung | Tel Aviv - Israel". Fundación Heinrich Böll . Consultado el 8 de marzo de 2023 .
  39. ^ Cinelli, Matteo; De Francisci Morales, Gianmarco; Galeazzi, Alessandro; Quattrociocchi, Walter; Starnini, Michele (2 de marzo de 2021). "El efecto cámara de eco en las redes sociales". Procedimientos de la Academia Nacional de Ciencias . 118 (9): e2023301118. Código Bib : 2021PNAS..11823301C. doi : 10.1073/pnas.2023301118 . ISSN  0027-8424. PMC 7936330 . PMID  33622786. 
  40. ^ Elanor Colleoni; Alejandro Rozza; Adam Arvidsson (abril de 2014). "¿Cámara de eco o esfera pública? Predecir la orientación política y medir la homofilia política en Twitter utilizando Big Data". Revista de Comunicación . 64 (2): 317–332. doi : 10.1111/jcom.12084. hdl : 10281/66011 .
  41. ^ Ekström, Axel G.; Niehorster, Diederick C.; Olsson, Erik J. (1 de agosto de 2022). "Burbujas de filtro autoimpuestas: atención selectiva y exposición en la búsqueda online". Computadoras en informes sobre el comportamiento humano . 7 : 100226. doi : 10.1016/j.chbr.2022.100226 . ISSN  2451-9588. S2CID  251434172.
  42. ^ Reviglio, Urbano; Agosti, Claudio (abril de 2020). "Pensar fuera de la caja negra: el caso de la" soberanía algorítmica "en las redes sociales". Redes Sociales + Sociedad . 6 (2): 205630512091561. doi : 10.1177/2056305120915613. hdl : 2434/840214 . ISSN  2056-3051. S2CID  219019544.
  43. ^ "El plan de Twitter para cortar el acceso gratuito a datos provoca 'bastante pánico' entre los científicos". www.science.org . Consultado el 8 de marzo de 2023 .
  44. ^ Grankvist, Per (8 de febrero de 2018). La gran burbuja: cómo la tecnología dificulta la comprensión del mundo . Publicación de Historias Unidas. pag. 179.ISBN 978-91-639-5990-5.
  45. ^ ab Hosanagar, Kartik; Fleder, Daniel; Lee, Dokyun; Buja, Andreas (diciembre de 2013). "¿Se dividirá la aldea global en tribus: sistemas de recomendación y sus efectos en los consumidores?". Ciencias de la gestión, de próxima aparición . SSRN  1321962.
  46. ^ Ludwig, ámbar. "Personalización de Google en los resultados de búsqueda y cómo desactivarla". NGNG. Archivado desde el original el 17 de agosto de 2011 . Consultado el 15 de agosto de 2011 . La personalización de los resultados de búsqueda de Google es una función automática, pero puedes desactivarla.
  47. ^ Bruns, Axel (29 de noviembre de 2019). "Burbuja de filtro". Revisión de políticas de Internet . 8 (4). doi : 10.14763/2019.4.1426 . hdl : 10419/214088 .
  48. ^ Davies, Huw C (septiembre de 2018). "Redefinición de las burbujas de filtro como recursión sociotécnica (de la que se puede escapar)". Investigación sociológica en línea . 23 (3): 637–654. doi :10.1177/1360780418763824. S2CID  149367030. Archivado desde el original el 19 de enero de 2021 . Consultado el 29 de agosto de 2020 .
  49. ^ Dahlgren, Peter M. (29 de enero de 2021). "Una revisión crítica de las burbujas de filtro y una comparación con la exposición selectiva". Revisión nórdica . 42 (1): 15–33. doi : 10.2478/nor-2021-0002 .
  50. ^ Flaxman, Seth; Goel, Sharad; Rao, Justin M. (2016). "Burbujas de filtro, cámaras de eco y consumo de noticias en línea". Opinión Pública Trimestral . 80 (T1): 298–320. doi :10.1093/poq/nfw006. S2CID 2386849 . 
  51. ^ Chitra, Uthsav; Musco, Christopher (2020). "Análisis del impacto de las burbujas de filtro en la polarización de las redes sociales". WSDM '20: Actas de la 13.ª Conferencia Internacional sobre Búsqueda Web y Minería de Datos . págs. 115-123. doi :10.1145/3336191.3371825.
  52. ^ ab "Cinco preguntas con Eli Pariser, autor de 'The Filter Bubble'". Tiempo . 16 de mayo de 2011. Archivado desde el original el 14 de abril de 2017 . Consultado el 24 de mayo de 2017 .
  53. ^ abcde Bleiberg, Josué; Oeste, Darrell M. (24 de mayo de 2017). "Polarización política en Facebook". Institución Brookings . Archivado desde el original el 10 de octubre de 2017 . Consultado el 24 de mayo de 2017 .
  54. ^ Bakshy, E.; Messing, S.; Adamic, LA (5 de junio de 2015). "Exposición a noticias y opiniones ideológicamente diversas en Facebook". Ciencia . 348 (6239): 1130–1132. Código Bib : 2015 Ciencia... 348.1130B. doi : 10.1126/ciencia.aaa1160 . PMID  25953820. S2CID  206632821.
  55. ^ Lumb (8 de mayo de 2015). "Por qué los científicos están molestos por el estudio de la burbuja de filtro de Facebook". Archivado desde el original el 11 de noviembre de 2017 . Consultado el 10 de noviembre de 2017 .
  56. ^ Oremus, Will (5 de abril de 2017). "La burbuja del filtro revisada". Revista Pizarra . Archivado desde el original el 6 de febrero de 2020 . Consultado el 2 de marzo de 2020 .
  57. ^ ab Sindermann, Cornelia; Elhai, Jon D.; Moshagen, Morten; Montag, Christian (enero de 2020). "Edad, género, personalidad, actitudes ideológicas y diferencias individuales en el espectro informativo de una persona: ¿cuántos y quiénes podrían ser propensos a 'burbujas de filtro' y 'cámaras de eco' en línea?". Heliyón . 6 (1): e03214. Código bibliográfico : 2020Heliy...603214S. doi : 10.1016/j.heliyon.2020.e03214 . PMC 7002846 . PMID  32051860. 
  58. ^ ab Pariser, Eli (7 de mayo de 2015). "Datos curiosos del nuevo estudio de burbujas de filtros de Facebook". Medio . Archivado desde el original el 11 de noviembre de 2017 . Consultado el 24 de octubre de 2017 .
  59. ^ Lumb, David (8 de mayo de 2015). "Por qué los científicos están molestos por el estudio de la burbuja de filtro de Facebook". Empresa Rápida . Archivado desde el original el 23 de octubre de 2017 . Consultado el 24 de octubre de 2017 .
  60. ^ Pariser, Eli (7 de mayo de 2015). "¿El gran estudio de Facebook acabó con mi tesis de la burbuja de filtros?". Cableado . Archivado desde el original el 11 de noviembre de 2017 . Consultado el 24 de octubre de 2017 .
  61. ^ "Al contrario de lo que has oído, Facebook puede ayudar a perforar nuestras" burbujas" políticas"". Vox . Archivado desde el original el 13 de junio de 2018 . Consultado el 30 de mayo de 2018 .
  62. ^ Bakshy, E.; Messing, S.; Adamic, LA (2015). "Exposición a noticias y opiniones ideológicamente diversas en Facebook". Ciencia . 348 (6239): 1130–1132. Código Bib : 2015 Ciencia... 348.1130B. doi : 10.1126/ciencia.aaa1160 . PMID  25953820. S2CID  206632821.
  63. Barberá, Pabló (agosto de 2015). "Cómo las redes sociales reducen la polarización política masiva. Evidencia de Alemania, España y Estados Unidos" CiteSeerX 10.1.1.658.5476 . 
  64. ^ Hilbert, M., Ahmed, S., Cho, J., Liu, B. y Luu, J. (2018). Comunicación con algoritmos: un análisis de transferencia de entropía de escapes basados ​​en emociones de cámaras de eco en línea. Métodos y medidas de comunicación, 12 (4), 260–275. https://doi.org/10.1080/19312458.2018.1479843 Archivado el 19 de enero de 2021 en Wayback Machine  ; https://www.martinhilbert.net/communicating-with-algorithms/ Archivado el 9 de mayo de 2019 en Wayback Machine.
  65. ^ ab Fianza, Christopher; Argyle, Lisa; marrón, Taylor; Chen, Haohan; Hunzaker, MBF; Lee, Jaemin (2018). "La exposición a puntos de vista opuestos en las redes sociales puede aumentar la polarización política" (PDF) . Procedimientos de la Academia Nacional de Ciencias . 115 (37): 9216–9221. Código Bib : 2018PNAS..115.9216B. doi : 10.1073/pnas.1804840115 . PMC 6140520 . PMID  30154168. Archivado (PDF) desde el original el 10 de abril de 2020 . Consultado el 22 de abril de 2020 . 
  66. ^ ab Min, Yong; Jiang, Tingjun; Jin, Cheng; Li, Qu; Jin, Xiaogang (2019). "Estructura endogenética de la burbuja de filtro en las redes sociales". Ciencia abierta de la Royal Society . 6 (11): 190868. arXiv : 1907.02703 . Código Bib : 2019RSOS....690868M. doi :10.1098/rsos.190868. PMC 6894573 . PMID  31827834. 
  67. ^ Statt, Nick (4 de diciembre de 2018). "Google personaliza los resultados de búsqueda incluso cuando estás desconectado, afirma un nuevo estudio". El borde . Archivado desde el original el 31 de julio de 2020 . Consultado el 22 de abril de 2020 .
  68. ^ Bucher, Taina (25 de febrero de 2016). "El imaginario algorítmico: explorando los efectos ordinarios de los algoritmos de Facebook". Información, Comunicación y Sociedad . 20 - vía Taylor & Francis en línea.
  69. ^ "¿Cómo rompemos la burbuja de filtro y diseñamos para la democracia?". 3 de marzo de 2017. Archivado desde el original el 3 de marzo de 2017 . Consultado el 3 de marzo de 2017 .
  70. ^ ""Filterblase "ist das Wort des Jahres 2016". 7 de diciembre de 2016. Archivado desde el original el 20 de diciembre de 2016 . Consultado el 27 de diciembre de 2016 .
  71. ^ Eli Pariser (mayo de 2011). La burbuja del filtro: lo que Internet te oculta . Nueva York: Penguin Press. pag. 17.ISBN 978-1-59420-300-8.
  72. ^ Stephen Barón; campo de Juan; Tom Schuller (30 de noviembre de 2000). "Capital social: una revisión y crítica". Capital Social: Perspectivas críticas . Prensa de la Universidad de Oxford. ISBN 9780199243679.
  73. ^ "¿Estamos atrapados en burbujas de filtro? Aquí hay cinco posibles salidas". Laboratorio Nieman . Archivado desde el original el 4 de marzo de 2017 . Consultado el 3 de marzo de 2017 .
  74. ^ Glushko, Chris (8 de febrero de 2017). "Abre las burbujas del filtro de personalización y preserva la diversidad en línea". Comercialización de terrenos . Archivado desde el original el 15 de marzo de 2017 . Consultado el 22 de mayo de 2017 .
  75. ^ Ritholtz, Barry (2 de febrero de 2017). "Intente romper la burbuja del filtro multimedia". Bloomberg . Archivado desde el original el 21 de agosto de 2017 . Consultado el 22 de mayo de 2017 .
  76. ^ "Una aplicación de noticias tiene como objetivo hacer estallar las burbujas de filtros empujando a los lectores hacia una dieta mediática más" equilibrada "". Laboratorio Nieman . Archivado desde el original el 15 de mayo de 2017 . Consultado el 24 de mayo de 2017 .
  77. ^ Mădălina Ciobanu (3 de marzo de 2017). "NZZ está desarrollando una aplicación que ofrece a los lectores noticias personalizadas sin crear una burbuja de filtro: la aplicación utiliza el aprendizaje automático para ofrecer a los lectores un flujo de 25 historias que podrían interesarles según sus preferencias, pero 'siempre incluyendo un elemento de sorpresa'". . Periodismo.co.uk. Archivado desde el original el 3 de marzo de 2017 . Consultado el 3 de marzo de 2017 . ... si, según su historial de consumo, alguien no ha expresado interés en los deportes, su transmisión incluirá noticias sobre historias grandes e importantes relacionadas con los deportes,...
  78. Catalina Albeanu (17 de noviembre de 2016). "Romper la burbuja del filtro después de las elecciones estadounidenses: ¿Están los medios condenados al fracaso? En un evento en Bruselas esta semana, los medios y los políticos discutieron sobre las cámaras de eco en las redes sociales y la lucha contra las noticias falsas". Periodismo.co.uk. Archivado desde el original el 10 de marzo de 2017 . Consultado el 3 de marzo de 2017 . ... Referéndum sobre la UE en el Reino Unido en un panel del evento "Los políticos en una tormenta de comunicación"... Además de la burbuja de filtro, las páginas partidistas de Facebook también sirvieron una dieta rica en noticias falsas....
  79. ^ "Comisión Europea". Archivado desde el original el 4 de marzo de 2017 . Consultado el 3 de marzo de 2017 .
  80. ^ Resnick, Paul; Garrett, R. Kelly; Kriplean, Travis; Munson, Sean A.; Stroud, Natalie Jomini (2013). "Reventar tu burbuja (filtro)". Actas de la conferencia de 2013 sobre Compañero de trabajo cooperativo asistido por ordenador - CSCW '13 . pag. 95. doi :10.1145/2441955.2441981. ISBN 978-1-4503-1332-2. S2CID  20865375.
  81. ^ ab Vanian, Jonathan (25 de abril de 2017). "Facebook prueba la función de artículos relacionados para combatir las burbujas de filtro". Fortune.com . Archivado desde el original el 25 de septiembre de 2017 . Consultado el 24 de septiembre de 2017 .
  82. ^ Sydell, Laura (25 de enero de 2017). "Facebook modifica su algoritmo de 'temas de actualidad' para reflejar mejor las noticias reales". Medios públicos de KQED. NPR. Archivado desde el original el 26 de febrero de 2018 . Consultado el 5 de abril de 2018 .
  83. ^ Hao, Karen. "Google finalmente admite que tiene un problema con la burbuja de filtro". Cuarzo . Archivado desde el original el 4 de mayo de 2018 . Consultado el 30 de mayo de 2018 .
  84. ^ "Facebook, Mozilla y Craigslist Craig financian al bombero de noticias falsas". Archivado desde el original el 23 de noviembre de 2018 . Consultado el 14 de enero de 2019 .
  85. ^ "La Iniciativa Mozilla Information Trust: Construyendo un movimiento para luchar contra la desinformación en línea". El blog de Mozilla . Archivado desde el original el 14 de enero de 2019 . Consultado el 14 de enero de 2019 .
  86. ^ abc Bozdag, Engin; Timmerman, Job. "Valores en la burbuja de filtro Ética de los algoritmos de personalización en la computación en la nube". Puerta de la investigación . Archivado desde el original el 14 de diciembre de 2020 . Consultado el 6 de marzo de 2017 .
  87. ^ Al-Rodhan, Nayef. "Las numerosas implicaciones éticas de las tecnologías emergentes". Científico americano . Archivado desde el original el 8 de abril de 2017 . Consultado el 6 de marzo de 2017 .
  88. ^ Haim, Mario; Graefe, Andreas; Brosius, Hans-Bernd (16 de marzo de 2018). "¿Estallido de la burbuja del filtro?". Periodismo Digital . 6 (3): 330–343. doi : 10.1080/21670811.2017.1338145 . S2CID  168906316.
  89. ^ "La burbuja de filtro plantea cuestiones importantes; solo necesita filtrarlas usted mismo". Red de Acción por los Bosques Tropicales . Archivado desde el original el 8 de abril de 2017 . Consultado el 6 de marzo de 2017 .
  90. ^ ab Sterling, Greg (20 de febrero de 2017). "El manifiesto de Mark Zuckerberg: cómo Facebook conectará el mundo, vencerá las noticias falsas y explotará la burbuja del filtro". Comercialización de terrenos . Archivado desde el original el 8 de marzo de 2017 . Consultado el 6 de marzo de 2017 .
  91. ^ ab Morozov, Evgeny (10 de junio de 2011). "Tus propios hechos". Los New York Times . Archivado desde el original el 4 de marzo de 2017 . Consultado el 6 de marzo de 2017 .
  92. ^ Hesse, Bradford W.; Nelson, David E.; Kreps, Gary L.; Croyle, Robert T.; Arora, Neeraj K.; Rimer, Barbara K.; Viswanath, Kasisomayajula (12 de diciembre de 2005). "Confianza y fuentes de información sanitaria: el impacto de Internet y sus implicaciones para los proveedores de atención sanitaria: resultados de la primera encuesta nacional de tendencias de información sanitaria". Archivos de Medicina Interna . 165 (22): 2618–24. doi :10.1001/archinte.165.22.2618. PMID  16344419.
  93. ^ El-Bermawy, Mostafa (18 de noviembre de 2016). "Su burbuja de filtro está destruyendo la democracia". Cableado . Archivado desde el original el 9 de marzo de 2017 . Consultado el 6 de marzo de 2017 .
  94. ^ "Cómo hacer estallar la" burbuja de filtro "que nos protege de puntos de vista opuestos". Revisión de tecnología del MIT . Archivado desde el original el 19 de enero de 2021 . Consultado el 6 de marzo de 2017 .
  95. ^ Borgesius, Federico; Trino, Damián; Möller, Judith; Bodó, Balázs; de Vreese, Claes; Helberger, Natali (31 de marzo de 2016). "¿Deberíamos preocuparnos por las burbujas de filtro?". Revisión de políticas de Internet . Archivado desde el original el 20 de marzo de 2017 . Consultado el 6 de marzo de 2017 .
  96. ^ Pariser, Eli (2011). La burbuja del filtro: cómo la nueva web personalizada está cambiando lo que leemos y cómo pensamos . Nueva York: Penguin Press. ISBN 978-1-59420-300-8.
  97. ^ "En elogio de la casualidad". El economista . 9 de marzo de 2017. Archivado desde el original el 15 de enero de 2019 . Consultado el 14 de enero de 2019 .
  98. ^ Reviglio, Urbano (junio de 2019). "La serendipia como principio de diseño emergente de la infosfera: desafíos y oportunidades". Ética y Tecnología de la Información . 21 (2): 151–166. doi :10.1007/s10676-018-9496-y. S2CID  57426650.
  99. ^ Harambam, Jaron; Helberger, Natali; van Hoboken, Joris (28 de noviembre de 2018). "democratizar los recomendadores algorítmicos de noticias: cómo materializar la voz en un ecosistema de medios tecnológicamente saturado". Transacciones filosóficas de la Royal Society A: Ciencias matemáticas, físicas y de ingeniería . 376 (2133): 20180088. Código bibliográfico : 2018RSPTA.37680088H. doi :10.1098/rsta.2018.0088. PMC 6191663 . PMID  30323002. 
  100. ^ Herrman, John (24 de agosto de 2016). "Dentro de la máquina de medios políticos (totalmente loca, involuntariamente gigantesca, hiperpartidista) de Facebook". Los New York Times . Archivado desde el original el 19 de octubre de 2017 . Consultado el 24 de octubre de 2017 .
  101. ^ Del Vicario, Michela; Bessi, Alejandro; Zollo, Fabiana; Petroni, Fabio; Escala, Antonio; Caldarelli, Guido; Stanley, H. Eugenio; Quattrociocchi, Walter (19 de enero de 2016). "La difusión de información errónea en línea". Procedimientos de la Academia Nacional de Ciencias . 113 (3): 554–559. Código Bib : 2016PNAS..113..554D. doi : 10.1073/pnas.1517441113 . PMC 4725489 . PMID  26729863. 
  102. ^ Granville, Kevin (19 de marzo de 2018). "Facebook y Cambridge Analytica: lo que necesita saber a medida que se amplía Fallout". Los New York Times . Archivado desde el original el 19 de octubre de 2018 . Consultado el 19 de octubre de 2018 .
  103. ^ Meredith, Sam (10 de abril de 2018). "Facebook-Cambridge Analytica: una cronología del escándalo de secuestro de datos". CNBC . Archivado desde el original el 19 de octubre de 2018 . Consultado el 19 de octubre de 2018 .
  104. ^ ab Gross, Michael (enero de 2017). "Los peligros de un mundo de posverdad". Biología actual . 27 (1): R1–R4. Código Bib : 2017CBio...27...R1G. doi : 10.1016/j.cub.2016.12.034 .
  105. ^ "Cómo las burbujas de filtro distorsionan la realidad: todo lo que necesita saber". Calle Farnam . 31 de julio de 2017. Archivado desde el original el 20 de mayo de 2019 . Consultado el 21 de mayo de 2019 .
  106. ^ Plato, The Daily (10 de octubre de 2010). "La burbuja del filtro". El Atlántico . Archivado desde el original el 22 de agosto de 2017 . Consultado el 21 de mayo de 2019 .
  107. ^ ab "Filtrar burbujas y sesgo de confirmación: noticias falsas (y cómo combatirlas) - LibGuides en Miami Dade College Learning Resources". Archivado desde el original el 23 de octubre de 2020 . Consultado el 22 de octubre de 2020 .

Otras lecturas

enlaces externos