stringtranslate.com

Filtro de Internet

Un filtro de Internet es un software que restringe o controla el contenido al que un usuario de Internet puede acceder, especialmente cuando se utiliza para restringir el material distribuido a través de Internet a través de la Web , el correo electrónico u otros medios. Estas restricciones se pueden aplicar en varios niveles: un gobierno puede intentar aplicarlas a nivel nacional (véase censura de Internet ), o pueden ser aplicadas, por ejemplo, por un proveedor de servicios de Internet a sus clientes, por un empleador a su personal, por una escuela a sus estudiantes, por una biblioteca a sus visitantes, por un padre al ordenador de un niño o por un usuario individual a sus propios ordenadores . El motivo suele ser impedir el acceso a contenido que el propietario del ordenador u otras autoridades pueden considerar objetable. Cuando se impone sin el consentimiento del usuario, el control de contenido puede caracterizarse como una forma de censura de Internet. Algunos programas de filtrado incluyen funciones de control de tiempo que permiten a los padres establecer la cantidad de tiempo que el niño puede pasar accediendo a Internet o jugando u otras actividades informáticas.

Terminología

El término "control de contenido" se utiliza en ocasiones en CNN , [1] la revista Playboy , [2] el San Francisco Chronicle , [3] y The New York Times . [4] Sin embargo, a menudo se utilizan otros términos, incluidos "software de filtrado de contenido", "filtro de contenido web", "servidores proxy de filtrado", "pasarelas web seguras", " software de censura ", "seguridad y control de contenido", " software de filtrado web ", "software de censura de contenido" y "software de bloqueo de contenido". "Nannyware" también se ha utilizado tanto en el marketing de productos como por los medios de comunicación. La empresa de investigación de la industria Gartner utiliza "pasarela web segura" (SWG) para describir el segmento de mercado. [5]

Las empresas que fabrican productos que bloquean sitios web de forma selectiva no los denominan software de censura, sino que prefieren términos como "filtro de Internet" o "filtro de URL"; en el caso específico de software diseñado específicamente para permitir a los padres controlar y restringir el acceso de sus hijos, también se utiliza el término "software de control parental". Algunos productos registran todos los sitios a los que accede un usuario y los califican en función del tipo de contenido para informar a un " socio responsable " elegido por la persona, y se utiliza el término software de responsabilidad . Los filtros de Internet, el software de control parental y/o el software de responsabilidad también pueden combinarse en un solo producto.

Sin embargo, quienes critican este tipo de software utilizan el término "censura" con mucha libertad: basta pensar en el Proyecto Censorware, por ejemplo. [6] El uso del término "censura" en editoriales que critican a los creadores de este tipo de software está muy extendido y abarca muchas variedades y aplicaciones diferentes: Xeni Jardin utilizó el término en un editorial del 9 de marzo de 2006 en The New York Times, al hablar del uso de software de filtrado de fabricación estadounidense para suprimir contenidos en China; en el mismo mes, un estudiante de secundaria utilizó el término para hablar de la implantación de este tipo de software en su distrito escolar. [7] [8]

En general, fuera de las páginas editoriales descritas anteriormente, los periódicos tradicionales no utilizan el término "censura" en sus artículos, y prefieren utilizar términos menos abiertamente controvertidos como "filtro de contenido", "control de contenido" o "filtrado web"; The New York Times y The Wall Street Journal parecen seguir esta práctica. Por otro lado, los periódicos basados ​​en la Web como CNET utilizan el término tanto en contextos editoriales como periodísticos, por ejemplo "Windows Live to Get Censorware" [9] .

Tipos de filtrado

Los filtros se pueden implementar de muchas maneras diferentes: mediante software en una computadora personal, a través de infraestructura de red como servidores proxy , servidores DNS o firewalls que brindan acceso a Internet. Ninguna solución brinda una cobertura completa, por lo que la mayoría de las empresas implementan una combinación de tecnologías para lograr el control de contenido adecuado de acuerdo con sus políticas.

Filtros basados ​​en navegador

La solución de filtrado de contenido basada en navegador es la solución más liviana para realizar el filtrado de contenido y se implementa a través de una extensión de navegador de terceros .

Filtros de correo electrónico

Los filtros de correo electrónico actúan sobre la información contenida en el cuerpo del correo, en los encabezados del correo, como el remitente y el asunto, y en los archivos adjuntos del correo electrónico para clasificar, aceptar o rechazar los mensajes. Los filtros bayesianos , un tipo de filtro estadístico, se utilizan comúnmente. Hay filtros disponibles tanto basados ​​en cliente como en servidor.

Filtros del lado del cliente

Este tipo de filtro se instala como software en cada computadora donde se requiere filtrado. [10] [11] Este filtro puede ser administrado, deshabilitado o desinstalado por cualquier persona que tenga privilegios de nivel de administrador en el sistema. Un filtro del lado del cliente basado en DNS sería configurar un DNS Sinkhole , como Pi-Hole .

ISP con contenido limitado (o filtrado)

Los ISP con contenido limitado (o filtrado) son proveedores de servicios de Internet que ofrecen acceso solo a una parte determinada del contenido de Internet de forma voluntaria u obligatoria. Cualquiera que se suscriba a este tipo de servicio está sujeto a restricciones. Este tipo de filtros se puede utilizar para implementar un control gubernamental [12] , regulatorio [13] o parental sobre los suscriptores.

Filtrado basado en red

Este tipo de filtro se implementa en la capa de transporte como un proxy transparente , o en la capa de aplicación como un proxy web . [14] El software de filtrado puede incluir una funcionalidad de prevención de pérdida de datos para filtrar la información entrante y saliente. Todos los usuarios están sujetos a la política de acceso definida por la institución. El filtrado se puede personalizar, por lo que la biblioteca de la escuela secundaria de un distrito escolar puede tener un perfil de filtrado diferente al de la biblioteca de la escuela secundaria del distrito.

Filtrado basado en DNS

Este tipo de filtrado se implementa en la capa DNS e intenta evitar búsquedas de dominios que no se ajustan a un conjunto de políticas (ya sea control parental o reglas de la empresa). Varios servicios DNS públicos gratuitos ofrecen opciones de filtrado como parte de sus servicios. Los sumideros DNS como Pi-Hole también se pueden utilizar para este propósito, aunque solo del lado del cliente. [15]

Filtros de motores de búsqueda

Muchos motores de búsqueda , como Google y Bing, ofrecen a los usuarios la opción de activar un filtro de seguridad. Cuando se activa este filtro de seguridad, filtra los enlaces inapropiados de todos los resultados de búsqueda. Si los usuarios conocen la URL real de un sitio web que presenta contenido explícito o para adultos, tienen la posibilidad de acceder a ese contenido sin utilizar un motor de búsqueda. Algunos proveedores ofrecen versiones de sus motores orientadas a los niños que solo permiten sitios web aptos para niños. [16]

Razones para filtrar

Internet no proporciona intrínsecamente bloqueo de contenidos y, por lo tanto, hay mucho contenido en Internet que se considera no apto para niños, dado que mucho contenido tiene certificaciones como apto sólo para adultos, por ejemplo, juegos y películas con clasificación para mayores de 18 años.

Los proveedores de servicios de Internet (ISP) que bloquean material que contiene pornografía o contenido controvertido relacionado con la religión, la política o las noticias suelen ser utilizados por padres que no permiten que sus hijos accedan a contenido que no se ajuste a sus creencias personales . Sin embargo, el software de filtrado de contenido también se puede utilizar para bloquear malware y otro contenido que sea o contenga material hostil, intrusivo o molesto, incluido adware , spam , virus informáticos , gusanos , troyanos y spyware .

La mayoría de los programas de control de contenido se comercializan para organizaciones o padres. Sin embargo, en ocasiones también se comercializan para facilitar la autocensura, por ejemplo, por parte de personas que luchan contra las adicciones a la pornografía en línea , los juegos de azar, las salas de chat, etc. Algunas personas también pueden utilizar programas de autocensura para evitar ver contenido que consideren inmoral, inapropiado o simplemente distractor. Varios productos de software de rendición de cuentas se comercializan como software de autocensura o rendición de cuentas . Estos suelen ser promocionados por medios religiosos y en reuniones religiosas . [17]

Crítica

Errores de filtrado

Sobrebloqueo

El uso de un filtro que es demasiado celoso al filtrar contenido, o que etiqueta incorrectamente el contenido que no está destinado a ser censurado puede resultar en un bloqueo excesivo o una censura excesiva. El bloqueo excesivo puede filtrar material que debería ser aceptable según la política de filtrado vigente, por ejemplo, la información relacionada con la salud puede filtrarse involuntariamente junto con material relacionado con la pornografía debido al problema de Scunthorpe . Los administradores de filtros pueden preferir pecar de cautelosos al aceptar el bloqueo excesivo para evitar cualquier riesgo de acceso a sitios que determinen que son indeseables. Se mencionó que el software de control de contenido bloqueaba el acceso a Beaver College antes de su cambio de nombre a Arcadia University . [18] Otro ejemplo fue el filtrado de Horniman Museum . [19] Además, el bloqueo excesivo puede alentar a los usuarios a omitir el filtro por completo.

Bloqueo insuficiente

Cada vez que se carga nueva información en Internet, los filtros pueden bloquear o censurar de manera insuficiente el contenido si las partes responsables de mantener los filtros no los actualizan con rapidez y precisión y si existe una política de filtrado de listas negras en lugar de listas blancas. [20]

Moralidad y opinión

Muchos [21] no estarían satisfechos con que el gobierno filtrara puntos de vista sobre cuestiones morales o políticas, y estarían de acuerdo en que esto podría convertirse en un apoyo a la propaganda . Muchos [22] también considerarían inaceptable que un ISP, ya sea por ley o por decisión propia, implemente dicho software sin permitir a los usuarios desactivar el filtrado para sus propias conexiones. En los Estados Unidos, se ha citado la Primera Enmienda de la Constitución de los Estados Unidos en los llamados a criminalizar la censura forzada en Internet. (Véase la sección siguiente )

Acciones legales

En 1998, un tribunal federal de distrito de los Estados Unidos en Virginia dictaminó ( Loudoun v. Board of Trustees of the Loudoun County Library ) que la imposición de filtros obligatorios en una biblioteca pública viola la Primera Enmienda. [23]

En 1996, el Congreso de los Estados Unidos aprobó la Ley de Decencia en las Comunicaciones , que prohibía la indecencia en Internet. Los grupos de libertades civiles impugnaron la ley amparándose en la Primera Enmienda y, en 1997, la Corte Suprema falló a su favor. [24] Parte del argumento de las libertades civiles, especialmente de grupos como la Electronic Frontier Foundation , [25] era que los padres que quisieran bloquear sitios podían utilizar su propio software de filtrado de contenidos, lo que hacía innecesaria la intervención del gobierno. [26]

A finales de los años 90, grupos como el Proyecto Censorware comenzaron a aplicar ingeniería inversa al software de control de contenido y a descifrar las listas negras para determinar qué tipo de sitios bloqueaba el software. Esto dio lugar a acciones legales alegando violación del acuerdo de licencia de "Cyber ​​Patrol" . [27] Descubrieron que dichas herramientas bloqueaban rutinariamente sitios no objetables y, al mismo tiempo, no bloqueaban los objetivos previstos.

Algunas empresas de software de control de contenidos respondieron afirmando que sus criterios de filtrado estaban respaldados por una verificación manual intensiva. Los oponentes de las empresas argumentaron, por otro lado, que realizar la verificación necesaria requeriría recursos mayores que los que poseían las empresas y que, por lo tanto, sus afirmaciones no eran válidas. [28]

La Motion Picture Association obtuvo con éxito una resolución en el Reino Unido que obliga a los ISP a utilizar software de control de contenido para evitar la violación de derechos de autor por parte de sus suscriptores. [29]

Censura religiosa, antirreligiosa y política

Se ha demostrado que muchos tipos de software de control de contenido bloquean sitios en función de las inclinaciones religiosas y políticas de los propietarios de la empresa. Los ejemplos incluyen el bloqueo de varios sitios religiosos [30] [31] (incluido el sitio web del Vaticano), muchos sitios políticos y sitios relacionados con la homosexualidad. [32] Se demostró que X-Stop bloquea sitios como el sitio web Quaker , el National Journal of Sexual Orientation Law, The Heritage Foundation y partes de The Ethical Spectacle. [33] CYBERsitter bloquea sitios como National Organization for Women . [34] Nancy Willard, investigadora académica y abogada, señaló que muchas escuelas públicas y bibliotecas de EE. UU. utilizan el mismo software de filtrado que utilizan muchas organizaciones cristianas. [35] Se ha descubierto que Cyber ​​Patrol, un producto desarrollado por la Liga Antidifamación y The Learning Company de Mattel, [36] bloquea no sólo los sitios políticos que considera que incurren en "discurso de odio", sino también sitios web de derechos humanos, como la página web de Amnistía Internacional sobre Israel y sitios web de derechos de los homosexuales, como glaad.org. [37]

Etiquetado de contenido

El etiquetado de contenido puede considerarse otra forma de software de control de contenido. En 1994, la Internet Content Rating Association (ICRA), que ahora forma parte del Family Online Safety Institute , desarrolló un sistema de clasificación de contenido para los proveedores de contenido en línea. Mediante un cuestionario en línea, un webmaster describe la naturaleza de su contenido web. Se genera un pequeño archivo que contiene un resumen condensado y legible por computadora de esta descripción que luego puede ser utilizado por el software de filtrado de contenido para bloquear o permitir ese sitio.

Las etiquetas ICRA vienen en una variedad de formatos. [38] Estos incluyen el Marco de descripción de recursos (RDF) del Consorcio World Wide Web, así como las etiquetas de la Plataforma para la selección de contenido de Internet (PICS) utilizadas por el Asesor de contenido de Internet Explorer de Microsoft . [39]

Las etiquetas ICRA son un ejemplo de autoetiquetado. De manera similar, en 2006 la Asociación de Sitios que Promueven la Protección Infantil (ASACP) inició la iniciativa de autoetiquetado Restringido a Adultos. Los miembros de la ASACP estaban preocupados por el hecho de que varias formas de legislación que se estaban proponiendo en los Estados Unidos iban a tener el efecto de obligar a las empresas de contenido para adultos a etiquetar su contenido. [40] La etiqueta RTA, a diferencia de las etiquetas ICRA, no requiere que un webmaster complete un cuestionario o se registre para usarla. Al igual que ICRA, la etiqueta RTA es gratuita. Ambas etiquetas son reconocidas por una amplia variedad de software de control de contenido .

El sistema de clasificación voluntaria de contenido (VCR) fue ideado por Solid Oak Software para su software de filtrado CYBERsitter , como una alternativa al sistema PICS, que algunos críticos consideraron demasiado complejo. Emplea etiquetas de metadatos HTML incrustadas en documentos de páginas web para especificar el tipo de contenido incluido en el documento. Solo se especifican dos niveles, para adultos y para adultos , lo que hace que la especificación sea extremadamente sencilla.

Uso en bibliotecas públicas

Australia

El Organismo Asesor de Seguridad en Internet de Australia tiene información sobre "consejos prácticos sobre seguridad en Internet, control parental y filtros para la protección de niños, estudiantes y familias" que también incluye bibliotecas públicas. [41]

NetAlert, el software que el gobierno australiano puso a disposición de forma gratuita, fue supuestamente pirateado por un estudiante de 16 años, Tom Wood, menos de una semana después de su lanzamiento en agosto de 2007. Wood supuestamente eludió el filtro de 84 millones de dólares en aproximadamente media hora para poner de relieve los problemas con el enfoque del gobierno respecto del filtrado de contenidos de Internet. [42]

El Gobierno australiano ha introducido una legislación que exige a los ISP "restringir el acceso a contenido restringido por edad (contenido comercial MA15+ y contenido R18+) alojado en Australia o proporcionado desde Australia", que debía entrar en vigor el 20 de enero de 2008, conocido como Cleanfeed . [43]

Cleanfeed es un sistema de filtrado de contenidos a nivel de ISP que se ha propuesto y que fue propuesto por la oposición del Partido Laborista Australiano liderado por Beazley en un comunicado de prensa de 2006, con la intención de proteger a los niños que eran vulnerables debido al supuesto analfabetismo informático de sus padres. Se anunció el 31 de diciembre de 2007 como una política que implementaría el gobierno del ALP de Rudd , y las pruebas iniciales en Tasmania han producido un informe de 2008. Cleanfeed está financiado con el presupuesto actual y está avanzando hacia una manifestación de interés para realizar pruebas en vivo con los ISP en 2008. Han surgido críticas y oposición pública, lideradas por la EFA y que han obtenido la atención irregular de los medios de comunicación dominantes, con una mayoría de australianos que, según se informa, están "firmemente en contra" de su implementación. [44] Las críticas incluyen su costo, su inexactitud (será imposible garantizar que sólo se bloqueen los sitios ilegales) y el hecho de que será obligatorio, lo que puede verse como una intrusión en los derechos de libertad de expresión. [44] Otro punto de crítica importante ha sido que, aunque se afirma que el filtro detiene ciertos materiales, las redes clandestinas que comercian con esos materiales no se verán afectadas. El filtro también podría proporcionar una falsa sensación de seguridad a los padres, que podrían supervisar menos a sus hijos mientras utilizan Internet, consiguiendo el efecto exactamente opuesto. [ ¿ Investigación original? ] Cleanfeed es una responsabilidad de la cartera del senador Conroy .

Dinamarca

En Dinamarca, la política establecida es la de "impedir que se acceda a sitios de Internet inapropiados desde las bibliotecas infantiles de todo el país". [45] "Es importante que todas las bibliotecas del país tengan la oportunidad de proteger a los niños contra el material pornográfico cuando utilizan los ordenadores de la biblioteca. Para mí, como Ministro de Cultura, es una prioridad fundamental asegurarme de que los niños puedan navegar por Internet de forma segura en las bibliotecas", afirma Brian Mikkelsen en un comunicado de prensa del Ministerio de Cultura danés". [46]

Reino Unido

Muchas bibliotecas del Reino Unido, como la Biblioteca Británica [47] y las bibliotecas públicas de las autoridades locales [48], aplican filtros al acceso a Internet. Según una investigación realizada por el Radical Librarians Collective, al menos el 98% de las bibliotecas públicas aplican filtros, que incluyen categorías como "interés LGBT", "aborto" y "cuestionable". [49] Algunas bibliotecas públicas bloquean los sitios web de préstamos rápidos [50]

Estados Unidos

El uso de filtros de Internet o software de control de contenido varía ampliamente en las bibliotecas públicas de los Estados Unidos, ya que las políticas de uso de Internet las establece la junta de bibliotecas local. Muchas bibliotecas adoptaron filtros de Internet después de que el Congreso condicionara la recepción de descuentos por servicio universal al uso de filtros de Internet a través de la Ley de Protección Infantil en Internet (CIPA). Otras bibliotecas no instalan software de control de contenido, creyendo que las políticas de uso aceptable y los esfuerzos educativos abordan el problema del acceso de los niños a contenido inapropiado para su edad, al tiempo que preservan el derecho de los usuarios adultos a acceder libremente a la información. Algunas bibliotecas utilizan filtros de Internet en computadoras utilizadas únicamente por niños. Algunas bibliotecas que emplean software de control de contenido permiten que el software se desactive caso por caso mediante una solicitud a un bibliotecario; las bibliotecas que están sujetas a la CIPA deben tener una política que permita a los adultos solicitar que se desactive el filtro sin tener que explicar el motivo de su solicitud.

Muchos expertos legales creen que una serie de casos legales, en particular Reno v. American Civil Liberties Union , establecieron que el uso de software de control de contenido en bibliotecas es una violación de la Primera Enmienda. [51] La Ley de Protección Infantil en Internet [CIPA] y el caso de junio de 2003 Estados Unidos v. Asociación Americana de Bibliotecas encontraron que la CIPA era constitucional como condición impuesta a la recepción de fondos federales, afirmando que las preocupaciones de la Primera Enmienda se disiparon por la disposición de la ley que permitía a los usuarios adultos de la biblioteca tener el software de filtrado desactivado, sin tener que explicar las razones de su solicitud. Sin embargo, la decisión de la pluralidad dejó abierta una futura impugnación constitucional "tal como se aplicó".

En noviembre de 2006, se presentó una demanda contra el Distrito Bibliotecario Regional del Centro Norte (NCRL) en el estado de Washington por su política de negarse a desactivar las restricciones a pedido de usuarios adultos, pero la CIPA no fue cuestionada en ese asunto. [52] En mayo de 2010, la Corte Suprema del Estado de Washington emitió una opinión después de que se le pidió que certificara una cuestión remitida por el Tribunal de Distrito de los Estados Unidos para el Distrito Este de Washington: "Si una biblioteca pública, de conformidad con el Artículo I, § 5 de la Constitución de Washington, puede filtrar el acceso a Internet para todos los usuarios sin desactivar los sitios web que contienen discursos protegidos por la constitución a pedido de un usuario adulto de la biblioteca". La Corte Suprema del Estado de Washington dictaminó que la política de filtrado de Internet de NCRL no violaba el Artículo I, Sección 5 de la Constitución del Estado de Washington. El Tribunal dijo: "Nos parece que la política de filtrado del NCRL es razonable y está en consonancia con su misión y con estas políticas, y es neutral en cuanto a puntos de vista. Parece que en este caso no existe ninguna violación del artículo I, sección 5 basada en el contenido. La misión esencial del NCRL es promover la lectura y el aprendizaje permanente. Como sostiene el NCRL, es razonable imponer restricciones al acceso a Internet para mantener un entorno que sea propicio para el estudio y el pensamiento contemplativo". El caso volvió al tribunal federal.

En marzo de 2007, Virginia aprobó una ley similar a la CIPA que exige que las bibliotecas públicas que reciben fondos estatales utilicen software de control de contenidos. Al igual que la CIPA, la ley exige que las bibliotecas desactiven los filtros para los usuarios adultos de la biblioteca cuando el usuario así lo solicite. [53]

Evitar filtros

En general, el filtrado de contenidos puede ser "completamente eludido por personas con conocimientos técnicos". El bloqueo de contenidos en un dispositivo "no garantiza que los usuarios no puedan encontrar una forma de evitar el filtro". [54] Los proveedores de contenidos pueden cambiar las URL o las direcciones IP para eludir el filtrado. Las personas con conocimientos técnicos pueden utilizar un método diferente empleando varios dominios o URL que dirijan a una dirección IP compartida donde hay contenido restringido. Esta estrategia no evita el filtrado de paquetes IP , pero puede evadir el envenenamiento de DNS y los servidores proxy web . Además, los perpetradores pueden utilizar sitios web reflejados que evitan los filtros. [55]

Algunos programas pueden ser eludidos exitosamente utilizando protocolos alternativos como FTP o telnet o HTTPS , realizando búsquedas en un idioma diferente, utilizando un servidor proxy o un evasor como Psiphon . También las páginas web almacenadas en caché devueltas por Google u otras búsquedas podrían eludir algunos controles. Los servicios de sindicación web pueden proporcionar rutas alternativas para el contenido. Algunos de los programas peor diseñados pueden ser cerrados matando sus procesos: por ejemplo, en Microsoft Windows a través del Administrador de tareas de Windows , o en Mac OS X usando Forzar salida o Monitor de actividad . Existen numerosas soluciones alternativas y contras a las soluciones alternativas de los creadores de software de control de contenido. Los servicios de Google a menudo son bloqueados por filtros, pero estos pueden ser eludidos más a menudo utilizando https:// en lugar de http:// ya que el software de filtrado de contenido no puede interpretar el contenido bajo conexiones seguras (en este caso SSL). [ necesita actualización ]

Se puede utilizar una VPN cifrada como medio para eludir el software de control de contenido, especialmente si este software está instalado en una puerta de enlace de Internet o un cortafuegos. Otras formas de eludir un filtro de control de contenido incluyen sitios de traducción y establecer una conexión remota con un dispositivo sin censura. [56]

Productos y servicios

Algunos proveedores de servicios de Internet ofrecen opciones de control parental . Otros ofrecen software de seguridad que incluye controles parentales. Mac OS X v10.4 ofrece controles parentales para varias aplicaciones ( Mail , Finder , iChat , Safari y Dictionary ). El sistema operativo Windows Vista de Microsoft también incluye software de control de contenido.

La tecnología de filtrado de contenido existe en dos formas principales: puerta de enlace de aplicaciones o inspección de paquetes . Para el acceso HTTP, la puerta de enlace de aplicaciones se denomina proxy web o simplemente proxy. Estos proxys web pueden inspeccionar tanto la solicitud inicial como la página web devuelta utilizando reglas arbitrariamente complejas y no devolverán ninguna parte de la página al solicitante hasta que se tome una decisión. Además, pueden realizar sustituciones en todo o en parte del resultado devuelto. Los filtros de inspección de paquetes no interfieren inicialmente con la conexión al servidor, sino que inspeccionan los datos de la conexión a medida que pasan; en algún momento, el filtro puede decidir que la conexión debe filtrarse y luego la desconectará inyectando un TCP-Reset o un paquete falsificado similar. Las dos técnicas se pueden utilizar juntas con el filtro de paquetes que monitorea un enlace hasta que ve una conexión HTTP que comienza a una dirección IP que tiene contenido que necesita filtrado. Luego, el filtro de paquetes redirige la conexión al proxy web que puede realizar un filtrado detallado en el sitio web sin tener que pasar por todas las conexiones sin filtrar. Esta combinación es bastante popular porque puede reducir significativamente el costo del sistema.

Existen limitaciones para el filtrado de paquetes a nivel de IP, ya que puede hacer que todo el contenido web asociado a una dirección IP en particular quede inaccesible. Esto puede resultar en el bloqueo involuntario de sitios legítimos que comparten la misma dirección IP o dominio. Por ejemplo, los sitios web universitarios suelen emplear varios dominios bajo una misma dirección IP . Además, el filtrado de paquetes a nivel de IP se puede superar utilizando una dirección IP distinta para cierto contenido mientras se sigue estando vinculado al mismo dominio o servidor. [57]

El software de control de contenido basado en pasarela puede ser más difícil de eludir que el software de escritorio, ya que el usuario no tiene acceso físico al dispositivo de filtrado. Sin embargo, muchas de las técnicas descritas en la sección Cómo eludir filtros aún funcionan.

Véase también

Referencias

  1. ^ "Young, angry… and wired - May 3, 2005". Edición. CNN.com . 3 de mayo de 2005. Archivado desde el original el 8 de diciembre de 2009. Consultado el 25 de octubre de 2009 .
  2. ^ Umstead, R. Thomas (20 de mayo de 2006). "Playboy predica el control". Multichannel News . Archivado desde el original el 22 de septiembre de 2013. Consultado el 25 de junio de 2013 .
  3. ^ Woolls, Daniel (25 de octubre de 2002). "Los sitios web se quedan en blanco para protestar contra la nueva y estricta ley de Internet". sfgate.com . Associated Press . Archivado desde el original el 8 de julio de 2003.
  4. ^ Bickerton, Derek (30 de noviembre de 1997). "Digital Dreams". The New York Times . Consultado el 25 de octubre de 2009 .
  5. ^ "Glosario de TI: Secure Web Gateway". gartner .com . Consultado el 27 de marzo de 2012 .
  6. ^ "Proyecto Censorware". censorware.net . Archivado desde el original el 20 de junio de 2015.
  7. ^ "159.54.226.83/apps/pbcs.dll/article?AID=/20060319/COLUMN0203/603190309/1064". Archivado desde el original el 19 de octubre de 2007.
  8. ^ "Transcripción de la exención DMCA 1201, 11 de abril - Censorware". Sethf.com . 11 de abril de 2003 . Consultado el 25 de octubre de 2009 .
  9. ^ "Windows Live recibirá software de censura - ZDNet.co.uk". noticias. ZDNet .co.uk . 14 de marzo de 2006. Archivado desde el original el 5 de diciembre de 2008 . Consultado el 25 de octubre de 2009 .
  10. ^ Filtros del lado del cliente. Academia Nacional de Ciencias . 2003. ISBN 9780309082747. Recuperado el 24 de junio de 2013 . {{cite book}}: |work=ignorado ( ayuda )
  11. ^ "Proteja a sus hijos con Family Safety". microsoft .com . Consultado el 10 de julio de 2012 .
  12. ^ Xu, Xueyang; Mao, Z. Morley ; Halderman, J. Alex (5 de enero de 2011). "La censura de Internet en China: ¿dónde se produce el filtrado?" (PDF) . Georgia Tech . Universidad de Michigan . Archivado desde el original (PDF) el 24 de marzo de 2012 . Consultado el 10 de julio de 2012 .
  13. ^ Christopher Williams (3 de mayo de 2012). «The Pirate Bay se queda sin millones de clientes de Virgin Media». The Daily Telegraph . Consultado el 8 de mayo de 2012 .
  14. ^ "Implementaciones de proxy explícitas y transparentes". websense .com . 2010. Archivado desde el original el 18 de abril de 2012 . Consultado el 30 de marzo de 2012 .
  15. ^ Fruhlinger, Keith Shaw y Josh (13 de julio de 2022). "¿Qué es DNS y cómo funciona?". Network World . Consultado el 22 de agosto de 2023 .
  16. ^ Filtrado. Academia Nacional de Ciencias . 2003. ISBN 9780309082747. Consultado el 22 de noviembre de 2010 . {{cite book}}: |work=ignorado ( ayuda )
  17. ^ "Software de rendición de cuentas: Reseñas de software de rendición de cuentas y monitoreo". UrbanMinistry.org . TechMission , Safe Families . Consultado el 25 de octubre de 2009 .
  18. ^ "Los censores web instan a la universidad a considerar un cambio de nombre". slashdot .org . 2 de marzo de 2000 . Consultado el 22 de noviembre de 2010 .
  19. ^ Lester Haines (8 de octubre de 2004). "Los filtros para pornografía hacen su agosto en el Museo Horniman". The Register .
  20. ^ Stark, Philip B. (10 de noviembre de 2007). "La eficacia de los filtros de contenido de Internet" (PDF) . Universidad de California, Berkeley . Archivado (PDF) desde el original el 15 de julio de 2010. Consultado el 22 de noviembre de 2010 .
  21. ^ Lui, Spandas (23 de marzo de 2010). "Microsoft, Google y Yahoo! se pronuncian en la consulta sobre filtros de ISP". AARNet .com . Consultado el 22 de noviembre de 2010 .
  22. ^ "Google y Yahoo plantean dudas sobre los filtros de red previstos". BBC News . 16 de febrero de 2010 . Consultado el 30 de abril de 2010 .
  23. ^ "Mainstream Loudon v. Board of Trustees of the Loudon County Library, 24 F. Supp. 2d 552 (ED Va. 1998)". Tomwbell.com . Consultado el 25 de octubre de 2009 .
  24. ^ "Reno v. American Civil Liberties Union - 521 US 844 (1997)". Justia .com . 26 de junio de 1997.
  25. ^ "Victorias legales". Electronic Frontier Foundation . Consultado el 1 de febrero de 2019 .
  26. ^ "Seguridad infantil en Internet". www.justice.gov . 26 de mayo de 2015. Archivado desde el original el 2 de febrero de 2019. Consultado el 1 de febrero de 2019 .
  27. ^ "Microsystems v Scandinavia Online, Verified Complaint". Electronic Frontier Foundation . Tribunal de Distrito de los Estados Unidos, Distrito de Massachusetts. 15 de marzo de 2000. Archivado desde el original el 12 de febrero de 2009. Consultado el 25 de octubre de 2009 .
  28. ^ Seth Finkelstein y Lee Tien. "Libro blanco 1 de la Electronic Frontier Foundation para el proyecto de la NRC sobre herramientas y estrategias para proteger a los niños de la pornografía y su aplicabilidad a otros contenidos inapropiados de Internet". Academia Nacional de Ciencias, Ingeniería y Medicina . Archivado desde el original el 19 de abril de 2006.
  29. ^ "Sky y Virgin Media solicitan bloquear el sitio de piratería Newzbin2". BBC News . 9 de noviembre de 2011 . Consultado el 26 de marzo de 2012 .
  30. ^ Kelly Wilson (6 de noviembre de 2008). "Hometown Has Been Shutdown - People Connection Blog: AIM Community Network". AOL Hometown . Archivado desde el original el 9 de mayo de 2008. Consultado el 25 de octubre de 2009 .
  31. ^ "¡Aviso!". Miembros. tripod.com . Consultado el 25 de octubre de 2009 .
  32. ^ "www.glaad.org/media/archive_detail.php?id=103&". Archivado desde el original el 7 de junio de 2008.
  33. ^ "La mente de un censor". Spectacle.org . Consultado el 25 de octubre de 2009 .
  34. ^ "CYBERsitter: ¿A dónde no queremos que vayas hoy?". Spectacle.org . Consultado el 25 de octubre de 2009 .
  35. ^ "Ver: Software de filtrado: la conexión religiosa". Csriu.org . Archivado desde el original el 5 de julio de 2008. Consultado el 25 de octubre de 2009 .
  36. ^ "Véase: ADL y The Learning Company desarrollan software educativo". Liga Antidifamación . Archivado desde el original el 2011-02-09 . Consultado el 2011-08-26 .
  37. ^ "Ver: Cyber ​​Patrol Examined" (Patrulla cibernética examinada). peacefire.org . Consultado el 26 de agosto de 2011 .
  38. ^ "ICRA: Normas técnicas utilizadas". Instituto de Seguridad Familiar en Internet . Consultado el 4 de julio de 2008 .
  39. ^ "Navegue por la Web con Internet Explorer 6 y Content Advisor". microsoft .com . 26 de marzo de 2003.
  40. ^ "ASACP participa en coalición financiera contra la pornografía infantil". 20 de noviembre de 2007. Consultado el 4 de julio de 2008 .
  41. ^ "NetAlert: Guía para padres sobre seguridad en Internet" (PDF) . Autoridad Australiana de Comunicaciones y Medios . 2 de agosto de 2007. Archivado desde el original (PDF) el 19 de abril de 2013 . Consultado el 24 de junio de 2013 .
  42. ^ "Adolescente rompe filtro pornográfico de 84 millones de dólares del gobierno". The Sydney Morning Herald . Fairfax Digital . Australian Associated Press (AAP). 25 de agosto de 2007 . Consultado el 24 de junio de 2013 .
  43. ^ "Declaración sobre sistemas de acceso restringido de 2007" (PDF) . Autoridad Australiana de Comunicaciones y Medios . 2007. Archivado desde el original (PDF) el 24 de marzo de 2012 . Consultado el 24 de junio de 2013 .
  44. ^ ab "Learn - No Clean Feed - Stop Internet Censorship in Australia". Electronic Frontiers Australia . Archivado desde el original el 7 de enero de 2010. Consultado el 25 de octubre de 2009 .
  45. ^ "El Ministerio de Cultura danés elige el filtro de contenido SonicWALL CMS 2100 para mantener las bibliotecas infantiles libres de material inaceptable". PR Newswire .com (nota de prensa) . Consultado el 25 de octubre de 2009 .
  46. ^ "El Ministro de Cultura danés ofrece filtros de Internet a las bibliotecas". saferinternet.org . Archivado desde el original el 12 de febrero de 2009. Consultado el 25 de octubre de 2009 .
  47. ^ "El servicio de wifi de la Biblioteca Británica bloquea el 'violento' Hamlet". BBC News . 13 de agosto de 2013.
  48. ^ "¿Queremos un mundo perfectamente filtrado?", Louise Cooke, profesora del Departamento de Ciencias de la Información, Universidad de Loughborough, noviembre de 2006. Archivado el 4 de diciembre de 2013 en Wayback Machine.
  49. ^ "Una nueva investigación mapea el alcance del filtrado web en las bibliotecas públicas". 11 de abril de 2016. Consultado el 18 de julio de 2016 .
  50. ^ Short, Adrian (3 de abril de 2014). "¿Deberían las bibliotecas públicas bloquear los sitios web de préstamos de día de pago?". Pirate Party UK. Archivado desde el original el 11 de septiembre de 2016. Consultado el 16 de abril de 2014 .
  51. ^ Wallace, Jonathan D. (9 de noviembre de 1997). "La compra de software de bloqueo por parte de bibliotecas públicas es inconstitucional".
  52. ^ "Demanda de la ACLU para que los usuarios de bibliotecas tengan acceso a información en Internet". ACLU de Washington . 16 de noviembre de 2006. Archivado desde el original el 5 de diciembre de 2006.
  53. ^ Sluss, Michael (23 de marzo de 2007). "Kaine firma un proyecto de ley sobre bibliotecas: la legislación exige que las bibliotecas públicas bloqueen el material obsceno con filtros de Internet". The Roanoke Times . Archivado desde el original el 29 de febrero de 2012. Consultado el 24 de marzo de 2007 .
  54. ^ Satterfield, Brian (4 de junio de 2007). "Entender el filtrado de contenido: Preguntas frecuentes para organizaciones sin fines de lucro". TechSoup .org . Consultado el 24 de junio de 2013 .
  55. ^ Varadharajan, Vijay (julio de 2010). "Filtrado de Internet: problemas y desafíos". IEEE Security & Privacy . 8 (4): 62–65. doi :10.1109/msp.2010.131. ISSN  1540-7993.
  56. ^ "¿Es posible evitar fácilmente los filtros de Internet?". Comodo Cybersecurity . 4 de junio de 2007. Consultado el 2 de octubre de 2018 .
  57. ^ Varadharajan, Vijay (2010). "Filtrado de Internet: problemas y desafíos". IEEE Security & Privacy . 8 (4): 62–65. doi :10.1109/MSP.2010.131 . Consultado el 2 de febrero de 2024 .