La informática o red peer-to-peer ( P2P ) es una arquitectura de aplicación distribuida que divide tareas o cargas de trabajo entre pares. Los pares son participantes igualmente privilegiados y equipotentes en la red, formando una red de nodos de igual a igual . [1] Además, una red de área personal (PAN) también es, por naturaleza, un tipo de red descentralizada de igual a igual, típicamente entre dos dispositivos. [2]
Los pares ponen una parte de sus recursos, como la potencia de procesamiento, el almacenamiento en disco o el ancho de banda de la red , directamente a disposición de otros participantes de la red, sin la necesidad de una coordinación central por parte de servidores o hosts estables. [3] Los pares son tanto proveedores como consumidores de recursos, en contraste con el modelo tradicional cliente-servidor en el que se divide el consumo y el suministro de recursos. [4]
Si bien los sistemas P2P se habían utilizado anteriormente en muchos dominios de aplicaciones , [5] la arquitectura fue popularizada por el sistema de intercambio de archivos de Internet Napster , lanzado originalmente en 1999. [6] P2P se utiliza en muchos protocolos, como el intercambio de archivos BitTorrent a través de Internet [ 7] y en redes personales como visualización Miracast y radio Bluetooth . [8] El concepto ha inspirado nuevas estructuras y filosofías en muchas áreas de la interacción humana. En tales contextos sociales, el meme entre pares se refiere a las redes sociales igualitarias que han surgido en toda la sociedad, habilitadas por las tecnologías de Internet en general.
Si bien los sistemas P2P se habían utilizado anteriormente en muchos dominios de aplicaciones, [5] el concepto se popularizó mediante sistemas de intercambio de archivos como la aplicación para compartir música Napster . El movimiento peer-to-peer permitió a millones de usuarios de Internet conectarse "directamente, formando grupos y colaborando para convertirse en motores de búsqueda, supercomputadoras virtuales y sistemas de archivos creados por los usuarios". [9] El concepto básico de computación peer-to-peer fue previsto en discusiones anteriores sobre sistemas de software y redes, remontándose a los principios establecidos en la primera Solicitud de comentarios , RFC 1. [10]
La visión de Tim Berners-Lee para la World Wide Web se acercaba a una red P2P en el sentido de que asumía que cada usuario de la web sería un editor y colaborador activo, creando y vinculando contenido para formar una "red" interconectada de enlaces. La primera Internet era más abierta que la actual, donde dos máquinas conectadas a Internet podían enviarse paquetes entre sí sin firewalls ni otras medidas de seguridad. [11] [9] [ página necesaria ] Esto contrasta con la estructura similar a la radiodifusión de la web tal como se ha desarrollado a lo largo de los años. [12] [13] [14] Como precursor de Internet, ARPANET fue una exitosa red peer-to-peer donde "cada nodo participante podía solicitar y servir contenido". Sin embargo, ARPANET no estaba autoorganizada y no podía "proporcionar ningún medio para el enrutamiento basado en contexto o contenido más allá del enrutamiento 'simple' basado en direcciones". [14]
Por lo tanto, se estableció Usenet , un sistema de mensajería distribuida que a menudo se describe como una de las primeras arquitecturas de igual a igual. Fue desarrollado en 1979 como un sistema que aplica un modelo de control descentralizado . [15] El modelo básico es un modelo cliente-servidor desde la perspectiva del usuario o cliente que ofrece un enfoque autoorganizado para los servidores de grupos de noticias. Sin embargo, los servidores de noticias se comunican entre sí como pares para propagar los artículos de noticias de Usenet por todo el grupo de servidores de la red. La misma consideración se aplica al correo electrónico SMTP en el sentido de que la red central de agentes de transferencia de correo electrónico que retransmite el correo electrónico tiene un carácter de igual a igual, mientras que la periferia de los clientes de correo electrónico y sus conexiones directas es estrictamente una relación cliente-servidor. [ cita necesaria ]
En mayo de 1999, con millones de personas más en Internet, Shawn Fanning presentó la aplicación para compartir música y archivos llamada Napster. [14] Napster fue el comienzo de las redes peer-to-peer, tal como las conocemos hoy, donde "los usuarios participantes establecen una red virtual, totalmente independiente de la red física, sin tener que obedecer a ninguna autoridad administrativa ni restricciones". [14]
Una red peer-to-peer está diseñada en torno a la noción de nodos iguales que funcionan simultáneamente como "clientes" y "servidores" de los otros nodos de la red. Este modelo de disposición de red difiere del modelo cliente-servidor , donde la comunicación suele realizarse hacia y desde un servidor central. Un ejemplo típico de transferencia de archivos que utiliza el modelo cliente-servidor es el servicio Protocolo de transferencia de archivos (FTP) en el que los programas cliente y servidor son distintos: los clientes inician la transferencia y los servidores satisfacen estas solicitudes.
Las redes peer-to-peer generalmente implementan algún tipo de red superpuesta virtual sobre la topología de la red física, donde los nodos de la superposición forman un subconjunto de los nodos de la red física. Los datos todavía se intercambian directamente a través de la red TCP/IP subyacente , pero en la capa de aplicación los pares pueden comunicarse entre sí directamente, a través de enlaces superpuestos lógicos (cada uno de los cuales corresponde a una ruta a través de la red física subyacente). Las superposiciones se utilizan para la indexación y el descubrimiento de pares, y hacen que el sistema P2P sea independiente de la topología de la red física. Según cómo se vinculan los nodos entre sí dentro de la red superpuesta y cómo se indexan y ubican los recursos, podemos clasificar las redes como estructuradas o no estructuradas (o como un híbrido entre ambas). [16] [17] [18]
Las redes peer-to-peer no estructuradas no imponen una estructura particular en la red superpuesta por diseño, sino que están formadas por nodos que forman conexiones aleatorias entre sí. [19] ( Gnutella , Gossip y Kazaa son ejemplos de protocolos P2P no estructurados). [20]
Debido a que no se les impone una estructura global, las redes no estructuradas son fáciles de construir y permiten optimizaciones localizadas en diferentes regiones de la superposición. [21] Además, debido a que el papel de todos los pares en la red es el mismo, las redes no estructuradas son muy robustas frente a altas tasas de "deserción", es decir, cuando un gran número de pares se unen y abandonan con frecuencia la red. [22] [23]
Sin embargo, las principales limitaciones de las redes no estructuradas también surgen de esta falta de estructura. En particular, cuando un par quiere encontrar un dato deseado en la red, la consulta de búsqueda debe inundarse a través de la red para encontrar tantos pares como sea posible que compartan los datos. La inundación provoca una cantidad muy alta de tráfico de señalización en la red, utiliza más CPU /memoria (al requerir que cada par procese todas las consultas de búsqueda) y no garantiza que las consultas de búsqueda siempre se resuelvan. Además, dado que no existe correlación entre un par y el contenido que administra, no hay garantía de que la inundación encuentre un par que tenga los datos deseados. Es probable que el contenido popular esté disponible en varios pares y cualquier compañero que lo busque probablemente encontrará lo mismo. Pero si un par está buscando datos raros compartidos sólo por unos pocos pares, es muy poco probable que la búsqueda tenga éxito. [24]
En las redes estructuradas peer-to-peer, la superposición se organiza en una topología específica y el protocolo garantiza que cualquier nodo pueda buscar eficientemente [25] en la red un archivo/recurso, incluso si el recurso es extremadamente raro. [20]
El tipo más común de redes P2P estructuradas implementa una tabla hash distribuida (DHT), [26] [27] en la que se utiliza una variante de hash consistente para asignar la propiedad de cada archivo a un par en particular. [28] [29] Esto permite a los pares buscar recursos en la red usando una tabla hash : es decir, los pares ( clave , valor ) se almacenan en el DHT, y cualquier nodo participante puede recuperar eficientemente el valor asociado con una clave determinada. . [30] [31]
Sin embargo, para enrutar el tráfico de manera eficiente a través de la red, los nodos en una superposición estructurada deben mantener listas de vecinos [32] que satisfagan criterios específicos. Esto los hace menos robustos en redes con una alta tasa de abandono (es decir, con un gran número de nodos que se unen y salen con frecuencia de la red). [23] [33] Una evaluación más reciente de soluciones de descubrimiento de recursos P2P bajo cargas de trabajo reales ha señalado varios problemas en las soluciones basadas en DHT, como el alto costo de publicidad/descubrimiento de recursos y el desequilibrio de carga estática y dinámica. [34]
Las redes distribuidas notables que utilizan DHT incluyen Tixati , una alternativa al rastreador distribuido de BitTorrent , la red Kad , la botnet Storm y YaCy . Algunos proyectos de investigación destacados incluyen el proyecto Chord , Kademlia , la utilidad de almacenamiento PAST , P-Grid , una red superpuesta emergente y autoorganizada, y el sistema de distribución de contenidos CoopNet . [35] Las redes basadas en DHT también se han utilizado ampliamente para lograr un descubrimiento eficiente de recursos [36] [37] para sistemas de computación grid , ya que ayuda en la gestión de recursos y la programación de aplicaciones.
Los modelos híbridos son una combinación de modelos peer-to-peer y cliente-servidor. [38] Un modelo híbrido común es tener un servidor central que ayude a los pares a encontrarse entre sí. Spotify fue un ejemplo de modelo híbrido [hasta 2014]. [ cita necesaria ] Existe una variedad de modelos híbridos, todos los cuales hacen concesiones entre la funcionalidad centralizada proporcionada por una red estructurada de servidor/cliente y la igualdad de nodos que ofrecen las redes no estructuradas puras de igual a igual. Actualmente, los modelos híbridos tienen un mejor rendimiento que las redes puramente no estructuradas o las redes puramente estructuradas porque ciertas funciones, como la búsqueda, requieren una funcionalidad centralizada pero se benefician de la agregación descentralizada de nodos proporcionada por las redes no estructuradas. [39]
CoopNet (Cooperative Networking) fue un sistema propuesto para descargar servicios a pares que descargaron contenido recientemente , propuesto por los científicos informáticos Venkata N. Padmanabhan y Kunwadee Sripanidkulchai, que trabajan en Microsoft Research y la Universidad Carnegie Mellon . [40] [41] Cuando un servidor experimenta un aumento en la carga, redirige a los pares entrantes a otros pares que han acordado reflejar el contenido, descargando así el saldo del servidor. Toda la información se conserva en el servidor. Este sistema aprovecha el hecho de que el cuello de botella está más probablemente en el ancho de banda de salida que en la CPU , de ahí su diseño centrado en el servidor. Asigna pares a otros pares que están "cercanos en IP " a sus vecinos [mismo rango de prefijo] en un intento de utilizar la localidad. Si se encuentran varios pares con el mismo archivo , indica que el nodo elige al más rápido de sus vecinos. Los medios de streaming se transmiten haciendo que los clientes almacenen en caché el flujo anterior y luego lo transmitan por partes a nuevos nodos.
Los sistemas peer-to-peer plantean desafíos únicos desde la perspectiva de la seguridad informática . Como cualquier otra forma de software , las aplicaciones P2P pueden contener vulnerabilidades . Sin embargo, lo que hace que esto sea particularmente peligroso para el software P2P es que las aplicaciones peer-to-peer actúan como servidores además de clientes, lo que significa que pueden ser más vulnerables a ataques remotos . [42]
Dado que cada nodo desempeña un papel en el enrutamiento del tráfico a través de la red, los usuarios malintencionados pueden realizar una variedad de "ataques de enrutamiento" o ataques de denegación de servicio . Los ejemplos de ataques de enrutamiento comunes incluyen "enrutamiento de búsqueda incorrecto", donde los nodos maliciosos reenvían deliberadamente solicitudes incorrectas o devuelven resultados falsos, "actualizaciones de enrutamiento incorrectas", donde los nodos maliciosos corrompen las tablas de enrutamiento de los nodos vecinos enviándoles información falsa, y "partición de red de enrutamiento incorrecto". "donde, cuando se unen nuevos nodos, se inician a través de un nodo malicioso, que coloca el nuevo nodo en una partición de la red que está poblada por otros nodos maliciosos. [43]
La prevalencia del malware varía entre los diferentes protocolos de igual a igual. Los estudios que analizan la propagación de malware en redes P2P encontraron, por ejemplo, que el 63% de las solicitudes de descarga respondidas en la red gnutella contenían algún tipo de malware, mientras que sólo el 3% del contenido de OpenFT contenía malware. En ambos casos, los tres tipos de malware más comunes representaron la gran mayoría de los casos (99% en gnutella y 65% en OpenFT). Otro estudio que analizó el tráfico en la red Kazaa encontró que el 15% de la muestra de 500.000 archivos tomadas estaban infectados por uno o más de los 365 virus informáticos diferentes que se analizaron. [44]
Los datos corruptos también se pueden distribuir en redes P2P modificando archivos que ya se comparten en la red. Por ejemplo, en la red FastTrack , la RIAA logró introducir fragmentos falsos en descargas y archivos descargados (principalmente archivos MP3 ). Los archivos infectados con el virus RIAA quedaron inutilizables y contenían código malicioso. También se sabe que la RIAA ha subido música y películas falsas a redes P2P para disuadir el intercambio ilegal de archivos. [45] En consecuencia, las redes P2P de hoy han visto un enorme aumento de sus mecanismos de seguridad y verificación de archivos. El hashing moderno , la verificación de fragmentos y los diferentes métodos de cifrado han hecho que la mayoría de las redes sean resistentes a casi cualquier tipo de ataque, incluso cuando partes importantes de la red respectiva han sido reemplazadas por hosts falsos o no funcionales. [46]
La naturaleza descentralizada de las redes P2P aumenta la solidez porque elimina el único punto de falla que puede ser inherente a un sistema basado en cliente-servidor. [47] A medida que llegan los nodos y aumenta la demanda en el sistema, la capacidad total del sistema también aumenta y la probabilidad de falla disminuye. Si un interlocutor de la red no funciona correctamente, toda la red no se verá comprometida ni dañada. Por el contrario, en una arquitectura típica cliente-servidor, los clientes sólo comparten sus demandas con el sistema, pero no sus recursos. En este caso, a medida que más clientes se unen al sistema, hay menos recursos disponibles para atender a cada cliente y, si el servidor central falla, toda la red queda fuera de servicio.
Existen ventajas y desventajas en las redes P2P relacionadas con el tema de copia de seguridad , recuperación y disponibilidad de datos. En una red centralizada, los administradores del sistema son las únicas fuerzas que controlan la disponibilidad de los archivos que se comparten. Si los administradores deciden dejar de distribuir un archivo, simplemente tienen que eliminarlo de sus servidores y ya no estará disponible para los usuarios. Además de dejar a los usuarios impotentes para decidir qué se distribuye en la comunidad, esto hace que todo el sistema sea vulnerable a amenazas y solicitudes del gobierno y otras fuerzas importantes.
Por ejemplo, YouTube ha sido presionado por la RIAA , la MPAA y la industria del entretenimiento para filtrar el contenido protegido por derechos de autor. Aunque las redes servidor-cliente pueden monitorear y administrar la disponibilidad del contenido, pueden tener más estabilidad en la disponibilidad del contenido que eligen alojar. Un cliente no debería tener problemas para acceder a contenido oscuro que se comparte en una red centralizada estable. Sin embargo, las redes P2P son menos confiables a la hora de compartir archivos impopulares porque compartir archivos en una red P2P requiere que al menos un nodo de la red tenga los datos solicitados, y ese nodo debe poder conectarse al nodo que solicita los datos. En ocasiones, este requisito es difícil de cumplir porque los usuarios pueden eliminar o dejar de compartir datos en cualquier momento. [48]
En una red P2P, la comunidad de usuarios es enteramente responsable de decidir qué contenidos están disponibles. Los archivos impopulares eventualmente desaparecen y dejan de estar disponibles a medida que menos personas los comparten. Los archivos populares, sin embargo, se distribuyen muy fácilmente. Los archivos populares en una red P2P son más estables y están más disponibles que los archivos en redes centrales. En una red centralizada, una simple pérdida de conexión entre el servidor y los clientes puede causar una falla, pero en las redes P2P, las conexiones entre cada nodo deben perderse para causar una falla en el intercambio de datos. En un sistema centralizado, los administradores son responsables de toda la recuperación y las copias de seguridad de los datos, mientras que en los sistemas P2P, cada nodo requiere su sistema de copia de seguridad. Debido a la falta de una autoridad central en las redes P2P, fuerzas como la industria discográfica, la RIAA , la MPAA y el gobierno no pueden eliminar o detener el intercambio de contenido en los sistemas P2P. [49]
En las redes P2P, los clientes proporcionan y utilizan recursos. Esto significa que, a diferencia de los sistemas cliente-servidor, la capacidad de servicio de contenido de las redes peer-to-peer puede aumentar a medida que más usuarios comienzan a acceder al contenido (especialmente con protocolos como Bittorrent que requieren que los usuarios compartan, consulte un estudio de medición del rendimiento). [50] ). Esta propiedad es una de las principales ventajas del uso de redes P2P porque hace que los costos de instalación y funcionamiento sean muy pequeños para el distribuidor de contenido original. [51] [52]
Muchas redes de intercambio de archivos peer-to-peer , como Gnutella , G2 y la red eDonkey, popularizaron las tecnologías peer-to-peer.
Las redes peer-to-peer implican la transferencia de datos de un usuario a otro sin utilizar un servidor intermedio. Las empresas que desarrollan aplicaciones P2P se han visto involucradas en numerosos casos legales, principalmente en los Estados Unidos, por conflictos con las leyes de derechos de autor . [54] Dos casos importantes son Grokster contra RIAA y MGM Studios, Inc. contra Grokster, Ltd. . [55] En el último caso, el Tribunal sostuvo por unanimidad que las empresas demandadas de intercambio de archivos entre pares Grokster y Streamcast podrían ser demandadas por inducir la infracción de derechos de autor.
La cooperación entre una comunidad de participantes es clave para el éxito continuo de los sistemas P2P dirigidos a usuarios humanos ocasionales; estos alcanzan su máximo potencial sólo cuando un gran número de nodos aportan recursos. Pero en la práctica actual, las redes P2P a menudo contienen una gran cantidad de usuarios que utilizan recursos compartidos por otros nodos, pero que no comparten nada por sí mismos (a menudo denominado "problema del aprovechador").
El aprovechamiento gratuito puede tener un impacto profundo en la red y, en algunos casos, puede provocar el colapso de la comunidad. [58] En este tipo de redes "los usuarios tienen desincentivos naturales para cooperar porque la cooperación consume sus propios recursos y puede degradar su propio desempeño". [59] Estudiar los atributos sociales de las redes P2P es un desafío debido a la gran rotación de las poblaciones, la asimetría de intereses y la identidad de costo cero. [59] Se han implementado una variedad de mecanismos de incentivos para alentar o incluso obligar a los nodos a contribuir con recursos. [60] [61]
Algunos investigadores han explorado los beneficios de permitir que las comunidades virtuales se autoorganicen e introduzcan incentivos para compartir recursos y cooperar, argumentando que el aspecto social que falta en los sistemas P2P actuales debe verse como un objetivo y un medio para que las comunidades virtuales autoorganizadas puedan construirse y fomentarse. [62] Los esfuerzos de investigación en curso para diseñar mecanismos de incentivos efectivos en sistemas P2P, basados en principios de la teoría de juegos, están comenzando a tomar una dirección más psicológica y de procesamiento de información.
Algunas redes peer-to-peer (por ejemplo, Freenet ) ponen un gran énfasis en la privacidad y el anonimato , es decir, garantizar que el contenido de las comunicaciones esté oculto a los espías y que las identidades y ubicaciones de los participantes estén ocultas. La criptografía de clave pública se puede utilizar para proporcionar cifrado , validación de datos , autorización y autenticación de datos/mensajes. Se pueden utilizar el enrutamiento cebolla y otros protocolos de red mixtos (por ejemplo, Tarzán) para proporcionar anonimato. [63]
Los autores de abusos sexuales en directo y otros delitos cibernéticos han utilizado plataformas peer-to-peer para llevar a cabo actividades de forma anónima. [64]
Aunque las redes peer-to-peer pueden utilizarse con fines legítimos, los titulares de derechos han apuntado a las redes peer-to-peer por su participación en el intercambio de material protegido por derechos de autor. Las redes peer-to-peer implican la transferencia de datos de un usuario a otro sin utilizar un servidor intermedio. Las empresas que desarrollan aplicaciones P2P han estado involucradas en numerosos casos legales, principalmente en los Estados Unidos, principalmente por cuestiones relacionadas con la ley de derechos de autor . [54] Dos casos importantes son Grokster contra RIAA y MGM Studios, Inc. contra Grokster, Ltd. [55] En ambos casos, se dictaminó que la tecnología para compartir archivos era legal siempre y cuando los desarrolladores no tuvieran la capacidad de impedir la compartir el material protegido por derechos de autor.
Para establecer responsabilidad penal por la infracción de derechos de autor en sistemas peer-to-peer, el gobierno debe demostrar que el acusado infringió voluntariamente un derecho de autor con el fin de obtener una ganancia financiera personal o una ventaja comercial. [65] Las excepciones de uso legítimo permiten descargar un uso limitado de material protegido por derechos de autor sin obtener el permiso de los titulares de los derechos. Estos documentos suelen ser reportajes periodísticos o bajo líneas de investigación y trabajo académico. Se han desarrollado controversias sobre la preocupación por el uso ilegítimo de redes peer-to-peer en relación con la seguridad pública y la seguridad nacional. Cuando un archivo se descarga a través de una red peer-to-peer, es imposible saber quién creó el archivo o qué usuarios están conectados a la red en un momento determinado. La confiabilidad de las fuentes es una amenaza potencial a la seguridad que se puede ver en los sistemas peer-to-peer. [66]
Un estudio encargado por la Unión Europea encontró que las descargas ilegales pueden provocar un aumento en las ventas generales de videojuegos porque los juegos más nuevos cobran por funciones o niveles adicionales. El documento concluyó que la piratería tenía un impacto financiero negativo en las películas, la música y la literatura. El estudio se basó en datos autoinformados sobre compras de juegos y uso de sitios de descarga ilegales. Se hicieron esfuerzos para eliminar los efectos de las respuestas falsas y mal recordadas. [67] [68] [69]
Las aplicaciones peer-to-peer presentan uno de los temas centrales en la controversia sobre la neutralidad de la red . Se sabe que los proveedores de servicios de Internet ( ISP ) limitan el tráfico de intercambio de archivos P2P debido a su alto uso de ancho de banda . [70] En comparación con la navegación web, el correo electrónico o muchos otros usos de Internet, donde los datos sólo se transfieren en intervalos cortos y en cantidades relativamente pequeñas, el intercambio de archivos P2P a menudo consiste en un uso relativamente intenso de ancho de banda debido a las continuas transferencias de archivos y el enjambre. /paquetes de coordinación de red. En octubre de 2007, Comcast , uno de los mayores proveedores de Internet de banda ancha de Estados Unidos, comenzó a bloquear aplicaciones P2P como BitTorrent . Su razonamiento fue que P2P se utiliza principalmente para compartir contenido ilegal y su infraestructura no está diseñada para un tráfico continuo de gran ancho de banda.
Los críticos señalan que las redes P2P tienen usos legales legítimos y que esta es otra forma en que los grandes proveedores están tratando de controlar el uso y el contenido de Internet y dirigir a las personas hacia una arquitectura de aplicaciones basada en cliente-servidor . El modelo cliente-servidor proporciona barreras financieras de entrada a pequeños editores e individuos, y puede ser menos eficiente para compartir archivos grandes. Como reacción a esta limitación del ancho de banda , varias aplicaciones P2P comenzaron a implementar la ofuscación de protocolos, como el cifrado del protocolo BitTorrent . Las técnicas para lograr la "ofuscación de protocolos" implican eliminar propiedades de los protocolos que de otro modo serían fácilmente identificables, como secuencias de bytes deterministas y tamaños de paquetes, haciendo que los datos parezcan aleatorios. [71] La solución del ISP al gran ancho de banda es el almacenamiento en caché P2P , donde un ISP almacena la parte de los archivos a los que más acceden los clientes P2P para ahorrar acceso a Internet.
Los investigadores han utilizado simulaciones por computadora para ayudar a comprender y evaluar los complejos comportamientos de los individuos dentro de la red. "La investigación en red a menudo se basa en la simulación para probar y evaluar nuevas ideas. Un requisito importante de este proceso es que los resultados deben ser reproducibles para que otros investigadores puedan replicar, validar y ampliar el trabajo existente". [72] Si la investigación no se puede reproducir, entonces se obstaculiza la oportunidad de realizar más investigaciones. "Aunque se siguen lanzando nuevos simuladores, la comunidad de investigación tiende a preferir sólo un puñado de simuladores de código abierto. La demanda de funciones en los simuladores, como lo demuestran nuestros criterios y nuestra encuesta, es alta. Por lo tanto, la comunidad debería trabajar junta para obtener estas características en software de código abierto. Esto reduciría la necesidad de simuladores personalizados y, por lo tanto, aumentaría la repetibilidad y la reputación de los experimentos". [72]
Los simuladores populares que se utilizaron ampliamente en el pasado son NS2, OMNeT++, SimPy, NetLogo, PlanetLab, ProtoPeer, QTM, PeerSim, ONE, P2PStrmSim, PlanetSim, GNUSim y Bharambe. [73]
Además de todos los hechos mencionados anteriormente, también se ha trabajado en simuladores de red de código abierto ns-2. Aquí se ha explorado un tema de investigación relacionado con la detección y el castigo de los polizones utilizando el simulador ns-2. [74]
{{cite web}}
: CS1 maint: multiple names: authors list (link){{cite web}}
: CS1 maint: archived copy as title (link)