El Protocolo de Control de Transmisión ( TCP ) es uno de los principales protocolos de la suite de protocolos de Internet . Se originó en la implementación inicial de la red en la que complementó al Protocolo de Internet (IP). Por lo tanto, la suite completa se conoce comúnmente como TCP/IP . TCP proporciona una entrega confiable , ordenada y sin errores de un flujo de octetos (bytes) entre aplicaciones que se ejecutan en hosts que se comunican a través de una red IP. Las principales aplicaciones de Internet, como la World Wide Web , el correo electrónico, la administración remota y la transferencia de archivos , dependen de TCP, que es parte de la capa de transporte de la suite TCP/IP. SSL/TLS a menudo se ejecuta sobre TCP.
TCP está orientado a la conexión , lo que significa que el remitente y el receptor primero deben establecer una conexión basada en parámetros acordados; lo hacen a través del procedimiento de protocolo de enlace de tres vías. [1] El servidor debe estar escuchando (apertura pasiva) las solicitudes de conexión de los clientes antes de que se establezca una conexión. El protocolo de enlace de tres vías (apertura activa), la retransmisión y la detección de errores aumentan la confiabilidad pero alargan la latencia . Las aplicaciones que no requieren un servicio de flujo de datos confiable pueden usar el Protocolo de datagramas de usuario (UDP) en su lugar, que proporciona un servicio de datagramas sin conexión que prioriza el tiempo sobre la confiabilidad. TCP emplea la prevención de congestión de red . Sin embargo, existen vulnerabilidades en TCP, incluida la denegación de servicio , el secuestro de conexión , el veto de TCP y el ataque de reinicio .
En mayo de 1974, Vint Cerf y Bob Kahn describieron un protocolo de interconexión de redes para compartir recursos mediante conmutación de paquetes entre nodos de red. [2] Los autores habían estado trabajando con Gérard Le Lann para incorporar conceptos del proyecto francés CYCLADES en la nueva red. [3] La especificación del protocolo resultante, RFC 675 ( Especificación del programa de control de transmisión de Internet ), fue escrita por Vint Cerf, Yogen Dalal y Carl Sunshine, y publicada en diciembre de 1974. [4] Contiene el primer uso atestiguado del término internet , como una abreviatura de interconexión de redes . [ cita requerida ]
El Programa de Control de Transmisión incorporó enlaces orientados a conexión y servicios de datagramas entre hosts. En la versión 4, el Programa de Control de Transmisión monolítico se dividió en una arquitectura modular que consistía en el Protocolo de Control de Transmisión y el Protocolo de Internet . [5] [6] Esto dio como resultado un modelo de red que se conoció informalmente como TCP/IP , aunque formalmente se lo denominó modelo de arquitectura de Internet del Departamento de Defensa ( modelo DoD para abreviar) o modelo DARPA . [7] [8] [9] Más tarde, se convirtió en parte de, y sinónimo de, el Conjunto de Protocolos de Internet .
Los siguientes documentos de Internet Experiment Note (IEN) describen la evolución de TCP hasta la versión moderna: [10]
El TCP se estandarizó en enero de 1980 como RFC 761.
En 2004, Vint Cerf y Bob Kahn recibieron el Premio Turing por su trabajo fundacional sobre TCP/IP. [11] [12]
El Protocolo de Control de Transmisión proporciona un servicio de comunicación en un nivel intermedio entre un programa de aplicación y el Protocolo de Internet. Proporciona conectividad de host a host en la capa de transporte del modelo de Internet . Una aplicación no necesita conocer los mecanismos particulares para enviar datos a través de un enlace a otro host, como la fragmentación de IP requerida para acomodar la unidad de transmisión máxima del medio de transmisión. En la capa de transporte, TCP maneja todos los detalles de transmisión y de establecimiento de contacto y presenta una abstracción de la conexión de red a la aplicación, generalmente a través de una interfaz de socket de red .
En los niveles inferiores de la pila de protocolos, debido a la congestión de la red , el equilibrio de la carga de tráfico o un comportamiento impredecible de la red, los paquetes IP pueden perderse , duplicarse o entregarse fuera de orden . TCP detecta estos problemas, solicita la retransmisión de los datos perdidos, reorganiza los datos fuera de orden e incluso ayuda a minimizar la congestión de la red para reducir la aparición de otros problemas. Si los datos siguen sin entregarse, se notifica a la fuente de este fallo. Una vez que el receptor TCP ha vuelto a ensamblar la secuencia de octetos transmitidos originalmente, los pasa a la aplicación receptora. De este modo, TCP abstrae la comunicación de la aplicación de los detalles de red subyacentes.
TCP es ampliamente utilizado por muchas aplicaciones de Internet, incluidas la World Wide Web (WWW), el correo electrónico, el Protocolo de transferencia de archivos , Secure Shell , el intercambio de archivos entre pares y la transmisión de medios .
El protocolo TCP está optimizado para una entrega precisa en lugar de una entrega oportuna y puede incurrir en demoras relativamente largas (del orden de segundos) mientras se esperan mensajes fuera de orden o retransmisiones de mensajes perdidos. Por lo tanto, no es particularmente adecuado para aplicaciones en tiempo real como voz sobre IP . Para tales aplicaciones, generalmente se recomiendan protocolos como el Protocolo de transporte en tiempo real (RTP) que opera sobre el Protocolo de datagramas de usuario (UDP). [13]
TCP es un servicio de entrega de flujo de bytes confiable que garantiza que todos los bytes recibidos serán idénticos y estarán en el mismo orden que los enviados. Dado que la transferencia de paquetes por parte de muchas redes no es confiable, TCP logra esto utilizando una técnica conocida como acuse de recibo positivo con retransmisión . Esto requiere que el receptor responda con un mensaje de acuse de recibo cuando recibe los datos. El remitente mantiene un registro de cada paquete que envía y mantiene un temporizador desde el momento en que se envió el paquete. El remitente retransmite un paquete si el temporizador expira antes de recibir el acuse de recibo. El temporizador es necesario en caso de que un paquete se pierda o se corrompa. [13]
Mientras que el protocolo IP se encarga de la entrega real de los datos, el protocolo TCP realiza un seguimiento de los segmentos (las unidades individuales de transmisión de datos en las que se divide un mensaje para un enrutamiento eficiente a través de la red). Por ejemplo, cuando se envía un archivo HTML desde un servidor web, la capa de software TCP de ese servidor divide el archivo en segmentos y los reenvía individualmente a la capa de Internet en la pila de red . El software de la capa de Internet encapsula cada segmento TCP en un paquete IP agregando un encabezado que incluye (entre otros datos) la dirección IP de destino . Cuando el programa cliente en la computadora de destino los recibe, el software TCP en la capa de transporte vuelve a ensamblar los segmentos y se asegura de que estén correctamente ordenados y libres de errores mientras transmite el contenido del archivo a la aplicación receptora.
El Protocolo de Control de Transmisión acepta datos de un flujo de datos, los divide en fragmentos y agrega un encabezado TCP para crear un segmento TCP. Luego, el segmento TCP se encapsula en un datagrama de Protocolo de Internet (IP) y se intercambia con los pares. [14]
El término paquete TCP aparece tanto en el uso informal como en el formal, mientras que en una terminología más precisa segmento se refiere a la unidad de datos del protocolo TCP (PDU), datagrama [15] a la PDU IP y trama a la PDU de la capa de enlace de datos :
Los procesos transmiten datos llamando al TCP y pasando buffers de datos como argumentos. El TCP empaqueta los datos de estos buffers en segmentos y llama al módulo de Internet [p. ej., IP] para transmitir cada segmento al TCP de destino. [16]
Un segmento TCP consta de un encabezado de segmento y una sección de datos . El encabezado de segmento contiene 10 campos obligatorios y un campo de extensión opcional ( Opciones , fondo rosa en la tabla). La sección de datos sigue al encabezado y son los datos de carga útil transportados para la aplicación. [17] La longitud de la sección de datos no se especifica en el encabezado de segmento; se puede calcular restando la longitud combinada del encabezado de segmento y el encabezado IP de la longitud total del datagrama IP especificada en el encabezado IP. [ cita requerida ]
[SYN]
. Tipo de opción y longitudes estándar como (Tipo de opción, Longitud de opción).Las operaciones del protocolo TCP se pueden dividir en tres fases. El establecimiento de la conexión es un proceso de enlace de varios pasos que establece una conexión antes de entrar en la fase de transferencia de datos . Una vez finalizada la transferencia de datos, la terminación de la conexión cierra la conexión y libera todos los recursos asignados.
Una conexión TCP es administrada por un sistema operativo a través de un recurso que representa el punto final local para las comunicaciones, el socket de Internet . Durante la vida útil de una conexión TCP, el punto final local sufre una serie de cambios de estado : [31]
Antes de que un cliente intente conectarse con un servidor, el servidor primero debe vincularse a un puerto y escuchar en él para abrirlo a las conexiones: esto se denomina apertura pasiva. Una vez que se establece la apertura pasiva, un cliente puede establecer una conexión iniciando una apertura activa mediante el protocolo de enlace de tres vías (o de tres pasos):
Los pasos 1 y 2 establecen y reconocen el número de secuencia para una dirección (del cliente al servidor). Los pasos 2 y 3 establecen y reconocen el número de secuencia para la otra dirección (del servidor al cliente). Una vez completados estos pasos, tanto el cliente como el servidor han recibido los reconocimientos y se ha establecido una comunicación full-duplex.
La fase de terminación de la conexión utiliza un protocolo de enlace de cuatro vías, en el que cada lado de la conexión termina de forma independiente. Cuando un punto final desea detener su mitad de la conexión, transmite un paquete FIN, que el otro extremo reconoce con un ACK. Por lo tanto, una desconexión típica requiere un par de segmentos FIN y ACK de cada punto final TCP. Después de que el lado que envió el primer FIN haya respondido con el ACK final, espera un tiempo de espera antes de cerrar finalmente la conexión, durante el cual el puerto local no está disponible para nuevas conexiones; este estado permite al cliente TCP reenviar el reconocimiento final al servidor en caso de que el ACK se pierda en tránsito. La duración del tiempo depende de la implementación, pero algunos valores comunes son 30 segundos, 1 minuto y 2 minutos. Después del tiempo de espera, el cliente ingresa al estado CERRADO y el puerto local queda disponible para nuevas conexiones. [32]
También es posible finalizar la conexión mediante un protocolo de enlace de tres vías, cuando el host A envía un FIN y el host B responde con un FIN y ACK (combinando dos pasos en uno) y el host A responde con un ACK. [33]
Algunos sistemas operativos, como Linux y HP-UX , [ cita requerida ] implementan una secuencia de cierre half-duplex. Si el host cierra activamente una conexión, aunque todavía tenga datos entrantes sin leer disponibles, el host envía la señal RST (perdiendo cualquier dato recibido) en lugar de FIN. Esto asegura que una aplicación TCP esté al tanto de que hubo una pérdida de datos. [34]
Una conexión puede estar en un estado semiabierto , en cuyo caso un lado ha terminado la conexión, pero el otro no. El lado que ha terminado ya no puede enviar más datos a la conexión, pero el otro lado sí puede. El lado que termina debe continuar leyendo los datos hasta que el otro lado también termine. [ cita requerida ]
La mayoría de las implementaciones asignan una entrada en una tabla que asigna una sesión a un proceso del sistema operativo en ejecución. Debido a que los paquetes TCP no incluyen un identificador de sesión, ambos puntos finales identifican la sesión utilizando la dirección y el puerto del cliente. Siempre que se recibe un paquete, la implementación TCP debe realizar una búsqueda en esta tabla para encontrar el proceso de destino. Cada entrada de la tabla se conoce como bloque de control de transmisión o TCB. Contiene información sobre los puntos finales (IP y puerto), el estado de la conexión, los datos en ejecución sobre los paquetes que se están intercambiando y los búferes para enviar y recibir datos.
El número de sesiones en el lado del servidor está limitado únicamente por la memoria y puede aumentar a medida que llegan nuevas conexiones, pero el cliente debe asignar un puerto efímero antes de enviar el primer SYN al servidor. Este puerto permanece asignado durante toda la conversación y limita de manera efectiva el número de conexiones salientes desde cada una de las direcciones IP del cliente. Si una aplicación no logra cerrar correctamente las conexiones no requeridas, un cliente puede quedarse sin recursos y no poder establecer nuevas conexiones TCP, incluso desde otras aplicaciones.
Ambos puntos finales también deben asignar espacio para paquetes no reconocidos y datos recibidos (pero no leídos).
El Protocolo de Control de Transmisión difiere en varias características clave en comparación con el Protocolo de Datagramas de Usuario :
TCP utiliza un número de secuencia para identificar cada byte de datos. El número de secuencia identifica el orden de los bytes enviados desde cada computadora, de modo que los datos se puedan reconstruir en orden, independientemente de cualquier entrega fuera de orden que pueda ocurrir. El número de secuencia del primer byte lo elige el transmisor para el primer paquete, que se marca como SYN. Este número puede ser arbitrario y, de hecho, debería ser impredecible para defenderse contra ataques de predicción de secuencia TCP .
Los acuses de recibo (ACK) se envían con un número de secuencia por parte del receptor de datos para indicar al remitente que se han recibido los datos en el byte especificado. Los ACK no implican que los datos se hayan entregado a la aplicación, simplemente significan que ahora es responsabilidad del receptor entregar los datos.
La confiabilidad se logra cuando el remitente detecta la pérdida de datos y los retransmite. TCP utiliza dos técnicas principales para identificar pérdidas: tiempo de espera de retransmisión (RTO) y confirmaciones acumulativas duplicadas (DupAcks).
Cuando se retransmite un segmento TCP, conserva el mismo número de secuencia que el intento de entrega original. Esta combinación de entrega y ordenamiento lógico de datos significa que, cuando se recibe un acuse de recibo después de una retransmisión, el remitente no puede saber si se está acusando recibo de la transmisión original o de la retransmisión, lo que se denomina ambigüedad de retransmisión . [35] TCP incurre en complejidad debido a la ambigüedad de retransmisión. [36]
Si se pierde un solo segmento (por ejemplo, el segmento número 100) en un flujo, el receptor no puede reconocer paquetes por encima de ese número de segmento (100) porque utiliza ACK acumulativos. Por lo tanto, el receptor reconoce el paquete 99 nuevamente al recibir otro paquete de datos. Este reconocimiento duplicado se utiliza como una señal de pérdida de paquetes. Es decir, si el remitente recibe tres reconocimientos duplicados, retransmite el último paquete no reconocido. Se utiliza un umbral de tres porque la red puede reordenar segmentos causando reconocimientos duplicados. Se ha demostrado que este umbral evita retransmisiones espurias debido al reordenamiento. [37] Algunas implementaciones de TCP utilizan reconocimientos selectivos (SACK) para proporcionar retroalimentación explícita sobre los segmentos que se han recibido. Esto mejora en gran medida la capacidad de TCP para retransmitir los segmentos correctos.
La ambigüedad de la retransmisión puede provocar retransmisiones rápidas espurias y evitar la congestión si hay un reordenamiento más allá del umbral de reconocimiento duplicado. [38] En las últimas dos décadas se ha observado un mayor reordenamiento de paquetes en Internet [39] , lo que llevó a las implementaciones de TCP, como la del núcleo de Linux, a adoptar métodos heurísticos para escalar el umbral de reconocimiento duplicado. [40] Recientemente, ha habido esfuerzos para eliminar por completo las retransmisiones rápidas basadas en dupack y reemplazarlas por otras basadas en temporizador. [41] (No debe confundirse con el RTO clásico que se analiza a continuación). El algoritmo de detección de pérdida basado en el tiempo llamado Reconocimiento reciente (RACK) [42] se ha adoptado como el algoritmo predeterminado en Linux y Windows. [43]
Cuando un remitente transmite un segmento, inicializa un temporizador con una estimación conservadora del tiempo de llegada del acuse de recibo. El segmento se retransmite si el temporizador expira, con un nuevo umbral de tiempo de espera del doble del valor anterior, lo que da como resultado un comportamiento de retroceso exponencial . Normalmente, el valor inicial del temporizador es , donde es la granularidad del reloj. [44] Esto protege contra el tráfico de transmisión excesivo debido a actores defectuosos o maliciosos, como los atacantes de denegación de servicio del tipo "man-in-the-middle" .
Las estimaciones precisas de RTT son importantes para la recuperación de pérdidas, ya que permiten al remitente suponer que un paquete no reconocido se pierde después de que transcurra suficiente tiempo (es decir, determinar el tiempo RTO). [45] La ambigüedad de la retransmisión puede hacer que la estimación de RTT de un remitente sea imprecisa. [45] En un entorno con RTT variables, pueden ocurrir tiempos de espera falsos: [46] si se subestima el RTT, entonces se activa el RTO y desencadena una retransmisión innecesaria y un inicio lento. Después de una retransmisión falsa, cuando llegan los reconocimientos para las transmisiones originales, el remitente puede creer que están reconociendo la retransmisión y concluir, incorrectamente, que se han perdido los segmentos enviados entre la transmisión original y la retransmisión, lo que provoca más retransmisiones innecesarias hasta el punto de que el enlace realmente se congestiona; [47] [48] el reconocimiento selectivo puede reducir este efecto. [49] La RFC 6298 especifica que las implementaciones no deben utilizar segmentos retransmitidos al estimar el RTT. [50] El algoritmo de Karn garantiza que se producirá una buena estimación del RTT (eventualmente) al esperar hasta que haya un reconocimiento inequívoco antes de ajustar el RTO. [51] Sin embargo, después de retransmisiones espurias, puede pasar un tiempo significativo antes de que llegue dicho reconocimiento inequívoco, lo que degrada el rendimiento en el ínterin. [52] Las marcas de tiempo TCP también resuelven el problema de ambigüedad de la retransmisión al establecer el RTO, [50] aunque no necesariamente mejoran la estimación del RTT. [53]
Los números de secuencia permiten a los receptores descartar paquetes duplicados y secuenciar correctamente los paquetes fuera de orden. Los acuses de recibo permiten a los remitentes determinar cuándo retransmitir los paquetes perdidos.
Para asegurar la corrección, se incluye un campo de suma de comprobación; consulte § Cálculo de la suma de comprobación para obtener más detalles. La suma de comprobación TCP es una comprobación débil según los estándares modernos y normalmente se combina con una comprobación de integridad CRC en la capa 2 , por debajo de TCP e IP, como se utiliza en PPP o en la trama Ethernet . Sin embargo, la introducción de errores en paquetes entre saltos protegidos con CRC es común y la suma de comprobación TCP de 16 bits detecta la mayoría de ellos. [54]
TCP utiliza un protocolo de control de flujo de extremo a extremo para evitar que el emisor envíe datos demasiado rápido para que el receptor TCP los reciba y procese de manera confiable. Tener un mecanismo para el control de flujo es esencial en un entorno donde se comunican máquinas de distintas velocidades de red. Por ejemplo, si una PC envía datos a un teléfono inteligente que procesa lentamente los datos recibidos, el teléfono inteligente debe poder regular el flujo de datos para no verse sobrecargado. [13]
TCP utiliza un protocolo de control de flujo de ventana deslizante . En cada segmento TCP, el receptor especifica en el campo de ventana de recepción la cantidad de datos adicionales recibidos (en bytes) que está dispuesto a almacenar en búfer para la conexión. El host emisor puede enviar solo hasta esa cantidad de datos antes de tener que esperar un acuse de recibo y recibir una actualización de ventana del host receptor.
Cuando un receptor anuncia un tamaño de ventana de 0, el emisor deja de enviar datos e inicia su temporizador de persistencia . El temporizador de persistencia se utiliza para proteger a TCP de una situación de bloqueo que podría surgir si se pierde una actualización posterior del tamaño de ventana del receptor y el emisor no puede enviar más datos hasta recibir una nueva actualización del tamaño de ventana del receptor. Cuando el temporizador de persistencia expira, el emisor TCP intenta la recuperación enviando un pequeño paquete para que el receptor responda enviando otro acuse de recibo que contenga el nuevo tamaño de ventana.
Si un receptor está procesando datos entrantes en pequeños incrementos, puede anunciar repetidamente una pequeña ventana de recepción. Esto se conoce como el síndrome de la ventana tonta , ya que resulta ineficiente enviar solo unos pocos bytes de datos en un segmento TCP, dada la sobrecarga relativamente grande del encabezado TCP.
El último aspecto principal de TCP es el control de la congestión . TCP utiliza una serie de mecanismos para lograr un alto rendimiento y evitar el colapso por congestión , una situación de bloqueo en la que el rendimiento de la red se degrada gravemente. Estos mecanismos controlan la velocidad de entrada de datos a la red, manteniendo el flujo de datos por debajo de una velocidad que provocaría un colapso. También producen una asignación aproximadamente justa entre flujos con un valor máximo y mínimo .
Los remitentes utilizan los acuses de recibo de los datos enviados, o la falta de ellos, para inferir las condiciones de la red entre el remitente y el receptor TCP. Junto con los temporizadores, los remitentes y receptores TCP pueden alterar el comportamiento del flujo de datos. Esto se conoce más generalmente como control de congestión o prevención de congestión.
Las implementaciones modernas de TCP contienen cuatro algoritmos entrelazados: inicio lento , evitación de congestión , retransmisión rápida y recuperación rápida . [55]
Además, los remitentes emplean un tiempo de espera de retransmisión (RTO) que se basa en el tiempo de ida y vuelta estimado (RTT) entre el remitente y el receptor, así como en la varianza de este tiempo de ida y vuelta. [56] Existen sutilezas en la estimación de RTT. Por ejemplo, los remitentes deben ser cuidadosos al calcular muestras de RTT para paquetes retransmitidos; normalmente utilizan el algoritmo de Karn o marcas de tiempo TCP. [26] Estas muestras de RTT individuales se promedian a lo largo del tiempo para crear un tiempo de ida y vuelta suavizado (SRTT) utilizando el algoritmo de Jacobson. Este valor de SRTT es lo que se utiliza como estimación del tiempo de ida y vuelta.
La mejora del protocolo TCP para gestionar de forma fiable las pérdidas, minimizar los errores, gestionar la congestión y funcionar con rapidez en entornos de muy alta velocidad son áreas de investigación y desarrollo de estándares en curso. Como resultado, existen diversas variaciones del algoritmo TCP para evitar la congestión .
El tamaño máximo de segmento (MSS) es la mayor cantidad de datos, especificada en bytes, que TCP está dispuesto a recibir en un solo segmento. Para un mejor rendimiento, el MSS debe configurarse lo suficientemente pequeño como para evitar la fragmentación de IP , que puede provocar la pérdida de paquetes y retransmisiones excesivas. Para lograr esto, normalmente cada lado anuncia el MSS mediante la opción MSS cuando se establece la conexión TCP. El valor de la opción se deriva del tamaño máximo de la unidad de transmisión (MTU) de la capa de enlace de datos de las redes a las que están conectados directamente el remitente y el receptor. Los remitentes TCP pueden utilizar el descubrimiento de la MTU de ruta para inferir la MTU mínima a lo largo de la ruta de red entre el remitente y el receptor, y utilizar esto para ajustar dinámicamente el MSS para evitar la fragmentación de IP dentro de la red.
El anuncio MSS también puede denominarse negociación MSS pero, estrictamente hablando, el MSS no se negocia . Se permiten dos valores completamente independientes de MSS para las dos direcciones de flujo de datos en una conexión TCP, [57] [16] por lo que no es necesario acordar una configuración MSS común para una conexión bidireccional.
Confiar únicamente en el esquema de reconocimiento acumulativo empleado por el TCP original puede generar ineficiencias cuando se pierden paquetes. Por ejemplo, supongamos que se envían bytes con números de secuencia del 1000 al 10 999 en 10 segmentos TCP diferentes de igual tamaño, y el segundo segmento (números de secuencia del 2000 al 2999) se pierde durante la transmisión. En un protocolo de reconocimiento acumulativo puro, el receptor solo puede enviar un valor ACK acumulativo de 2000 (el número de secuencia inmediatamente posterior al último número de secuencia de los datos recibidos) y no puede decir que recibió los bytes del 3000 al 10 999 correctamente. Por lo tanto, el remitente puede tener que volver a enviar todos los datos a partir del número de secuencia 2000.
Para aliviar este problema, TCP emplea la opción de acuse de recibo selectivo (SACK) , definida en 1996 en RFC 2018, que permite al receptor reconocer bloques discontinuos de paquetes que se recibieron correctamente, además del número de secuencia inmediatamente posterior al último número de secuencia del último byte contiguo recibido sucesivamente, como en el acuse de recibo básico de TCP. El acuse de recibo puede incluir una serie de bloques SACK , donde cada bloque SACK se transmite por el borde izquierdo del bloque (el primer número de secuencia del bloque) y el borde derecho del bloque (el número de secuencia inmediatamente posterior al último número de secuencia del bloque), siendo un bloque un rango contiguo que el receptor recibió correctamente. En el ejemplo anterior, el receptor enviaría un segmento ACK con un valor ACK acumulativo de 2000 y un encabezado de opción SACK con los números de secuencia 3000 y 11 000. El remitente retransmitiría entonces únicamente el segundo segmento con los números de secuencia del 2.000 al 2.999.
Un emisor TCP puede interpretar la entrega de un segmento fuera de orden como un segmento perdido. Si lo hace, el emisor TCP retransmitirá el segmento anterior al paquete fuera de orden y reducirá la velocidad de entrega de datos para esa conexión. La opción duplicate-SACK, una extensión de la opción SACK que se definió en mayo de 2000 en RFC 2883, resuelve este problema. Una vez que el receptor TCP detecta un segundo paquete duplicado, envía un D-ACK para indicar que no se perdieron segmentos, lo que permite al emisor TCP restablecer la velocidad de transmisión más alta.
La opción SACK no es obligatoria y entra en funcionamiento solo si ambas partes la admiten. Esto se negocia cuando se establece una conexión. SACK utiliza una opción de encabezado TCP (consulte § Estructura del segmento TCP para obtener más detalles). El uso de SACK se ha generalizado: todas las pilas TCP populares lo admiten. El reconocimiento selectivo también se utiliza en el protocolo de transmisión de control de flujo (SCTP).
Los reconocimientos selectivos pueden ser "renegados", donde el receptor descarta unilateralmente los datos reconocidos selectivamente. El RFC 2018 desaconsejaba tal comportamiento, pero no lo prohibía para permitir a los receptores la opción de renegar si, por ejemplo, se quedaban sin espacio en el búfer. [58] La posibilidad de renegar genera complejidad de implementación tanto para los remitentes como para los receptores, y también impone costos de memoria al remitente. [59]
Para un uso más eficiente de redes de gran ancho de banda, se puede utilizar un tamaño de ventana TCP mayor. Un campo de tamaño de ventana TCP de 16 bits controla el flujo de datos y su valor está limitado a 65.535 bytes. Dado que el campo de tamaño no se puede ampliar más allá de este límite, se utiliza un factor de escala. La opción de escala de ventana TCP , tal como se define en RFC 1323, es una opción que se utiliza para aumentar el tamaño máximo de ventana a 1 gigabyte. La ampliación a estos tamaños de ventana más grandes es necesaria para el ajuste de TCP .
La opción de escala de ventana se utiliza únicamente durante el protocolo de enlace de tres vías TCP. El valor de escala de ventana representa la cantidad de bits que se deben desplazar hacia la izquierda el campo de tamaño de ventana de 16 bits al interpretarlo. El valor de escala de ventana se puede configurar de 0 (sin desplazamiento) a 14 para cada dirección de forma independiente. Ambos lados deben enviar la opción en sus segmentos SYN para habilitar el escalado de ventana en cualquier dirección.
Algunos enrutadores y cortafuegos de paquetes reescriben el factor de escala de la ventana durante una transmisión. Esto hace que los lados de envío y recepción asuman tamaños de ventana TCP diferentes. El resultado es un tráfico inestable que puede ser muy lento. El problema es visible en algunos sitios detrás de un enrutador defectuoso. [60]
Las marcas de tiempo TCP, definidas en RFC 1323 en 1992, pueden ayudar a TCP a determinar en qué orden se enviaron los paquetes. Las marcas de tiempo TCP normalmente no están alineadas con el reloj del sistema y comienzan con un valor aleatorio. Muchos sistemas operativos incrementarán la marca de tiempo por cada milisegundo transcurrido; sin embargo, la RFC solo establece que los ticks deben ser proporcionales.
Hay dos campos de marca de tiempo:
Las marcas de tiempo TCP se utilizan en un algoritmo conocido como Protección contra números de secuencia envueltos o PAWS . PAWS se utiliza cuando la ventana de recepción cruza el límite de envoltura del número de secuencia. En el caso de que un paquete fuera potencialmente retransmitido, responde a la pregunta: "¿Este número de secuencia está en los primeros 4 GB o en los segundos?" Y la marca de tiempo se utiliza para desempatar.
Además, el algoritmo de detección de Eifel utiliza marcas de tiempo TCP para determinar si se producen retransmisiones porque se pierden paquetes o simplemente están fuera de servicio. [61]
Las marcas de tiempo TCP están habilitadas de forma predeterminada en Linux, [62] y deshabilitadas de forma predeterminada en Windows Server 2008, 2012 y 2016. [63]
Las estadísticas recientes muestran que el nivel de adopción de marcas de tiempo TCP se ha estancado, en aproximadamente un 40%, debido a que Windows Server dejó de brindar soporte desde Windows Server 2008. [64]
Es posible interrumpir o abortar el flujo en cola en lugar de esperar a que finalice. Esto se hace especificando los datos como urgentes . Esto marca la transmisión como datos fuera de banda (OOB) y le dice al programa receptor que los procese inmediatamente. Cuando termina, TCP informa a la aplicación y reanuda la cola de flujo. Un ejemplo es cuando TCP se utiliza para una sesión de inicio de sesión remota donde el usuario puede enviar una secuencia de teclado que interrumpe o aborta el programa que se ejecuta de forma remota sin esperar a que el programa finalice su transferencia actual. [13]
El puntero urgente solo altera el procesamiento en el host remoto y no acelera ningún procesamiento en la red en sí. La capacidad se implementa de manera diferente o deficiente en diferentes sistemas o puede no ser compatible. Cuando está disponible, es prudente asumir que solo se manejarán de manera confiable bytes individuales de datos OOB. [65] [66] Dado que la función no se usa con frecuencia, no se ha probado bien en algunas plataformas y se ha asociado con vulnerabilidades , WinNuke por ejemplo.
Normalmente, TCP espera 200 ms para enviar un paquete completo de datos ( el algoritmo de Nagle intenta agrupar mensajes pequeños en un solo paquete). Esta espera crea pequeños retrasos, pero potencialmente graves, si se repite constantemente durante una transferencia de archivos. Por ejemplo, un bloque de envío típico sería de 4 KB, un MSS típico es de 1460, por lo que salen 2 paquetes en una red Ethernet de 10 Mbit/s que tardan aproximadamente 1,2 ms cada uno, seguidos de un tercero que lleva los 1176 restantes después de una pausa de 197 ms porque TCP está esperando que se llene el búfer. En el caso de Telnet, el servidor repite cada pulsación de tecla del usuario antes de que el usuario pueda verla en la pantalla. Este retraso se volvería muy molesto.
Al configurar la opción de socketTCP_NODELAY
, se anula el retraso de envío predeterminado de 200 ms. Los programas de aplicación utilizan esta opción de socket para forzar el envío de la salida después de escribir un carácter o una línea de caracteres.
El RFC [ ¿cuál? ] define el PSH
bit push como "un mensaje a la pila TCP receptora para enviar estos datos inmediatamente a la aplicación receptora". [13] No hay forma de indicarlo o controlarlo en el espacio de usuario utilizando sockets Berkeley ; está controlado únicamente por la pila de protocolos . [67]
El protocolo TCP puede ser atacado de diversas maneras. Los resultados de una evaluación exhaustiva de la seguridad del protocolo TCP, junto con las posibles mitigaciones de los problemas identificados, se publicaron en 2009 [68] y se analizaron en el marco del IETF hasta 2012. [69] Entre las vulnerabilidades más destacadas se incluyen la denegación de servicio, el secuestro de conexión, el veto de TCP y el ataque de restablecimiento de TCP .
Al utilizar una dirección IP falsificada y enviar repetidamente paquetes SYN ensamblados a propósito , seguidos de muchos paquetes ACK, los atacantes pueden hacer que el servidor consuma grandes cantidades de recursos para realizar un seguimiento de las conexiones falsas. Esto se conoce como un ataque de inundación SYN . Las soluciones propuestas para este problema incluyen cookies SYN y rompecabezas criptográficos, aunque las cookies SYN vienen con su propio conjunto de vulnerabilidades. [70] Sockstress es un ataque similar, que podría mitigarse con la gestión de recursos del sistema. [71] Un ataque DoS avanzado que implica la explotación del temporizador de persistencia TCP fue analizado en Phrack No. 66. [72] Las inundaciones PUSH y ACK son otras variantes. [73]
Un atacante que pueda espiar una sesión TCP y redirigir paquetes puede secuestrar una conexión TCP. Para ello, el atacante aprende el número de secuencia de la comunicación en curso y falsifica un segmento falso que se parece al siguiente segmento de la secuencia. Un secuestro simple puede provocar que un paquete sea aceptado erróneamente en un extremo. Cuando el host receptor reconoce el segmento falso, se pierde la sincronización. [74] El secuestro puede combinarse con la suplantación de ARP u otros ataques de enrutamiento que permiten a un atacante tomar el control permanente de la conexión TCP.
Suplantar una dirección IP diferente no era difícil antes de RFC 1948, cuando el número de secuencia inicial era fácilmente adivinable. Las implementaciones anteriores permitían a un atacante enviar a ciegas una secuencia de paquetes que el receptor creería que provenían de una dirección IP diferente, sin necesidad de interceptar la comunicación mediante ARP o ataques de enrutamiento: basta con asegurarse de que el host legítimo de la dirección IP suplantada esté inactivo, o llevarlo a esa condición mediante ataques de denegación de servicio . Es por eso que ahora el número de secuencia inicial se elige al azar.
Un atacante que puede escuchar a escondidas y predecir el tamaño del próximo paquete que se enviará puede hacer que el receptor acepte una carga maliciosa sin interrumpir la conexión existente. El atacante inyecta un paquete malicioso con el número de secuencia y el tamaño de carga del siguiente paquete esperado. Cuando finalmente se recibe el paquete legítimo, se descubre que tiene el mismo número de secuencia y longitud que un paquete ya recibido y se descarta silenciosamente como un paquete duplicado normal: el paquete legítimo es vetado por el paquete malicioso. A diferencia del secuestro de conexión, la conexión nunca se desincroniza y la comunicación continúa normalmente después de que se acepta la carga maliciosa. El veto TCP le da al atacante menos control sobre la comunicación, pero hace que el ataque sea particularmente resistente a la detección. La única evidencia para el receptor de que algo anda mal es un solo paquete duplicado, una ocurrencia normal en una red IP. El remitente del paquete vetado nunca ve ninguna evidencia de un ataque. [75]
Una conexión TCP se identifica mediante una tupla de cuatro bits de la dirección de origen, el puerto de origen , la dirección de destino y el puerto de destino. [d] [76] [77] Los números de puerto se utilizan para identificar diferentes servicios y para permitir múltiples conexiones entre hosts. [14] TCP utiliza números de puerto de 16 bits , lo que proporciona 65.536 valores posibles para cada uno de los puertos de origen y destino. [17] La dependencia de la identidad de la conexión en las direcciones significa que las conexiones TCP están vinculadas a una única ruta de red; TCP no puede utilizar otras rutas que los hosts multihomed tengan disponibles, y las conexiones se interrumpen si cambia la dirección de un punto final. [78]
Los números de puerto se clasifican en tres categorías básicas: conocidos, registrados y dinámicos o privados. Los puertos conocidos son asignados por la Autoridad de Números Asignados de Internet (IANA) y generalmente son utilizados por procesos a nivel de sistema. Las aplicaciones conocidas que se ejecutan como servidores y escuchan pasivamente las conexiones generalmente utilizan estos puertos. Algunos ejemplos incluyen: FTP (20 y 21), SSH (22), TELNET (23), SMTP (25), HTTP sobre SSL/TLS (443) y HTTP (80). [e] Los puertos registrados generalmente son utilizados por aplicaciones de usuario final como puertos de origen efímeros cuando se comunican con servidores, pero también pueden identificar servicios con nombre que han sido registrados por un tercero. Los puertos dinámicos o privados también pueden ser utilizados por aplicaciones de usuario final, sin embargo, estos puertos generalmente no contienen ningún significado fuera de una conexión TCP particular.
La traducción de direcciones de red (NAT) normalmente utiliza números de puerto dinámicos en el lado público para eliminar la ambigüedad del flujo de tráfico que pasa entre una red pública y una subred privada , lo que permite que muchas direcciones IP (y sus puertos) en la subred sean atendidas por una única dirección pública.
TCP es un protocolo complejo. Sin embargo, aunque se han realizado y propuesto mejoras significativas a lo largo de los años, su funcionamiento más básico no ha cambiado significativamente desde su primera especificación RFC 675 en 1974 y la especificación v4 RFC 793, publicada en septiembre de 1981. La RFC 1122, publicada en octubre de 1989, aclaró una serie de requisitos de implementación del protocolo TCP. Una lista de las 8 especificaciones requeridas y más de 20 mejoras fuertemente recomendadas está disponible en la RFC 7414. Entre esta lista se encuentra la RFC 2581, TCP Congestion Control, una de las RFC más importantes relacionadas con TCP en los últimos años, que describe algoritmos actualizados que evitan la congestión indebida. En 2001, se escribió la RFC 3168 para describir la Notificación Explícita de Congestión (ECN), un mecanismo de señalización para evitar la congestión.
El algoritmo original de prevención de congestión TCP se conocía como TCP Tahoe , pero desde entonces se han propuesto muchos algoritmos alternativos (incluidos TCP Reno , TCP Vegas , FAST TCP , TCP New Reno y TCP Hybla ).
Multipath TCP (MPTCP) [79] [80] es un esfuerzo en curso dentro del IETF que apunta a permitir que una conexión TCP utilice múltiples rutas para maximizar el uso de recursos y aumentar la redundancia. La redundancia ofrecida por Multipath TCP en el contexto de redes inalámbricas permite el uso simultáneo de diferentes redes, lo que brinda mayor rendimiento y mejores capacidades de transferencia. Multipath TCP también brinda beneficios de rendimiento en entornos de centros de datos. [81] La implementación de referencia [82] de Multipath TCP se desarrolló en el núcleo Linux. [83] Multipath TCP se utiliza para admitir la aplicación de reconocimiento de voz Siri en iPhones, iPads y Macs. [84]
tcpcrypt es una extensión propuesta en julio de 2010 para proporcionar cifrado a nivel de transporte directamente en el propio TCP. Está diseñada para funcionar de forma transparente y no requerir ninguna configuración. A diferencia de TLS (SSL), tcpcrypt en sí no proporciona autenticación, pero proporciona primitivas simples a la aplicación para que lo haga. La RFC de tcpcrypt fue publicada por el IETF en mayo de 2019. [85]
TCP Fast Open es una extensión para acelerar la apertura de conexiones TCP sucesivas entre dos puntos finales. Funciona omitiendo el protocolo de enlace de tres vías mediante una cookie criptográfica . Es similar a una propuesta anterior llamada T/TCP , que no fue ampliamente adoptada debido a problemas de seguridad. [86] TCP Fast Open se publicó como RFC 7413 en 2014. [87]
Propuesta en mayo de 2013, la reducción de velocidad proporcional (PRR) es una extensión TCP desarrollada por los ingenieros de Google. PRR garantiza que el tamaño de la ventana TCP después de la recuperación sea lo más cercano posible al umbral de inicio lento . [88] El algoritmo está diseñado para mejorar la velocidad de recuperación y es el algoritmo de control de congestión predeterminado en los núcleos Linux 3.2+. [89]
TCP Cookie Transactions (TCPCT) es una extensión propuesta en diciembre de 2009 [90] para proteger a los servidores contra ataques de denegación de servicio. A diferencia de las cookies SYN, TCPCT no entra en conflicto con otras extensiones TCP como el escalado de ventanas . TCPCT se diseñó debido a las necesidades de DNSSEC , donde los servidores tienen que manejar grandes cantidades de conexiones TCP de corta duración. En 2016, TCPCT quedó obsoleto en favor de TCP Fast Open. El estado de la RFC original se cambió a histórico . [91]
Una forma de superar los requisitos de potencia de procesamiento del TCP es construir implementaciones de hardware del mismo, conocidas ampliamente como motores de descarga TCP (TOE). El principal problema de los TOE es que son difíciles de integrar en los sistemas informáticos, lo que requiere cambios importantes en el sistema operativo del ordenador o dispositivo.
Los datos de cable de TCP proporcionan importantes oportunidades de recopilación y modificación de información a los observadores en ruta, ya que los metadatos del protocolo se transmiten en texto claro . [92] [93] Si bien esta transparencia es útil para los operadores de red [94] e investigadores, [95] la información recopilada de los metadatos del protocolo puede reducir la privacidad del usuario final. [96] Esta visibilidad y maleabilidad de los metadatos ha llevado a que TCP sea difícil de extender (un caso de osificación del protocolo ), ya que cualquier nodo intermedio (un " middlebox ") puede tomar decisiones basadas en esos metadatos o incluso modificarlos, [97] [98] rompiendo el principio de extremo a extremo . [99] Una medición encontró que un tercio de las rutas a través de Internet encuentran al menos un intermediario que modifica los metadatos de TCP, y el 6,5% de las rutas encuentran efectos osificantes dañinos de los intermediarios. [100] Evitar los riesgos de extensibilidad de los intermediarios impuso restricciones significativas en el diseño de MPTCP , [101] [102] y las dificultades causadas por los intermediarios han obstaculizado la implementación de TCP Fast Open en navegadores web . [103] Otra fuente de osificación es la dificultad de modificación de las funciones TCP en los puntos finales, típicamente en el núcleo del sistema operativo [104] o en hardware con un motor de descarga TCP . [105]
Como TCP proporciona a las aplicaciones la abstracción de un flujo de bytes confiable , puede sufrir bloqueos de cabecera : si los paquetes se reordenan o se pierden y necesitan ser retransmitidos (y por lo tanto se reordenan), los datos de las partes secuencialmente posteriores del flujo pueden recibirse antes que las partes secuencialmente anteriores del flujo; sin embargo, los datos posteriores normalmente no se pueden usar hasta que se hayan recibido los datos anteriores, lo que genera latencia de red . Si se encapsulan y multiplexan múltiples mensajes independientes de nivel superior en una única conexión TCP, entonces el bloqueo de cabecera puede hacer que el procesamiento de un mensaje completamente recibido que se envió más tarde espere la entrega de un mensaje que se envió antes. [106] Los navegadores web intentan mitigar el bloqueo de cabecera abriendo múltiples conexiones paralelas. Esto genera el costo del establecimiento de la conexión repetidamente, así como la multiplicación de los recursos necesarios para rastrear esas conexiones en los puntos finales. [107] Las conexiones paralelas también tienen un control de congestión que opera independientemente una de otra, en lugar de poder agrupar la información y responder más rápidamente a las condiciones de red observadas; [108] Los patrones de envío iniciales agresivos de TCP pueden causar congestión si se abren múltiples conexiones paralelas; y el modelo de equidad por conexión conduce a una monopolización de recursos por parte de las aplicaciones que adoptan este enfoque. [109]
El establecimiento de la conexión es un importante contribuyente a la latencia que experimentan los usuarios web. [110] [111] El protocolo de enlace de tres vías de TCP introduce un RTT de latencia durante el establecimiento de la conexión antes de que se puedan enviar los datos. [111] Para flujos cortos, estos retrasos son muy significativos. [112] La seguridad de la capa de transporte (TLS) requiere un protocolo de enlace propio para el intercambio de claves en el establecimiento de la conexión. Debido al diseño en capas, el protocolo de enlace TCP y el protocolo de enlace TLS proceden en serie; el protocolo de enlace TLS no puede comenzar hasta que el protocolo de enlace TCP haya concluido. [113] Se requieren dos RTT para el establecimiento de la conexión con TLS 1.2 sobre TCP. [114] TLS 1.3 permite la reanudación de la conexión con RTT cero en algunas circunstancias, pero, cuando se aplica en capas sobre TCP, todavía se requiere un RTT para el protocolo de enlace TCP, y esto no puede ayudar a la conexión inicial; Los protocolos de enlace RTT cero también presentan desafíos criptográficos, ya que el intercambio de claves no interactivo , seguro y de repetición segura es un tema de investigación abierto. [115] TCP Fast Open permite la transmisión de datos en los paquetes iniciales (es decir, SYN y SYN-ACK), eliminando un RTT de latencia durante el establecimiento de la conexión. [116] Sin embargo, TCP Fast Open ha sido difícil de implementar debido a la osificación del protocolo; a partir de 2020 , ningún navegador web lo usaba de forma predeterminada. [103][actualizar]
El rendimiento de TCP se ve afectado por la reordenación de paquetes . Los paquetes reordenados pueden provocar el envío de confirmaciones duplicadas que, si cruzan un umbral, activarán una retransmisión espuria y un control de congestión. El comportamiento de transmisión también puede volverse irregular, ya que se confirman rangos grandes de una sola vez cuando se recibe un paquete reordenado al comienzo del rango (de manera similar a cómo el bloqueo de cabecera de línea afecta a las aplicaciones). [117] Blanton y Allman (2002) descubrieron que el rendimiento estaba inversamente relacionado con la cantidad de reordenación, hasta un umbral en el que toda reordenación activa una retransmisión espuria. [118] La mitigación de la reordenación depende de la capacidad de un remitente para determinar que ha enviado una retransmisión espuria y, por lo tanto, de resolver la ambigüedad de la retransmisión. [119] La reducción de las retransmisiones espurias inducidas por la reordenación puede ralentizar la recuperación de una pérdida genuina. [120]
El reconocimiento selectivo puede proporcionar un beneficio significativo al rendimiento; Bruyeron, Hemon y Zhang (1998) midieron ganancias de hasta el 45 %. [121] Un factor importante en la mejora es que el reconocimiento selectivo puede evitar con mayor frecuencia entrar en un inicio lento después de una pérdida y, por lo tanto, puede utilizar mejor el ancho de banda disponible. [122] Sin embargo, TCP solo puede reconocer selectivamente un máximo de tres bloques de números de secuencia. Esto puede limitar la tasa de retransmisión y, por lo tanto, la recuperación de pérdidas o causar retransmisiones innecesarias, especialmente en entornos de alta pérdida. [123] [124]
TCP fue diseñado originalmente para redes cableadas. La pérdida de paquetes se considera el resultado de la congestión de la red y el tamaño de la ventana de congestión se reduce drásticamente como medida de precaución. Sin embargo, se sabe que los enlaces inalámbricos experimentan pérdidas esporádicas y generalmente temporales debido al desvanecimiento, el sombreado, la transferencia, la interferencia y otros efectos de radio, que no son estrictamente congestión. Después de la reducción (errónea) del tamaño de la ventana de congestión, debido a la pérdida de paquetes inalámbricos, puede haber una fase de evitación de la congestión con una disminución conservadora del tamaño de la ventana. Esto hace que el enlace de radio se subutilice. Se han realizado investigaciones exhaustivas para combatir estos efectos nocivos. Las soluciones sugeridas se pueden clasificar como soluciones de extremo a extremo, que requieren modificaciones en el cliente o servidor, [125] soluciones de capa de enlace, como el Protocolo de enlace de radio ( RLP ) en redes celulares, o soluciones basadas en proxy que requieren algunos cambios en la red sin modificar los nodos finales. [125] [126]
Se han propuesto varios algoritmos alternativos de control de congestión, como Vegas , Westwood , Veno y Santa Cruz, para ayudar a resolver el problema inalámbrico. [ cita requerida ]
La idea de un acelerador TCP es terminar las conexiones TCP dentro del procesador de red y luego retransmitir los datos a una segunda conexión hacia el sistema final. Los paquetes de datos que se originan en el remitente se almacenan en el nodo acelerador, que es responsable de realizar retransmisiones locales en caso de pérdida de paquetes. De este modo, en caso de pérdidas, el bucle de retroalimentación entre el remitente y el receptor se acorta al que existe entre el nodo acelerador y el receptor, lo que garantiza una entrega más rápida de los datos al receptor. [127]
Dado que TCP es un protocolo de velocidad adaptable, la velocidad a la que el emisor TCP inyecta paquetes en la red es directamente proporcional a la condición de carga predominante en la red, así como a la capacidad de procesamiento del receptor. El emisor juzga las condiciones predominantes en la red en función de los reconocimientos que recibe. El nodo de aceleración divide el bucle de retroalimentación entre el emisor y el receptor y, por lo tanto, garantiza un tiempo de ida y vuelta (RTT) más corto por paquete. Un RTT más corto es beneficioso, ya que garantiza un tiempo de respuesta más rápido a cualquier cambio en la red y una adaptación más rápida por parte del emisor para combatir estos cambios.
Las desventajas de este método incluyen el hecho de que la sesión TCP debe dirigirse a través del acelerador; esto significa que si el enrutamiento cambia, de modo que el acelerador ya no está en la ruta, la conexión se interrumpirá. También destruye la propiedad de extremo a extremo del mecanismo de reconocimiento TCP; cuando el remitente recibe el reconocimiento, el paquete ha sido almacenado por el acelerador, no entregado al receptor.
Un sniffer de paquetes , que intercepta el tráfico TCP en un enlace de red, puede ser útil para depurar redes, pilas de red y aplicaciones que utilizan TCP, ya que muestra al usuario qué paquetes pasan por un enlace. Algunas pilas de red admiten la opción de socket SO_DEBUG, que se puede habilitar en el socket mediante setsockopt. Esa opción vuelca todos los paquetes, estados TCP y eventos en ese socket, lo que resulta útil para la depuración. Netstat es otra utilidad que se puede utilizar para la depuración.
Para muchas aplicaciones, el protocolo TCP no es adecuado. Un problema (al menos con las implementaciones normales) es que la aplicación no puede acceder a los paquetes que vienen después de un paquete perdido hasta que se recibe la copia retransmitida del paquete perdido. Esto causa problemas para aplicaciones en tiempo real, como la transmisión de medios, los juegos multijugador en tiempo real y la voz sobre IP (VoIP), donde generalmente es más útil obtener la mayoría de los datos de manera oportuna que obtener todos los datos en orden.
Por razones históricas y de rendimiento, la mayoría de las redes de área de almacenamiento (SAN) utilizan el Protocolo de canal de fibra (FCP) sobre conexiones de canal de fibra .
Además, para sistemas integrados , arranque de red y servidores que atienden solicitudes simples de una gran cantidad de clientes (por ejemplo, servidores DNS ), la complejidad de TCP puede ser un problema. Finalmente, algunos trucos, como transmitir datos entre dos hosts que están detrás de NAT (usando STUN o sistemas similares), son mucho más simples sin un protocolo relativamente complejo como TCP en el camino.
Generalmente, cuando el protocolo TCP no es adecuado, se utiliza el protocolo de datagramas de usuario (UDP). Este protocolo proporciona a la aplicación la multiplexación y las sumas de comprobación que ofrece el protocolo TCP, pero no gestiona flujos ni retransmisiones, lo que da al desarrollador de la aplicación la capacidad de codificarlos de una manera adecuada para la situación o de reemplazarlos con otros métodos como la corrección de errores de avance o la interpolación .
El protocolo de transmisión de control de flujo (SCTP) es otro protocolo que proporciona servicios confiables orientados al flujo similares al TCP. Es más nuevo y considerablemente más complejo que el TCP, y aún no se ha implementado de manera generalizada. Sin embargo, está especialmente diseñado para usarse en situaciones donde la confiabilidad y las consideraciones de tiempo casi real son importantes.
El Protocolo de Transporte Venturi (VTP) es un protocolo propietario patentado que está diseñado para reemplazar al TCP de forma transparente para superar las ineficiencias percibidas relacionadas con el transporte de datos inalámbricos.
TCP también tiene problemas en entornos con un gran ancho de banda. El algoritmo de prevención de congestión TCP funciona muy bien en entornos ad hoc en los que no se conoce de antemano quién envía los datos. Si el entorno es predecible, un protocolo basado en tiempos como el modo de transferencia asíncrona (ATM) puede evitar la sobrecarga de retransmisiones de TCP.
El Protocolo de Transferencia de Datos (UDT) basado en UDP tiene una mejor eficiencia y equidad que el TCP en redes que tienen un producto de retardo de ancho de banda alto . [128]
El Protocolo de Transacción Multipropósito (MTP/IP) es un software propietario patentado que está diseñado para lograr de manera adaptativa un alto rendimiento de procesamiento y transacciones en una amplia variedad de condiciones de red, particularmente aquellas en las que se percibe que TCP es ineficiente.
Cuando TCP se ejecuta sobre IPv4 , el método utilizado para calcular la suma de comprobación se define de la siguiente manera: [16]
El campo de suma de comprobación es el complemento a uno de 16 bits de la suma del complemento a uno de todas las palabras de 16 bits del encabezado y el texto. El cálculo de la suma de comprobación debe garantizar la alineación de 16 bits de los datos que se suman. Si un segmento contiene una cantidad impar de octetos de encabezado y texto, la alineación se puede lograr rellenando el último octeto con ceros a su derecha para formar una palabra de 16 bits para fines de suma de comprobación. El relleno no se transmite como parte del segmento. Al calcular la suma de comprobación, el campo de suma de comprobación en sí se reemplaza con ceros.
En otras palabras, después de un relleno adecuado, se suman todas las palabras de 16 bits mediante la aritmética del complemento a uno . Luego, la suma se complementa bit a bit y se inserta como campo de suma de comprobación. En la siguiente tabla se muestra un pseudoencabezado que imita el encabezado del paquete IPv4 utilizado en el cálculo de la suma de comprobación.
La suma de comprobación se calcula sobre los siguientes campos:
Cuando TCP se ejecuta sobre IPv6 , el método utilizado para calcular la suma de comprobación cambia: [129]
Cualquier protocolo de transporte u otro protocolo de capa superior que incluya las direcciones del encabezado IP en su cálculo de suma de comprobación debe modificarse para su uso sobre IPv6, para incluir las direcciones IPv6 de 128 bits en lugar de las direcciones IPv4 de 32 bits.
A continuación se muestra un pseudoencabezado que imita el encabezado IPv6 para el cálculo de la suma de comprobación.
La suma de comprobación se calcula sobre los siguientes campos:
Muchas implementaciones de la pila de software TCP/IP ofrecen opciones para utilizar la asistencia de hardware para calcular automáticamente la suma de comprobación en el adaptador de red antes de la transmisión a la red o al recibirla de la red para su validación. Esto puede evitar que el sistema operativo utilice valiosos ciclos de CPU para calcular la suma de comprobación. Por lo tanto, se mejora el rendimiento general de la red.
Esta característica puede hacer que los analizadores de paquetes que desconocen o no están seguros acerca del uso de la descarga de suma de comprobación informen sumas de comprobación no válidas en paquetes salientes que aún no han llegado al adaptador de red. [130] Esto solo ocurrirá para los paquetes que se interceptan antes de ser transmitidos por el adaptador de red; todos los paquetes transmitidos por el adaptador de red en el cable tendrán sumas de comprobación válidas. [131] Este problema también puede ocurrir al monitorear paquetes que se transmiten entre máquinas virtuales en el mismo host, donde un controlador de dispositivo virtual puede omitir el cálculo de la suma de comprobación (como una optimización), sabiendo que la suma de comprobación se calculará más tarde por el núcleo del host de la VM o su hardware físico.
Estamos cometiendo un error en nuestro diseño de protocolos de Internet al violar el principio de capas. En concreto, estamos intentando utilizar TCP para hacer dos cosas: servir como protocolo de extremo a extremo a nivel de host y servir como protocolo de empaquetado y enrutamiento de Internet. Estas dos cosas deberían proporcionarse de forma modular y en capas.
{{cite book}}
: CS1 maint: location missing publisher (link){{cite web}}
: CS1 maint: bot: original URL status unknown (link)captura los paquetes antes de enviarlos al adaptador de red. No verá la suma de comprobación correcta porque aún no se ha calculado. Peor aún, la mayoría de los sistemas operativos no se molestan en inicializar estos datos, por lo que probablemente esté viendo pequeños fragmentos de memoria que no debería ver. Las nuevas instalaciones de Wireshark 1.2 y posteriores deshabilitan la validación de suma de comprobación de IP, TCP y UDP de forma predeterminada. Puede deshabilitar la validación de suma de comprobación en cada uno de esos disectores de forma manual si es necesario.
descarga de sumas de comprobación suele causar confusión, ya que los paquetes de red que se van a transmitir se entregan a Wireshark antes de que se calculen realmente las sumas de comprobación. Wireshark obtiene estas sumas de comprobación "vacías" y las muestra como no válidas, aunque los paquetes contendrán sumas de comprobación válidas cuando salgan del hardware de red más tarde.