En informática , una caché distribuida es una extensión del concepto tradicional de caché utilizado en una única configuración regional . Una caché distribuida puede abarcar varios servidores para poder crecer en tamaño y en capacidad transaccional. Se utiliza principalmente para almacenar datos de aplicaciones que residen en bases de datos y datos de sesiones web . La idea del almacenamiento en caché distribuido [1] se ha vuelto factible ahora porque la memoria principal se ha vuelto muy barata y las tarjetas de red se han vuelto muy rápidas, con 1 Gbit ahora estándar en todas partes y 10 Gbit ganando terreno. [ ¿cuándo? ] Además, una caché distribuida funciona bien en máquinas de menor costo generalmente empleadas para servidores web en lugar de servidores de bases de datos que requieren hardware costoso. [2] Una arquitectura de Internet emergente conocida como red centrada en la información (ICN) es uno de los mejores ejemplos de una red de caché distribuida. La ICN es una solución a nivel de red, por lo tanto, los esquemas de gestión de caché de red distribuida existentes no son adecuados para ICN. [3] En el entorno de supercomputadoras , la caché distribuida generalmente se implementa en forma de búfer de ráfaga .
En el almacenamiento en caché distribuido, cada clave de caché se asigna a un fragmento específico (también conocido como partición). Existen diferentes estrategias de fragmentación: [4]