Esto da la capacidad de mostrar muchas luces en una escena sin un impacto al rendimiento significativo.
[4] La técnica depth peeling puede conseguir transparencia de orden independiente en el deferred rendering, pero esto crea batches adicionales aumenta la medida del G-buffer.
Hardware moderno que soporta DirectX 10 o más reciente, es usualmente capaz de usar batches bastante rápido como para mantener los cuadros por segundo a un nivel aceptable.
Otra desventaja importante es la dificultad cuando se utilizan múltiples materiales; es posible de utilizar muchos materiales diferentes, pero estos requieren que más información sea almacenada en el G-buffer, que ya es bastante grande y usa una cantidad grande de memoria.
Una de las técnicas habituales para compensar esta limitación es la de utilizar la detección de borde en la imagen final y luego aplicar blur sobre los bordes, sin embargo recientemente han sido desarrolladas técnicas para el proceso suavizando de los bordes que funcionan después del proceso, tales como MLAA (usada en Killzone 3 y Dragon Age II, entre otros), FXAA[6] (usada en Crysis 2, FEAR 3, Duke Nukem Forever), SRAA, DLAA[7] (usadas en Star Wars: The Force Unleashed II), y MSAA[8] (usadaen Crysis 2 como anti-aliasing predeterminada).
Otro coste adicional es que el pase diferido debe producir irradiancia difusa y especular por separado, mientras que el pase diferido en deferred shading necesita producir solo un único valor de radiancia combinado.
La idea de deferred shading fue originalmente introducida por Michael Deering y sus colegas en un papel publicado en 1988 titulado The triangle processor and normal vector shader: a VLSI system for high performance graphics.
[55] La técnica obtuvo popularidad más tarde para aplicaciones como videojuegos, finalmente volviéndose convencional del 2008 a 2010.