Ley de Gustafson

En dicho artículo, Gustafson criticó el enfoque de la ley de Amdahl, en el cual se asume un problema con un tamaño fijo, y en el cual se concluye que el speedup obtenido al añadir paralelismo, está limitado por 1/s, donde s es la porción secuencial del programa.En particular la ley redefine la eficiencia como una necesidad para minimizar la parte secuencial de un programa, incluso si esto incrementa la cantidad total de cálculos.donde S es el speedup, P es el número de procesadores, ycomo la fracción secuencial del tiempo de ejecución en paralelo, obtenemosGustafson, por otra parte, argumenta que más poder de cómputo causará que los datos sean analizados más profunda y cuidadosamente: pixel por pixel o unidad por unidad, en lugar de ser analizados a gran escala.Donde no sería posible o práctico simular el impacto de una detonación nuclear en todas las construcciones, autos y sus contenidos (incluyendo muebles, accesorios, etc.) debido a que tales cálculos tomarían más tiempo del disponible para dar una respuesta, el incremento del poder de cómputo incita a los investigadores a añadir más datos para simular más variables, brindado resultados más precisos.Asumiendo que el proceso de iniciado fuera mayormente paralelizado, cuadruplicando el poder de cómputo en un sistema que toma un minuto para cargar, podría cargar en solo 15 segundos.Pero mayor paralelización fallaría eventualmente en hacer el inicio más rápido, si alguna parte del proceso de inicio fuera esencialmente secuencial.La ley de Gustafson argumenta que un aumento cuádruple del poder de cómputo conllevaría a un incremento similar en las capacidades del sistema.El tiempo de inicio del sistema operativo se mantendrá igual, o sea un minuto, pero el nuevo sistema incluirá mejores características gráficas y funcionalidades para el usuario.Algunos problemas no tienen fundamentalmente grandes cantidades de datos.Por ejemplo, procesar un dato por ciudadano del mundo crece un bajo por ciento anualmente.El punto principal de la ley de Gustafson es que tales problemas no son los que más pueden explotar las ventajas del paralelismo.Por consiguiente, mientras sea posible ocupar grandemente la concurrencia, hacerlo puede traer una relativamente pequeña ventaja sobre la solución original; sin embargo en la práctica han ocurrido mejoras considerables.Hill y Marty[3]​ enfatizan además que métodos de acelerar la ejecución secuencial todavía son necesarios, incluso para máquinas con núcleos múltiples.Ellos señalan que métodos localmente ineficientes pueden ser globalmente eficientes cuando reducen la fase secuencial.
Ley de Gustafson. En el eje horizontal, el número de procesadores. En el vertical, el speedup obtenido. Cada línea representa programas con diferentes porciones secuenciales ( a ), que varían de 0.1 a 0.9. El gráfico muestra que con la fórmula de Gustafson, el rendimiento escala bien con el número de procesadores.