Se han desarrollado algoritmos para la detección de patrones específicos bien definidos tales como hélices transmembrana y hélices superenrolladas en las proteínas, o estructuras de microARN en el ARN.[5] En los 70 se introdujeron predicciones significativamente más precisas, que incluían hojas beta.[6] El límite teórico superior de precisión se encuentra alrededor del 90%[6] debido, en parte, a la idiosincrasia en la asignación del DSSP cerca de los extremos de las estructuras secundarias, donde las conformaciones locales varían bajo condiciones nativas pero pueden forzarse para asumir una única conformación cristalina debido a las restricciones del empaquetado.Los cambios conformacionales drásticos relacionados con la función o el entorno de la proteína pueden alterar también la estructura secundaria local.[7] Los parámetros originales del Chou-Fasman, determinados desde el pequeño conjunto de estructuras resueltas a mediados de los 70, producen resultados pobres en comparación con los obtenidos por los métodos modernos, aunque la parametrización haya sido actualizada desde su primera publicación.[3] El método GOR, así denominado por los tres científicos que lo desarrollaron (Garnier, Osguthorpe y Robson), es un método basado en la teoría de la información desarrollado no mucho después del Chou-Fasman, y usa técnicas probabilísticas más apropiadas de inferencia bayesiana.Este método es más sensible y preciso puesto que las tendencias estructurales de los aminoácidos son considerables sólo para un pequeño número de estas moléculas, tales como la prolina y la glicina.El método GOR original es preciso en aproximadamente el 65%, y muchísimo más exitoso en la predicción de hélices alfa que hojas beta, que frecuentemente son calculadas erróneamente como bucles o como regiones desorganizadas.[3] Los métodos basados en redes neuronales artificiales utilizan conjuntos de entrenamiento cuyos elementos son estructuras resueltas para identificar secuencias motivo comunes asociadas con disposiciones particulares de estructuras secundarias.Se han aplicado a este problema tanto MSVs[11] como redes neuronales.La predicción de la estructura proteica sigue siendo una empresa extremadamente difícil e irresuelta.Estos procedimientos suelen requerir amplios recursos computacionales, y por lo tanto sólo han sido llevados a la práctica para pequeñas proteínas.Predecir de novo una estructura de una gran proteína requerirá mejores algoritmos y mayores recursos de computación, como los proporcionados por los supercomputadores (como el Blue Gene o el MDGRAPE-3) o la computación distribuida (como los proyectos Folding@home, Human Proteome Folding Project y Rosetta@home).Estos métodos pueden ser divididos en dos grupos:[22] La configuración precisa del empaquetamientos de las cadenas laterales representa un problema adicional.Los métodos intentan identificar el conjunto de rotámeros que minimiza la energía global del modelo.Algunas versiones son especialmente sensibles a las regiones prohibidas en ese espacio conformacional, y se usan básicamente para validación de la estructura,[30] mientras que otras enfatizan frecuencias relativas en las regiones favorables y son el tipo usado principalmente para la predicción de la estructura (como la biblioteca de rotámeros Dunbrack).La información del efecto que posibles mutaciones en sitios específicos puedan tener sobre la afinidad del complejo, ayuda a entender la estructura agrupada y a desarrollar métodos de acoplamiento.HHpred/HHsearch, bioinfo.pl, Robetta, y Phyre son herramientas software comunes para enhebrado de proteínas.Abalone es un programa basado en dinámica molecular para simular plegamientos con modelos de agua implícitos o explícitos.