stringtranslate.com

Discusión: Pruebas de software

¿"Post lanzamiento"?

Puede que no esté lo suficientemente familiarizado con esta práctica, pero por lo general no pienso en las versiones alfa y beta como pruebas "posteriores" al lanzamiento. Para mí, las pruebas posteriores al lanzamiento se aplican a cosas como parches y otras actualizaciones. Si el software se ha lanzado al cliente para uso general, entonces ya no es realmente una versión alfa o beta, sino una versión inicial poco probada y potencialmente inestable. "Lanzar" una versión alfa o beta, por ejemplo, a un ejecutivo para que la pruebe, todavía se considera una versión previa al lanzamiento. ¿Me equivoco? Ham Pastrami ( discusión ) 21:00, 3 abril 2008 (UTC) [ responder ]

Tienes razón, he trasladado la información sobre las pruebas alfa y beta a la sección de pruebas "previas al lanzamiento". Andreas Kaufmann ( discusión ) 20:27 5 abril 2008 (UTC) [ responder ]

La prueba de software es el proceso para encontrar la corrección y los defectos de una aplicación de software. —Comentario anterior sin firmar añadido por 122.167.109.27 (discusión) 04:52, 7 de junio de 2008 (UTC) [ responder ]

Parece que la gente se olvida de que la prueba beta no es, de hecho, una función del grupo de pruebas. La prueba beta es una función de marketing para probar las características del producto en relación con lo que los usuarios a los que se dirige quieren o desean que haga el producto. No tiene como objetivo encontrar errores de desarrollo o de programación reales. —Comentario anterior sin firmar añadido por 205.225.192.66 ( discusión ) 16:48, 6 enero 2009 (UTC) [ responder ]

Tres cosas
  1. Tu descripción de las pruebas beta dista mucho de ser precisa. Lo que pareces estar describiendo parece más acorde con las pruebas de aceptación del usuario .
  2. Las pruebas beta pueden y deben estar controladas por el grupo de pruebas. Los resultados de las pruebas más amplias, basadas en el consumidor, durante el ciclo beta de desarrollo deben ser recopilados y analizados por un representante del equipo de pruebas. Esos resultados deben compararse con los defectos conocidos y notificados y clasificarse de la misma manera que cualquier defecto notificado internamente en ese momento. Si el programa beta está controlado por el departamento de marketing, entonces no es fácil que los defectos encuentren su camino hacia el sistema de seguimiento de defectos.
  3. ¿Qué tiene que ver la prueba beta con la prueba "posterior al lanzamiento", que es lo que se dice en el título? Se realiza antes del lanzamiento oficial de los productos. De hecho, algunos programas parecen estar en fase beta permanente. Gmail es el más notable.
-- Walter Görlitz ( discusión ) 20:39, 6 de enero de 2009 (UTC) [ respuesta ]

Marcar no "Excersizing"

Algunas partes del proceso de prueba no tienen nada que ver con el ejercicio, por lo que cambié el título.
Dicho esto, necesito hacer algo de ejercicio, así que me voy. ;-) -- Pashute ( discusión ) 11:10 25 jun 2008 (UTC) [ responder ]

Comprobando el software para verificarlo (¡¿?!), "ejercicio" suena mejor como en el estándar Do-178

Prueba - Proceso de poner a prueba un sistema o un componente de un sistema para verificar que satisface los requisitos especificados y detectar errores. [en DO-178 CONSIDERACIONES DE SOFTWARE EN LA CERTIFICACIÓN DE SISTEMAS Y EQUIPOS AÉREOS] Thread-union (discusión) 17:25 4 jul 2008 (UTC) [ responder ]

Las pruebas de software implican más que simplemente probar el software: generalmente incluyen una variedad de comprobaciones, como análisis estático, revisión de código, etc. AliveFreeHappy ( discusión ) 00:07 28 jun 2011 (UTC) [ responder ]
No estoy de acuerdo. No creo que a esas actividades se las denomine normalmente pruebas . Rp ( discusión ) 14:50 6 may 2013 (UTC) [ responder ]

Controversia

Uno de los puntos bajo el título "Controversia" dice "...y en su mayoría aún se adhieren a CMM". ¿Qué es CMM? No se menciona este acrónimo antes y no hay antecedentes obvios en el punto. Mcswell ( discusión ) 00:49 13 ago 2008 (UTC) [ responder ]

Modelo de madurez de la capacidad Tedickey ( discusión ) 00:52 13 ago 2008 (UTC) [ responder ]

Agregué un enlace al artículo de CMMI y cambié "CMM" por "CMMI" NoBot42 (discusión) 20:00, 21 de agosto de 2008 (MEZ)

Las referencias a CMMI parecen estar fuera de lugar. CMMI define las pautas de mejora de procesos independientemente del modelo de desarrollo utilizado (sea ágil, en cascada o cualquier otro). Esta "controversia" está creando una falsa dicotomía entre el desarrollo ágil y la madurez del proceso. No hay nada inherente a CMMI que impida su implementación en un entorno ágil. El conflicto entre "ágil" y "tradicional"/en cascada es que los métodos ágiles enfatizan las pruebas continuas, mientras que el método tradicional consistía en comenzar las pruebas solo al final del proceso de desarrollo. 76.164.8.130 ( discusión ) 22:24 21 nov 2008 (UTC) [ responder ]

---

Los comentarios anteriores sobre CMMI son correctos. El objetivo de CMMI es garantizar que el proceso se gestione y no prescribe ninguna mecánica sobre cómo realizar las funciones. En el mejor de los casos, proporciona ejemplos, pero esos ejemplos sirven más para ilustrar lo que significan para un área de proceso en particular que para prescribir cómo hacerlo. Al implementar un buen proceso ágil, por supuesto que abordará la mayoría de las disciplinas que se detallan en CMMI. Es cierto que el gobierno de los EE. UU. a menudo exige procesos que cumplan con los niveles 2 o 3 de CMMI, pero generalmente dejan la implementación de ese proceso a la empresa con la que tienen el contrato. Muchas empresas están aprendiendo el valor de aplicar procesos ágiles a CMMI. El gobierno de los EE. UU. puede imponer su implementación de procesos a una empresa, pero esa no es la norma.

Uno de los principales mecanismos que utilizan todos los procesos ágiles para mitigar el riesgo de los costes asociados a los cambios en el desarrollo de la aplicación es el de las iteraciones estrictas. Básicamente, se divide el trabajo en iteraciones de una o dos semanas en las que se hace la especificación hasta la integración, y las pruebas se realizan después de una iteración. Los costes de los requisitos, el diseño o la implementación incorrectos se reducen esencialmente a niveles muy manejables. Eso es lo que los convierte en ágiles. 137.100.53.254 (discusión) 20:17 16 abr 2009 (UTC) [ responder ]

--- Creo que aquí es necesario centrarse más en la automatización de pruebas. Cuando los defensores del desarrollo ágil recomiendan que se realicen todas las pruebas al 100 %, a menudo quieren decir "Quiero tener una cobertura de código del 100 % con las pruebas unitarias que estamos ejecutando". Incluso si se tiene una cobertura de código del 100 %, todavía hay mucho margen de error (errores de usabilidad, errores de integración, etc.). Si existe alguna forma de automatizar las pruebas de usabilidad, no la conozco.

¿Por qué es importante esto? Hay muchos PHB (jefes con cabeza puntiaguda) desinformados que escuchan a los vendedores de herramientas de automatización de software y creen que las herramientas de reproducción de registros permitirán a su equipo de control de calidad automatizar por completo sus pruebas de caja negra. Alguna mención de este "aceite de serpiente" en un medio en evolución y muy respetado como Wikipedia podría poner un freno a las expectativas poco razonables de este tipo. También debería hacerse una distinción clara entre la automatización de la interfaz gráfica de usuario (que está sujeta a distintos grados de fragilidad y requiere tanto o más tiempo para su mantenimiento que para escribir las pruebas iniciales: el argumento en contra de la automatización) y la automatización de pruebas unitarias (que normalmente requiere menos mantenimiento que la automatización de la interfaz gráfica de usuario).

(Antes de seguir con esto, creo que alguien debería proporcionar citas que muestren algunos defensores destacados de Agile que , de hecho, proponen una cobertura del 100%. Estoy absolutamente seguro de que ninguno de los que he conocido en la vida real lo hace , y algunos de ellos se irritan mucho con esta afirmación, por lo que no estoy convencido de que toda esta idea no sea un concepto erróneo/malentendido popular. 82.71.32.108 ( discusión ) 01:12, 10 de febrero de 2009 (UTC)) [ responder ]

--

La cobertura del 100% se suele citar para pruebas unitarias , y no para todas las pruebas de un sistema. En el mejor de los casos, la cobertura del 100% es un objetivo, pero puede no ser factible debido a las limitaciones de la herramienta de cobertura u otras circunstancias atenuantes. Muchos equipos ágiles no emplean el desarrollo guiado por pruebas (que es solo una aplicación de los procesos ágiles), por lo que no siempre miden la cobertura de las pruebas. De los que lo hacen, una cobertura del código del 100% no significa necesariamente que se hayan probado el 100% de los casos. [1] 137.100.53.254 (discusión) 20:14, 16 de abril de 2009 (UTC) [ responder ]

--

Pruebas manuales vs. automatizadas Algunos autores creen que la automatización de pruebas es tan cara en relación con su valor que debería utilizarse con moderación.[47] Otros, como los defensores del desarrollo ágil, recomiendan automatizar el 100% de todas las pruebas. Más en particular, el desarrollo basado en pruebas establece que los desarrolladores deberían escribir pruebas unitarias del tipo x-unit antes de codificar la funcionalidad. Las pruebas pueden considerarse entonces como una forma de capturar e implementar los requisitos.

--

"¿Los testers deberían aprender a trabajar en condiciones de incertidumbre y cambio constante o deberían apuntar a la 'madurez' del proceso?" Esta misma cita del enfoque "Agile vs. Traditional" es una interpretación errónea. Básicamente, la única diferencia es cuando los testers se involucran en el ciclo de vida del software. Con el enfoque tradicional, los testers no se involucran hasta que el software está 100% completo (se han satisfecho todos los requisitos). Con los enfoques ágiles e iterativos, los testers se involucran tan pronto como se realiza una iteración. Las metodologías ágiles tienen iteraciones semanales o quincenales, lo que significa que las pruebas comienzan en la segunda o tercera semana de desarrollo. Los testers aumentan la cobertura de sus pruebas para que coincidan con los requisitos (o historias de usuario como los agilistas tienden a llamarlos) que se desarrollaron en ese momento. El beneficio es que cuando un proyecto ágil ha alcanzado la etapa de 100% de funcionalidad completa, la mayoría de los errores ya se han detectado y solucionado.

Los procesos ágiles son maduros y tienen poco que ver con trabajar en condiciones de incertidumbre y cambio constante. Tienen que ver con ciclos de iteración ajustados para que cuando el cliente necesite que el equipo vuelva a centrar sus esfuerzos, tenga la capacidad de hacerlo. No olvidemos también que hay otros procesos maduros que adoptan muchos de los mismos principios, como el Proceso Unificado Racional (RUP) y otras metodologías iterativas en las que el ciclo de requisitos→diseño→construcción→prueba→mantenimiento se repite varias veces antes de que el proyecto esté 100% completo. 72.83.188.248 (discusión) 02:26 20 abr 2009 (UTC) [ responder ]

Pruebas basadas en especificaciones

"Las pruebas basadas en especificaciones son necesarias pero insuficientes para protegerse contra ciertos riesgos. [16]". Esta frase es completamente irrelevante, porque

- no existe una metodología de pruebas que sea suficiente para protegerse contra todos los riesgos
- el artículo al que se hace referencia no contribuye a la validez de esta afirmación

Supongo que esta frase sólo sirve para introducir un enlace al autor. Por eso la elimino. —Comentario anterior sin firmar añadido por 80.219.3.124 ( discusión ) 18:20, 21 de agosto de 2008 (UTC) [ responder ]

Sección de detección de fallos

Las métricas para el esfuerzo de encontrar y corregir errores son interesantes. Las he visto muchas veces. Se me ocurrió que la consecuencia es que es xx veces más fácil introducir errores en las fases de requisitos y arquitectura . ¿Hay alguna literatura al respecto? Es decir, ¿qué es causa y qué es efecto? Muchas veces, parecen ser utilizadas por quienes están acostumbrados a un método en cascada para justificar la especificación excesiva de las cosas. 69.77.161.3 (discusión) 20:50, 19 de noviembre de 2008 (UTC) [ responder ]

Anuncio de TMAP

Probablemente, la marca registrada sea un uso inapropiado; la referencia aquí hace que sea un anuncio. Tedickey ( discusión ) 01:16 30 nov 2008 (UTC) [ responder ]

Vale, lo he eliminado. (Exin es una organización de exámenes sin ánimo de lucro, y aquí está la lista tal como la publicaron en su sitio web: http://www.exin-exams.com/exams/exam-program.aspx) —Comentario anterior sin firmar añadido por Raynald ( discusióncontribuciones ) 02:10, 30 de noviembre de 2008 (UTC)[ responder ]

Ediciones de Oashi

De otro tester de software, deja de inventar cosas como lo has hecho en el artículo sobre pruebas de software . Estás inventando términos y conceptos. Si no dejas de hacerlo, consideraré tus ediciones sin fuentes como vandalismo y te denunciaré. Por ejemplo, ningún libro de mi biblioteca menciona "pruebas optimistas". Parece que estás definiendo las pruebas positivas y negativas. Nada más. Les estás dando términos elaborados, uno de los cuales entra en conflicto con otro término. Tus elaboraciones sobre pruebas destructivas , que tienen un artículo en Wikipedia, son incorrectas. Por favor, deja de elaborar necesariamente los términos. -- Walter Görlitz ( discusión ) 06:34, 21 de julio de 2009 (UTC) [ responder ]

Veo que has eliminado algunas frases mías. Entiendo que esta es tu objeción. Vale, el término "prueba optimista" puede no ser general.
Sin embargo, ¿por qué eliminaste todas las oraciones? Si tienes objeciones, corrige los términos o reemplázalos por otros mejores. Pero la eliminación inmediata me parece poco constructiva. Observa la filosofía del incrementalismo : paso a paso, el artículo mejorará cada vez más.
Entonces, reescribiré los términos para aprobar y reprobar : espero que esto te satisfaga más. Trato de estar abierto a todas las objeciones, así que sigamos discutiéndolas más. Por favor, Franta Oashi ( discusión ) 15:26 21 jul 2009 (UTC) [ responder ]
Las razones por las que los borré fueron:
  1. Eran investigaciones originales y sin fuentes.
  2. Si bien el material contenía algo de verdad, estaba muy limitado y no se aplicaba a la industria de pruebas de software en su conjunto.
  3. La gramática era mala
Por lo tanto, sentí que las secciones que agregó eran insalvables y debían eliminarse. Hice lo mismo con sus nuevas secciones sobre pruebas planificadas vs. ad hoc. El hecho mismo de que haya escrito que las pruebas ad hoc deben ser limitadas desmiente su falta de comprensión de su uso. Las pruebas ad hoc y las pruebas exploratorias se realizan con exclusión de otras metodologías de prueba, o como lo llamarían sus practicantes: una mentalidad, con gran éxito. Vea la sección sobre pruebas exploratorias sobre " Beneficios y desventajas ". También rediseñé algunas de las otras secciones que modificó para eliminar un enfoque estrecho y he intentado eliminar el lenguaje de prueba para aprobar en su totalidad. Las diversas fases no siempre utilizan casos de prueba positivos. De hecho, el diseño impulsado por pruebas enfatiza tanto las pruebas positivas como las negativas. Esto sucede en los niveles de unidad e integración y, como tal, su inclusión aquí es pura ficción, a pesar de su existencia en entornos del mundo real. -- Walter Görlitz ( discusión ) 17:14, 21 de julio de 2009 (UTC) [ responder ]
Hay tantas cosas sobre las que podría reaccionar... Sólo algunas en este momento:
Los títulos de los capítulos que eliminaste intencionalmente incluían el "vs.", versus, como comparación de temas opuestos, co-tradictorios, pero relacionados: Por eso lo planeado y lo ad-hoc están juntos, el contraste era el punto.
Claro, me gustan las pruebas ad hoc, tengo mucho éxito con eso. Sin embargo, no estoy de acuerdo con lo que dices: "ad hoc testing should be limited belies your misunderstanding of its use". En el artículo se decía que las pruebas en general, y más aún las pruebas ad hoc y la creatividad, pueden descubrir muchos errores, y nadie los descubre. ¿No estás de acuerdo con eso "this easily tends to be endless, costly and no result giving." ? El proyecto siempre ha tenido una financiación limitada, se debe aplicar el principio de Pareto, por lo que también las pruebas "creativas" ad hoc deben estar limitadas en el tiempo y el alcance. Podrías probar una determinada parte de un software para siempre , por lo que necesita un límite: Y esto se establecerá de forma realmente artificial, sí. ... Me presionaron muchas veces para que hiciera una "estimación de tiempo profesional-experto", incluso sin ninguna información disponible todavía. ¿Es esto con lo que no estás de acuerdo?
Otro tema fue sobre la planificación y principalmente la "entrega de resultados". Se necesitan objetivos SMART, es necesario indicar antes de la prueba en sí, cuál es el detonante para empezar y terminar. También se necesita cierta mensurabilidad: se necesita un resultado explícito, sí/no. ¿Obtuvo alguna respuesta que indique que se alcanzó el objetivo? Esa "necesidad de resultado" puede verse como "obvia", sin embargo, un tester puede fácilmente perder de vista su objetivo dado, pasando de la prueba de aprobar a la de reprobar, e incluso a la improvisación, con lo que finalmente se pierde el plan y provoca/forza un desvío de las estimaciones del gerente sobre la entrega a los clientes. Siempre hay una contradicción entre la prueba creativa y la planificada, de ahí el capítulo. -- Franta Oashi ( discusión ) 18:41, 21 de julio de 2009 (UTC) [ responder ]
Lo que has escrito demuestra que no entiendes cómo se pueden utilizar las pruebas ad hoc en las pruebas cotidianas. No son algo limitado. Se utilizan de forma exclusiva en muchas empresas. Lee los artículos: pruebas ad hoc y, en particular, pruebas exploratorias -- Walter Görlitz ( discusión ) 18:51, 21 de julio de 2009 (UTC) [ responder ]
Bueno, he leído los artículos que me has recomendado, pero sigo creyendo que entiendo perfectamente el "ad hoc". Me gustaría pasar "la pelota a tu lado del patio de recreo": ya he intentado explicarte mi punto de vista, pero has rechazado todo esto sin ninguna explicación, tan solo con un breve no .
Dijiste que estaba equivocado. Así que, por favor, muéstrame mi malentendido/error, muéstrame la contradicción entre lo que dije antes (los capítulos que eliminaste) y el artículo de prueba ad hoc . Gracias.
Todavía creo que he utilizado los términos correctamente, pero sigo sin estar de acuerdo con la eliminación. Sigo sin entender tu argumento, lo siento. Llevará mucho tiempo, pero la única manera que veo es debatir las frases (o incluso los términos) una por una. -- Franta Oashi ( discusión ) 22:16 21 jul 2009 (UTC) [ responder ]
En particular, las pruebas exploratorias . También hay varios documentos sobre el tema en http://www.stickyminds.com/ escritos por Kaner, los hermanos Bach y Bolton. Bach ha escrito que las pruebas exploratorias son "un proceso interactivo de aprendizaje simultáneo, diseño de pruebas y ejecución de pruebas". Este proceso se ha convertido en una disciplina que se puede enseñar. Todas mis fuentes y referencias están en mi wiki, pero como dije, hay muchas más en http://www.stickyminds.com -- Walter Görlitz ( discusión ) 23:41, 21 de julio de 2009 (UTC) [ responder ]
Y las "don't always use positive test cases"pruebas : se pueden construir como preguntas, como "haz esto, ¿aparecerá esto?", con la expectativa de que (a) aparezca / b) no aparezca) sea correcto, por lo que la prueba puede pasar o fallar en el evento "apareció". Sí, ambos lo sabemos.
Pero esta idea no está relacionada con la prueba para pasar. Nuevamente, la definición se puede ver en la diferencia con la "prueba para fallar": a) el evento desencadenante, en qué momento del progreso del proyecto aparecen (ver SMART), y b) cuál es el propósito/alcance de dicha prueba: para pasar a la longitud, "Encontré una manera exitosa de A a B", ya que estos son los escenarios principales en el FS, o el desarrollo a la anchura, "Encontré una manera, que no llegué de A a B". Estas no se pueden realizar en el mismo estado del proyecto, sino en diferentes compilaciones, y principalmente con diferentes propósitos: la prueba se inició con alguna "pregunta sobre el proyecto", que dio una respuesta completamente diferente. (¿Podemos comenzar el desarrollo posterior basado en esta biblioteca? / ¿Podemos integrar la biblioteca y los módulos pertenecientes a la principal?)
¿Tienes alguna documentación que respalde estas afirmaciones? Prueba http://www.stickyminds.com/ o alguna otra fuente confiable. Posiblemente un libro. Hasta entonces, es investigación original. -- Walter Görlitz ( discusión ) 18:51 21 jul 2009 (UTC) [ responder ]
En relación con la integración: siempre se incluyen las pruebas para pasar. Tu nueva edición es aceptable para mí. Un gran ejemplo de las pruebas "más profundas" durante la regresión son los casos de "prueba para fallar", ¡exactamente! Creo que tu texto allí respalda mi capítulo "para pasar vs. para fallar". Pero lo que se usa en la regresión no se describe ahora, lo eliminaste. -- Franta Oashi ( discusión ) 18:41, 21 de julio de 2009 (UTC) [ responder ]

Completitud del código

Buscando una definición clara del término completitud del código, me topo con este pasaje. Claramente, la primera oración es incorrecta: el párrafo se refiere a la completitud del código de prueba, no al código que se está probando, aunque este último es una de las cosas que se están probando. Rp ( discusión ) 11:16 18 ago 2009 (UTC) [ responder ]

Como ocurre con la mayoría de los términos de desarrollo de software, normalmente no hay definiciones claras de código completo. En algunos casos, podría significar que no se añadirán nuevas características, pero se realizarán correcciones de errores. En otros, la definición anterior sería característica completa , y código completo significa que no vamos a tocar más el código. Cualquier error que se encuentre a partir de ahora tendrá que ser corregido por el equipo de mantenimiento. -- Walter Görlitz ( discusión ) 16:50, 24 de octubre de 2009 (UTC) [ responder ]
Exactamente. El párrafo no trata de eso en absoluto, sino de la cobertura de las pruebas. Cambié el título en consecuencia. Rp ( discusión ) 12:40 29 oct 2009 (UTC) [ responder ]

Definición de prueba de software

He hecho una pequeña modificación a la definición inicial. La definición era: "'Prueba de software' es una investigación empírica realizada para proporcionar a las partes interesadas información sobre la calidad del producto o servicio que se está probando, con respecto al contexto en el que se pretende que funcione". He quitado "con respecto al contexto en el que se pretende que funcione" porque creo que es confuso y limita innecesariamente el alcance. La gente suele utilizar los productos de maneras muy diferentes a la intención del fabricante. A menudo tiene todo el sentido probar el comportamiento de un producto en usos previsibles o en contextos previsibles, no sólo en los previstos (pensemos en productos críticos para la vida, por ejemplo). CemKaner (discusión) 15:39 29 dic 2009 (UTC) [ responder ]

Definición de pruebas de software: ISTQB vs. Uso común

Hay una definición muy clara de "Pruebas de software" en el Glosario estándar IEEE de terminología de ingeniería de software, IEEE Std 610.12-1990 (¡de pago!), y cito:

  1. "El proceso de operar un sistema o componente bajo condiciones específicas, observando o registrando los resultados y haciendo una evaluación de algún aspecto del sistema o componente"
  2. "(IEEE Std 829-1983) El proceso de analizar un elemento de software para detectar la diferencia entre las condiciones existentes y las requeridas (es decir, errores) y para evaluar las características de los elementos de SW".

De manera más simple, en "Siete principios de las pruebas de software" (Bertrand Meyer (ETH Zürich y Eiffel Software) en: “IEEE Computer”, agosto de 2008, págs. 99-101 (¡de pago!), se da la definición simple:

"Probar un programa es intentar que falle."

El ISTQB (International Software Testing Qualifications Board) no ofrece una definición adecuada de prueba (en particular, no se puede encontrar ninguna definición en el "Glosario estándar de términos utilizados en pruebas de software versión 2.0 por el ISTQB"), pero amplía el significado de manera informal para incluir lo que ellos llaman "pruebas estáticas" en complemento a las "pruebas dinámicas", que son actividades como revisiones, inspecciones de código y análisis estático y que generalmente se incluirían en el diseño y la gestión de calidad (creo que más poder para ellos). La siguiente definición informal se da en el "Programa de estudios de nivel básico del ISTQB":

Las actividades de prueba existen antes y después de la ejecución de la prueba. Estas actividades incluyen la planificación y el control, la elección de las condiciones de prueba, el diseño y la ejecución de los casos de prueba, la comprobación de los resultados, la evaluación de los criterios de salida, la elaboración de informes sobre el proceso de prueba y el sistema en prueba, y la finalización o finalización de las actividades de cierre una vez finalizada una fase de prueba. Las pruebas también incluyen la revisión de documentos (incluido el código fuente) y la realización de análisis estáticos.

En particular, en "Point/Counterpoint - Test Principles Revisited" (Bertrand Meyer (ETH Zürich) vs. Gerald D. Everett (American Software Testing Qualifications Board), “IEEE Software”, agosto de 2009, págs. 62-65 (¡de pago!), leemos lo siguiente del Sr. Meyer:

"El señor Everett y el ISTQB amplían la definición de pruebas para cubrir esencialmente todo el aseguramiento de la calidad. En ciencia, uno es libre de usar cualquier término, con una definición precisa, para denotar cualquier cosa, pero no tiene sentido contradecir la práctica establecida. La definición del ISTQB va más allá de las técnicas dinámicas comúnmente conocidas como pruebas para abarcar las estáticas. Cientos de publicaciones discuten el análisis estático, incluidas las pruebas, frente a las pruebas. Tales comparaciones son de gran relevancia (incluso para mí como el creador, junto con Yuri Gurevich, de las conferencias Tests and Proofs, http://tap.ethz.ch), pero las diferencias siguen siendo claras. Pregúntele a los profesionales o investigadores sobre las pruebas; la mayoría describirá las técnicas dinámicas. Si el ISTQB quiere ampliar su alcance al aseguramiento de la calidad, debería cambiar su nombre, no tratar de redefinir una terminología que tiene décadas de antigüedad".

78.141.139.10 (discusión) 17:27 19 mar 2013 (UTC) [ responder ]

Las definiciones numeradas son excelentes y deberían usarse como referencia. Sin embargo, "probar un programa es intentar que falle" no es una buena definición, ya que no todas las pruebas intentan que falle. Algunas pruebas sirven simplemente para determinar sus limitaciones (las pruebas de rendimiento son un ejemplo de ello). Walter Görlitz ( discusión ) 18:10 19 mar 2013 (UTC) [ responder ]

Estoy de acuerdo con eso. Meyer claramente quería una "definición básica" breve y concisa que ciertamente no pretendía cubrir todos los aspectos de las pruebas. Aquí está el contexto, del artículo citado anteriormente

La única conexión incontrovertible es negativa, una falsificación en el sentido popperiano: un test fallido nos da evidencia de falta de calidad. Además, si el test anterior ha sido aprobado, indica una regresión y señala posibles problemas de calidad en el programa y en el proceso de desarrollo. La cita más famosa sobre el testing lo expresa de forma memorable: “El testing de programas”, escribió Edsger Dijkstra, “puede utilizarse para mostrar la presencia de errores, ¡pero nunca para mostrar su ausencia!”.

Menos conocido (y probablemente no pretendido por Dijkstra) es lo que esto significa para los testers: la mejor autopromoción posible. Sin duda, cualquier técnica que descubra fallos es de gran interés para todos los “stakeholders”, desde los directivos hasta los desarrolladores y los clientes. En lugar de una acusación, deberíamos entender esta máxima como una definición de testing. Aunque es menos ambiciosa que proporcionar “información sobre la calidad”, es más realista y directamente útil.

Principio 1: Definición Probar un programa es intentar hacerlo fallar.

Esto mantiene el proceso de prueba enfocado: su único objetivo es descubrir fallas al provocar fallas. Cualquier inferencia sobre la calidad es responsabilidad del control de calidad, pero está más allá del alcance de las pruebas. La definición también nos recuerda que las pruebas, a diferencia de la depuración, no se ocupan de corregir fallas, sino solo de encontrarlas.

78.141.139.10 (discusión) 17:15 22 mar 2013 (UTC) [ responder ]

Irónicamente, Wikipedia no es una fuente fiable. No tengo ningún problema con una definición básica. El problema es encontrar una. Walter Görlitz ( discusión ) 18:37 22 mar 2013 (UTC) [ responder ]

En el apartado “Métodos de prueba” leemos lo siguiente:

Pruebas estáticas vs. pruebas dinámicas

Existen muchos enfoques para realizar pruebas de software. Las revisiones, los recorridos o las inspecciones se denominan pruebas estáticas, mientras que la ejecución real del código programado con un conjunto determinado de casos de prueba se denomina pruebas dinámicas. Las pruebas estáticas se pueden omitir y, lamentablemente, en la práctica, a menudo se hace. Las pruebas dinámicas se llevan a cabo cuando se utiliza el propio programa. Las pruebas dinámicas pueden comenzar antes de que el programa esté 100 % completo para probar secciones particulares del código y se aplican a funciones o módulos discretos. Las técnicas típicas para esto son el uso de stubs/drivers o la ejecución desde un entorno de depuración.

Las pruebas estáticas implican verificación, mientras que las pruebas dinámicas implican validación. Juntas, ayudan a mejorar la calidad del software.

El uso no estándar de "Pruebas dinámicas" y "Pruebas estáticas" proviene directamente del programa de estudios del ISTQB. La frase "Las pruebas estáticas se pueden omitir y, lamentablemente, en la práctica, a menudo se hace" no tiene ningún sentido, porque las "pruebas estáticas" pertenecen al diseño, la gestión del ciclo de vida y el control de calidad. No son pruebas. ¿Se pueden dejar de lado? ¿Lo son? ¿Es desafortunado? La respuesta es "depende". Por supuesto, hacerlo, si el tiempo y el dinero lo permiten, ayuda a mejorar la calidad del software, de eso se trata.

Y luego:

"Las pruebas estáticas implican verificación, mientras que las pruebas dinámicas implican validación. Juntas, ayudan a mejorar la calidad del software".

¡NO! En la página de Wikipedia sobre V&V leemos:

Validación. La garantía de que un producto, servicio o sistema satisface las necesidades del cliente y otras partes interesadas identificadas. A menudo implica la aceptación y la idoneidad por parte de los clientes externos.

Verificación. Evaluación de si un producto, servicio o sistema cumple o no con una reglamentación, requisito, especificación o condición impuesta. Suele ser un proceso interno.

Por lo tanto, las denominadas "pruebas estáticas" se aplican tanto a la validación como a la verificación. Las denominadas "pruebas dinámicas" se aplican sin duda a la verificación ("¿cumple los requisitos enumerados?"), pero en un grado mucho menor a la validación.

Conclusión: es necesario reescribir el código. Se debe aclarar la diferencia entre "estático/dinámico" y "prueba simple", ya que es muy confuso.

78.141.139.10 (discusión) 17:32 22 mar 2013 (UTC) [ responder ]

Acerca de la prueba de Braguet

Hola, he visto que has eliminado mi subsección sobre pruebas de software. No sabía que no se podían añadir a Wikipedia artículos que no se habían publicado anteriormente. ¿Qué se considera "publicado anteriormente"?

Lo he publicado en: http://experiencesonsoftwaretesting.blogspot.com/2010/01/braguet-testing-discovery-of-lucas.html por lo que ya no es material inédito. -- Diego.pamio ( discusión ) 15:43 5 ene 2010 (UTC) [ responder ]

Lo anterior fue tomado de mi página de discusión.
* Sigue siendo autopublicado. Los blogs no son fuentes según las pautas de Wikipedia. Véase WP:PRIMARY . El hecho de que hayas publicado la entrada del blog hace media hora, justo antes de publicar el comentario en mi página de discusión, posiblemente sólo para poder tener una fuente, la hace aún más dudosa.
* La definición no lo hace diferente de las pruebas de humo o las pruebas de cordura . El hecho de que Lucas A. Massuh no conozca los términos no significa que no pueda inventar un término nuevo que signifique lo mismo. Significa que no tenemos que usar ese nuevo término. Sugiero que le lleves esos dos conceptos existentes a Lucas A. Massuh para que los conozca. -- Walter Görlitz ( discusión ) 16:08 5 ene 2010 (UTC) [ responder ]

La cotización de pruebas de software se agrega en la sección 'Descripción general'

¿Tiene sentido? Por favor háganmelo saber.

No se ha indicado el origen de la cita y no encaja en el texto. Tedickey ( discusión ) 09:47 22 ene 2010 (UTC) [ responder ]
Entonces, no, no tiene sentido. -- Walter Görlitz ( discusión ) 14:53 22 ene 2010 (UTC) [ responder ]

Certificaciones

La discusión sobre la certificación me cita dos proposiciones.

Respecto del primero, he argumentado a menudo que la ingeniería de software (incluidas las pruebas) no está preparada para la LICENCIA porque carecemos de un cuerpo de conocimientos aceptado. (Véase, por ejemplo, John Knight, Nancy Leveson, Lori Clarke, Michael DeWalt, Lynn Elliott, Cem Kaner, Bev Littlewood y Helen Nissenbaum. "Grupo de trabajo de la ACM sobre licencias de ingenieros de software que trabajan en software crítico para la seguridad: informe preliminar, julio de 2000. Véase también http://www.acm.org/serving/se_policy/safety_critical.pdf.) Sin embargo, la certificación no es una licencia. Podemos certificar a alguien como competente en el uso de una herramienta, la aplicación de una técnica o el dominio de un conjunto de conocimientos sin afirmar también que esa es la mejor herramienta, la técnica más aplicable o el conjunto de conocimientos "correcto" (o el único válido) (o el universalmente aceptado). Creo que las certificaciones actuales afirman demasiado, que tergiversan el estado del conocimiento y el acuerdo en el campo y, al hacerlo, varias de ellas promueven una mentalidad estrecha e ignorante que perjudica al campo. Pero se trata de un problema de especificidades, un problema de estas certificaciones particulares.

En cuanto a lo segundo, no he dicho que la certificación NO PUEDA medir estas cosas. Por ejemplo, mire la certificación de nivel Expert de Cisco . La veo como un claro ejemplo de certificación de habilidad. De manera similar, no veo ninguna razón para argumentar que NO PODEMOS medir la productividad o el conocimiento práctico de un programador o un evaluador. Sin embargo, creo que las certificaciones actuales NO intentan medir estas cosas, o que cualquiera podría argumentar razonablemente que cualquiera de estas certificaciones hace un trabajo creíble al realizar tales mediciones. CemKaner (discusión) 22:30 9 abr 2010 (UTC) [ responder ]

Retorno de la inversión en pruebas de software

El retorno de la inversión (ROI) es un término que suele malinterpretarse. Este término puede volverse aún más complejo cuando se mide el retorno de la inversión en pruebas de software.

¿Cómo evaluar el ROI de las pruebas de software y cómo mejorarlo?

http://blogs.msdn.com/b/robcaron/archive/2006/01/31/520999.aspx

http://www.mverify.com/resources/Whats-My-Testing-ROI.pdf NewbieIT ( discusión ) 03:53 10 jun 2010 (UTC) [ responder ]

CMMI o cascada

El encabezado "CMMI o cascada" era completamente incorrecto. Ni el Modelo de Madurez de Capacidades para Software (SW-CMM), ni el CMM para Ingeniería de Sistemas (EIA-731) ni el Modelo de Madurez de Capacidades Integrado (CMMI) han exigido nunca el ciclo de vida en cascada. De hecho, muchos de los autores originales del CMM han dado conferencias sobre el tema de cómo la cascada se originó a partir de un discurso mal citado y malinterpretado de Winston Royce en 1973, y por lo tanto, podría decirse que nunca fue un ciclo de vida legítimo en su interpretación más estricta. Los ciclos de vida en espiral, incremental, iterativo, OOPS, sushi, fuente, etc. son todos ciclos de vida que pueden ser la base para la ejecución de proyectos y pruebas, y todos pueden usarse para abordar las prácticas requeridas en el CMMI. Vic Basily ha escrito un excelente artículo en el que analiza cómo los enfoques de prueba de todo al final no son "tradicionales" y cómo los enfoques incrementales/iterativos para el desarrollo y las pruebas de software han existido desde que existe la industria. El enfoque de "probar primero" promovido por los métodos ágiles es en realidad un resurgimiento de disciplinas de larga data. —Comentario anterior sin firmar agregado por 63.241.202.8 ( discusión ) 19:31, 9 agosto 2010 (UTC) [ responder ]

No creo que la palabra "o" en este encabezado sea una conjunción para compararlos, sino más bien para contrastarlos. Tanto los procesos CMMi como Waterfall sugieren cosas similares, pero no se los equipara en esta sección. Además, cada vez que se elimina contenido sin un comentario, nadie sabe por qué se hizo el cambio. Cuando ese cambio se hizo mediante una edición anónima, es aún más sospechoso. Si quieres pensar en un encabezado mejor, siéntete libre de hacerlo, pero no olvides explicar por qué estás haciendo los cambios para evitar despertar sospechas de vandalismo. -- Walter Görlitz ( discusión ) 20:10 9 ago 2010 (UTC) [ responder ]

El título de esta sección era tan chocante que tuve que detenerme y ver si alguien había planteado el tema. Me alegra ver que alguien lo haya hecho. El primer autor de arriba tiene toda la razón. El segundo... CMMI y cascada en realidad no sugieren cosas que sean en lo más mínimo similares. Este título parece haber sido escrito por alguien que no tiene la más mínima idea sobre CMMI. 65.201.123.212 ( discusión ) 17:16, 6 de mayo de 2013 (UTC) [ responder ]

Estoy de acuerdo con 65.201.123.212 y Walter Görlitz , CMMI es un modelo completamente diferente y lo que sería mejor referenciar aquí es TMMI y cómo se relaciona con el SDLC general. Esta sección debería debatir sobre Waterfall o Agile Sandelk ( discusión ) 11:00, 17 de diciembre de 2013 (UTC) [ responder ]

Pruebas manuales vs. pruebas automatizadas

No soy un experto en la materia, por lo que me cuesta entender este concepto. ¿Por qué las pruebas automatizadas son mucho más caras? Una vez que tienes tu arquitectura de automatización en marcha, no veo costes adicionales... si estás realizando actividades de prueba como algo único, puedo ver que es caro, pero en un entorno en el que se realizan pruebas constantes, imagino que vale la pena la inversión. Cronax (discusión) 12:21 28 sep 2010 (UTC) [ responder ]

Es más caro porque 1) las herramientas rara vez son gratuitas, 2) los especialistas de las herramientas son más costosos de contratar y mantener que los probadores manuales, 3) cuando una prueba falla, tiene que ser reparada, lo que a menudo requiere una determinación de lo que la prueba original intentaba verificar, y 4) las pruebas fallan con frecuencia. Las pruebas unitarias son mucho menos costosas, de hecho, las pruebas unitarias automatizadas y reutilizables son generalmente menos costosas que contratar probadores manuales para encontrar errores en el futuro. Sin embargo, "automatización" es generalmente el término utilizado para describir las pruebas funcionales automatizadas de la GUI, y es bastante a menudo más caro. Con esto en mente, también hay que añadir que las personas que venden las herramientas, en particular las herramientas comerciales, lo hacen vendiendo las funciones de grabación y reproducción de la herramienta, que funcionan bien durante un tiempo, pero son bastante frágiles a cambios menores. No dude en leer Test Automation Snake Oil (por James Bach) y Automation Myths (por MN Alam) para obtener más información y mayores detalles sobre estos puntos. -- Walter Görlitz ( discusión ) 14:33, 28 de septiembre de 2010 (UTC) [ respuesta ]

En realidad, discrepo un poco con Walter Görlitz en este punto. La automatización puede resultar más barata, pero tiene un retorno de la inversión muy alto y requiere un gran gasto inicial para pagar las herramientas correspondientes, los ingenieros que escriban los scripts y los desafíos adicionales que se enfrentarán, pero si se hace bien, después de 2 o 3 años la inversión se amortiza con creces, especialmente si se considera el tiempo que se ahorra con los esfuerzos de automatización. Este artículo debe analizar la automatización de manera más objetiva y destacar tanto los pros como los contras de manera más efectiva. Sandelk ( discusión ) 11:09, 17 de diciembre de 2013 (UTC) [ responder ]

No estás en desacuerdo conmigo, sino con dos profesionales que dicen que la automatización no puede encontrar nuevos errores y, por lo tanto, es un desperdicio de dinero. No dudes en leer esos dos artículos. Walter Görlitz ( discusión ) 11:40 17 dic 2013 (UTC) [ responder ]

Controversia: Equipo de prueba

¿Debería haber un nuevo punto de controversia: un equipo de pruebas independiente frente a un equipo de análisis empresarial que lleve a cabo las pruebas ? Estoy buscando información sobre esto y, dependiendo de los comentarios sobre este tema, es posible que se añada un nuevo punto de controversia. —Comentario anterior sin firmar añadido por Culudamar (discusión • contribuciones ) 12:21, 20 de octubre de 2010 (UTC) [ responder ]

Es la primera vez que oigo hablar de esto como una posible controversia o incluso como un tema de discusión. El artículo no es un lugar para hablar. Hay muchos foros en los que se podría discutir, pero si no puedes encontrar ninguna fuente de WP:V fuera de Wikipedia, este tampoco es el lugar al que acudir para obtener información al respecto. Cualquier información que tú u otros hayan añadido no duraría mucho sin una fuente de WP:V . -- Walter Görlitz ( discusión ) 13:59, 20 de octubre de 2010 (UTC) [ responder ]

Pruebas vs. Garantía de calidad

En Yahoo!, una importante empresa de software con unos 15.000 empleados, los términos "Control de calidad" e "Ingeniería de calidad" se utilizan principalmente para hacer referencia a lo que en esta página se denomina Pruebas de software. Todas las pruebas, excepto las Pruebas unitarias, recaen en un equipo de Control de calidad, y los miembros de esos equipos tienen el título de Ingeniero de calidad como parte de sus puestos de trabajo. Esto me lleva a preguntarme: ¿la distinción que se hace aquí refleja la práctica de la industria? Puede ser que Yahoo! sea una excepción, o puede ser que el uso de la terminología haya cambiado. No sé lo suficiente sobre el tema como para decirlo, pero quería plantear la pregunta.

CopaceticOpus ( discusión ) 04:25 1 feb 2011 (UTC) [ responder ]

No es solo Yahoo! el que utiliza el término "calidad" en relación con lo que es en realidad un rol de "prueba". Hay mucha especulación, pero en resumen, cuando las empresas tienen grupos de calidad y de prueba diferenciados, los roles del grupo de prueba coinciden con el rol de los grupos de calidad en las empresas que no tienen ambos. -- Walter Görlitz ( discusión ) 05:07 1 febrero 2011 (UTC) [ responder ]
En mi opinión, el control de calidad se ocupa del proceso utilizado para desarrollar el software, mientras que el control de calidad se utiliza para medir la calidad del software. Es decir, el control de calidad es una función de auditoría que se encarga de garantizar que el análisis, el diseño, el desarrollo y las pruebas cumplan con el proceso establecido que garantiza la calidad del software. Las pruebas no son una función del control de calidad, sino del control de calidad. La "ingeniería de calidad" sería el proceso utilizado para desarrollar software con la vista puesta en la verificación y validación al 100%. Sería un proceso general. El PMBOK podría llamarlo "gestión de calidad". El control de calidad garantiza que se empleen técnicas de QE(QM) para garantizar el control de calidad. WikiWilliamP ( discusión ) 20:33, 1 de febrero de 2011 (UTC) [ responder ]


Definición de tonterías

La definición no tiene ningún sentido: "La prueba de software es una investigación realizada para proporcionar a las partes interesadas información sobre la calidad del producto o servicio bajo prueba".

Bluh. No se puede ser más impreciso. ¿Por qué no decir "La prueba de software es una actividad con la que mucha gente gana dinero fácilmente sin siquiera entender los principios básicos de la razón, reuniéndose y gritando "¡Sí, nosotros también tenemos una profesión!"?

La "industria de pruebas de software" y el ISTQB son una religión que absorbe cualquier pensamiento decente. —Comentario anterior sin firmar añadido por 115.189.199.174 (discusión) 23:10, 22 de abril de 2011 (UTC) [ responder ]

La definición existente cumple con los requisitos de varias visiones en pugna sobre lo que es la prueba de software. ISTQB representa una de las formas de prueba de software, por lo que su definición, sin tener en cuenta el pesimismo, no funciona para los demás grupos. -- Walter Görlitz ( discusión ) 00:57 23 abr 2011 (UTC) [ responder ]

Gracias, Walter.

Afirmo que no, porque no es una definición. Una definición debe distinguir el objeto definido del resto del universo, de lo contrario no es una definición. Demostraré este defecto reemplazando términos de la "definición" sin cambiar la semántica, y señalando en () para cada paso por qué es correcto:

"La prueba de software es una investigación realizada para proporcionar a las partes interesadas información sobre la calidad del producto o servicio bajo prueba".

<--> (las "partes interesadas" pueden ser cualquiera)

"La prueba de software es una investigación realizada para proporcionar información sobre la calidad del producto o servicio bajo prueba".

<--> ("calidad" no está definida y describe características arbitrarias)

"La prueba de software es una investigación realizada para proporcionar información sobre el producto o servicio bajo prueba".

<--> ("calidad" no está definida)

"La prueba de software es una investigación realizada para proporcionar información sobre el producto o servicio bajo prueba".

<--> ("producto o servicio" puede ser cualquier cosa)

"La prueba de software es una investigación realizada para proporcionar información sobre el objeto bajo prueba".

<--> ("prueba de software" es la actividad realizada)

"La prueba de software es una investigación realizada para proporcionar información sobre su objeto".

<--> ("investigación" es cualquier actividad que intenta revelar información sobre algo)

"La prueba de software es una investigación sobre su objeto".

<--> ("objeto" es cualquier cosa arbitraria)

"La prueba de software es una investigación sobre algo".

<--> ("algo" es una cosa indiferente)

"La prueba de software es una investigación".

<--> ("investigación" es cualquier actividad que intenta revelar información sobre algo, pero no hay nada especificado)

"La prueba de software es una investigación de todo".

<--> ("una investigación sobre todo" se centra únicamente en lo esotérico y lo exotérico)

"Las pruebas de software son una religión".

<--> ("religión" es irrelevante para la calidad del software, lo único que es relevante son las "pruebas de software")

"Las pruebas de software son irrelevantes".

<--> ("irrelevante" significa que no tiene relación con otras cosas)

"¡La prueba de software es!"

<--> (todo es)

"¡!"

Entonces: no hay ninguna definición. El artículo existente debería reemplazarse por un "!".


Un pesimista es alguien que dice la verdad demasiado pronto. —Comentario anterior sin firmar añadido por 115.189.239.224 (discusión) 09:15 3 may 2011 (UTC) [ responder ]

¿Es necesario que comencemos a señalar tu lógica errónea en ese caso? – WikiWilliamP ( discusión ) 15:54 3 may 2011 (UTC) [ responder ]

Gracias, WikiWilliamP. Me encantaría que lo intentaras. —Comentario anterior sin firmar añadido por 115.189.38.100 (discusión) 21:03, 3 de mayo de 2011 (UTC) [ responder ]

Cambias la definición de los términos varias veces. Eso es un error lógico bastante importante. -- Walter Görlitz ( discusión ) 21:20 3 may 2011 (UTC) [ responder ]
Un ejemplo de esto se puede ver en lo siguiente:
Ningún gato tiene ocho colas.
Un gato tiene una cola más que ningún gato.
Por lo tanto, un gato tiene una cola más que ningún gato, que tiene ocho colas, y por lo tanto tiene nueve colas.
Esto se conoce como la "falacia de la equivocación". La "ecuación" que mencionas arriba sufre de esta falacia en particular en un sentido extremo. -- Walter Görlitz ( discusión ) 21:28 3 may 2011 (UTC) [ responder ]
Y luego están los errores simples. Por ejemplo, "los interesados ​​pueden ser cualquiera", lo cual es sólo parcialmente cierto. Mozart no puede ser un interesado porque está muerto. De manera similar, hay alrededor de 6 mil millones de personas en el mundo que no pueden, o más importante aún, no quieren, ser interesados. Por lo tanto, los interesados ​​son aquellas personas que tienen un interés personal en el producto. Por lo tanto, no se los puede simplemente eliminar de la definición. Nunca. La información no se crea por el mero hecho de tener información, se crea para informar a un grupo específico de personas que no se pueden eliminar de la definición. -- Walter Görlitz ( discusión ) 21:32, 3 de mayo de 2011 (UTC) [ responder ]
"Las partes interesadas son aquellas personas que tienen un interés personal en el producto". Incluya esta definición en el artículo. La palabra "parte interesada" es jerga y necesita una explicación. Tim flatus ( discusión ) 07:52 27 oct 2012 (UTC) [ responder ]

"Las pruebas nunca pueden identificar completamente todos los defectos del software"

El artículo dice: "Las pruebas nunca pueden identificar por completo todos los defectos del software". Esto sería realmente malo si fuera cierto. Consideremos programas simples que se pueden verificar por completo para todas las entradas. En estos casos, el proceso de prueba puede asegurar que el algoritmo funciona como se espera a menos que el sistema operativo o el hardware fallen, o que los datos se corrompan por otras partes del software. Todas estas condiciones quedan fuera del alcance de la prueba de un solo algoritmo o conjunto de algoritmos. Sin embargo, por lo general el software es demasiado complejo para permitir una verificación completa o una prueba de corrección. Aun así, se pueden encontrar muchos errores mediante pruebas. Se podría decir que un error que no se puede encontrar es uno que no existe, si se dispone de tiempo suficiente para realizar pruebas (que puede ser mucho tiempo...). Si bien nunca se puede estar seguro de que se hayan encontrado todos los errores en un algoritmo mediante pruebas, a menos que se verifiquen todas las combinaciones de entrada/salida, es posible que se hayan encontrado todos los errores en el software. Por lo tanto, se requiere una redacción mucho más cautelosa aquí. Yo propondría decir: "Las pruebas aleatorias no pueden garantizar que se hayan encontrado todos los defectos del software". — Comentario anterior sin firmar añadido por ScaledLizard ( discusióncontribs ) 17:34 20 jun 2011 (UTC) [ responder ]

Es cierto y no está nada mal. No es necesario ningún cambio. Si insistes, puedo encontrar referencias que respalden esta opinión, pero no todos los defectos se pueden encontrar ni siquiera en los programas más "simples" debido a la interacción con compiladores, sistemas operativos y otros elementos. -- Walter Görlitz ( discusión ) 19:25 20 jun 2011 (UTC) [ responder ]
Agregué una referencia en ese sentido; hay muchas más. Lamentablemente, es muy cierto. AliveFreeHappy ( discusión ) 00:05, 28 de junio de 2011 (UTC) [ responder ]

De eso se trata la "explosión combinatoria". 78.141.139.10 (discusión) 17:17 22 mar 2013 (UTC) [ responder ]

"De eso se trata la "explosión combinatoria". Sí. Y ese es el punto. Es extraño que lo hayas hecho. Una explosión combinatoria es un punto de inflexión hacia otro estado, no un absoluto. El estado anterior era, por supuesto, estable... "depurable", si se quiere. Tengo curiosidad por saber cuándo la raza humana perdió la capacidad de encontrar todos los fallos en una serie lineal de valores booleanos. Supongo que Walter lo sabe. jajaja... Si alguna vez un candidato me dijera que no puede escribir -y garantizar que no habrá errores- un "Hola mundo" para un Atari 400, la entrevista habría terminado: sé que no estoy hablando con un programador. Mad Bunny ( discusión ) 16:27 28 feb 2014 (UTC) [ responder ]

Su disputa parece deberse a una simple ambigüedad. "Las pruebas nunca pueden identificar por completo todos los defectos del software" puede interpretarse como

o

o algo intermedio, por ejemplo

Creo que la mayoría de la gente consideraría que la primera afirmación es falsa y la segunda, verdadera. La tercera afirmación parece la más cercana a lo que se pretende y creo que es difícil de refutar. Rp ( discusión ) 17:41 28 feb 2014 (UTC) [ responder ]

Eso es lo que decía mi revisión (posteriormente revertida por alguien que tiene en muy alta estima su ignorancia). El problema fundamental aquí es la noción de que un producto estropeado por un tercero se debe a un defecto creado por el productor del software original. "Todo es culpa tuya" es insostenible. Mad Bunny ( discusión ) 00:25 31 mar 2014 (UTC) [ responder ]

En presencia de hipótesis de prueba específicas, existen conjuntos de pruebas finitos de modo que, si la implementación bajo prueba (IUT) las supera todas, entonces es necesariamente correcta con respecto a la especificación considerada. Por ejemplo, es bien sabido que, si asumimos que el comportamiento de la IUT puede ser denotado por una máquina de estado finito determinista con no más de n estados, entonces el conjunto de pruebas (finito) que consiste en todas las secuencias de 2n+1 entradas consecutivas está completo (es decir, es sólido y exhaustivo). Es decir, si la IUT las supera todas, entonces sabemos con certeza que es correcta (consulte, por ejemplo, "Principios y métodos de prueba de máquinas de estado finito" de Lee y Yannakakis). Además, se ha demostrado la existencia de conjuntos de pruebas completos finitos para muchos otros conjuntos (muy diferentes) de hipótesis asumidas; consulte la jerarquía de dificultad de prueba en este artículo para obtener más detalles. Por lo tanto, la frase "Las pruebas nunca pueden identificar por completo todos los defectos del software" es falsa y debería reemplazarse por algo como "En ausencia de hipótesis de prueba adecuadas, las pruebas nunca pueden identificar por completo todos los defectos del software". Para explicar un poco esta adición y evitar controversias, tal vez se debería incluir un enlace a la sección de jerarquía de dificultad de las pruebas en este artículo justo después de la frase, de modo que podría ser algo como: "En ausencia de hipótesis de prueba adecuadas, las pruebas nunca pueden identificar por completo todos los defectos del software (aunque pueden existir conjuntos de pruebas completos bajo algunas hipótesis de prueba, consulte la jerarquía de dificultad de las pruebas a continuación)". Si nadie se opone a este cambio en unos pocos días, lo haré. --EXPTIME-complete ( discusión ) 20:00, 25 de agosto de 2014 (UTC) [ responder ]

Como nadie ha discutido mi punto en el párrafo anterior, he cambiado el texto por: “Aunque las pruebas pueden determinar con precisión la corrección del software bajo el supuesto de algunas hipótesis específicas (ver la jerarquía de dificultad de las pruebas a continuación), por lo general las pruebas no pueden identificar por completo todos los defectos dentro del software”. Creo que esta es una oración de consenso. Por un lado, muestra que las pruebas no pueden garantizar la corrección del software si no se pueden asumir algunas hipótesis específicas (un caso típico de hecho). Por otro lado, muestra que algunas hipótesis permiten la completitud en las pruebas. Tenga en cuenta que el poder de las hipótesis en las pruebas es relevante y vale la pena mencionarlo aquí porque, en cualquier campo, solo se puede obtener nuevo conocimiento si se asumen algunas hipótesis: los matemáticos necesitan asumir axiomas, los físicos necesitan asumir que las observaciones son correctas y que las “reglas universales” no cambiarán de repente en unos pocos minutos, etc. Las pruebas de software no son una excepción. Además, incluso cuando las pruebas no pueden garantizar la corrección del sistema (el caso típico), también se asumen implícita o explícitamente muchas hipótesis. --EXPTIME-complete ( discusión ) 8:56 28 ago 2014 (UTC)

¿Qué hay que objetar? Sin embargo, he eliminado las palabras WP:WEASEL porque ningún software es lo suficientemente simple como para que se lo considere apto. Walter Görlitz ( discusión ) 13:55 28 ago 2014 (UTC) [ responder ]
(“Argumentar en contra” debería ser “refutar”, lo siento). En realidad, algunos programas reales califican. Permítanme volver a mi ejemplo anterior sobre las máquinas de estados finitos. Este modelo y sus variantes son utilizados por desarrolladores de software de servicios web, protocolos de comunicación o interfaces de usuario. Normalmente, el desarrollador diseña un modelo de estado gráfico, y luego este modelo es traducido automáticamente por una herramienta en código ejecutable en algún lenguaje (por ejemplo, las herramientas de casos transforman diagramas de estado UML en código; los generadores de servicios web producen código WS-BPEL o WS-CDL a partir de modelos de estado gráficos; etc.). Dado algún programa que se generó de esta manera, probarlo en una forma de caja negra hasta que los defectos puedan descartarse por completo es factible si el modelo de estado al que este código es equivalente es determinista, conocemos un límite superior de su número de estados y este número es lo suficientemente bajo. Los programas que son equivalentes a una máquina de estados finitos desconocida con sólo 10 estados pueden no parecer tan complejos, pero ocurren a menudo en la práctica, también son propensos a errores (las interacciones con ellos pueden ser arbitrariamente largas), y probar un programa de caja negra como este hasta descartar todos los defectos es completamente asequible (y, si se utilizan métodos sofisticados, para mucho más de 10 estados). Podrías pensar que las transformaciones automáticas realizadas por las herramientas que generan ese código podrían ser erróneas. Bueno, la corrección de muchas de estas transformaciones ha sido formalmente probada. Por lo tanto, si no confías en ellas, entonces cualquier teorema mencionado en Wikipedia también debería serlo. Podría mostrar otros ejemplos similares que no involucren máquinas de estados finitos.
Por cierto, después de quitar la palabra “típico”, veo dos posibles interpretaciones de la primera oración. Si el lector considera que “las pruebas no pueden identificar todos los defectos dentro del software” significa “las pruebas no pueden identificar todos los defectos en todos los artefactos de software”, entonces está bien: en algunos casos (la mayoría de ellos), detectar todos los defectos es imposible. Sin embargo, si la oración significa “para todo el software, las pruebas no pueden identificar todos los defectos dentro de ese software”, entonces es falsa, como señalé en el párrafo anterior. Además, toda la oración a partir de “Aunque” sería contradictoria: “Aunque las pruebas pueden hacer X si Y, las pruebas no pueden hacer X”. (!!) ¿Crees que todos los lectores considerarán la primera interpretación (y la correcta), porque es la única que no es contradictoria? ¡No estoy seguro! Para eliminar la ambigüedad aquí, la parte de la oración que dice "las pruebas no pueden identificar todos los defectos dentro del software" podría reemplazarse por "en ausencia de hipótesis sólidas, las pruebas no pueden identificar todos los defectos dentro del software", o por "en prácticamente todos los casos prácticos, las pruebas no pueden identificar todos los defectos dentro del software". --EXPTIME-complete ( discusión ) 22:32 28 ago 2014 (UTC) [ responder ]
No tengo necesidad de refutar nada, pero podría argumentar en contra de tus sugerencias. Una refutación sería demostrar que algo es incorrecto o falso de alguna manera, pero no tengo que creer que un argumento es incorrecto o falso para argumentar en contra si creo que se necesita un enfoque diferente aunque los hechos sean correctos.
Hay demasiado peso en añadir "típico" y no se aplica ningún software "real". Véase la discusión de Kaner sobre esto y la de Bezier. Walter Görlitz ( discusión ) 03:56 29 ago 2014 (UTC) [ responder ]
Reconozco que la palabra "típicamente" no es lo suficientemente fuerte como para enfatizar que, en prácticamente todos los casos prácticos, las pruebas no pueden detectar todos los defectos, algo con lo que estoy de acuerdo. Por eso propuse dos enfoques alternativos en mi último comentario (ver las últimas líneas). De todos modos, si tampoco te gustan estas alternativas, creo que podría vivir con la oración en su estado actual (aunque no sea mi opción favorita): una posible interpretación es correcta, y la otra es "casi" correcta para mí. Supongo que, si otros lectores ven la contradicción que noté y no soy solo yo, eventualmente vendrán aquí y lo dirán. --EXPTIME-complete ( discusión ) 08:49 29 ago 2014 (UTC) [ responder ]

Grabación y elaboración de informes de pruebas

No se menciona cómo se deben registrar las pruebas en cada categoría. Serían útiles algunas pautas generalmente aceptadas, como evaluador, fecha y hora, título, detalles, acción, resolución, etc. Depende de la categoría; por ejemplo, las pruebas de rendimiento y las pruebas de regresión son bastante diferentes.

También sería útil describir cómo resumir los resultados de manera continua para los desarrolladores y gerentes; dónde se encuentra el cronograma de pruebas, la proporción de problemas resueltos, los criterios de aceptación (no necesariamente un éxito del 100%). Todo esto es esencial para los gerentes. SombreGreenbul ( discusión ) 13:07, 20 de julio de 2011 (UTC) [ responder ]

Supone que existe un acuerdo sobre cómo deben registrarse las pruebas. Véase Caso de prueba en relación con los casos de prueba formales e informales. -- Walter Görlitz ( discusión ) 14:15 20 jul 2011 (UTC) [ responder ]

Pruebas ambientales

A menudo, el software es portable entre plataformas, por ejemplo, entre Windows ME, Vista y 7. La prueba del software en las plataformas pertinentes debería ser una subsección dentro de las pruebas no funcionales. SombreGreenbul ( discusión ) 14:13 20 jul 2011 (UTC) [ responder ]

Sin embargo, esto no se conoce como prueba de entorno, sino más comúnmente como prueba multiplataforma. -- Walter Görlitz ( discusión ) 14:16 20 jul 2011 (UTC) [ responder ]

Revertir cambios en las pruebas de caja gris

Moviendo esto desde mi página de discusión: Hola, no puedo entender tus ideas sobre las pruebas de caja gris. ¿Por qué estás revirtiendo mis ediciones? También estoy proporcionando referencias que pertenecen a mis ediciones relevantes. Solo compruébalo e infórmame dónde estoy equivocado. Pero, por favor, no deshagas mis ediciones. — Comentario anterior sin firmar agregado por Netra Nahar ( discusióncontribuciones ) 2011-09-12T17:52:40

Eliminé el contenido porque estaba mal escrito, mal investigado y no tenía ninguna base en la realidad. Entiendo que se trata de material para tu curso, pero te sugiero que consigas mejores fuentes, no solo lo que puedas encontrar con una búsqueda en Google. Yo confiaría más en material académico y libros publicados que en las páginas blancas de las empresas, ya que estas últimas suelen intentar vender algo y no están bien investigadas. -- Walter Görlitz ( discusión ) 18:04 12 sep 2011 (UTC) [ responder ]
Pero para que no sea mi opinión, aquí hay enlaces a las ediciones para mostrar lo que se agregó: [2] [3] [4] [5] y [6]. Agradecería que otros editores quisieran comentar si se eliminó injustamente o no. También expliqué cuáles fueron los problemas, en detalle, en la página de discusión de Netra Nahar. Preguntar por qué se eliminaron es algo superfluo. -- Walter Görlitz ( discusión ) 18:17 12 sep 2011 (UTC) [ responder ]
Walter, tiendo a estar de acuerdo contigo. Estoy intentando ver hacia dónde se dirige Netra, pero los conceptos no están bien respaldados por la comunidad de pruebas. Netra, yo diría que lo que llamas "caja gris" es simplemente una reformulación de "caja blanca", ya que afirmas que el evaluador tiene conocimiento de los aspectos internos. WikiWilliamP ( discusión ) 20:06 12 sep 2011 (UTC) [ responder ]
Eso es lo que es la caja gris, pero conocimiento de los aspectos internos a nivel de algoritmo o lógica, no en términos de acceso al código fuente. El artículo lo describe bien. -- Walter Görlitz ( discusión ) 20:38 12 septiembre 2011 (UTC) [ responder ]
Algo similar ocurrió con la minería de datos . Tuve que revertir sus modificaciones porque eran muy redundantes, estaban mal investigadas (por ejemplo, mezclaban IA, minería de datos y aprendizaje automático) y no tenían el formato wiki adecuado. Intenté dejar un comentario educado explicando mi razonamiento en User talk:Netra Nahar#Edits on Data Mining . Tengo la fuerte impresión de que estamos viendo aquí una tarea de curso: Wikipedia:India_Education_Program/Courses/Fall_2011/Software_Testing_and_Quality_Assurance ... -- Chire ( discusión ) 19:25, 14 de septiembre de 2011 (UTC) [ responder ]

Niveles de pruebas de software: pruebas beta

"A veces, las versiones beta se ponen a disposición del público para aumentar el campo de comentarios a un número máximo de futuros usuarios. [cita requerida]" ¿Podría ampliarse esto? Esta es ahora una práctica bastante común para los sitios web y, por lo general, cuanto más grande sea el sitio, más larga será la duración de la prueba beta. ¡Google Mail estuvo en versión beta durante 5 años! Para las citas, ¿qué tal http://www.slate.com/articles/news_and_politics/recycled/2009/07/why_did_it_take_google_so_long_to_take_gmail_out_of_beta.html o incluso un artículo mucho más antiguo: http://www.zdnet.com/news/a-long-winding-road-out-of-beta/141230 — Comentario anterior sin firmar agregado por 86.19.211.206 (discusión) 15:19, 7 de octubre de 2011 (UTC) [ responder ]

Pruebas manuales vs. pruebas humanas

¿Qué opinas sobre el uso del término "pruebas humanas" o "pruebas realizadas por humanos" en lugar de pruebas manuales? ¿Tiene sentido? Esto en contraste con las pruebas realizadas por máquinas, las pruebas realizadas por robots o las pruebas automatizadas.

Saludos. — Comentario anterior sin firmar añadido por Anon5791 ( discusióncontribs ) 22:21 14 oct 2011 (UTC) [ responder ]

Es una buena idea, pero no está respaldada por la literatura. La distinción es entre pruebas manuales y automatizadas. Si pudieras encontrar fuentes que respalden ese tipo de cambio, no dudes en agregarlas. -- Walter Görlitz ( discusión ) 22:30, 14 de octubre de 2011 (UTC) [ responder ]

Sección de historia

Después de que Dave Gelperin y William C. Hetzel clasificaron en 1988 las fases y objetivos de las pruebas de software en las siguientes etapas, se incluye una lista que se extiende más allá de 1988. Es necesaria una mayor explicación. Jeblad ( discusión ) 20:28 27 dic 2011 (UTC) [ responder ]

Pruebas basadas en riesgos

Parece que las pruebas basadas en riesgos se han escrito sin tener en cuenta que probablemente sea mejor incluir una breve frase en este artículo, si fuentes independientes y fiables demuestran que se merece tal peso. En otras palabras, el artículo parece ser un neologismo , WP:POVFORK , y un poco de propaganda . ¿Puede alguien encontrar fuentes que justifiquen una breve mención en este artículo, o tal vez fuentes suficientes para mantener las pruebas basadas en riesgos como un artículo en sí mismo? -- Ronz ( discusión ) 03:15, 31 de enero de 2012 (UTC) [ responder ]

Hay suficiente material allí. Hay muchos otros artículos que son más breves o tienen menos referencias (algunos sin referencias) y su elección del objetivo parece fuera de lugar. -- Walter Görlitz ( discusión ) 03:58 31 enero 2012 (UTC) [ responder ]
WP:OSE , WP:FOC . -- Ronz ( discusión ) 23:00 31 enero 2012 (UTC) [ responder ]
El tema que quieres fusionar es importante y nadie se toma tus acciones como algo personal, simplemente no estoy de acuerdo con que ese artículo se fusione con este. Tu afirmación de que el otro artículo necesita "fuentes independientes y confiables" es errónea, ya que las tiene. Por lo tanto, la solicitud de fusionarlo aquí es prematura y fuera de lugar. -- Walter Görlitz ( discusión ) 23:21 31 enero 2012 (UTC) [ responder ]
No es un neologismo, ya que está bien representado en las búsquedas de Google: http://www.google.com/search?q=%Risk-based+testing": 112.000 resultados. Pruebas basadas en riesgos - Schaefer - Citado por 3, Pruebas heurísticas basadas en riesgos - Bach - Citado por 54, Pruebas basadas en riesgos::: Fundamentos del análisis de riesgos y... - Amland - Citado por 54. Por lo tanto, es un término común en el campo de las pruebas de software. -- Walter Görlitz ( discusión ) 23:31 31 enero 2012 (UTC) [ responder ]
Las búsquedas de Google no son fuentes.
Cuando busqué anteriormente, lo que encontré parece ser un término de marketing para... bueno, es difícil saberlo. Parece que se trata de reinventar la rueda o simplemente copiar ideas de otros y ponerle un nuevo nombre con fines comerciales. Tal vez como término de marketing sea lo suficientemente notable. ¿Se pasó por alto intencionalmente para incluirlo en este artículo debido a su naturaleza promocional y de niño? -- Ronz ( discusión ) 02:23, 1 de febrero de 2012 (UTC) [ responder ]
Tampoco se ofrecieron como fuentes, sino más bien como prueba de su teoría de que se trata de un neologismo, lo cual no es así. Su afirmación de que se trata de un término de marketing es WP:OR y está llena de lagunas. No se pasó por alto intencionalmente. No es promocional. No es algo de segundo año. Hay cuatro grupos principales en las pruebas de software (consulte http://www.testingeducation.org/conference/wtst_pettichord_FSofST2.ppt o puede consultarlo con una suscripción de Power Pass en StickyMinds.com) y la escuela a la que pertenece este enfoque (la escuela impulsada por el contexto) es la más pequeña y tiene menos autores, pero esos autores (Kaner, Bach, Bach y algunos otros) son los más respetados. Tienen algunos otros enfoques que se utilizan en diferentes situaciones. Se analizará más a fondo este tema en la sección Controversia y su artículo principal.
Los editores de este artículo pertenecen principalmente a los dos grupos más grandes (aquellos que se basan en lo que ellos llaman "mejores prácticas") y descartan este tipo de enfoques pragmáticos para las pruebas. No sólo no los reconocen ni a ellos ni a las otras actividades sensibles al contexto, sino que los descartan por ineficaces, razón por la cual no se escribe sobre ellos. -- Walter Görlitz ( discusión ) 02:38, 1 de febrero de 2012 (UTC) [ responder ]
Las teorías conspirativas no sustituyen a las fuentes. Sin embargo, arrojan luz sobre los problemas de conducta... -- Ronz ( discusión ) 18:50 1 febrero 2012 (UTC) [ responder ]
Fuentes. Por favor, comenten sobre el tema, no sobre los editores. -- Walter Görlitz ( discusión ) 20:31 1 febrero 2012 (UTC) [ responder ]
"Por favor, comenten sobre el tema, no sobre los editores". Con gusto refactorizaré cualquiera de mis comentarios según las políticas y pautas pertinentes. Por supuesto, ese no parece ser el problema aquí.
Así que hemos establecido que las pruebas basadas en riesgos son una bifurcación del punto de vista para sortear las opiniones de los editores aquí. Es bueno saberlo. -- Ronz ( discusión ) 18:23 2 feb 2012 (UTC) [ responder ]
Has afirmado que las pruebas basadas en riesgos son una bifurcación del punto de vista y no has respaldado tu argumento. Es bueno saberlo. -- Walter Görlitz ( discusión ) 19:29 2 febrero 2012 (UTC) [ responder ]
Representar erróneamente a otros editores es perjudicial. Por favor, dejen de hacerlo.
El caso se presentó a las 02:38, 1 de febrero de 2012. Si esta información es cierta, entonces se trata de una bifurcación del punto de vista. -- Ronz ( discusión ) 16:41, 3 de febrero de 2012 (UTC) [ responder ]
El argumento no se basó en esa declaración simplemente en indicar que una rama vital de las pruebas de software utiliza el término. Otros no están de acuerdo con el uso del término porque no se ajusta a su método de prueba. Utilizan los términos de la escuela basada en el contexto de forma diferente. Utilizarían las pruebas ad hoc como algo negativo, mientras que la escuela basada en el contexto las utiliza como algo positivo. Piensan que las pruebas exploratorias no están organizadas en absoluto y que deberían abandonarse en favor del uso de pruebas formales y codificadas. Eso no significa que sean ideas marginales cuando un buen porcentaje de la comunidad de pruebas utiliza los métodos. Hay otros, pero como no estás al tanto de las controversias, he alertado a un grupo de discusión que en su mayoría son de la escuela basada en el contexto sobre tus intenciones en el artículo sobre pruebas basadas en riesgos. Si hay poca o ninguna respuesta al respecto en las próximas semanas, pasaré a la fusión del artículo. Si hay una respuesta, puedes decirles que lo lleven a un foro adecuado. Pero no creo que ese foro de discusión sea lo que tenías en mente. -- Walter Görlitz ( discusión ) 17:36, 3 de febrero de 2012 (UTC) [ respuesta ]

Prueba de aplicaciones multiproceso

Este artículo no parece tener nada de eso. Habría problemas de sincronización, peligros, carreras y uso de semáforos o mutexes que, además de estar diseñados más o menos correctamente, necesitan ser probados. Habría problemas de productor rápido y consumidor lento y cómo esto es manejado por el sistema o por la aplicación. ¿Envío de punteros a datos compartidos, se hace y funciona? Habría problemas de prioridad de procesos o mensajes y manejo de inversión de prioridad. Y estos probablemente serían solo algunos de los factores que necesitarían ser probados. ¿Debería haber un capítulo separado sobre esto en el artículo? — Comentario anterior sin firmar agregado por Aclassifier ( discusióncontribuciones ) 12:07, 26 de marzo de 2012 (UTC) [ responder ]

Está cubierto con condiciones de carrera. Si quieres encontrar específicamente una o más fuentes confiables que lo discutan, podemos agregarlo por separado. -- Walter Görlitz ( discusión ) 13:45 26 mar 2012 (UTC) [ responder ]
No encuentro las condiciones de carrera mencionadas. La lista que mencioné anteriormente tiene más que carreras. Además, el artículo tiene muchos capítulos sin referencias, por lo que escribir un capítulo sin referencias sobre pruebas con respecto a la multitarea probablemente debería estar bien para empezar. Øyvind Teig ( discusión ) 07:27, 27 de marzo de 2012 (UTC) [ responder ]
Luego se deben agregar las condiciones de carrera y siéntete libre de agregar comentarios sobre las pruebas en entornos multiproceso, pero debería ser compatible con WP:RS . -- Walter Görlitz ( discusión ) 13:50, 27 de marzo de 2012 (UTC) [ responder ]

Ética de las pruebas

¿Vale la pena mencionar esto? Puede que haya requisitos delineados en las normas (como IEC 61508 ), pero no se menciona la ética. ¿Cómo se trata o se prueba una situación que sería muy poco frecuente? ¿Cuáles serían las consecuencias? ¿Cuánto le contamos al usuario final qué se ha probado y qué no (en esta versión)? ¿Cómo respondemos a una pregunta? No sé mucho sobre esto, pero me parece relevante. ¿Debería haber un capítulo separado sobre esto? Øyvind Teig ( discusión ) 12:16 26 mar 2012 (UTC) [ responder ]

En realidad no estás hablando de ética aquí, pero nuevamente, si conoces fuentes confiables, podríamos agregar una sección. -- Walter Görlitz ( discusión ) 13:45 26 mar 2012 (UTC) [ responder ]
En mi opinión, todas las situaciones que he descrito anteriormente plantean cuestiones éticas. Por poner un ejemplo, ¿qué ocurre si se conoce un fallo muy poco frecuente en el sistema de frenos de un coche, pero no se puede reproducir en una prueba? Se ha visto "una vez". Pero tal vez las cuestiones éticas sean tan relevantes para las pruebas como para "todo lo demás", y entonces sea demasiado difícil hacer una observación aparte de ellas aquí. Øyvind Teig ( discusión ) 07:38, 27 de marzo de 2012 (UTC) [ responder ]
Entiendo los problemas. Kaner ha comentado que las pruebas de sistemas críticos para la vida impulsan la adopción de muchos métodos de prueba porque si hay una pérdida de vida y un abogado en algún lugar puede demostrar que un método de prueba poco conocido podría haber encontrado el problema que resultó en la pérdida de vida, la empresa será responsabilizada. Su situación es simple: se informa del defecto pero se marca como no reproducible. -- Walter Görlitz ( discusión ) 13:50, 27 de marzo de 2012 (UTC) [ responder ]

Pruebas no funcionales

Hay dos problemas con la discusión de pruebas no funcionales:

  1. La descripción de las pruebas no funcionales en la parte superior del archivo es fundamentalmente diferente de la que se da en la introducción a la sección de pruebas no funcionales en sí.
  2. Los elementos debajo de la sección de pruebas no funcionales no son subelementos adecuados de pruebas no funcionales tal como se define en la introducción de la sección.

-- AlanUS ( discusión ) 18:06 31 mar 2012 (UTC) [ responder ]

¿Tienes alguna sugerencia para solucionarlo? Todavía no la he visto. -- Walter Görlitz ( discusión ) 21:35 31 mar 2012 (UTC) [ responder ]

Toda la sección sobre "funcional" versus "no funcional" es errónea. La distinción a la que se alude es entre verificación ("¿Codificamos bien el producto?") y validación ("¿Codificamos correctamente el producto?").

El término funcional se refiere al código que es llamado por el código bajo prueba (CUT). El término integración se refiere al código que llama al CUT. Esa es probablemente la distinción más importante en todas las pruebas de software y ni siquiera forma parte del vocabulario de la mayoría de los programadores.

La razón por la que es tan importante es que la mayoría de las personas combinan pruebas funcionales y de integración . En realidad, eso es validación , aunque la mayoría de las personas llaman a todo ese conjunto pruebas de integración de forma perezosa. Es lo más difícil de depurar. Deberían realizar pruebas de integración sin pruebas funcionales falsificando el código que se llama mediante la CUT o utilizando una versión trivial de la CUT.

Mucha gente dice pruebas unitarias cuando se refiere a pruebas funcionales . Las pruebas unitarias adecuadas simulan el código llamado por la CUT de modo que solo se ejecuta la CUT.

-- Cdunn2001 (discusión) 17:58 7 jul 2013 (UTC) [ responder ]

Pruebas positivas y negativas

Los casos de prueba positivos y negativos se redireccionan aquí, pero ninguno se explica en el artículo. -- Beland ( discusión ) 18:16, 5 de octubre de 2012 (UTC)== [ responder ]

Prueba de estrés

Desde 2008 existe un artículo detallado sobre el software de pruebas de estrés, dedicado 100% al tema. Prueba de estrés (software) . La referencia aquí a ese artículo específico se ha revertido 2 veces al artículo muy general sobre pruebas de estrés . Ese es un artículo de amplio alcance que cubre hardware, software, finanzas (pruebas de estrés bancarias) y pronto puede cubrir pruebas de estrés médicas/humanas (cardíacas, de voz, de parto y alumbramiento, pruebas de estrés emocional, etc.). Parece no tener sentido que este artículo que está dedicado 100% al software no apunte directamente a Prueba de estrés (software) , ya que se sabe con certeza que el lector que lee aquí en detalle se centra en el software. Rick ( discusión ) 03:34, 25 de febrero de 2013 (UTC) [ responder ]

Desde 2008 se encuentra en pruebas de estrés (software) . Hace unas seis horas se trasladó al artículo general, que se creó en 2003. No tengo problemas en señalarlo al artículo específico de software una vez que se lo haya devuelto a su ubicación original. -- Walter Görlitz ( discusión ) 04:18 25 feb 2013 (UTC) [ responder ]


Lo anterior se refiere a revert1 y revert2. Donde en la página, Pruebas de software , el enlace:

Se ha revertido dos veces al modo más general:

Es necesario precisar qué se entiende por (it) en:

Desde 2008 , se encuentra en la sección de pruebas de estrés del software. Hace unas seis horas , se trasladó al artículo general, que se creó en 2003. No tengo problemas en señalarlo al artículo específico del software una vez que se lo haya devuelto a su ubicación original.

¿También es necesario precisar exactamente a qué se refieren estos () ?

Desde 2008 se encuentra en pruebas de estrés (software) . Hace unas seis horas se trasladó a (el artículo general) , que se creó en 2003. No tengo problemas en señalarlo (el artículo específico del software) una vez que se haya devuelto a su (ubicación original).
Lamento mi uso extensivo de pronombres. Stress testing (software), título de 2003, fue trasladado a Stress test (software), lo que va en contra de las convenciones de nombres en estos proyectos. Stress testing (software), título de 2008, fue creado en ese lugar y no era realmente parte de esta discusión hasta que usted señaló el enlace aquí a una elección admitidamente mala de un artículo cuyo traslado está en disputa. Cuando se resuelva esa disputa, entonces podremos decidir dónde debe ir el enlace aquí. Hasta entonces, no se moleste. -- Walter Görlitz ( discusión ) 07:22 25 feb 2013 (UTC) [ responder ]

Weekend Testers América editará sobre este tema 7 de septiembre de 2013

Este artículo y otros artículos relacionados pueden estar sujetos a edición por parte de editores inexpertos como parte de un esfuerzo por mejorar la calidad de la información sobre el tema de las pruebas de software: http://weekendtesting.com/archives/3095

Por favor sea amable.

Cmcmahon ( discusión ) 22:45 5 sep 2013 (UTC) (Soy miembro del personal de WMF pero opero aquí no en mi capacidad oficial) [ responder ]

El problema actual con la mayoría de los artículos es la falta de fuentes. Si las ediciones vienen con fuentes, no habrá problemas. Si vienen sin fuentes, o si vienen con mala gramática, habrá reversiones. Walter Görlitz ( discusión ) 23:10 5 sep 2013 (UTC) [ responder ]

¿El monitoreo es parte de las pruebas de software?

Creo que la monitorización (por ejemplo con nagios) es parte de las pruebas de software. El artículo actual de Wikipedia no trata este tema. Hay una sección sobre pruebas alfa y luego sobre pruebas beta. Hace mucho tiempo que los programas se escribían, luego se grababan en un CD/DVD y luego se vendían. Hoy en día, la mayoría del software está basado en servidores y los programadores pueden ocuparse del software durante su ejecución en vivo. Como "DevOps": observar los procesos es parte de las pruebas de software. No soy un hablante nativo, por eso no quieres escribir en el artículo real de la wiki. Pero tal vez alguien esté de acuerdo conmigo y pueda agregar algo al artículo real. — Comentario anterior sin firmar agregado por 89.246.192.60 (discusión) 19:47, 8 de noviembre de 2013 (UTC) [ responder ]

No tengo conocimiento de que la supervisión sea una función de prueba. Normalmente es una función del equipo de TI. Walter Görlitz ( discusión ) 19:56 8 nov 2013 (UTC) [ responder ]
¿Puedes respaldar la afirmación de que el monitoreo sería parte de las pruebas de alguna manera? Me resulta difícil creerlo. Slsh ( discusión ) 15:28 30 ene 2014 (UTC) [ responder ]

Creo que la pregunta "¿La monitorización es parte de las pruebas de software?" no tiene una respuesta definitiva, pero espero que todos estén de acuerdo: está **relacionada** con las pruebas de software. Por eso creo que se deberían incluir algunas frases sobre la monitorización (comprobaciones de Nagios) en la página. Hasta ahora soy demasiado nuevo en Wikipedia y no sé cómo empezar, pero si alguien empieza, me encantaría dar su opinión. Guettli ( discusión ) 07:25 6 nov 2015 (UTC) [ responder ]

En mi contexto, el monitoreo es parte de las pruebas. La referencia canónica (pero quizás no la mejor) es esta charla de hace una década de Ed Keyes, donde dice "Un monitoreo suficientemente avanzado es indistinguible de las pruebas" (enlace de video) Angryweasel ( discusión ) 23:18, 17 de noviembre de 2017 (UTC) [ responder ]

Uno de los artículos de Wikipedia peor escritos jamás escritos

Soy un autor de software con más de 40 años de experiencia en pruebas. Este artículo es demasiado extenso para lo que es esencialmente un proceso "simple". La mayoría de las personas entienden para qué se usa un cuchillo y reconocerían herramientas de corte de diferentes tipos desde la edad de piedra hasta la actualidad. Un "probador" de la edad de piedra realizaría la tarea de "probar" su producto de la misma manera que un carnicero moderno. ¿La herramienta de corte hace lo que se supone que debe hacer? Si no, ¿por qué no? ¿Cómo se puede solucionar? El artículo diferencia la depuración de las pruebas a pesar del hecho de que la prueba es la forma más obvia de identificar errores. Creo que debería haber una sección de historia que identifique claramente en qué etapa progresó cada avance en las técnicas de validación manual o automática de programas. El presente artículo nos haría creer que hubo numerosas subdivisiones "arcaicas" de las pruebas de software desde el principio. Esto no es cierto. Ha habido cambios de paradigma en el arte de las pruebas y la depuración que se reflejan en las herramientas comerciales que han evolucionado para ayudar al progreso hasta el día de hoy. Hasta cierto punto, la gran cantidad de paradigmas de programación, lenguajes y plataformas de hardware ha obstaculizado el desarrollo de herramientas de prueba universales, pero el concepto de prueba asistida existe al menos desde los años 70 y se le ha restado importancia. Es un artículo verdaderamente terrible. — Comentario anterior sin firmar agregado por 81.154.101.27 (discusión) 09:44, 4 de enero de 2014 (UTC) [ responder ]

Creo que este artículo no es para nada exagerado, si se tiene en cuenta la cantidad de teoría, investigación, libros publicados y herramientas existentes para el proceso. ¿Consideras que todo eso también es exagerado? La depuración es diferente de las pruebas, aunque es un error común confundirlas. Las pruebas consisten en encontrar problemas, la depuración es una forma de diagnosticar un problema, encontrar la causa raíz de un problema que ya sabes que existe. Además, hay muchas pruebas diferentes realizadas por diferentes personas. Si el producto que se va a probar es importante, se deberían realizar pruebas de usabilidad, pruebas de rendimiento, pruebas del sistema y pruebas de aceptación dedicadas; no deberían realizarlas las mismas personas, sino personas que estén realmente capacitadas para su campo de pruebas. Slsh ( discusión ) 15:26, 30 de enero de 2014 (UTC) [ responder ]

Los buenos programadores son vagos. Esa es al menos mi opinión. Sí, hay una gran cantidad de teoría... pero ¿cuál es el objetivo de este artículo? ¿Hacer un trabajo académico teórico profundo o dar una buena visión general? Para mí, la visión general es más importante que los detalles. También me gustaría un artículo mucho más breve. Si algunas partes necesitan explicaciones más detalladas, entonces se debe crear una nueva página. Por ejemplo, "pruebas de seguridad". Supongo que solo el 0,0001% de todos los desarrolladores trabajan en un entorno que necesita pruebas de seguridad. Sí, es importante para algunas personas, pero solo para muy pocas. PD: Hablo de "pruebas de seguridad". "Preocupaciones de seguridad" es otra cosa. Esto es algo que todos los desarrolladores deben hacer a diario. Guettli ( discusión ) 07:33, 6 de noviembre de 2015 (UTC) [ responder ]

Las certificaciones no son tan controvertidas como afirma el artículo

El artículo afirma que "existen varios programas de certificación para respaldar las aspiraciones profesionales de los evaluadores de software y los especialistas en control de calidad. Ninguna certificación que se ofrece actualmente requiere que el solicitante demuestre su capacidad para evaluar software. Ninguna certificación se basa en un conjunto de conocimientos ampliamente aceptado", pero ¿cuál es la base real para afirmar eso? Sin duda, hay otros que no creen que esto sea cierto; véase, por ejemplo, ISTQB: "El esquema se basa en un conjunto de conocimientos (programas de estudio y glosario) y en reglas de examen que se aplican de manera uniforme en todo el mundo, y los exámenes y el material de apoyo están disponibles en muchos idiomas". Se agregó la cita necesaria-plantilla. Slsh ( discusión ) 15:34, 30 de enero de 2014 (UTC) [ responder ]

Eliminé las etiquetas de cita necesaria porque todo esto se analiza en la referencia de Kaner. La escuela sensible al contexto está en contra de cualquier certificación, a pesar de la existencia de documentos, los cuerpos de conocimiento no siempre están de acuerdo sobre términos y definiciones. Compare ISTQB con los cuerpos de conocimiento de CSTE o CSQA. Le sugiero que lea el documento de Kaner. Walter Görlitz ( discusión ) 15:51 30 ene 2014 (UTC) [ responder ]
Bueno, a) en primer lugar, Kaner es sólo una persona, aunque influyente. ¿Hay algo que respalde sus afirmaciones? Como mínimo, esta afirmación debería marcarse como controvertida, no como La Verdad, ya que hay muchas opiniones opuestas. O debería añadirse que "según Kaner" o "según la escuela sensible al contexto". No es la única opinión que hay. b) Hay dos referencias a documentos de Kaner en la sección de la que hablamos, éste, de 2001, y éste, de 2003. Eso ya tiene más de diez años. ISTQB se fundó en 2002 y, desde entonces, está activa con 47 miembros en 71 países ( fuente ). Para tales afirmaciones, se necesitaría una referencia más actualizada. c) He leído ambos documentos y en realidad no lo he visto afirmar las cosas que se afirman en este artículo. ¿Puedes señalar a qué exactamente te refieres? Slsh ( discusión ) 16:51 3 mar 2014 (UTC) [ responder ]
Hay al menos otros dos: Bach y Bolton. Probablemente una docena, todos ellos miembros de la escuela sensible al contexto, y todos ellos han publicado y son reconocidos. La cuestión no es si es controvertido o no, sino si se hace referencia a él. Walter Görlitz ( discusión ) 05:50 4 mar 2014 (UTC) [ responder ]
Entonces, la parte debería decir "según la escuela sensible al contexto", con referencias explícitas. Las opiniones de la escuela sensible al contexto incluso se enumeran en Software testing controversies , por lo que debería ser obvio agregar la nota que las opiniones son controvertidas y no todos están de acuerdo. Slsh ( discusión ) 11:44, 5 de marzo de 2014 (UTC) [ responder ]
Los utilizo como ejemplo. Hay otros que piensan lo mismo. Y no indicamos quién considera que las certificaciones no son controvertidas, así que ¿por qué deberíamos enumerar a quiénes sí las consideran así? Walter Görlitz ( discusión ) 17:19 5 mar 2014 (UTC) [ responder ]
Supongo que eres demasiado parcial en este asunto como para ver qué es lo que está mal en tu razonamiento. Tiene que haber una segunda opinión de alguien más que tenga una visión más neutral. Slsh ( discusión ) 09:02 10 mar 2014 (UTC) [ responder ]
Supongo que eres demasiado parcial en este tema como para ver qué es lo que está mal en tu razonamiento. Walter Görlitz ( discusión ) 14:44 10 mar 2014 (UTC) [ responder ]
Sólo quería dejar claro que hasta el propio Kaner parece estar en desacuerdo con tus afirmaciones sobre su trabajo, algo que no había notado hasta ahora. Pero supongo que eso tampoco te convencerá, ¿no? Slsh ( discusión ) 20:18 25 ago 2014 (UTC) [ responder ]

Prueba negativa

La prueba negativa es una forma de desambiguación. El significado del software se encuentra aquí, pero esta página no contiene la palabra "negativo". -- Dan Wylie-Sears 2 ( discusión ) 01:48, 11 de abril de 2014 (UTC) [ responder ]

Correcto. La página de DaB afirma que se trata de una "prueba diseñada para determinar la respuesta del sistema fuera de lo definido. Está diseñada para determinar si el sistema falla ante una entrada inesperada". Walter Görlitz ( discusión ) 02:07 11 abr 2014 (UTC) [ responder ]

diseño de pruebas combinatorias

El artículo necesita urgentemente una definición del término o un enlace a otro artículo en el que se defina. — Comentario anterior sin firmar añadido por 68.183.37.170 ( discusión ) 20:02, 21 de mayo de 2014 (UTC) [ responder ]

Lo hace, pero no utiliza el término de IBM "Diseño de prueba combinatoria", sino el término más común " prueba de todos los pares ", cuyo enlace se encuentra en la sección de pruebas de caja negra. Walter Görlitz ( discusión ) 20:46 21 may 2014 (UTC) [ responder ]

La sección "Prueba de caja gris" no define nada.

No es necesario tener acceso a registros o bases de datos para comprender un algoritmo o una estructura de datos interna y viceversa. Por lo tanto, no hay nada que realmente distinga las pruebas de caja gris de las de caja blanca o negra. — Comentario anterior sin firmar añadido por 68.183.37.170 ( discusión ) 20:02, 21 de mayo de 2014 (UTC) [ responder ]

Esto se debe a que nadie practica pruebas de "caja negra" verdaderas. La mayor parte de lo que pasa por "caja negra" es en realidad una prueba de "caja gris". La distinción se hace aquí. Walter Görlitz ( discusión ) 20:47 21 may 2014 (UTC) [ responder ]
No, no lo es. Ver más arriba. — Comentario anterior sin firmar añadido por 68.183.37.170 ( discusióncontribs ) 21:40, 21 may 2014 (UTC) [ responder ]
No creo que entiendas cuál es la definición de prueba de caja gris. Si la entiendes, por favor ofrece una en lugar de simplemente negar la que se usa en el artículo, que se basa en la definición de Testing Computer Software , segunda edición (1993). Walter Görlitz ( discusión ) 01:01 22 may 2014 (UTC) [ responder ]

Prueba de aceptación

¿Se trata de un nivel o de un tipo de prueba? Si la respuesta es "ambos", entonces las nociones de "nivel" y "tipo" se superponen y esas dos secciones deberían combinarse. — Comentario anterior sin firmar añadido por 68.183.37.170 ( discusión ) 20:02 21 may 2014 (UTC) [ responder ]

Lamento que no entiendas la ambigüedad del lenguaje. Hay dos tipos de pruebas que comúnmente se denominan pruebas de aceptación:
  1. Aceptación en los ciclos de prueba, que luego se basa en una prueba de humo, BVT o algo similar, y
  2. Prueba de aceptación del usuario, que es cuando el cliente que pagó el trabajo acepta el producto.
Así que son ambas cosas, y quizás puedas sugerir una forma de explicarlo mejor en el artículo. Walter Görlitz ( discusión ) 20:50 21 may 2014 (UTC) [ responder ]

Spam del proveedor de certificación

He eliminado la mayoría de las entradas en la sección de proveedores de certificación. Wikipedia es WP:NOTDIRECTORY y la sección se estaba llenando de spam con todas las entradas que carecían de artículos o fuentes secundarias. Si estas certificaciones de prueba son realmente proporcionadas por organizaciones notables, su inclusión debería estar respaldada por un artículo o una fuente WP:SECONDARY . Si no se pueden encontrar dichas fuentes, se vuelve imposible distinguir entre un servicio legítimo y una fábrica de certificación. De todas formas, Wikipedia no es una plataforma para publicidad, que es lo que esto significa. Creo que las pocas entradas restantes también deberían eliminarse, a menos que haya alguna objeción. Grayfell ( discusión ) 20:28, 6 de septiembre de 2014 (UTC) [ responder ]

Estudio del NIST

El estudio del NIST no es una fuente creíble para la estimación económica de los costos de los defectos de software para la economía. Presenta resultados extraños, como "en promedio, un error de software menor tiene un costo de cuatro millones de dólares" o "los errores menores pueden costar más que los mayores" (ambos de la Tabla 6-11). Tiene tamaños de muestra irrazonablemente bajos -menos de 15 desarrolladores de software- y, aunque la parte del estudio dedicada a los usuarios tenía 179 más 98 encuestados, eso representa una tasa de respuesta deplorable que habría dado como resultado que el estudio se descartara en la mayoría de las publicaciones académicas. Lo más importante es que no se basa en ninguna medición interna real, sino en una encuesta de 25 minutos en la que se pidió a las personas que adivinaran cuánto le estaban costando los errores a su empresa.

Más detalles aquí: https://plus.google.com/u/1/+LaurentBossavit/posts/8QLBPXA9miZ — Comentario anterior sin firmar agregado por LaurentBossavit (discusión • contribuciones ) 14:32, 13 de septiembre de 2014 (UTC) [ responder ]

Parece que tendría sentido trasladar la información del NIST y el comentario de Laurent Bossavit a la sección Controversia. ¿Qué opinas? Yorkyabroad ( discusión ) 13:36 9 dic 2017 (UTC) [ responder ]
Me parece bien. No sería difícil encontrar una cita que apoye la idea de que "se cree comúnmente que cuanto antes se detecta un defecto, más barato es arreglarlo", pero sería difícil encontrar datos sólidos que respalden esa creencia. Faught ( discusión ) 22:49 11 dic 2017 (UTC) [ responder ]
Estaba viendo los argumentos sobre no tener una sección separada para las controversias, pero la orientación que hay allí es sobre tener temas unilaterales, y todos los temas, incluido este, tratan ambos lados, así que sí, tiene sentido moverlo. Walter Görlitz ( discusión ) 07:33 13 dic 2017 (UTC) [ responder ]

Edición necesaria en la primera sección de esta página

Me he dado cuenta de que los primeros 3 o 4 párrafos de la primera sección de esta página se repiten. Si lo lees, verás a qué me refiero. Realmente se podría limpiar. Lo haría con gusto, pero no quiero lanzarme y ocuparme de ello sin mencionarlo aquí primero, y como no tengo idea de cuánto tiempo puede llevar este proceso, probablemente alguien más querrá hacerlo, al menos si a alguien le importa cuán inteligente debe parecer el artículo, considerando el tema. — Comentario anterior sin firmar agregado por 184.78.188.225 (discusión) 03:50, 14 de septiembre de 2014 (UTC) [ responder ]

Las mismas oraciones se utilizan para pruebas unitarias y pruebas de desarrollo.

He observado que dos secciones utilizan exactamente las mismas oraciones cuando analizan dos tipos diferentes de pruebas:


¿Alguien que entienda mejor este tema podría aclararlo? — Ma y ast ( discusión ) 22:12 23 nov 2014 (UTC) [ responder ]

Pruebas consecutivas

Creo que faltan pruebas consecutivas y deberían mencionarse en este artículo. -- Sae1962 ( discusión ) 14:59 16 jun 2015 (UTC) [ responder ]

Enlaces externos modificados

Hola compañeros wikipedistas,

Acabo de agregar enlaces de archivo a un enlace externo en Software testing . Tómese un momento para revisar mi edición. Si es necesario, agregue después del enlace para evitar que lo modifique. Alternativamente, puede agregar para mantenerme fuera de la página por completo. Hice los siguientes cambios:{{cbignore}}{{nobots|deny=InternetArchiveBot}}

Cuando haya terminado de revisar mis cambios, configure el parámetro marcado a continuación como verdadero para informar a los demás.

Este mensaje fue publicado antes de febrero de 2018. Después de febrero de 2018 , las secciones de la página de discusión "Enlaces externos modificados" ya no son generadas ni monitoreadas por InternetArchiveBot . No se requiere ninguna acción especial con respecto a estos avisos de la página de discusión, aparte de la verificación regular utilizando las instrucciones de la herramienta de archivo que se encuentran a continuación. Los editores tienen permiso para eliminar estas secciones de la página de discusión "Enlaces externos modificados" si desean despejar las páginas de discusión, pero consulten la RfC antes de realizar eliminaciones sistemáticas masivas. Este mensaje se actualiza dinámicamente a través de la plantilla (última actualización: 5 de junio de 2024) .{{source check}}

Saludos. — cyberbot II Habla con mi dueño :En línea 16:54, 27 de agosto de 2015 (UTC) [ responder ]

Revisiones recientes

Los cambios realizados por @ NoahSussman : fueron demasiados. La adición de fuentes fue buena, pero no todas cumplen con WP:RS . Elisabeth Hendrickson sí lo es, pero Kate Falanga no, y pasar de 73 referencias a 36 no es una mejora. Eliminar términos comunes como pruebas de caja negra y caja blanca es incomprensible. Es demasiado para revisarlo en una sola sesión. Walter Görlitz ( discusión ) 14:01, 15 de marzo de 2017 (UTC) [ responder ]

Walter Görlitz, por favor explique por qué esta reversión al por mayor no viola
WP:MASSR
WP:REVEXP
Generalizaciones como "no todos cumplen con WP:RS" no ayudan al autor a mejorar el artículo ya que no son útiles y específicas. Además, "Kate Falanga no cumple con WP:RS" no cita ninguna regla para WP:RS ... ¿Por qué el trabajo de Kate "no cumple con WP:RS"? — Comentario anterior sin firmar agregado por Cyetain ( discusióncontribs ) 15:20, 15 de marzo de 2017 (UTC)[ responder ]
Además, su comentario de que "la eliminación total de términos comunes es " simplemente ignorante ", así como las vagas insinuaciones sobre Kate, violan WP:NPA y debería considerar la eliminación de este lenguaje despectivo WP:RPA — Comentario anterior sin firmar agregado por Cyetain ( discusióncontribuciones ) 15:28, 15 de marzo de 2017 (UTC) [ responder ]
Pensé que me había explicado antes. Mi razonamiento es que ella no es una experta reconocida en el campo. La página es esencialmente un blog de la empresa. No dudes en ir a WP:RSN para ver si creen que es una buena fuente. Lamento si crees que es ignorante, pero ofreces aún menos motivos para incluirlo. Walter Görlitz ( discusión ) 16:49, 15 de marzo de 2017 (UTC) [ responder ]
También es muy amable de tu parte crear una cuenta solo para quejarte. Ver WP:SPA .
No me di cuenta de tu afirmación incorrecta de que hablar de Falanga es una violación de la NPA. Las páginas de discusión son donde discutimos las acciones de los editores y hacerlo de manera neutral no viola la NPA. Sin embargo, si estás sugiriendo que Falanga y el editor anterior son uno y el mismo, entonces tenemos un caso de WP:COI . Sin embargo, no estoy seguro de por qué Falanga seleccionaría el nombre de usuario "NoahSussman" para editar. Y como no hablé de NoahSussman sino que simplemente señalé que el trabajo de Falanga probablemente no sea un RS, no hubo violación de la NPA en ningún sentido. Walter Görlitz ( discusión ) 16:56, 15 de marzo de 2017 (UTC) [ responder ]
¿Qué razón tienes para creer que Kate no es una experta reconocida?
Has tergiversado lo que he dicho. No te he acusado de ser ignorante... Has acusado a @NoahSussman de ser ignorante.
Quizás quieras investigar sobre Noah antes de acusar a Kate de manipular a Noah... otra violación de la NPA.
Esta no es una cuenta con un único propósito. Nuevamente, absténgase de realizar ataques personales.
También has fallado COMPLETAMENTE en explicar por qué esta revisión no es una violación de: WP:MASSR y: WP:REVEXP — Comentario anterior sin firmar agregado por Cyetain ( discusióncontribuciones ) 17:58, 15 de marzo de 2017 (UTC) [ responder ]
Expliqué lo anterior, no los llamé calcetines, no pude entender la lógica y no siento la necesidad de explicar las dos cosas que afirmas que estoy violando porque no estoy violando ensayos. 19:06, 15 de marzo de 2017 (UTC)

Walter Görlitz Sería bueno que consideraras el trabajo de Noah Sussman como algo en curso y lo criticaras o lo actualizaras punto por punto si fuera necesario, en lugar de revertir estos cambios en su totalidad. Esta página ha sido un desastre durante años, y ahora que finalmente alguien competente la está actualizando, la comunidad de pruebas de software agradecería todo el apoyo que Wikipedia pueda brindar. Si hace una diferencia, fui el líder de control de calidad en WMF durante unos tres años, y puedo asegurar que nadie en esta conversación es un títere. Cmcmahon ( discusión ) 18:16 15 mar 2017 (UTC) [ responder ]

@ Cmcmahon : Lo estoy considerando, por eso inicié la discusión, pero eliminar la mitad de las referencias es problemático y eliminar la mitad del contenido no es útil. Walter Görlitz ( discusión ) 19:06, 15 de marzo de 2017 (UTC) [ responder ]

Como recordatorio, no ha justificado su reversión de las ediciones de Noah, simplemente ha declarado que las revisiones no fueron, en su opinión, "útiles". ¿Qué revisiones específicas no fueron útiles? ¿Por qué? Si la mitad del contenido se ha movido a otras páginas, ¿se ha eliminado? ¿O simplemente se ha editado? Si se ha movido la mitad del contenido, ¿no cabría esperar que también se eliminara la mitad de las referencias?

El lenguaje que utilizas aquí "Lo estoy considerando", "Es demasiado para revisarlo en una sola sesión" recuerda mucho a WP:OWNBEHAVIOR . Por favor, recuerda WP:OWNERSHIP. — Comentario anterior sin firmar añadido por Cyetain ( discusióncontribuciones ) 19:34, 15 de marzo de 2017 (UTC) [ responder ]

Admito que hice modificaciones masivas para ver qué pasaba. Me solidarizo con cualquiera que quiera que su trabajo se fragmente en lo más pequeño que sea práctico :) Reharé las modificaciones en pequeños fragmentos. SIN EMBARGO, la "eliminación total" es INEXACTA Y EQUIVOCADA, ya que MOVÍ el contenido en cuestión a una nueva página, que está vinculada desde la ubicación anterior del contenido. Tengo la intención de aplicar este cambio nuevamente. NO SE TRATA DE LA ELIMINACIÓN DE LA PRUEBA DE CAJA BLANCA Y NEGRA, simplemente estoy cumpliendo con la caja "demasiado grande" que *encontré en su lugar* en la página. Estoy tratando de seguir las instrucciones existentes para mejorar Wikipedia y hacer la página más pequeña extrayendo el contenido de la lista en una página de "lista de cosas". Por lo tanto, espero no recibir rechazo por ese cambio cuando lo vuelva a implementar en un futuro cercano. Gracias y espero continuar la discusión / sus pensamientos / sus comentarios adicionales NoahSussman ( discusión ) 10:38, 16 de marzo de 2017 (UTC) [ responder ]

"73 referencias frente a 36 referencias no es una mejora", pero sí lo es si la mitad de las referencias son a material de marketing, material desactualizado, mal escrito o material que es las tres cosas a la vez. Como es el caso aquí. Demasiados enlaces poco fiables o de marketing en esta página son un serio problema de credibilidad. Sin embargo, ahora cuestionaré una referencia a la vez en lugar de intentar eliminar más en bloque. No más eliminaciones en bloque. Pero las referencias en esta página son un fracaso y las TERMINARÉ. NoahSussman ( discusión ) 10:45 16 mar 2017 (UTC) [ responder ]

Gracias por discutir.
Abordemos {{ very long }} . Actualmente tiene 79.017 bytes, incluidas las referencias. La prosa tiene alrededor de 57.000 bytes o alrededor de 8600 palabras. Wikipedia:El tamaño del artículo no sugiere nada sobre la eliminación total de secciones, incluso si la plantilla lo hace. Habla de hacer una "prosa legible". Dado que la mayor parte de la lectura probablemente se realiza haciendo clic en una sección, leyendo el resumen o haciendo clic en un artículo. No tengo ninguna métrica que respalde eso, pero ha sido mi experiencia con artículos de resumen como este, tanto la mía propia como la de amigos y compañeros de trabajo.
Las referencias pueden estar desactualizadas, pero en esos casos no las eliminamos. Ese término puede significar dos cosas en términos de Wikipedia. La primera es que el enlace ya no funciona o que los datos están desactualizados. Sospecho que estás insinuando lo primero. Wikipedia:Link rot analiza cómo abordar ese problema. En resumen, si puedes encontrar una versión actualizada del contenido, actualízala. Si no puedes, actualiza la referencia con un {{ dead link }} . Si estuvieras sugiriendo lo último, agrega un enlace a contenido nuevo, sin embargo, no estoy seguro de cómo una técnica puede volverse obsoleta. No estoy seguro de qué referencias pensaste que eran enlaces de marketing o WP:REFSPAM , pero estaría feliz de trabajar en ello. Sospecho que si muchos de esos enlaces de los que hablas se agregaran hoy, los eliminaría por no cumplir con WP:RS . Walter Görlitz ( discusión ) 14:19, 16 de marzo de 2017 (UTC) [ responder ]

"No estoy seguro de cómo una técnica puede volverse obsoleta" - bueno, creo que este es el quid de la cuestión con esta página. Toda la página se basa en una idea de Pruebas de Software que surgió hace décadas, mientras que las técnicas de desarrollo de software han evolucionado. Muchos de nosotros, los probadores de software, hemos ampliado/adaptado nuestros métodos durante la última década, y estoy de acuerdo con Noah en que son necesarios cambios importantes en todo el asunto. Entiendo la reticencia a descartar grandes partes de la página (y referencias) y espero que obtengamos una página mejor de esta discusión. Rutty ( discusión ) 15:00, 16 de marzo de 2017 (UTC) [ responder ]

Pero los fundamentos, que es de lo que trata este artículo, no han cambiado. Las pruebas funcionales siguen siendo eso. Vamos a ponerle algo de sustancia a esto. ¿Estás diciendo que las pruebas de caja blanca y caja negra están obsoletas? Si has ampliado y adaptado esas técnicas, entonces agrega esas extensiones y adaptaciones en los artículos que las analizan, pero deja un breve resumen aquí. Walter Görlitz ( discusión ) 15:11 16 mar 2017 (UTC) [ responder ]

Pruebas generativas, QuickCheck, etc.

I'd like to see some discussion of generative testing, supplemented by a link to the QuickCheck page. RichMorin (talk) 03:29, 28 September 2017 (UTC)[reply]

Roles section

Does this section provide value or reference on software testing roles? I'm questioning whether it can be removed or merged into another section.

Furthermore, the list of "roles" in this section are just a snapshot of some software testing titles, and there are so many of these that I don't think listing a few of them would help any reader. — Preceding unsigned comment added by Angryweasel (talk • contribs) 23:22, 17 November 2017 (UTC)[reply]

It would be better to update the section. SDET has started to be used in some areas. The term "quality analyst" has become synonymous with software tester. The section could easily be expanded. As long as the section doesn't become a WP:COATRACK for terms, it doesn't hurt to keep the section. Walter Görlitz (talk) 23:55, 17 November 2017 (UTC)[reply]
The terms you mentioned are titles, not roles. What do you think about renaming the section to Testing Job Titles and repurposing in that direction. As it is, it has nothing to do with Roles. A Role is a description of what someone does - none of the examples fit that description.Angryweasel (talk) 16:50, 18 November 2017 (UTC)[reply]
I'd be fine with that, or expanding to incorporate roles. Walter Görlitz (talk) 18:07, 20 November 2017 (UTC)[reply]

Date format

I don't see a strong precedent for the date format in citations. I see things like "2012-01-13" and "July 1, 2009". Is there a preference? I think "July 1, 2009" is more readable. Faught (talk) 19:23, 21 November 2017 (UTC)[reply]

MOS:DATE states that the formatting should be unified, but not whether one format or another should be used. MOS:STRONGNAT, generally speaking, states that some subjects have strong ties to a national format. So "international" English subjects and U.S. military would use Day Month Year format (28 August 2015) while American subjects would use Month Day, Year format (August 28, 2015). Canadian subjects may use either but shouldn't change unless there's a reason. However, software testing doesn't have strong national ties to either format and so ISO 8601 format (2015-08-28) is probably the best to use. As long a it's not different between references (which seems to be the case now) and we can agree to it (which is what this discussion could achieve). Walter Görlitz (talk) 20:17, 21 November 2017 (UTC)[reply]

So I went with the US style that was prevalent in the body of the article. But perhaps you'd want to use ISO format only in the citations? Not sure whether you'd want to make it different just in the citations. Faught (talk) 00:47, 28 November 2017 (UTC)[reply]

It's fine either way. Walter Görlitz (talk) 00:51, 28 November 2017 (UTC)[reply]

External links modified

Hello fellow Wikipedians,

I have just modified 2 external links on Software testing. Please take a moment to review my edit. If you have any questions, or need the bot to ignore the links, or the page altogether, please visit this simple FaQ for additional information. I made the following changes:

When you have finished reviewing my changes, you may follow the instructions on the template below to fix any issues with the URLs.

controlarY An editor has reviewed this edit and fixed any errors that were found.

Cheers.—InternetArchiveBot (Report bug) 08:17, 2 December 2017 (UTC)[reply]

National spelling

How should we choose between American English or British English? Does the spelling on any related pages matter?

On Software testing I see American spellings like artifacts, behavior, and unrecognized, and British spellings like artefacts, grey-box, unauthorised, and organisational. Faught (talk) 20:57, 6 December 2017 (UTC)[reply]

There has been a mix, yes. No real way to decide. There are scripts to standardize for "international", Oxford and Canadian spelling, but nothing for US English. The preference for "grey-box" is my fault. The others are not. We can come to a consensus here and state it applies it to the article by introducing the appropriate template. Walter Görlitz (talk) 21:04, 6 December 2017 (UTC)[reply]
It would be easiest for me to use US English since that's my native tongue. Faught (talk) 01:16, 7 December 2017 (UTC)[reply]
Understood. I have three dictionaries in my browsers, British, Canadian and American, and can switch between them. If we can leave it for a few days to see if others chime-in with support or objections, we can get a better sense of the direction, but this is what you'll want to add to the article when it comes time: {{Use American English|date=October 2024}}. Of course, this will change each month and year that it's on the talk page or in the archive because of the embedded formula. Walter Görlitz (talk) 01:58, 7 December 2017 (UTC)[reply]
No idea what would be the fairest choice. I see that the Load testing article has "use American English" already. I'm not sure how to search the rest of the articles in the Software testing category for something similar. Faught (talk) 19:43, 7 December 2017 (UTC)[reply]

Mysterious Gelperin/Hetzel reference

Can anyone identify what this reference is? "Regarding the periods and the different goals in software testing,[1]..." Perhaps the article they co-authored, "The Growth of Software Testing"? If we can't identify what this is referring to, we should delete the reference. Faught (talk) 18:24, 18 December 2017 (UTC)[reply]

It looks like that article, which is their most-cited article. In it, they state: "Titles such as “test manager,” “lead tester,” “test analyst,” and “test technician” have become common." The paragraph the quotation comes from is talking about the rise of software test engineering as a speciality and using the job titles with "test" as a supporting argument. Yorkyabroad (talk) 21:31, 18 December 2017 (UTC)[reply]
Is there a publication date and journal or other identifying information for the source?
Side note: MOS:LQ. Walter Görlitz (talk) 21:44, 18 December 2017 (UTC)[reply]
The quotation, which had the strange punctuation in the original article, i.e. list separator inside quotation marks, came from: David Gelperin and Bill Hetzel. The growth of software testing. Communications of the ACM, 31(6):687–695, 1988.[2] Yorkyabroad (talk) 22:49, 18 December 2017 (UTC)[reply]
Thanks Yorkyabroad - I updated the citation. I used full author names, by the way. The academic style with only first initials drives me nuts. Not sure what the standard is here. — Preceding unsigned comment added by Faught (talk • contribs) 15:49, 19 December 2017 (UTC)[reply]
@Faught: For citation style, see {{cite web}}, {{cite journal}}, {{cite book}} or other citation templates. They all support full names where you can select the format, or given and family name. Walter Görlitz (talk) 16:11, 19 December 2017 (UTC)[reply]
I did separate first and last names. The examples in the templates do imply that first names should be spelled out too. Faught (talk) 17:07, 19 December 2017 (UTC)[reply]

References

  1. ^ see D. Gelperin and W.C. Hetzel
  2. ^ Gelperin, D.; Hetzel, B. (1 June 1988). "The growth of software testing". Communications of the ACM. 31 (6): 687–695. doi:10.1145/62959.62965.

Incomplete Dr. Dobbs citation

There's a rather odd citation in the History section: Company, People's Computer (1987). "Dr. Dobb's journal of software tools for the professional programmer". Dr. Dobb's journal of software tools for the professional programmer. M&T Pub. 12 (1–6): 116.

Can anyone intuit a title and author for this article? Faught (talk) 19:19, 20 December 2017 (UTC)[reply]

So, I used this to practice some Wikipedia searching... The quote, "a successful test is one that finds a bug" was introduced 20 Aug 2008[1], soon after tagged with citation needed. A citation was added 16 May 2009[2], which was a search result from google books. The citation was tidied up by a bot on 19 June 2010[3].
If you search on the above quote in google books, one of the search returns is for a Dr Dobbs article (1987, volume 12, pp116)[4] which shows the beginning of the quote highlighted. From the search result, it's not clear which particular article it is or who the author is. The quote is stated as coming from Myers[5]. However, a look in my paper copy of that edition seems to point to it being a misquotation. In chapter 2, The Psychology and Economics of Program Testing, Myers writes as a principle, "A successful test case is one that detects an as-yet undiscovered error."[6]
In that chapter, he doesn't appear to use the word, "bug".
Re-reading Myers[7], it seems that the statement in the article, "Although his attention was on breakage", isn't quite right. Myers talks about testing as adding value by finding and removing errors - his emphasis seems to be on finding, rather than breakage. So, in summary, it appears to be a misquote of Myers and so could be safely removed, as Myers is already referenced, plus the sentence might need to be re-visited to adjust, "attention was on breakage".Yorkyabroad (talk) 00:09, 21 December 2017 (UTC)[reply]
Excellent detective work! It seems that the text and ref should either be corrected and moved, if it fits in a better section, or simply removed. Walter Görlitz (talk) 00:30, 21 December 2017 (UTC)[reply]
I changed the quote to match what Yorkyabroad found and changed the citation accordingly. Faught (talk) 15:56, 26 December 2017 (UTC)[reply]

References

  1. ^ https://en.wikipedia.org/w/index.php?title=Software_testing&oldid=233116378
  2. ^ https://en.wikipedia.org/w/index.php?title=Software_testing&oldid=290284832
  3. ^ https://en.wikipedia.org/w/index.php?title=Software_testing&oldid=368998113
  4. ^ https://books.google.se/books?id=7RoIAAAAIAAJ&q=%22a+successful+test+is+one+that+finds+a+bug%22&dq=%22a+successful+test+is+one+that+finds+a+bug%22&hl=en&sa=X&ved=0ahUKEwjPtc_AwJnYAhWMYlAKHbFRChMQ6AEINzAD
  5. ^ Myers, Glenford J. (1979). The Art of Software Testing. John Wiley and Sons. ISBN 0-471-04328-1.
  6. ^ Myers, Glenford J. (1979). The Art of Software Testing. John Wiley and Sons. p. 16. ISBN 0-471-04328-1.
  7. ^ Myers, Glenford J. (1979). The Art of Software Testing. John Wiley and Sons. p. 5. ISBN 0-471-04328-1.

revamped the certification section

I published an edit to the Certifications section with several minor improvements, and adding certifications from the International Software Certifications Board (better known as QAI).

I deleted two of them: 1) Certified Quality Improvement Associate (CQIA), which is not specific to software, and 2) ISEB, which is not a certification, but hints at the fact that ISEB markets the ISTQB certifications already listed here. If there is any controversy about those deletions, let's add them back without losing the other changes.

The ISTQB offers a richer set of certifications than is indicated here, but the way they organize them makes it difficult to list all the variations as separate certifications. Maybe someone could find a good solution for this page.

One more thing - I want to delete the "Software testing certification types" information entirely. This is already covered at Certification#In_software_testing and doesn't need to be hashed out on the software testing page. Any objections?

Also, I want to consider moving most of the first paragraph to the Controversies section. I don't think it has a neutral point of view. Faught (talk) 22:20, 30 January 2018 (UTC)[reply]

Good call. In my opinion, since certification is not required, a brief mention is all the article that is needed. Pointing to the main article will allow a reader to understand further information. Walter Görlitz (talk) 01:22, 31 January 2018 (UTC)[reply]
I have completed two further edits - delegating the certification types, and moving information to the controversy section. I just noticed the separate Software testing controversies article, and though it's a bit of a mess, it seems that the controversies section should migrate there. Faught (talk) 19:32, 4 February 2018 (UTC)[reply]

Testing Levels

I added a [citation needed] tag to the following line in the Testing Levels section:

"There are generally four recognized levels of tests: unit testing, integration testing, component interface testing, and system testing."

I do see a few web mentions (mostly from sites selling their wares) defining "the 4 levels" as unit, integration, system, and acceptance. I feel like that may be the better edit, but I'm not certain where the initial reference of those 4 levels comes from. I'll keep digging, but throwing it here in the meantime. For example, there's an explanation on the test-institute dot org website (coincidentally blocked by wikipedia) - but I don't want to reference a site that is focused on selling certifications. I've thumbed through my library of test books, but haven't found the original source yet.

I also found a reference to Component, integration, system, and acceptance testing in _Foundations of Software Testing ISTQB Certification_ by Rex Black and Dot Graham.

I am wondering (out loud) if anything about Testing Levels rises to the level of being worth mentioning in Wikipedia. Angryweasel (talk) 19:49, 3 April 2018 (UTC)[reply]

It looks like the citation that comes directly after that sentence addresses, partially, your concerns, and the original writer meant for that reference (to SWEBOK v3.0) to stand for both prior sentences. The SWEBOK reference references unit, integration, and system testing specifically at page 4-5. Page 10-3 of the same document seems to explicitly put "acceptance testing" outside of "system level testing," which is solidified with its approach to mentioning only the three levels mentioned. I'll play with this a bit more and see if I can come up with something more (no pun intended) acceptable. Lostraven (talk) 20:02, 13 July 2018 (UTC)[reply]
Additionally, this reference places component interface testings outside of level testing as a type of black-box, software testing technique. Lostraven (talk) 20:12, 13 July 2018 (UTC)[reply]
Ultimately I decided to move component testing as a subsection of black-box testing. The literature I'm finding consistently has unit, integration, and system testing, and only some additionally lump in acceptance testing. I'm rewriting the intro section to reflect this, though if even stronger citations can be found to state that acceptance testing is firmly a fourth level, feel free to update my updates. Lostraven (talk) 20:41, 13 July 2018 (UTC)[reply]
WRT acceptance testing: I think that's a good choice. I've seen acceptance listed as a level, but IMO it's not a level like the other three are. There are a zillion types of testing and acceptance is surely important, but not in the same dimension as unit, integration, system. ... WRT component testing: I think that's a synonym for unit testing. Stevebroshar (talk) 12:01, 26 April 2024 (UTC)[reply]

Outsourcing link is clearly commercial

The blurb about outsourcing links to an article touting a particular firms services and offers little actual evidence about the claims, suggesting it be removed Sinfoid (talk) 02:52, 7 May 2018 (UTC)[reply]

As long as it's an article on Wikipedia, there's no reason not to link to it. Walter Görlitz (talk) 03:03, 7 May 2018 (UTC)[reply]

urdu 2021 tests

we can find the tests to get overview and asked my students to this overview 103.228.159.104 (talk) 15:47, 6 December 2021 (UTC)[reply]

India Education Program course assignment

This article was the subject of an educational assignment supported by Wikipedia Ambassadors through the India Education Program.

The above message was substituted from {{IEP assignment}} by PrimeBOT (talk) on 20:08, 1 February 2023 (UTC)[reply]

Section on Testability Hierarchy recently removed: a volunteer to review its suitability?

User MrOllie has recently removed my contributions about the Testability Hierarchy arguing citation spam. I would like to ask a volunteer to review the relevance to this article of the Testability Hierarchy section existing before it was reverted by MrOllie at 22:27, 20 February 2024 (UTC). EXPTIME-complete (talk) 23:33, 20 February 2024 (UTC)[reply]

In particular, this is the text I would like to introduce again:

Hierarchy of testing difficulty

Based on the number of test cases required to construct a complete test suite in each context (i.e. a test suite such that, if it is applied to the implementation under test, then we collect enough information to precisely determine whether the system is correct or incorrect according to some specification), a hierarchy of testing difficulty has been proposed.[1][2] It includes the following testability classes:

It has been proved that each class is strictly included in the next. For instance, testing when we assume that the behavior of the implementation under test can be denoted by a deterministic finite-state machine for some known finite sets of inputs and outputs and with some known number of states belongs to Class I (and all subsequent classes). However, if the number of states is not known, then it only belongs to all classes from Class II on. If the implementation under test must be a deterministic finite-state machine failing the specification for a single trace (and its continuations), and its number of states is unknown, then it only belongs to classes from Class III on. Testing temporal machines where transitions are triggered if inputs are produced within some real-bounded interval only belongs to classes from Class IV on, whereas testing many non-deterministic systems only belongs to Class V (but not all, and some even belong to Class I). The inclusion into Class I does not require the simplicity of the assumed computation model, as some testing cases involving implementations written in any programming language, and testing implementations defined as machines depending on continuous magnitudes, have been proved to be in Class I. Other elaborated cases, such as the testing framework by Matthew Hennessy under must semantics, and temporal machines with rational timeouts, belong to Class II.

EXPTIME-complete (talk) 09:01, 21 February 2024 (UTC)[reply]

well... I've never heard of this concept/idea before. So, it seems less than notable, but of course I don't know everything. ... I will say that the topic of this article is rather broad. If all info about software testing was put here, the article would be GINORMOUS which is not readable IMO. Maybe it's too long already. I suggest to exclude all but the most core ideas. Stevebroshar (talk) 11:56, 26 April 2024 (UTC)[reply]

References

  1. ^ Rodríguez, Ismael; Llana, Luis; Rabanal, Pablo (2014). "Una teoría general de testabilidad: clases, propiedades, complejidad y reducciones de pruebas". IEEE Transactions on Software Engineering . 40 (9): 862–894. doi :10.1109/TSE.2014.2331690. ISSN  0098-5589. S2CID  6015996.
  2. ^ Rodríguez, Ismael (2009). "Una teoría general de la testabilidad". CONCUR 2009 - Teoría de la concurrencia, 20.ª Conferencia internacional, CONCUR 2009, Bolonia, Italia, 1-4 de septiembre de 2009. Actas . pp. 572-586. doi :10.1007/978-3-642-04081-8_38. ISBN . 978-3-642-04080-1.

Supresiones propuestas

Estoy pensando en eliminar la sección Fallas y errores, ya que, aunque no está mal, está fuera de tema. También pienso eliminar el párrafo que dice "producto de software para el hogar", ya que también está muy fuera de tema.

@ Furkanakkurt8015 : quería etiquetarte porque vi que modificaste la sección de fallas recientemente. Espero que no te importe si la elimino. Stevebroshar ( discusión ) 20:27, 28 de abril de 2024 (UTC) [ responder ]