stringtranslate.com

Variables dependientes e independientes

Una variable se considera dependiente si depende de una variable independiente . Las variables dependientes se estudian bajo el supuesto o exigencia de que dependen, por alguna ley o regla (p. ej., por una función matemática ), de los valores de otras variables. Las variables independientes, a su vez, no se consideran dependientes de ninguna otra variable en el ámbito del experimento en cuestión. [a] En este sentido, algunas variables independientes comunes son el tiempo , el espacio , la densidad , la masa , la velocidad del flujo del fluido , [1] [2] y los valores previos de algún valor observado de interés (p. ej., el tamaño de la población humana) para predecir valores futuros (la variable dependiente). [3]

De las dos, siempre es la variable dependiente cuya variación se estudia, alterando las entradas, también conocidas como regresores en un contexto estadístico . En un experimento, cualquier variable a la que se le puede atribuir un valor sin atribuir un valor a ninguna otra variable se llama variable independiente. Los modelos y experimentos prueban los efectos que las variables independientes tienen sobre las variables dependientes. A veces, incluso si su influencia no es de interés directo, las variables independientes pueden incluirse por otras razones, como para tener en cuenta su posible efecto de confusión .

En el cálculo de una sola variable , una función normalmente se grafica con el eje horizontal representando la variable independiente y el eje vertical representando la variable dependiente. [4] En esta función, y es la variable dependiente y x es la variable independiente.

En matemáticas puras

En matemáticas, una función es una regla para tomar una entrada (en el caso más simple, un número o un conjunto de números) [5] y proporcionar una salida (que también puede ser un número). [5] Un símbolo que representa una entrada arbitraria se llama variable independiente , mientras que un símbolo que representa una salida arbitraria se llama variable dependiente . [6] El símbolo más común para la entrada es x , y el símbolo más común para la salida es y ; la función en sí se escribe comúnmente y = f ( x ) . [6] [7]

Es posible tener múltiples variables independientes o múltiples variables dependientes. Por ejemplo, en el cálculo multivariable , a menudo se encuentran funciones de la forma z = f ( x , y ) , donde z es una variable dependiente y x e y son variables independientes. [8] Las funciones con múltiples salidas a menudo se denominan funciones con valores vectoriales .

En modelado y estadística

En el modelado matemático se estudia la relación entre el conjunto de variables dependientes y el conjunto de variables independientes. [ cita requerida ]

En el modelo lineal estocástico simple y i = a + b x i + e i el término y i es el valor i de la variable dependiente y x i es el valor i de la variable independiente. El término e i se conoce como el "error" y contiene la variabilidad de la variable dependiente no explicada por la variable independiente. [ cita requerida ]

Con múltiples variables independientes, el modelo es y i = a + b x i ,1 + b x i ,2 + ... + b x i,n + e i , donde n es el número de variables independientes. [ cita requerida ]

En estadística, más específicamente en regresión lineal , se genera un diagrama de dispersión de datos con X como variable independiente e Y como variable dependiente. Esto también se denomina conjunto de datos bivariados, ( x 1 , y 1 )( x 2 , y 2 ) ...( x i , y i ) . El modelo de regresión lineal simple toma la forma de Y i = a + B x i + U i , para i = 1, 2, ... , n . En este caso, U i , ... , U n son variables aleatorias independientes. Esto ocurre cuando las mediciones no se influyen entre sí. A través de la propagación de la independencia, la independencia de U i implica la independencia de Y i , aunque cada Y i tenga un valor de expectativa diferente. Cada U i tiene un valor de expectativa de 0 y una varianza de σ 2 . [9] Expectativa de Y i Demostración: [9]

La línea de mejor ajuste para el conjunto de datos bivariados toma la forma y = α + βx y se denomina línea de regresión. α y β corresponden a la intersección y la pendiente, respectivamente. [9]

En un experimento , la variable manipulada por un experimentador es algo que se ha demostrado que funciona, llamada variable independiente. [10] La variable dependiente es el evento que se espera que cambie cuando se manipula la variable independiente. [11]

En las herramientas de minería de datos (para estadísticas multivariadas y aprendizaje automático ), a la variable dependiente se le asigna un rol comovariable objetivo (o en algunas herramientas comoatributo de etiqueta), mientras que a una variable independiente se le puede asignar un rol comovariable regular.[12]Se proporcionan valores conocidos para la variable objetivo para el conjunto de datos de entrenamiento yde datos de prueba, pero se deben predecir para otros datos. La variable objetivo se utiliza ende aprendizaje supervisadopero no en aprendizaje no supervisado.

Sinónimos

Dependiendo del contexto, a una variable independiente a veces se le llama "variable predictora", "regresora", "covariable", "variable manipulada", "variable explicativa", "variable de exposición" (ver teoría de la confiabilidad ), " factor de riesgo " (ver estadísticas médicas ), " característica " (en aprendizaje automático y reconocimiento de patrones ) o "variable de entrada". [13] [14] En econometría , el término "variable de control" se usa generalmente en lugar de "covariable". [15] [16] [17] [18] [19]

"Variable explicativa"Algunos autores prefieren el término "variable independiente" cuando las cantidades tratadas como variables independientes pueden no ser estadísticamente independientes o manipulables independientemente por el investigador. [20] [21] Si se hace referencia a la variable independiente como una "variable explicativa", entonces el término "variable de respuesta"Algunos autores lo prefieren para la variable dependiente. [14] [20] [21]

Dependiendo del contexto, a una variable dependiente a veces se la denomina "variable de respuesta", "regresando", "criterio", "variable predicha", "variable medida", "variable explicada", "variable experimental", "variable de respuesta", "variable de resultado", "variable de salida", "objetivo" o "etiqueta". [14] En economía, las variables endógenas suelen hacer referencia al objetivo.

"Variable explicada"Algunos autores prefieren el término "variable dependiente" cuando las cantidades tratadas como "variables dependientes" pueden no ser estadísticamente dependientes. [22] Si se hace referencia a la variable dependiente como una "variable explicada", entonces el término "variable predictora"Algunos autores lo prefieren como variable independiente. [22]

Un ejemplo de ello lo constituye el análisis de la tendencia del nivel del mar realizado por Woodworth (1987). En este caso, la variable dependiente (y la variable de mayor interés) fue el nivel medio anual del mar en una ubicación determinada para la que se disponía de una serie de valores anuales. La variable independiente principal fue el tiempo. Se utilizó una covariable consistente en valores anuales de la presión atmosférica media anual al nivel del mar. Los resultados mostraron que la inclusión de la covariable permitió obtener estimaciones mejoradas de la tendencia en función del tiempo, en comparación con los análisis que omitieron la covariable.

Otras variables

Se puede pensar que una variable altera las variables dependientes o independientes, pero puede que no sea en realidad el foco del experimento, por lo que se mantendrá constante o se controlará para intentar minimizar su efecto en el experimento. Dichas variables pueden designarse como "variable controlada", " variable de control " o "variable fija".

Las variables extrañas, si se incluyen en un análisis de regresión como variables independientes, pueden ayudar a un investigador con una estimación precisa de los parámetros de respuesta, la predicción y la bondad del ajuste , pero no son de interés sustancial para la hipótesis en examen. Por ejemplo, en un estudio que examina el efecto de la educación postsecundaria en los ingresos de por vida, algunas variables extrañas pueden ser el género, la etnia, la clase social, la genética, la inteligencia, la edad, etc. Una variable es extraña solo cuando se puede suponer (o demostrar) que influye en la variable dependiente . Si se incluye en una regresión, puede mejorar el ajuste del modelo . Si se excluye de la regresión y si tiene una covarianza distinta de cero con una o más de las variables independientes de interés, su omisión sesgará el resultado de la regresión por el efecto de esa variable independiente de interés. Este efecto se llama sesgo de variable omitida o de confusión ; en estas situaciones, es necesario realizar cambios en el diseño y/o controlar una variable de control estadístico.

Las variables extrañas a menudo se clasifican en tres tipos:

  1. Variables del sujeto, que son las características de los individuos estudiados que podrían afectar sus acciones. Estas variables incluyen edad, género, estado de salud, estado de ánimo, antecedentes, etc.
  2. Las variables de bloqueo o variables experimentales son características de las personas que realizan el experimento que pueden influir en el comportamiento de una persona. El género, la presencia de discriminación racial, el idioma u otros factores pueden considerarse como tales variables.
  3. Las variables situacionales son características del entorno en el que se realizó el estudio o la investigación que influyen negativamente en el resultado del experimento. Entre ellas se encuentran la temperatura del aire, el nivel de actividad, la iluminación y la hora del día.

En modelización, la variabilidad que no está cubierta por la variable independiente se designa y se conoce como " residuo ", "efecto secundario", " error ", "porción inexplicable", "variable residual", "perturbación" o "tolerancia".

Ejemplos

En un estudio que mida la influencia de diferentes cantidades de fertilizantes en el crecimiento de las plantas, la variable independiente sería la cantidad de fertilizante utilizada. La variable dependiente sería el crecimiento en altura o masa de la planta. Las variables controladas serían el tipo de planta, el tipo de fertilizante, la cantidad de luz solar que recibe la planta, el tamaño de las macetas, etc.
En un estudio sobre cómo las distintas dosis de un fármaco afectan la gravedad de los síntomas, un investigador podría comparar la frecuencia y la intensidad de los síntomas cuando se administran distintas dosis. En este caso, la variable independiente es la dosis y la variable dependiente es la frecuencia/intensidad de los síntomas.
Al medir la cantidad de color eliminado de muestras de remolacha a diferentes temperaturas, la temperatura es la variable independiente y la cantidad de pigmento eliminado es la variable dependiente.
El sabor varía según la cantidad de azúcar que se le añada al café. En este caso, el azúcar es la variable independiente, mientras que el sabor es la variable dependiente.

Véase también

Notas

  1. ^ Incluso si la dependencia existente es invertible (por ejemplo, encontrando la función inversa cuando existe), la nomenclatura se mantiene si la dependencia inversa no es el objeto de estudio en el experimento.

Referencias

  1. ^ Aris, Rutherford (1994). Técnicas de modelado matemático . Courier Corporation.
  2. ^ Boyce, William E.; Richard C. DiPrima (2012). Ecuaciones diferenciales elementales . John Wiley & Sons.
  3. ^ Alligood, Kathleen T.; Sauer, Tim D.; Yorke, James A. (1996). Caos: una introducción a los sistemas dinámicos . Springer Nueva York.
  4. ^ Hastings, Nancy Baxter. Taller de cálculo: exploración guiada con revisión. Vol. 2. Springer Science & Business Media, 1998. p. 31
  5. ^ ab Carlson, Robert. Una introducción concreta al análisis real. CRC Press, 2006. p.183
  6. ^ ab Stewart, James. Cálculo. Cengage Learning, 2011. Sección 1.1
  7. ^ Anton, Howard, Irl C. Bivens y Stephen Davis. Cálculo de una variable. John Wiley & Sons, 2012. Sección 0.1
  8. ^ Larson, Ron y Bruce Edwards. Cálculo. Cengage Learning, 2009. Sección 13.1.
  9. ^ abc Dekking, Frederik Michel (2005), Una introducción moderna a la probabilidad y la estadística: comprender por qué y cómo , Springer, ISBN 1-85233-896-2, OCLC  783259968
  10. ^ "Variables".
  11. ^ Diccionario Webster's Unabridged de Random House. Random House, Inc. 2001. Página 534, 971. ISBN 0-375-42566-7
  12. ^ Manual en inglés versión 1.0 Archivado el 10 de febrero de 2014 en Wayback Machine para RapidMiner 5.0, octubre de 2013.
  13. ^ Dodge, Y. (2003) The Oxford Dictionary of Statistical Terms , OUP. ISBN 0-19-920613-9 (entrada para "variable independiente") 
  14. ^ abc Dodge, Y. (2003) The Oxford Dictionary of Statistical Terms , OUP. ISBN 0-19-920613-9 (entrada para "regresión") 
  15. ^ Gujarati, Damodar N.; Porter, Dawn C. (2009). "Terminología y notación". Econometría básica (quinta edición internacional). Nueva York: McGraw-Hill. pág. 21. ISBN 978-007-127625-2.
  16. ^ Wooldridge, Jeffrey (2012). Introducción a la econometría: un enfoque moderno (quinta edición). Mason, Ohio: South-Western Cengage Learning. págs. 22-23. ISBN 978-1-111-53104-1.
  17. ^ Por último, John M., ed. (2001). Diccionario de epidemiología (cuarta edición). Oxford UP. ISBN 0-19-514168-7.
  18. ^ Everitt, BS (2002). Diccionario de estadística de Cambridge (2.ª edición). Cambridge UP. ISBN 0-521-81099-X.
  19. ^ Woodworth, PL (1987). "Tendencias en el nivel medio del mar en el Reino Unido". Marine Geodesy . 11 (1): 57–87. Bibcode :1987MarGe..11...57W. doi :10.1080/15210608709379549.
  20. ^ por Everitt, BS (2002) Diccionario de Estadística de Cambridge, CUP. ISBN 0-521-81099-X 
  21. ^ ab Dodge, Y. (2003) Diccionario Oxford de términos estadísticos , OUP. ISBN 0-19-920613-9 
  22. ^ ab Ash Narayan Sah (2009) Análisis de datos con Microsoft Excel, Nueva Delhi. ISBN 978-81-7446-716-4