stringtranslate.com

Variables dependientes e independientes

Una variable se considera dependiente si depende de una variable independiente . Las variables dependientes se estudian bajo el supuesto o exigencia de que dependen, mediante alguna ley o regla (por ejemplo, mediante una función matemática ), de los valores de otras variables. Las variables independientes, a su vez, no se consideran dependientes de ninguna otra variable en el alcance del experimento en cuestión. [a] En este sentido, algunas variables independientes comunes son el tiempo , el espacio , la densidad , la masa , el caudal de fluido , [1] [2] y los valores previos de algún valor observado de interés (por ejemplo, el tamaño de la población humana) para predecir valores futuros ( la variable dependiente). [3]

De las dos, siempre es la variable dependiente cuya variación se estudia, mediante la alteración de entradas, también conocidas como regresoras en un contexto estadístico . En un experimento, cualquier variable a la que se le puede atribuir un valor sin atribuir un valor a ninguna otra variable se llama variable independiente. Los modelos y experimentos prueban los efectos que tienen las variables independientes sobre las variables dependientes. A veces, incluso si su influencia no es de interés directo, se pueden incluir variables independientes por otras razones, como por ejemplo para explicar su posible efecto de confusión .

En el cálculo de una sola variable , una función generalmente se representa gráficamente con el eje horizontal representando la variable independiente y el eje vertical representando la variable dependiente. [4] En esta función, y es la variable dependiente y x es la variable independiente.

En matemáticas puras

En matemáticas, una función es una regla para tomar una entrada (en el caso más simple, un número o conjunto de números) [5] y proporcionar una salida (que también puede ser un número). [5] Un símbolo que representa una entrada arbitraria se llama variable independiente , mientras que un símbolo que representa una salida arbitraria se llama variable dependiente . [6] El símbolo más común para la entrada es x y el símbolo más común para la salida es y ; la función en sí se escribe comúnmente y = f ( x ) . [6] [7]

Es posible tener múltiples variables independientes o múltiples variables dependientes. Por ejemplo, en cálculo multivariable , a menudo se encuentran funciones de la forma z = f ( x , y ) , donde z es una variable dependiente y xey son variables independientes. [8] Las funciones con múltiples salidas a menudo se denominan funciones con valores vectoriales .

En modelado y estadística.

En la modelización matemática se estudia la relación entre el conjunto de variables dependientes y el conjunto de variables independientes. [ cita necesaria ]

En el modelo lineal estocástico simple y i = a + b x i + e i el término y i es el i- ésimo valor de la variable dependiente y x i es el i -ésimo valor de la variable independiente. El término e i se conoce como "error" y contiene la variabilidad de la variable dependiente no explicada por la variable independiente. [ cita necesaria ]

Con múltiples variables independientes, el modelo es y i = a + b x i ,1 + b x i ,2 + ... + b x i,n + e i , donde n es el número de variables independientes. [ cita necesaria ]

En estadística, más específicamente en regresión lineal , se genera un diagrama de dispersión de datos con X como variable independiente e Y como variable dependiente. Esto también se denomina conjunto de datos bivariado, ( x 1 , y 1 )( x 2 , y 2 ) ...( x i , y i ) . El modelo de regresión lineal simple toma la forma de Y i = a + B x i + U i , para i = 1, 2, ... , n . En este caso, U i , ... , U n son variables aleatorias independientes. Esto ocurre cuando las medidas no se influyen entre sí. A través de la propagación de la independencia, la independencia de U i implica independencia de Y i , aunque cada Y i tiene un valor esperado diferente. Cada U i tiene un valor esperado de 0 y una varianza de σ 2 . [9] Expectativa de Y i Prueba: [9]

La línea de mejor ajuste para el conjunto de datos bivariado toma la forma y = α + βx y se llama línea de regresión. α y β corresponden a la intersección y la pendiente, respectivamente. [9]

En un experimento , la variable manipulada por un experimentador es algo que se ha demostrado que funciona, llamado variable independiente. [10] La variable dependiente es el evento que se espera que cambie cuando se manipula la variable independiente. [11]

En las herramientas de minería de datos (para estadística multivariada y aprendizaje automático ), a la variable dependiente se le asigna una función comovariable de destino (o en algunas herramientas comoatributo de etiqueta), mientras que a una variable independiente se le puede asignar una función comovariable regular.[12]Se proporcionan valores conocidos para la variable objetivo para el conjunto de datos de entrenamiento yde datos de prueba, pero deben predecirse para otros datos. La variable objetivo se utiliza ende aprendizaje supervisadopero no en el aprendizaje no supervisado.

Sinónimos

Depending on the context, an independent variable is sometimes called a "predictor variable", "regressor", "covariate", "manipulated variable", "explanatory variable", "exposure variable" (see reliability theory), "risk factor" (see medical statistics), "feature" (in machine learning and pattern recognition) or "input variable".[13][14]In econometrics, the term "control variable" is usually used instead of "covariate".[15][16][17][18][19]

"Explanatory variable" is preferred by some authors over "independent variable" when the quantities treated as independent variables may not be statistically independent or independently manipulable by the researcher.[20][21] If the independent variable is referred to as an "explanatory variable" then the term "response variable" is preferred by some authors for the dependent variable.[14][20][21]

Depending on the context, a dependent variable is sometimes called a "response variable", "regressand", "criterion", "predicted variable", "measured variable", "explained variable", "experimental variable", "responding variable", "outcome variable", "output variable", "target" or "label".[14] In economics endogenous variables are usually referencing the target.

"Explained variable" is preferred by some authors over "dependent variable" when the quantities treated as "dependent variables" may not be statistically dependent.[22] If the dependent variable is referred to as an "explained variable" then the term "predictor variable" is preferred by some authors for the independent variable.[22]

An example is provided by the analysis of trend in sea level by Woodworth (1987). Here the dependent variable (and variable of most interest) was the annual mean sea level at a given location for which a series of yearly values were available. The primary independent variable was time. Use was made of a covariate consisting of yearly values of annual mean atmospheric pressure at sea level. The results showed that inclusion of the covariate allowed improved estimates of the trend against time to be obtained, compared to analyses which omitted the covariate.

Otras variables

Se puede pensar que una variable altera las variables dependientes o independientes, pero en realidad puede que no sea el foco del experimento. De modo que la variable se mantendrá constante o se controlará para intentar minimizar su efecto en el experimento. Estas variables pueden designarse como "variable controlada", " variable de control " o "variable fija".

Las variables extrañas, si se incluyen en un análisis de regresión como variables independientes, pueden ayudar al investigador a realizar una estimación, predicción y bondad de ajuste precisas de los parámetros de respuesta , pero no son de interés sustancial para la hipótesis bajo examen. Por ejemplo, en un estudio que examina el efecto de la educación postsecundaria sobre los ingresos a lo largo de la vida, algunas variables extrañas podrían ser el género, la etnia, la clase social, la genética, la inteligencia, la edad, etc. Una variable es extraña sólo cuando se puede suponer (o demostrar) que influye en la variable dependiente . Si se incluye en una regresión, puede mejorar el ajuste del modelo . Si se excluye de la regresión y si tiene una covarianza distinta de cero con una o más de las variables independientes de interés, su omisión sesgará el resultado de la regresión por el efecto de esa variable independiente de interés. Este efecto se denomina sesgo de variable omitida o de confusión ; en estas situaciones, es necesario realizar cambios de diseño y/o controlar una variable de control estadístico.

Las variables extrañas suelen clasificarse en tres tipos:

  1. Variables temáticas, que son las características de los individuos estudiados que podrían afectar sus acciones. Estas variables incluyen edad, sexo, estado de salud, estado de ánimo, antecedentes, etc.
  2. Las variables de bloqueo o variables experimentales son características de las personas que realizan el experimento y que pueden influir en el comportamiento de una persona. El género, la presencia de discriminación racial, el idioma u otros factores pueden calificar como tales variables.
  3. Las variables situacionales son características del entorno en el que se llevó a cabo el estudio o la investigación, que influyen negativamente en el resultado del experimento. Se incluyen la temperatura del aire, el nivel de actividad, la iluminación y la hora del día.

En la modelización, la variabilidad que no está cubierta por la variable independiente se designa y se conoce como " residual ", "efecto secundario", " error ", "participación inexplicable", "variable residual", "perturbación" o "tolerancia". ".

Ejemplos

En un estudio que mida la influencia de diferentes cantidades de fertilizante en el crecimiento de las plantas, la variable independiente sería la cantidad de fertilizante utilizada. La variable dependiente sería el crecimiento en altura o masa de la planta. Las variables controladas serían el tipo de planta, el tipo de fertilizante, la cantidad de luz solar que recibe la planta, el tamaño de las macetas, etc.
En un estudio sobre cómo las diferentes dosis de un fármaco afectan la gravedad de los síntomas, un investigador podría comparar la frecuencia y la intensidad de los síntomas cuando se administran diferentes dosis. Aquí la variable independiente es la dosis y la variable dependiente es la frecuencia/intensidad de los síntomas.
Al medir la cantidad de color eliminado de muestras de remolacha a diferentes temperaturas, la temperatura es la variable independiente y la cantidad de pigmento eliminado es la variable dependiente.
El sabor varía según la cantidad de azúcar agregada al café. Aquí, el azúcar es la variable independiente, mientras que el sabor es la variable dependiente.

Ver también

Notas

  1. ^ Incluso si la dependencia existente es invertible (por ejemplo, al encontrar la función inversa cuando existe), la nomenclatura se mantiene si la dependencia inversa no es el objeto de estudio en el experimento.

Referencias

  1. ^ Aris, Rutherford (1994). Técnicas de modelización matemática . Corporación de mensajería.
  2. ^ Boyce, William E.; Richard C. DiPrima (2012). Ecuaciones diferenciales elementales . John Wiley e hijos.
  3. ^ Alligood, Kathleen T.; Sauer, Tim D.; Yorke, James A. (1996). Caos una introducción a los sistemas dinámicos . Springer Nueva York.
  4. ^ Hastings, Nancy Baxter. Taller de cálculo: exploración guiada con repaso. vol. 2. Springer Science & Business Media, 1998. p. 31
  5. ^ ab Carlson, Robert. Una introducción concreta al análisis real. Prensa CRC, 2006. p.183
  6. ^ ab Stewart, James. Cálculo. Cengage Learning, 2011. Sección 1.1
  7. ^ Anton, Howard, Irl C. Bivens y Stephen Davis. Cálculo de una sola variable. John Wiley & Sons, 2012. Sección 0.1
  8. ^ Larson, Ron y Bruce Edwards. Cálculo. Cengage Learning, 2009. Sección 13.1
  9. ^ abc Dekking, Frederik Michel (2005), Una introducción moderna a la probabilidad y la estadística: comprender por qué y cómo , Springer, ISBN 1-85233-896-2, OCLC  783259968
  10. ^ "Variables".
  11. ^ Diccionario íntegro de Random House Webster. Random House, Inc. 2001. Página 534, 971. ISBN 0-375-42566-7
  12. ^ Manual en inglés versión 1.0 Archivado el 10 de febrero de 2014 en Wayback Machine para RapidMiner 5.0, octubre de 2013.
  13. ^ Dodge, Y. (2003) Diccionario Oxford de términos estadísticos , OUP. ISBN 0-19-920613-9 (entrada para "variable independiente") 
  14. ^ abc Dodge, Y. (2003) Diccionario Oxford de términos estadísticos , OUP. ISBN 0-19-920613-9 (entrada para "regresión") 
  15. ^ Gujarati, Damodar N.; Portero, amanecer C. (2009). "Terminología y notación". Econometría Básica (Quinta ed. internacional). Nueva York: McGraw-Hill. pag. 21.ISBN 978-007-127625-2.
  16. ^ Wooldridge, Jeffrey (2012). Introducción a la econometría: un enfoque moderno (Quinta ed.). Mason, OH: Aprendizaje de Cengage del suroeste. págs. 22-23. ISBN 978-1-111-53104-1.
  17. ^ Por último, John M., ed. (2001). Diccionario de epidemiología (Cuarta ed.). Oxford ARRIBA. ISBN 0-19-514168-7.
  18. ^ Everitt, BS (2002). Diccionario de estadística de Cambridge (2ª ed.). Cambridge UP. ISBN 0-521-81099-X.
  19. ^ Woodworth, PL (1987). "Las tendencias en el nivel medio del mar en el Reino Unido". Geodesia Marina . 11 (1): 57–87. Código Bib : 1987MarGe..11...57W. doi : 10.1080/15210608709379549.
  20. ^ ab Everitt, BS (2002) Diccionario de estadística de Cambridge, CUP. ISBN 0-521-81099-X 
  21. ^ ab Dodge, Y. (2003) Diccionario Oxford de términos estadísticos , OUP. ISBN 0-19-920613-9 
  22. ^ ab Ash Narayan Sah (2009) Análisis de datos con Microsoft Excel, Nueva Delhi. ISBN 978-81-7446-716-4