Regresión lineal

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda
Ejemplo de una regresión lineal con una variable dependiente y una variable independiente.

En estadística la regresión lineal o ajuste lineal es un método matemático que modela la relación entre una variable dependiente Y, las variables independientes Xi y un término aleatorio ε. Este modelo puede ser expresado como:

Y_t = \beta_0  + \beta_1 X_1 + \beta_2 X_2 +  \cdots +\beta_p X_p + \varepsilon

Y_t: variable dependiente, explicada o regresando.

X_1, X_2, \cdots, X_p : variables explicativas, independientes o regresores.

\beta_0,\beta_1,\beta_2,\cdots ,\beta_p : parámetros, miden la influencia que las variables explicativas tienen sobre el regresando.

donde \beta_0 es la intersección o término "constante", las \beta_i \ (i > 0) son los parámetros respectivos a cada variable independiente, y p es el número de parámetros independientes a tener en cuenta en la regresión. La regresión lineal puede ser contrastada con la regresión no lineal.

Historiaeditar

La primera forma de regresiones lineales documentada fue el método de los mínimos cuadrados, el cual fue publicado por Legendre en 1805,1 y en dónde se incluía una versión del teorema de Gauss-Márkov.

Etimologíaeditar

El término regresión se utilizó por primera vez en el estudio de variables antropométricas: al comparar la estatura de padres e hijos, resultó que los hijos cuyos padres tenían una estatura muy superior al valor medio tendían a igualarse a éste, mientras que aquellos cuyos padres eran muy bajos tendían a reducir su diferencia respecto a la estatura media; es decir, "regresaban" al promedio.2 La constatación empírica de esta propiedad se vio reforzada más tarde con la justificación teórica de ese fenómeno.

El término lineal se emplea para distinguirlo del resto de técnicas de regresión, que emplean modelos basados en cualquier clase de función matemática. Los modelos lineales son una explicación simplificada de la realidad, mucho más ágil y con un soporte teórico por parte de la matemática y la estadística mucho más extenso.

Pero bien, como se ha dicho, podemos usar el término lineal para distinguir modelos basados en cualquier clase de aplicación.

El modelo de regresión linealeditar

El modelo lineal relaciona la variable dependiente Y con K variables explicativas  X_k (k = 1,...K), o cualquier transformación de éstas, que generan un hiperplano de parámetros  \beta_k desconocidos:

(2) Y = \sum \beta_k X_k + \varepsilon

donde  \varepsilon es la perturbación aleatoria que recoge todos aquellos factores de la realidad no controlables u observables y que por tanto se asocian con el azar, y es la que confiere al modelo su carácter estocástico. En el caso más sencillo, con una sola variable explicativa, el hiperplano es una recta:

(3) Y = \beta_1 + \beta_2 X_2 + \varepsilon

El problema de la regresión consiste en elegir unos valores determinados para los parámetros desconocidos \beta_k, de modo que la ecuación quede completamente especificada. Para ello se necesita un conjunto de observaciones. En una observación cualquiera i-ésima (i= 1,... I) se registra el comportamiento simultáneo de la variable dependiente y las variables explicativas (las perturbaciones aleatorias se suponen no observables).

(4) Y_i = \sum \beta_k X_{ki} + \varepsilon_i

Los valores escogidos como estimadores de los parámetros, \hat{\beta_k}, son los coeficientes de regresión, sin que se pueda garantizar que coinciden con parámetros reales del proceso generador. Por tanto, en

(5) Y_i = \sum \hat{\beta_k} X_{ki} + \hat{\varepsilon_i}

Los valores  \hat{\varepsilon_i} son por su parte estimaciones de la perturbación aleatoria o errores.

Hipótesis modelo de regresión lineal clásicoeditar

1. Esperanza matemática nula.

E(\varepsilon_i) = 0

Para cada valor de X la perturbación tomará distintos valores de forma aleatoria, pero no tomará sistemáticamente valores positivos o negativos, sino que se supone que tomará algunos valores mayores que cero y otros menores, de tal forma que su valor esperado sea cero.

2. Homocedasticidad

Var(\varepsilon_t) = E(\varepsilon_t - E \varepsilon_t)^2 = E \varepsilon_t^2 = \sigma^2  para todo t

Todos los términos de la perturbación tienen la misma varianza que es desconocida. La dispersión de cada \varepsilon_t en torno a su valor esperado es siempre la misma.

3. Incorrelación. Cov(\varepsilon_t,\varepsilon_s ) = (\varepsilon_t - E \varepsilon_t) (\varepsilon_s - E \varepsilon_s) = E \varepsilon_t \varepsilon_s = 0  para todo t,s con t distinto de s

Las covarianzas entre las distintas pertubaciones son nulas, lo que quiere decir que no están correlacionadas o autocorrelacionadas. Esto implica que el valor de la perturbación para cualquier observación muestral no viene influenciado por los valores de la perturbación correspondientes a otras observaciones muestrales.

4. Regresores no estocásticos.

5. No existen relaciones lineales exactas entre los regresores.

6. T > k + 1 Suponemos que no existen errores de especificación en el modelo ni errores de medida en las variables explicativas

7. Normalidad de las perturbaciones  \varepsilon -> N(0, \sigma^2 )

Supuestos del modelo de regresión linealeditar

Para poder crear un modelo de regresión lineal, es necesario que se cumpla con los siguientes supuestos:3

  1. La relación entre las variables es lineal.
  2. Los errores en la medición de las variables explicativas son independientes entre sí.
  3. Los errores tienen varianza constante. (Homocedasticidad)
  4. Los errores tienen una esperanza matemática igual a cero (los errores de una misma magnitud y distinto signo son equiprobables).
  5. El error total es la suma de todos los errores.

Tipos de modelos de regresión linealeditar

Existen diferentes tipos de regresión lineal que se clasifican de acuerdo a sus parámetros:

Regresión lineal simpleeditar

Sólo se maneja una variable independiente, por lo que sólo cuenta con dos parámetros. Son de la forma:4

(6) Y_i = \beta_0 + \beta_1 X_i + \varepsilon_i

donde \varepsilon_i es el error asociado a la medición del valor X_i y siguen los supuestos de modo que \varepsilon_i \sim N(0,\sigma^2) (media cero, varianza constante e igual a un \sigma y \varepsilon_i \perp \varepsilon_j con i\neq j).

Análisiseditar

Dado el modelo de regresión simple, si se calcula la esperanza (valor esperado) del valor Y, se obtiene:5

(7)E(y_i) = \hat{y_i}=E(\beta_0) + E(\beta_1 x_i) + E(\varepsilon_i)


Derivando respecto a \hat{\beta}_0 y \hat{\beta}_1 e igualando a cero, se obtiene:5

(9)\frac{\partial \sum (y_i - \hat{y_i})^2 }{\partial \hat{\beta}_0} = 0

(10)\frac{\partial \sum (y_i - \hat{y_i})^2 }{\partial \hat{\beta}_1} = 0

Obteniendo dos ecuaciones denominadas ecuaciones normales que generan la siguiente solución para ambos parámetros:4

(11) \hat{\beta_1} = \frac { \sum x \sum y - n \sum xy } { \left ( \sum x \right ) ^ 2 - n \sum x^2 } = \frac{ \sum (x-\bar{x})(y-\bar{y} ) }{\sum ( x - \bar{x})^2 }

(12) \hat{\beta_0} = \frac { \sum y - \hat{\beta}_1 \sum x } { n } = \bar{y} - \hat{\beta_1} \bar{x}

La interpretación del parámetro {\beta_1} es que un incremento en Xi de una unidad, Yi incrementará en {\beta_1}

Regresión lineal múltipleeditar

La regresión lineal permite trabajar con una variable a nivel de intervalo o razón. De la misma manera, es posible analizar la relación entre dos o más variables a través de ecuaciones, lo que se denomina regresión múltiple o regresión lineal múltiple.

Constantemente en la práctica de la investigación estadística, se encuentran variables que de alguna manera están relacionadas entre sí, por lo que es posible que una de las variables puedan relacionarse matemáticamente en función de otra u otras variables.

Maneja varias variables independientes. Cuenta con varios parámetros. Se expresan de la forma:6

(13) Y_i = \beta_0 + \sum \beta_i X_{ip} + \varepsilon_i

donde \varepsilon_i es el error asociado a la medición i del valor X_{ip} y siguen los supuestos de modo que \varepsilon_i \sim N(0,\sigma^2) (media cero, varianza constante e igual a un \sigma y \varepsilon_i \perp \varepsilon_j con i\neq j).

Rectas de regresióneditar

Las rectas de regresión son las rectas que mejor se ajustan a la nube de puntos (o también llamado diagrama de dispersión) generada por una distribución binomial. Matemáticamente, son posibles dos rectas de máximo ajuste:7

  • La recta de regresión de Y sobre X:

(14)y = \bar{y} + \frac{\sigma_{xy}}{\sigma_{x}^2}(x - \bar{x})

  • La recta de regresión de X sobre Y:

(15)x = \bar{x} + \frac{\sigma_{xy}}{\sigma_{y}^2}(y - \bar{y})

La correlación ("r") de las rectas determinará la calidad del ajuste. Si r es cercano o igual a 1, el ajuste será bueno y las predicciones realizadas a partir del modelo obtenido serán muy fiables (el modelo obtenido resulta verdaderamente representativo); si r es cercano o igual a 0, se tratará de un ajuste malo en el que las predicciones que se realicen a partir del modelo obtenido no serán fiables (el modelo obtenido no resulta representativo de la realidad). Ambas rectas de regresión se intersecan en un punto llamado centro de gravedad de la distribución.

Aplicaciones de la regresión linealeditar

Líneas de tendenciaeditar

Una línea de tendencia representa una tendencia en una serie de datos obtenidos a través de un largo período. Este tipo de líneas puede decirnos si un conjunto de datos en particular (como por ejemplo, el PBI, el precio del petróleo o el valor de las acciones) han aumentado o decrementado en un determinado período.8 Se puede dibujar una línea de tendencia a simple vista fácilmente a partir de un grupo de puntos, pero su posición y pendiente se calcula de manera más precisa utilizando técnicas estadísticas como las regresiones lineales. Las líneas de tendencia son generalmente líneas rectas, aunque algunas variaciones utilizan polinomios de mayor grado dependiendo de la curvatura deseada en la línea.

Medicinaeditar

En medicina, las primeras evidencias relacionando la mortalidad con el fumar tabaco9 vinieron de estudios que utilizaban la regresión lineal. Los investigadores incluyen una gran cantidad de variables en su análisis de regresión en un esfuerzo por eliminar factores que pudieran producir correlaciones espurias. En el caso del tabaquismo, los investigadores incluyeron el estado socio-económico para asegurarse que los efectos de mortalidad por tabaquismo no sean un efecto de su educación o posición económica. No obstante, es imposible incluir todas las variables posibles en un estudio de regresión.10 11 En el ejemplo del tabaquismo, un hipotético gen podría aumentar la mortalidad y aumentar la propensión a adquirir enfermedades relacionadas con el consumo de tabaco. Por esta razón, en la actualidad las pruebas controladas aleatorias son consideradas mucho más confiables que los análisis de regresión.

Informáticaeditar

Ejemplo de una rutina que utiliza una recta de regresión lineal para proyectar un valor futuro: Código escrito en PHP

<?php
//Licencia: GNU/GPL
$xarray=array(1, 2, 3, 4, 5 );	//Dias
$yarray=array(5, 5, 5, 6.8, 9); //Porcentaje de ejecucion
$pm=100; //Valor futuro
$x2=0;
$y=0;
$x=0;
$xy=0;
$cantidad=count($xarray);
for($i=0;$i<$cantidad;$i++){
      //Tabla de datos
      print ($xarray$i." ---- ".$yarray$i."<br>");
      //Calculo de terminos
      $x2 += $xarray$i*$xarray$i;
      $y  += $yarray$i;
      $x  += $xarray$i;
      $xy += $xarray$i*$yarray$i;
}
//Coeficiente parcial de regresion
$b=($cantidad*$xy-$x*$y)/($cantidad*$x2-$x*$x);
//Calculo del intercepto
$a=($y-$b*$x)/$cantidad;
//Recta tendencial
//y=a+bx
//Proyeccion en dias para un 100% de la ejecucion:
if ($b!=0) $dias_proyectados=($pm-$a)/$b;
else $dias_proyectados=999999; //Infinitos
$dp=round($dias_proyectados,0);
if($dp<=$pm) 	print $dp."---> Culmina antes de los $pm dias <br>";
if($dp >$pm) 	print $dp ."---> ALARMA: No culmina antes de los $pm dias <br>";
?>

Véase tambiéneditar

Referenciaseditar

  1. C.F. Gauss. Theoria combinationis observationum erroribus minimis obnoxiae. (1821/1823)
  2. Introduction to linear regression Curvefit.com (en inglés)
  3. "Análisis de regresión lineal", Universidad Complutense de Madrid
  4. a b "Fórmulas", Probabilidad y Estadística. Cs. Básicas. U.D.B. Matemática. Universidad Tecnológica Nacional, Facultad Regional Buenos Aires. Editorial CEIT-FRBA. (Código BM2BT2)
  5. a b Modelo de regresión lineal simple. EinsteinNet.
  6. Técnicas de regresión: Regresión Lineal Múltiple. Pértega Díaz, S., Pita Fernández, S. Unidad de Epidemiología Clínica y Bioestadística. Complejo Hospitalario de La Coruña (España)
  7. Apunte sobre Rectas de regresión. Ministerio de Educación y Ciencia. Gobierno de España.
  8. Utilización de las líneas de tendencia, Paritech (en inglés)
  9. Doll R, Peto r, Wheatley K, Gray R et al. Mortality in relation to smoking: 40 years' observations on male British doctors .BMJ 1994;309:901-911 (8 de octubre]
  10. "Environmental Tobacco Smoke and Adult Asthma" Division of Pulmonary and Critical Care Medicine, Division of Occupational and Environmental Medicine; Department of Medicine, Institute for Health Policy Studies; and Department of Epidemiology and Biostatistics, Universidad de California, San Francisco, California. (en inglés)
  11. Efecto del tabaquismo, los síntomas respiratorios y el asma sobre la espirometría de adultos de la Ciudad de México, Justino Regalado-Pineda; Alejandro Gómez-Gómez; Javier Ramírez-Acosta; Juan Carlos Vázquez-García

Bibliografíaeditar

  • Devore, Jay L.; Probabilidad y Estadística para Ingeniería y Ciencias. International Thomson Editores. México. ISBN-10: 9706864571.
  • Walpole, Ronald E.; Raymond H.; Myers, Sharon L.; Probabilidad y Estadística para Ingenieros. Pretice-Hall Hispanoamericana, S.A. México. ISBN-10: 9701702646.
  • Canavos, George C.; Probabilidad y Estadística. Aplicaciones y Métodos. McGraw-Hill. México. ISBN-10: 9684518560.

Enlaces externoseditar








Creative Commons License