14 Dic

Conceptos Clave sobre Regresión Lineal y Álgebra Matricial

1. Relación entre Rectas y Parámetros

Una recta en el plano viene determinada por dos parámetros: su ordenada en el origen (a) y su pendiente (B). Existe una relación biunívoca entre el conjunto de rectas en el plano y el conjunto de parejas de valores (a, B) ∈ R2. Verdadero. Toda recta viene determinada por su ordenada y su pendiente. Como a cada recta le corresponde una pareja de esos valores y, a cada pareja le corresponde una recta, se dice que la relación es biunívoca.

2. Función de Distancia en Regresión Lineal

La función ∑(yi – a – BXi)2 es un índice que evalúa la distancia de una recta cualquiera del plano, de ecuación Y = a + BX, a los puntos de dicho plano cuyas coordenadas corresponden a los valores que toman los individuos en las variables X e Y respectivamente. Se trata de una función de dos variables: a y B. Falso.

3. Incógnitas en la Función de Regresión

En la función ∑(Yi – a – BXi)2, los valores de a y B son los únicos conocidos. Las incógnitas son, como es habitual, X e Y. Falso. a y B son las incógnitas y, por lo tanto, son desconocidas. En cambio, X e Y son conocidos.

4. Justificación del Cuadrado en la Función de Regresión

Elevar al cuadrado en la función ∑(Yi – a – BXi)2 es más un capricho injustificado que fruto de una decisión razonada. Podríamos sustituir el cuadrado por el valor absoluto sin ninguna consecuencia negativa. Falso. Elevar al cuadrado no es un capricho, es una decisión fundamental y permite llevar a cabo el proceso de optimización por el cual obtenemos los mejores estimadores del modelo de regresión lineal, hecho que no podríamos realizar con el valor absoluto.

5. Derivabilidad de Funciones

La función y = x2 es derivable mientras que la función y = |x| no lo es: su no derivabilidad se encuentra en el valor x = 0, donde la derivada no existe. Verdadero. La función y = x2 es derivable en todos los puntos del dominio. Su derivada es 2x que existe para todos los valores de x. Y la función y = |x| no lo es porque en x=0 no existe. En el resto de puntos (x≠0) sí es derivable.

6. Mínimos Cuadrados y Derivadas

Derivar la función ∑(Yi – a – BXi) respecto a a y B e igualar los valores de dichas derivadas a 0, garantiza encontrar un mínimo absoluto para la función y, en consecuencia, determinar la recta de mínimos cuadrados. Falso. Eso es la obtención del gradiente que lo que permite es obtener los estimadores del modelo.

7. Derivada de una Suma de Funciones

Dadas dos funciones f(x) y g(x), se cumple que (f(x) + g(x))’ = f'(x) + g'(x), es decir, la derivada de una suma es igual a la suma de las derivadas. Verdadero. La derivada de la suma es la suma de sus derivadas.

8. Derivada de un Producto de Funciones

Dadas dos funciones f(x) y g(x), se cumple que (f(x) * g(x))’ = f'(x) * g'(x), es decir, la derivada de un producto es igual al producto de las derivadas. Falso. La derivada del producto de dos funciones es igual a la derivada de la primera función por la segunda sin derivar más la derivada de la segunda por la primera sin derivar.

9. Ventajas de Resolver Sistemas de Ecuaciones con Matrices

La principal ventaja de resolver un sistema de ecuaciones lineales mediante matrices es que, independientemente de cuál sea el número de ecuaciones, al expresarlo matricialmente, el sistema de ecuaciones se convierte en una única ecuación (matricial). Falso.

10. Solución de una Ecuación Matricial

Si A es una matriz conocida, x es un vector desconocido y b es otro vector conocido, entonces la ecuación matricial Ax = b tiene como solución x = b/A. Falso. Sería x = A-1b.

11. Matriz Simétrica

Decimos que una matriz es simétrica cuando coincide con su traspuesta. Verdadero. Si una matriz es simétrica, A = AT.

12. Existencia de la Matriz Inversa

Siempre existe la matriz inversa de una matriz. Falso. Una matriz tiene inversa si es cuadrada y su determinante es ≠0.

13. Fórmula de la Matriz Inversa

La matriz inversa de una matriz viene dada por la fórmula A-1 = (1/|A|) Adj(AT). Verdadero. Esa es precisamente la fórmula para obtener la inversa de una matriz.

14. Interpretación del Coeficiente ‘a’

El coeficiente a siempre tiene una interpretación razonable, sin importar cuál sea el rango de valores esperable en la variable independiente X. Falso. El coeficiente a no siempre tiene una interpretación económica razonable.

15. Inversa de la Traspuesta y Traspuesta de la Inversa

Dada una matriz no singular (invertible), ¿podemos afirmar que la inversa de su traspuesta coincide con la traspuesta de su inversa? Verdadero, ya que (A-1)T = (AT)-1.

16. Coeficiente de Determinación y Ángulo entre Vectores

Si los vectores Y e Ŷ forman un ángulo muy pequeño, el coeficiente de determinación del modelo se acercará a 1. Verdadero. Como Y = Ŷ + e, y además Ŷ y e son perpendiculares, si los vectores Y e Ŷ forman un ángulo muy pequeño el módulo de residuos es muy pequeño, por lo que SCR también y el coeficiente de determinación estará próximo a 1.

17. Producto Escalar y Ángulo entre Vectores

El producto escalar entre dos vectores es positivo solo si el ángulo que forman entre ellos es un ángulo agudo. Verdadero. Si el ángulo es agudo el coseno es positivo y, por lo tanto, el producto escalar también ya que: <dx, dy> = ||dx|| * ||dy|| * cos α.

18. Sistemas de Ecuaciones con Más Ecuaciones que Incógnitas

¿Podemos afirmar que un sistema de ecuaciones lineales con más ecuaciones que incógnitas es siempre un sistema incompatible? Falso. En general, si hay más ecuaciones que incógnitas el sistema será incompatible. Pero hay casos en los que un sistema de ecuaciones lineales puede tener más ecuaciones que incógnitas y aun así ser compatible, es decir, tener solución.

19. Sistemas de Ecuaciones con Más Incógnitas que Ecuaciones

¿Podemos afirmar que un sistema de ecuaciones lineales con más incógnitas que ecuaciones es siempre un sistema compatible? Falso. En general, si hay más incógnitas que ecuaciones el sistema será compatible. Pero hay casos especiales en los que podría no haber solución.

20. Suma de Matrices Simétricas

La suma de dos matrices simétricas siempre es una matriz simétrica. Verdadero.

21. Distribución t de Student y las Hipótesis de Gauss-Markov

Para que el estadístico t siga una distribución t de Student son suficientes las hipótesis de Gauss-Markov. Falso. El error (e) tiene que seguir una distribución de tipo normal.

22. Coeficiente de Determinación y Coeficiente de Correlación en Regresión Lineal Simple

En el modelo de regresión lineal simple, el coeficiente de determinación es el cuadrado del coeficiente de correlación. Verdadero. Se cumple siempre en regresión lineal simple.

23. Cumplimiento de las Hipótesis de Gauss-Markov

Las hipótesis de Gauss-Markov se cumplen siempre en el modelo de regresión lineal simple. Falso. Damos por hecho que se cumplen.

Deja un comentario