Considere o modelo de regressão linear: !$ Y_j \, = \, \beta_0 \, + \, \beta_1 \, X_{1j} \, + \, \beta_2 X_{2j} \, + \, \cdot \cdot \cdot \, + \, \beta_p X_{pj} \, + \, e_j \,\, (j \, = \, 1, \, ... \, , n) !$ com !$ Y !$ a variável dependentes, !$ X_{1j}, \, X_{2j}, \, ... \, , X_{pj} !$ a variáveis explicativas e !$ e_j !$ o erro.
Sobre este modelo, analise as assertivas.
I. Se são atendidos os pressupostos do modelo clássico de regressão linear, os estimadores de mínimos quadrados são os que apresentam a menor variância entre a classe dos estimadores lineares não tendenciosos.
II. Ao se incluir mais uma variável explicativa irrelevante haverá um aumento do coeficiente de determinação (!$ R^2 !$), entretanto, o coeficiente de determinação ajustado (!$ R_a^2 !$) deverá diminuir.
III. O fato de existir Multicolinearidade severa tornam imprecisas as estimativas pelo método de mínimos quadrados ordinários.
Marque a alternativa CORRETA.