Um modelo de regressão linear entre uma variável aleatória (dependente) e uma variável não aleatória X (independente) é definido por \( Y = \beta_0 + \beta_1 X + \varepsilon \), em que \( \varepsilon \), denominado erro aleatório, é uma variável aleatória independente de \( X \) com média \( E( \varepsilon) = 0 \) e desvio padrão \( Var( \varepsilon) = \sigma^2 \). Um modelo de regressão linear é essencialmente um modelo para a probabilidade condicional de Y com relação a X, denotada por P(Y|X); ele é chamado de simples se - for uma variável aleatória gaussiana. Fixando-se n valores \( X_1, X_2, \cdots, X_n \) para a variável independente X, pode-se definir n variáveis aleatórias \( Y_i = \beta_0 + \beta_1 X_i + \varepsilon_i \), com \( i =1, \cdots, n \). Pelo método dos mínimos quadrados, é possível obter estimadores \( \hat{ \beta_0} \) e \( \hat{ \beta_1} \) para os parâmetros \( \beta_0 \) e \( \beta_1 \) e definir o \( \hat{Y_i} = \hat{ \beta_0} + \hat{ \beta_1} X_i \) como o estimador para \( Y_i \). Nesse contexto, são definidos os erros, denominados resíduos, como \( Y_i - \hat{Y_i} = e_i \), a soma dos quadrados dos resíduos \( SQE = \sum_i e_i^2 \), a soma dos quadrados totais e a soma dos quadrados totais \( SQT = \sum_i ( Y_i - \bar{Y})^2 \) e a soma dos quadrados de regressão \( SQR = \sum_i ( \hat{Y_i} - \bar{Y})^2 \), com \( \bar{Y} = \sum_i Y_i/n \).
Com base nessas informações, julgue o próximo item, considerando uma variável T, com média nula e desvio padrão unitário, definida por uma distribuição t de Student com 30 graus de liberdade, que tenha o seguinte intervalo com probabilidade de 0,95: \( P(−2,042 < 1 < 2,042) = 0,95. \)
Na análise de adequação do modelo, é fundamental verificar se a variância dos resíduos não depende da variável