Foram encontradas 32.193 questões.
Para validar as suposições clássicas usuais e detectar potenciais violações de um modelo de regressão linear múltipla na forma y = β0 + β1x1 + β2x2 + ... + βkxk + ε, será feita uma análise de resíduos, a partir dos dados a seguir.
- Resíduo: \(e_i = y_i − \hat{y}_i\)
- Resíduos padronizados: \(\dfrac{e_i}{\hat{σ}}\) , em que \(\hat{σ} = \sqrt{QMR}\) e \(QMR\) é o quadrado médio do resíduo.
- Resíduos estudentizados: \(\dfrac{e_i}{\sqrt{QMR(1-h_{ii})}}\), em que hii é o i-ésimo elemento da diagonal da matriz hat.
Considerando as informações precedentes, julgue os itens que se seguem.
Em um modelo de regressão bem-ajustado, os resíduos devem mostrar padrões sistemáticos quando plotados contra os valores ajustados \( \hat y_i \).
Provas
Para um modelo de regressão linear múltipla na forma y = β0 + β1x1 + β2x2 + ... + βkxk + ε, em que são válidas as suposições clássicas usuais, a tabela de ANOVA decompõe a variação total na resposta (y) conforme a seguir.
- SQT (soma de quadrados totais) = \(\sum(y_i − \bar{y})^2\)
- SQM (soma de quadrados do modelo) = \(\sum(\hat{y}_i − \bar{y})^2\)
- SQR (soma de quadrados do resíduo) = \(\sum(y_i − \hat{y}_i)^2\)
A partir dessas informações, e considerando que n denota o tamanho da amostra, julgue os itens seguintes acerca do uso da ANOVA para avaliar regressões lineares.
Quando comparados os modelos alinhados usando ANOVA, a estatística F para testar a significância de q regressores adicionais é F = \( \dfrac{(SQR_{restrito}-SQR_{irrestrito})/q}{SQR_{irrestrito}/(n-k-1)} \), o qual segue uma distribuição F(q, n - k - 1) sob a hipótese nula.
Provas
Para um modelo de regressão linear múltipla na forma y = β0 + β1x1 + β2x2 + ... + βkxk + ε, em que são válidas as suposições clássicas usuais, a tabela de ANOVA decompõe a variação total na resposta (y) conforme a seguir.
- SQT (soma de quadrados totais) = \(\sum(y_i − \bar{y})^2\)
- SQM (soma de quadrados do modelo) = \(\sum(\hat{y}_i − \bar{y})^2\)
- SQR (soma de quadrados do resíduo) = \(\sum(y_i − \hat{y}_i)^2\)
A partir dessas informações, e considerando que n denota o tamanho da amostra, julgue os itens seguintes acerca do uso da ANOVA para avaliar regressões lineares.
O erro quadrático médio é igual à SQR/(n - k - 1) e provê um estimador não viesado da variância do erro, independentemente dos regressores terem efeitos significantes.
Provas
Para um modelo de regressão linear múltipla na forma y = β0 + β1x1 + β2x2 + ... + βkxk + ε, em que são válidas as suposições clássicas usuais, a tabela de ANOVA decompõe a variação total na resposta (y) conforme a seguir.
- SQT (soma de quadrados totais) = \(\sum(y_i − \bar{y})^2\)
- SQM (soma de quadrados do modelo) = \(\sum(\hat{y}_i − \bar{y})^2\)
- SQR (soma de quadrados do resíduo) = \(\sum(y_i − \hat{y}_i)^2\)
A partir dessas informações, e considerando que n denota o tamanho da amostra, julgue os itens seguintes acerca do uso da ANOVA para avaliar regressões lineares.
A estatística F para testar H0: β1 = β2 = ... = βk = 0 é dada F por = \( \dfrac{SQM/k}{SQR/\left(n-k-1\right)} \).
Provas
Para um modelo de regressão linear múltipla na forma y = β0 + β1x1 + β2x2 + ... + βkxk + ε, em que são válidas as suposições clássicas usuais, a tabela de ANOVA decompõe a variação total na resposta (y) conforme a seguir.
- SQT (soma de quadrados totais) = \(\sum(y_i − \bar{y})^2\)
- SQM (soma de quadrados do modelo) = \(\sum(\hat{y}_i − \bar{y})^2\)
- SQR (soma de quadrados do resíduo) = \(\sum(y_i − \hat{y}_i)^2\)
A partir dessas informações, e considerando que n denota o tamanho da amostra, julgue os itens seguintes acerca do uso da ANOVA para avaliar regressões lineares.
O coeficiente de determinação R2 é igual à SQM/SQT, e incluir qualquer novo regressor (mesmo que estatisticamente insignificante) diminuirá o R2.
Provas
A respeito da inferência do modelo de regressão linear múltipla da forma \(y = β_0 + β_1x_1 + β_2x_2 + \dots + β_kx_k + \epsilon\), julgue os itens subsecutivos, considerando que valem as suposições clássicas, como linearidade nos parâmetros, independência entre observações, homoscedasticidade, normalidade e ausência de multicolinearidade perfeita.
O p-valor representa a probabilidade de que a hipótese nula seja verdadeira condicional aos dados observados.
Provas
A respeito da inferência do modelo de regressão linear múltipla da forma \(y = β_0 + β_1x_1 + β_2x_2 + \dots + β_kx_k + \epsilon\), julgue os itens subsecutivos, considerando que valem as suposições clássicas, como linearidade nos parâmetros, independência entre observações, homoscedasticidade, normalidade e ausência de multicolinearidade perfeita.
Petra testar H0:\( \beta \)1 + \( \beta \)2 = 1 usando um teste t, a estatística do teste é \( \dfrac{\hat {\beta}_1 + \hat {\beta}_2 -1}{EP(\hat {\beta}_1 + \hat {\beta}_2)} \), em que EP é o erro padrão, determinado por EP(\( \hat {\beta}_1 + \hat {\beta}_2 \)) = \( \sqrt{Var(\hat {\beta}_1)+Var(\hat {\beta}_2)+2Cov(\hat {\beta}_1 , \hat {\beta}_2)} \).
Provas
A respeito da inferência do modelo de regressão linear múltipla da forma \(y = β_0 + β_1x_1 + β_2x_2 + \dots + β_kx_k + \epsilon\), julgue os itens subsecutivos, considerando que valem as suposições clássicas, como linearidade nos parâmetros, independência entre observações, homoscedasticidade, normalidade e ausência de multicolinearidade perfeita.
Se o erro padrão de \( \beta \)j aumenta, mantendo as demais características constantes, o comprimento do intervalo de confiança para \( \beta \)j diminui.
Provas
A respeito da inferência do modelo de regressão linear múltipla da forma \(y = β_0 + β_1x_1 + β_2x_2 + \dots + β_kx_k + \epsilon\), julgue os itens subsecutivos, considerando que valem as suposições clássicas, como linearidade nos parâmetros, independência entre observações, homoscedasticidade, normalidade e ausência de multicolinearidade perfeita.
A estatística F para testar H0:\( \beta \)1 = \( \beta \)2 = ... = \( \beta \)k = 0 segue uma distribuição F com (k, n - 1) graus de liberdade.
Provas
A respeito da inferência do modelo de regressão linear múltipla da forma \(y = β_0 + β_1x_1 + β_2x_2 + \dots + β_kx_k + \epsilon\), julgue os itens subsecutivos, considerando que valem as suposições clássicas, como linearidade nos parâmetros, independência entre observações, homoscedasticidade, normalidade e ausência de multicolinearidade perfeita.
Um intervalo de 95% de confiança para \( \beta \)j que inclui o zero significa que se rejeita a hipótese H0:\( \beta \)j = 0 ao nível de 5% de significáncia.
Provas
Caderno Container