Foram encontradas 352 questões.
Para uma variável aleatória X e um parâmetro \( \theta \) , associado à distribuição de probabilidade de X , pode-se utilizar um estimador \( \hat{ \theta} \) para testar a hipótese do parâmetro \( \theta \) assumir um valor específico \( \theta_0 \). A fim de construir um teste, é necessário conhecer a distribuição do estimador, que definirá uma estatística de teste, e supor como hipótese nula, H0, a hipótese de que \( \theta = \theta_0 \). Para esse teste, existem dois tipos de erros: tipo I, rejeitar a hipótese H0 quando ela é verdadeira; tipo II, não rejeitar a hipótese H0 quando ela é falsa.
Com base nessas informações, julgue o seguinte item.
Testes de hipótese nulas com probabilidade de erro de tipo II muito pequenos são muito significativos para provar a verdade da hipótese nula.
Provas
Um modelo de regressão linear entre uma variável aleatória (dependente) e uma variável não aleatória X (independente) é definido por \( Y = \beta_0 + \beta_1 X + \varepsilon \), em que \( \varepsilon \), denominado erro aleatório, é uma variável aleatória independente de \( X \) com média \( E( \varepsilon) = 0 \) e desvio padrão \( Var( \varepsilon) = \sigma^2 \). Um modelo de regressão linear é essencialmente um modelo para a probabilidade condicional de Y com relação a X, denotada por P(Y|X); ele é chamado de simples se - for uma variável aleatória gaussiana. Fixando-se n valores \( X_1, X_2, \cdots, X_n \) para a variável independente X, pode-se definir n variáveis aleatórias \( Y_i = \beta_0 + \beta_1 X_i + \varepsilon_i \), com \( i =1, \cdots, n \). Pelo método dos mínimos quadrados, é possível obter estimadores \( \hat{ \beta_0} \) e \( \hat{ \beta_1} \) para os parâmetros \( \beta_0 \) e \( \beta_1 \) e definir o \( \hat{Y_i} = \hat{ \beta_0} + \hat{ \beta_1} X_i \) como o estimador para \( Y_i \). Nesse contexto, são definidos os erros, denominados resíduos, como \( Y_i - \hat{Y_i} = e_i \), a soma dos quadrados dos resíduos \( SQE = \sum_i e_i^2 \), a soma dos quadrados totais e a soma dos quadrados totais \( SQT = \sum_i ( Y_i - \bar{Y})^2 \) e a soma dos quadrados de regressão \( SQR = \sum_i ( \hat{Y_i} - \bar{Y})^2 \), com \( \bar{Y} = \sum_i Y_i/n \).
Com base nessas informações, julgue o próximo item, considerando uma variável T, com média nula e desvio padrão unitário, definida por uma distribuição t de Student com 30 graus de liberdade, que tenha o seguinte intervalo com probabilidade de 0,95: \( P(−2,042 < 1 < 2,042) = 0,95. \)
O coeficiente de determinação para um modelo de regressão linear é definido como r2= (SQT − SQE)/SQT e sua raiz quadrada corresponde ao coeficiente de correlação linear entre as variáveis Y e X .
Provas
Um modelo de regressão linear entre uma variável aleatória (dependente) e uma variável não aleatória X (independente) é definido por \( Y = \beta_0 + \beta_1 X + \varepsilon \), em que \( \varepsilon \), denominado erro aleatório, é uma variável aleatória independente de \( X \) com média \( E( \varepsilon) = 0 \) e desvio padrão \( Var( \varepsilon) = \sigma^2 \). Um modelo de regressão linear é essencialmente um modelo para a probabilidade condicional de Y com relação a X, denotada por P(Y|X); ele é chamado de simples se - for uma variável aleatória gaussiana. Fixando-se n valores \( X_1, X_2, \cdots, X_n \) para a variável independente X, pode-se definir n variáveis aleatórias \( Y_i = \beta_0 + \beta_1 X_i + \varepsilon_i \), com \( i =1, \cdots, n \). Pelo método dos mínimos quadrados, é possível obter estimadores \( \hat{ \beta_0} \) e \( \hat{ \beta_1} \) para os parâmetros \( \beta_0 \) e \( \beta_1 \) e definir o \( \hat{Y_i} = \hat{ \beta_0} + \hat{ \beta_1} X_i \) como o estimador para \( Y_i \). Nesse contexto, são definidos os erros, denominados resíduos, como \( Y_i - \hat{Y_i} = e_i \), a soma dos quadrados dos resíduos \( SQE = \sum_i e_i^2 \), a soma dos quadrados totais e a soma dos quadrados totais \( SQT = \sum_i ( Y_i - \bar{Y})^2 \) e a soma dos quadrados de regressão \( SQR = \sum_i ( \hat{Y_i} - \bar{Y})^2 \), com \( \bar{Y} = \sum_i Y_i/n \).
Com base nessas informações, julgue o próximo item, considerando uma variável T, com média nula e desvio padrão unitário, definida por uma distribuição t de Student com 30 graus de liberdade, que tenha o seguinte intervalo com probabilidade de 0,95: \( P(−2,042 < 1 < 2,042) = 0,95. \)
Um estimador não viciado para a variância de \( \hat{ \beta_i} \) é obtido pela variância amostral dada por \( S^2 = SQE/ [n -2) \sum_i ( X_i - \bar{X})^2 ] \), em que \( \bar{X} = \sum_i X_i /n \) e a variável centralizada de \( \hat{ \beta_i} \), normalizada por , tem uma distribuição t de Student com − 1 graus de liberdade.
Provas
Um modelo de regressão linear entre uma variável aleatória (dependente) e uma variável não aleatória X (independente) é definido por \( Y = \beta_0 + \beta_1 X + \varepsilon \), em que \( \varepsilon \), denominado erro aleatório, é uma variável aleatória independente de \( X \) com média \( E( \varepsilon) = 0 \) e desvio padrão \( Var( \varepsilon) = \sigma^2 \). Um modelo de regressão linear é essencialmente um modelo para a probabilidade condicional de Y com relação a X, denotada por P(Y|X); ele é chamado de simples se - for uma variável aleatória gaussiana. Fixando-se n valores \( X_1, X_2, \cdots, X_n \) para a variável independente X, pode-se definir n variáveis aleatórias \( Y_i = \beta_0 + \beta_1 X_i + \varepsilon_i \), com \( i =1, \cdots, n \). Pelo método dos mínimos quadrados, é possível obter estimadores \( \hat{ \beta_0} \) e \( \hat{ \beta_1} \) para os parâmetros \( \beta_0 \) e \( \beta_1 \) e definir o \( \hat{Y_i} = \hat{ \beta_0} + \hat{ \beta_1} X_i \) como o estimador para \( Y_i \). Nesse contexto, são definidos os erros, denominados resíduos, como \( Y_i - \hat{Y_i} = e_i \), a soma dos quadrados dos resíduos \( SQE = \sum_i e_i^2 \), a soma dos quadrados totais e a soma dos quadrados totais \( SQT = \sum_i ( Y_i - \bar{Y})^2 \) e a soma dos quadrados de regressão \( SQR = \sum_i ( \hat{Y_i} - \bar{Y})^2 \), com \( \bar{Y} = \sum_i Y_i/n \).
Com base nessas informações, julgue o próximo item, considerando uma variável T, com média nula e desvio padrão unitário, definida por uma distribuição t de Student com 30 graus de liberdade, que tenha o seguinte intervalo com probabilidade de 0,95: \( P(−2,042 < 1 < 2,042) = 0,95. \)
Para um modelo de regressão que não seja simples, a soma dos resíduos não será nula.
Provas
Um modelo de regressão linear entre uma variável aleatória (dependente) e uma variável não aleatória X (independente) é definido por \( Y = \beta_0 + \beta_1 X + \varepsilon \), em que \( \varepsilon \), denominado erro aleatório, é uma variável aleatória independente de \( X \) com média \( E( \varepsilon) = 0 \) e desvio padrão \( Var( \varepsilon) = \sigma^2 \). Um modelo de regressão linear é essencialmente um modelo para a probabilidade condicional de Y com relação a X, denotada por P(Y|X); ele é chamado de simples se - for uma variável aleatória gaussiana. Fixando-se n valores \( X_1, X_2, \cdots, X_n \) para a variável independente X, pode-se definir n variáveis aleatórias \( Y_i = \beta_0 + \beta_1 X_i + \varepsilon_i \), com \( i =1, \cdots, n \). Pelo método dos mínimos quadrados, é possível obter estimadores \( \hat{ \beta_0} \) e \( \hat{ \beta_1} \) para os parâmetros \( \beta_0 \) e \( \beta_1 \) e definir o \( \hat{Y_i} = \hat{ \beta_0} + \hat{ \beta_1} X_i \) como o estimador para \( Y_i \). Nesse contexto, são definidos os erros, denominados resíduos, como \( Y_i - \hat{Y_i} = e_i \), a soma dos quadrados dos resíduos \( SQE = \sum_i e_i^2 \), a soma dos quadrados totais e a soma dos quadrados totais \( SQT = \sum_i ( Y_i - \bar{Y})^2 \) e a soma dos quadrados de regressão \( SQR = \sum_i ( \hat{Y_i} - \bar{Y})^2 \), com \( \bar{Y} = \sum_i Y_i/n \).
Com base nessas informações, julgue o próximo item, considerando uma variável T, com média nula e desvio padrão unitário, definida por uma distribuição t de Student com 30 graus de liberdade, que tenha o seguinte intervalo com probabilidade de 0,95: \( P(−2,042 < 1 < 2,042) = 0,95. \)
Para um modelo de regressão linear, vale a relação linear \( E(Y) = \beta_0 + beta_1 X \) para a média \( E(Y) \) da variável .
Provas
Um modelo de regressão linear entre uma variável aleatória (dependente) e uma variável não aleatória X (independente) é definido por \( Y = \beta_0 + \beta_1 X + \varepsilon \), em que \( \varepsilon \), denominado erro aleatório, é uma variável aleatória independente de \( X \) com média \( E( \varepsilon) = 0 \) e desvio padrão \( Var( \varepsilon) = \sigma^2 \). Um modelo de regressão linear é essencialmente um modelo para a probabilidade condicional de Y com relação a X, denotada por P(Y|X); ele é chamado de simples se - for uma variável aleatória gaussiana. Fixando-se n valores \( X_1, X_2, \cdots, X_n \) para a variável independente X, pode-se definir n variáveis aleatórias \( Y_i = \beta_0 + \beta_1 X_i + \varepsilon_i \), com \( i =1, \cdots, n \). Pelo método dos mínimos quadrados, é possível obter estimadores \( \hat{ \beta_0} \) e \( \hat{ \beta_1} \) para os parâmetros \( \beta_0 \) e \( \beta_1 \) e definir o \( \hat{Y_i} = \hat{ \beta_0} + \hat{ \beta_1} X_i \) como o estimador para \( Y_i \). Nesse contexto, são definidos os erros, denominados resíduos, como \( Y_i - \hat{Y_i} = e_i \), a soma dos quadrados dos resíduos \( SQE = \sum_i e_i^2 \), a soma dos quadrados totais e a soma dos quadrados totais \( SQT = \sum_i ( Y_i - \bar{Y})^2 \) e a soma dos quadrados de regressão \( SQR = \sum_i ( \hat{Y_i} - \bar{Y})^2 \), com \( \bar{Y} = \sum_i Y_i/n \).
Com base nessas informações, julgue o próximo item, considerando uma variável T, com média nula e desvio padrão unitário, definida por uma distribuição t de Student com 30 graus de liberdade, que tenha o seguinte intervalo com probabilidade de 0,95: \( P(−2,042 < 1 < 2,042) = 0,95. \)
Na análise de adequação do modelo, é fundamental verificar se a variância dos resíduos não depende da variável
Provas
Um modelo de regressão linear entre uma variável aleatória (dependente) e uma variável não aleatória X (independente) é definido por \( Y = \beta_0 + \beta_1 X + \varepsilon \), em que \( \varepsilon \), denominado erro aleatório, é uma variável aleatória independente de \( X \) com média \( E( \varepsilon) = 0 \) e desvio padrão \( Var( \varepsilon) = \sigma^2 \). Um modelo de regressão linear é essencialmente um modelo para a probabilidade condicional de Y com relação a X, denotada por P(Y|X); ele é chamado de simples se - for uma variável aleatória gaussiana. Fixando-se n valores \( X_1, X_2, \cdots, X_n \) para a variável independente X, pode-se definir n variáveis aleatórias \( Y_i = \beta_0 + \beta_1 X_i + \varepsilon_i \), com \( i =1, \cdots, n \). Pelo método dos mínimos quadrados, é possível obter estimadores \( \hat{ \beta_0} \) e \( \hat{ \beta_1} \) para os parâmetros \( \beta_0 \) e \( \beta_1 \) e definir o \( \hat{Y_i} = \hat{ \beta_0} + \hat{ \beta_1} X_i \) como o estimador para \( Y_i \). Nesse contexto, são definidos os erros, denominados resíduos, como \( Y_i - \hat{Y_i} = e_i \), a soma dos quadrados dos resíduos \( SQE = \sum_i e_i^2 \), a soma dos quadrados totais e a soma dos quadrados totais \( SQT = \sum_i ( Y_i - \bar{Y})^2 \) e a soma dos quadrados de regressão \( SQR = \sum_i ( \hat{Y_i} - \bar{Y})^2 \), com \( \bar{Y} = \sum_i Y_i/n \).
Com base nessas informações, julgue o próximo item, considerando uma variável T, com média nula e desvio padrão unitário, definida por uma distribuição t de Student com 30 graus de liberdade, que tenha o seguinte intervalo com probabilidade de 0,95: \( P(−2,042 < 1 < 2,042) = 0,95. \)
Considere que, para uma regressão linear simples da relação \( Y = \beta_0 + \beta_1 X \) em uma amostra de 32 valores de X, obteve-se: \( \hat{ \beta_1} = 2 \) como estimativa para \( \beta_1 \); soma dos quadrados dos resíduos igual a 600; e \( \sum_{i =1}^{32} (X_i - \bar{X})^2 = 2.000 \), em que \( \bar{X} \) é a média dos valores de X na amostra. Considere ainda que tenha sido feito o teste da hipótese de não existir a relação linear \( Y = \beta_0 + \beta_1 X \), tomando-se como hipótese nula que \( \beta_1 = 0 \). Nessas condições, assumindo um teste com erro de tipo I igual a 5%, é correto afirmar que a hipótese de não existir a relação linear deve ser aceita.
Provas
Para uma variável aleatória X, de média \( E(X) = \mu \) e variância \( Var(X) = \sigma^2 \), uma amostra aleatória de tamanho n é constituída por um conjunto \( \left \{ X_1, X_2, \cdots, X_n \right \} \) de n variáveis aleatórias idênticas a X e estatisticamente independentes entre si. Essa amostra aleatória de X tem média amostral definida como sendo a variável aleatória \( \bar{X}_n = ( X_1+ X_2 + \cdots + X_n) /n \). Se um estimador estatístico para um parâmetro \( \theta \), associado à distribuição de probabilidade de , for denotado por \( \hat{ \theta} \), então o estimador para \( \mu \), da referida amostra aleatória, será \( \hat{ \mu}_n = \bar{X}_n \).
Com base nessas informações, julgue o item a seguir, considerando que os resultados do teorema do limite central são fundamentais para embasar a análise da qualidade dos estimadores estatísticos de um parâmetro.
Para um valor 0 < a < 1, o intervalo de confiança, com confiança 1 - a, para a estimativa de \( E(X) = \mu \), utilizando-se o estimador \( \hat{ \mu_n} \), será assintoticamente \( ( n \rightarrow \infty) \) dado por \( ( \bar{X}_n - z_a\,\sigma/ \sqrt{n}, \bar{X}_n + z_a\,\sigma / \sqrt{n}) \), em que \( z_a \) é o quantil \( \alpha \) da distribuição N (0, 1).
Provas
Para uma variável aleatória X, de média \( E(X) = \mu \) e variância \( Var(X) = \sigma^2 \), uma amostra aleatória de tamanho n é constituída por um conjunto \( \left \{ X_1, X_2, \cdots, X_n \right \} \) de n variáveis aleatórias idênticas a X e estatisticamente independentes entre si. Essa amostra aleatória de X tem média amostral definida como sendo a variável aleatória \( \bar{X}_n = ( X_1+ X_2 + \cdots + X_n) /n \). Se um estimador estatístico para um parâmetro \( \theta \), associado à distribuição de probabilidade de , for denotado por \( \hat{ \theta} \), então o estimador para \( \mu \), da referida amostra aleatória, será \( \hat{ \mu}_n = \bar{X}_n \).
Com base nessas informações, julgue o item a seguir, considerando que os resultados do teorema do limite central são fundamentais para embasar a análise da qualidade dos estimadores estatísticos de um parâmetro.
Para uma amostra aleatória da variável X , cuja distribuição depende de m parâmetros \( \left \{ \theta_1, \theta_2, \cdots, \theta_m \right \} \), deve-se obter m estimadores, minimizando a função de verossimilhança \( L( \theta_1, \theta_2, \cdots, \theta_m) \).
Provas
Para uma variável aleatória X, de média \( E(X) = \mu \) e variância \( Var(X) = \sigma^2 \), uma amostra aleatória de tamanho n é constituída por um conjunto \( \left \{ X_1, X_2, \cdots, X_n \right \} \) de n variáveis aleatórias idênticas a X e estatisticamente independentes entre si. Essa amostra aleatória de X tem média amostral definida como sendo a variável aleatória \( \bar{X}_n = ( X_1+ X_2 + \cdots + X_n) /n \). Se um estimador estatístico para um parâmetro \( \theta \), associado à distribuição de probabilidade de , for denotado por \( \hat{ \theta} \), então o estimador para \( \mu \), da referida amostra aleatória, será \( \hat{ \mu}_n = \bar{X}_n \).
Com base nessas informações, julgue o item a seguir, considerando que os resultados do teorema do limite central são fundamentais para embasar a análise da qualidade dos estimadores estatísticos de um parâmetro.
A variável normalizada e centralizada do estimador \( \hat{ \mu_n} = \bar{X}_n \) é \( ( \hat{ \mu}_n - \mu) \sqrt{n}/ \sigma \) e tem, assintoticamente, distribuição normal unitária N (0, 1) para \( n \rightarrow \infty \).
Provas
Caderno Container