Magna Concursos

Foram encontradas 120 questões.

2854917 Ano: 2023
Disciplina: Português
Banca: CESPE / CEBRASPE
Orgão: EMPREL
Texto CG2A1-I
É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial (IA), que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico”. Essa ilusão, que infla as capacidades dos sistemas automatizados e os antropomorfiza, induz as pessoas a pensar que existe um ser senciente por trás das mídias sintéticas. Isso seduz as pessoas a não apenas confiarem acriticamente em sistemas como o ChatGPT, mas também a lhes atribuírem erroneamente a capacidade de agir. A responsabilização propriamente dita não cabe aos artefatos tecnológicos, mas a seus construtores.
O que precisamos é de regulamentação que imponha transparência a essa tecnologia digital. Isso deve ficar sempre claro quando nos deparamos com mídias sintéticas, e as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo. Além disso, o ônus de criar instrumentos seguros de uso dessas tecnologias deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.
A corrida atual rumo a “experimentos de IA” cada vez maiores não é um caminho predeterminado no qual a nossa única escolha é o quão rápido devemos correr, mas uma série de decisões impulsionadas pelo lucro. As ações e as escolhas das corporações devem ser moldadas por regulamentação que proteja os direitos e os interesses das pessoas. O foco da nossa preocupação não deveriam ser as “poderosas mentes digitais” imaginárias. Em vez disso, deveríamos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las.
Timnit Gebru et al.Papagaios estocásticos: o pedido de moratória para a IA e os riscos em jogo. Internet: (com adaptações).
No que se refere à concordância nominal e verbal, estaria mantida a correção gramatical do texto CG2A1-I caso se substituísse
I “ser” (segundo período do terceiro parágrafo) por serem.
II “impulsionadas” (primeiro período do terceiro parágrafo) por impulsionada.
III “deveriam” (penúltimo período do terceiro parágrafo) por deveria.

Assinale a opção correta.
 

Provas

Questão presente nas seguintes provas
2854916 Ano: 2023
Disciplina: Português
Banca: CESPE / CEBRASPE
Orgão: EMPREL
Texto CG2A1-I
É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial (IA), que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico”. Essa ilusão, que infla as capacidades dos sistemas automatizados e os antropomorfiza, induz as pessoas a pensar que existe um ser senciente por trás das mídias sintéticas. Isso seduz as pessoas a não apenas confiarem acriticamente em sistemas como o ChatGPT, mas também a lhes atribuírem erroneamente a capacidade de agir. A responsabilização propriamente dita não cabe aos artefatos tecnológicos, mas a seus construtores.
O que precisamos é de regulamentação que imponha transparência a essa tecnologia digital. Isso deve ficar sempre claro quando nos deparamos com mídias sintéticas, e as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo. Além disso, o ônus de criar instrumentos seguros de uso dessas tecnologias deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.
A corrida atual rumo a “experimentos de IA” cada vez maiores não é um caminho predeterminado no qual a nossa única escolha é o quão rápido devemos correr, mas uma série de decisões impulsionadas pelo lucro. As ações e as escolhas das corporações devem ser moldadas por regulamentação que proteja os direitos e os interesses das pessoas. O foco da nossa preocupação não deveriam ser as “poderosas mentes digitais” imaginárias. Em vez disso, deveríamos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las.
Timnit Gebru et al.Papagaios estocásticos: o pedido de moratória para a IA e os riscos em jogo. Internet: (com adaptações).
No texto CG2A1-I, o vocábulo “senciente” (segundo período do primeiro parágrafo) significa
 

Provas

Questão presente nas seguintes provas
2854915 Ano: 2023
Disciplina: Português
Banca: CESPE / CEBRASPE
Orgão: EMPREL
Texto CG2A1-I
É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial (IA), que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico”. Essa ilusão, que infla as capacidades dos sistemas automatizados e os antropomorfiza, induz as pessoas a pensar que existe um ser senciente por trás das mídias sintéticas. Isso seduz as pessoas a não apenas confiarem acriticamente em sistemas como o ChatGPT, mas também a lhes atribuírem erroneamente a capacidade de agir. A responsabilização propriamente dita não cabe aos artefatos tecnológicos, mas a seus construtores.
O que precisamos é de regulamentação que imponha transparência a essa tecnologia digital. Isso deve ficar sempre claro quando nos deparamos com mídias sintéticas, e as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo. Além disso, o ônus de criar instrumentos seguros de uso dessas tecnologias deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.
A corrida atual rumo a “experimentos de IA” cada vez maiores não é um caminho predeterminado no qual a nossa única escolha é o quão rápido devemos correr, mas uma série de decisões impulsionadas pelo lucro. As ações e as escolhas das corporações devem ser moldadas por regulamentação que proteja os direitos e os interesses das pessoas. O foco da nossa preocupação não deveriam ser as “poderosas mentes digitais” imaginárias. Em vez disso, deveríamos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las.
Timnit Gebru et al.Papagaios estocásticos: o pedido de moratória para a IA e os riscos em jogo. Internet: (com adaptações).
Assinale a opção em que a proposta de substituição para o trecho “o que significa que” (último período do segundo parágrafo) preservaria tanto os sentidos do texto CG2A1-I quanto a sua correção gramatical.
 

Provas

Questão presente nas seguintes provas
2854914 Ano: 2023
Disciplina: Português
Banca: CESPE / CEBRASPE
Orgão: EMPREL
Texto CG2A1-I
É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial (IA), que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico”. Essa ilusão, que infla as capacidades dos sistemas automatizados e os antropomorfiza, induz as pessoas a pensar que existe um ser senciente por trás das mídias sintéticas. Isso seduz as pessoas a não apenas confiarem acriticamente em sistemas como o ChatGPT, mas também a lhes atribuírem erroneamente a capacidade de agir. A responsabilização propriamente dita não cabe aos artefatos tecnológicos, mas a seus construtores.
O que precisamos é de regulamentação que imponha transparência a essa tecnologia digital. Isso deve ficar sempre claro quando nos deparamos com mídias sintéticas, e as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo. Além disso, o ônus de criar instrumentos seguros de uso dessas tecnologias deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.
A corrida atual rumo a “experimentos de IA” cada vez maiores não é um caminho predeterminado no qual a nossa única escolha é o quão rápido devemos correr, mas uma série de decisões impulsionadas pelo lucro. As ações e as escolhas das corporações devem ser moldadas por regulamentação que proteja os direitos e os interesses das pessoas. O foco da nossa preocupação não deveriam ser as “poderosas mentes digitais” imaginárias. Em vez disso, deveríamos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las.
Timnit Gebru et al.Papagaios estocásticos: o pedido de moratória para a IA e os riscos em jogo. Internet: (com adaptações).
Assinale a opção em que a proposta de reescrita do trecho “mas também a lhes atribuírem” (terceiro período do primeiro parágrafo) é gramaticalmente correta e coerente com as ideias do texto CG2A1-I.
 

Provas

Questão presente nas seguintes provas
2854913 Ano: 2023
Disciplina: Português
Banca: CESPE / CEBRASPE
Orgão: EMPREL
Texto CG2A1-I
É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial (IA), que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico”. Essa ilusão, que infla as capacidades dos sistemas automatizados e os antropomorfiza, induz as pessoas a pensar que existe um ser senciente por trás das mídias sintéticas. Isso seduz as pessoas a não apenas confiarem acriticamente em sistemas como o ChatGPT, mas também a lhes atribuírem erroneamente a capacidade de agir. A responsabilização propriamente dita não cabe aos artefatos tecnológicos, mas a seus construtores.
O que precisamos é de regulamentação que imponha transparência a essa tecnologia digital. Isso deve ficar sempre claro quando nos deparamos com mídias sintéticas, e as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo. Além disso, o ônus de criar instrumentos seguros de uso dessas tecnologias deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.
A corrida atual rumo a “experimentos de IA” cada vez maiores não é um caminho predeterminado no qual a nossa única escolha é o quão rápido devemos correr, mas uma série de decisões impulsionadas pelo lucro. As ações e as escolhas das corporações devem ser moldadas por regulamentação que proteja os direitos e os interesses das pessoas. O foco da nossa preocupação não deveriam ser as “poderosas mentes digitais” imaginárias. Em vez disso, deveríamos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las.
Timnit Gebru et al.Papagaios estocásticos: o pedido de moratória para a IA e os riscos em jogo. Internet: (com adaptações).
No texto CG2A1-I, as formas pronominais “os”, em “os antropomorfiza” (segundo período do primeiro parágrafo), e “las”, em “construí-las” (final do terceiro parágrafo) referem-se, respectivamente, a
 

Provas

Questão presente nas seguintes provas
2854912 Ano: 2023
Disciplina: Português
Banca: CESPE / CEBRASPE
Orgão: EMPREL
Texto CG2A1-I
É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial (IA), que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico”. Essa ilusão, que infla as capacidades dos sistemas automatizados e os antropomorfiza, induz as pessoas a pensar que existe um ser senciente por trás das mídias sintéticas. Isso seduz as pessoas a não apenas confiarem acriticamente em sistemas como o ChatGPT, mas também a lhes atribuírem erroneamente a capacidade de agir. A responsabilização propriamente dita não cabe aos artefatos tecnológicos, mas a seus construtores.
O que precisamos é de regulamentação que imponha transparência a essa tecnologia digital. Isso deve ficar sempre claro quando nos deparamos com mídias sintéticas, e as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo. Além disso, o ônus de criar instrumentos seguros de uso dessas tecnologias deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.
A corrida atual rumo a “experimentos de IA” cada vez maiores não é um caminho predeterminado no qual a nossa única escolha é o quão rápido devemos correr, mas uma série de decisões impulsionadas pelo lucro. As ações e as escolhas das corporações devem ser moldadas por regulamentação que proteja os direitos e os interesses das pessoas. O foco da nossa preocupação não deveriam ser as “poderosas mentes digitais” imaginárias. Em vez disso, deveríamos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las.
Timnit Gebru et al.Papagaios estocásticos: o pedido de moratória para a IA e os riscos em jogo. Internet: (com adaptações).
Assinale a opção em que o vocábulo indicado expressa, no texto CG2A1-I, uma ação ainda não realizada.
 

Provas

Questão presente nas seguintes provas
2854911 Ano: 2023
Disciplina: Português
Banca: CESPE / CEBRASPE
Orgão: EMPREL
Texto CG2A1-I
É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial (IA), que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico”. Essa ilusão, que infla as capacidades dos sistemas automatizados e os antropomorfiza, induz as pessoas a pensar que existe um ser senciente por trás das mídias sintéticas. Isso seduz as pessoas a não apenas confiarem acriticamente em sistemas como o ChatGPT, mas também a lhes atribuírem erroneamente a capacidade de agir. A responsabilização propriamente dita não cabe aos artefatos tecnológicos, mas a seus construtores.
O que precisamos é de regulamentação que imponha transparência a essa tecnologia digital. Isso deve ficar sempre claro quando nos deparamos com mídias sintéticas, e as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo. Além disso, o ônus de criar instrumentos seguros de uso dessas tecnologias deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.
A corrida atual rumo a “experimentos de IA” cada vez maiores não é um caminho predeterminado no qual a nossa única escolha é o quão rápido devemos correr, mas uma série de decisões impulsionadas pelo lucro. As ações e as escolhas das corporações devem ser moldadas por regulamentação que proteja os direitos e os interesses das pessoas. O foco da nossa preocupação não deveriam ser as “poderosas mentes digitais” imaginárias. Em vez disso, deveríamos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las.
Timnit Gebru et al.Papagaios estocásticos: o pedido de moratória para a IA e os riscos em jogo. Internet: (com adaptações).
Assinale a opção em que se resumem corretamente as relações estabelecidas, no segundo parágrafo do texto CG2A1-I, entre regulamentação, transparência e responsabilização na construção, implementação e segurança de uso da IA.
 

Provas

Questão presente nas seguintes provas
2854910 Ano: 2023
Disciplina: Português
Banca: CESPE / CEBRASPE
Orgão: EMPREL
Texto CG2A1-I
É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial (IA), que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico”. Essa ilusão, que infla as capacidades dos sistemas automatizados e os antropomorfiza, induz as pessoas a pensar que existe um ser senciente por trás das mídias sintéticas. Isso seduz as pessoas a não apenas confiarem acriticamente em sistemas como o ChatGPT, mas também a lhes atribuírem erroneamente a capacidade de agir. A responsabilização propriamente dita não cabe aos artefatos tecnológicos, mas a seus construtores.
O que precisamos é de regulamentação que imponha transparência a essa tecnologia digital. Isso deve ficar sempre claro quando nos deparamos com mídias sintéticas, e as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo. Além disso, o ônus de criar instrumentos seguros de uso dessas tecnologias deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.
A corrida atual rumo a “experimentos de IA” cada vez maiores não é um caminho predeterminado no qual a nossa única escolha é o quão rápido devemos correr, mas uma série de decisões impulsionadas pelo lucro. As ações e as escolhas das corporações devem ser moldadas por regulamentação que proteja os direitos e os interesses das pessoas. O foco da nossa preocupação não deveriam ser as “poderosas mentes digitais” imaginárias. Em vez disso, deveríamos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las.
Timnit Gebru et al.Papagaios estocásticos: o pedido de moratória para a IA e os riscos em jogo. Internet: (com adaptações).
Com base nos sentidos do texto CG2A1-I, julgue os itens a seguir.
I Entende-se do texto que a ilusão que antropomorfiza a IA e transforma a corrida rumo a seu desenvolvimento em um destino inescapável beneficia as corporações que lucram com a IA.
II No segundo parágrafo, a afirmação de que a garantia de segurança no uso da tecnologia digital deveria recair sobre as empresas é uma proposta que responde à demanda por transparência.
III No terceiro parágrafo, identifica-se uma contraposição entre os interesses das corporações e os das pessoas comuns.

Assinale a opção correta.
 

Provas

Questão presente nas seguintes provas
2854909 Ano: 2023
Disciplina: Português
Banca: CESPE / CEBRASPE
Orgão: EMPREL
Texto CG2A1-I
É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial (IA), que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico”. Essa ilusão, que infla as capacidades dos sistemas automatizados e os antropomorfiza, induz as pessoas a pensar que existe um ser senciente por trás das mídias sintéticas. Isso seduz as pessoas a não apenas confiarem acriticamente em sistemas como o ChatGPT, mas também a lhes atribuírem erroneamente a capacidade de agir. A responsabilização propriamente dita não cabe aos artefatos tecnológicos, mas a seus construtores.
O que precisamos é de regulamentação que imponha transparência a essa tecnologia digital. Isso deve ficar sempre claro quando nos deparamos com mídias sintéticas, e as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo. Além disso, o ônus de criar instrumentos seguros de uso dessas tecnologias deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.
A corrida atual rumo a “experimentos de IA” cada vez maiores não é um caminho predeterminado no qual a nossa única escolha é o quão rápido devemos correr, mas uma série de decisões impulsionadas pelo lucro. As ações e as escolhas das corporações devem ser moldadas por regulamentação que proteja os direitos e os interesses das pessoas. O foco da nossa preocupação não deveriam ser as “poderosas mentes digitais” imaginárias. Em vez disso, deveríamos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las.
Timnit Gebru et al.Papagaios estocásticos: o pedido de moratória para a IA e os riscos em jogo. Internet: (com adaptações).
Assinale a opção correta no que se refere à estrutura argumentativa do texto CG2A1-I.
 

Provas

Questão presente nas seguintes provas
2854908 Ano: 2023
Disciplina: Português
Banca: CESPE / CEBRASPE
Orgão: EMPREL
Texto CG2A1-I
É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial (IA), que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico”. Essa ilusão, que infla as capacidades dos sistemas automatizados e os antropomorfiza, induz as pessoas a pensar que existe um ser senciente por trás das mídias sintéticas. Isso seduz as pessoas a não apenas confiarem acriticamente em sistemas como o ChatGPT, mas também a lhes atribuírem erroneamente a capacidade de agir. A responsabilização propriamente dita não cabe aos artefatos tecnológicos, mas a seus construtores.
O que precisamos é de regulamentação que imponha transparência a essa tecnologia digital. Isso deve ficar sempre claro quando nos deparamos com mídias sintéticas, e as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo. Além disso, o ônus de criar instrumentos seguros de uso dessas tecnologias deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.
A corrida atual rumo a “experimentos de IA” cada vez maiores não é um caminho predeterminado no qual a nossa única escolha é o quão rápido devemos correr, mas uma série de decisões impulsionadas pelo lucro. As ações e as escolhas das corporações devem ser moldadas por regulamentação que proteja os direitos e os interesses das pessoas. O foco da nossa preocupação não deveriam ser as “poderosas mentes digitais” imaginárias. Em vez disso, deveríamos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las.
Timnit Gebru et al.Papagaios estocásticos: o pedido de moratória para a IA e os riscos em jogo. Internet: (com adaptações).
No primeiro parágrafo do texto CG2A1-I, o fato de as pessoas confiarem acriticamente em sistemas que usam IA e o fato de elas atribuírem a responsabilidade aos artefatos tecnológicos em vez de a seus construtores são apresentados como
 

Provas

Questão presente nas seguintes provas