Magna Concursos

Foram encontradas 200 questões.

4027529 Ano: 2026
Disciplina: Português
Banca: Consulplan
Orgão: Pref. Manaus-AM
ChatGPT não é analista: o perigo da falsa competência digital
Há uma epidemia invisível que começa a se espalhar no mundo corporativo: profissionais que utilizam ferramentas de Inteligência Artificial sem realmente entender os dados, a lógica ou o significado por trás deles. Relatórios e apresentações impecáveis à primeira vista, mas que revelam, em poucos minutos de leitura, que quem os produziu não entendeu o que estava dizendo.
Recentemente, um cliente pediu ao seu líder de área de vendas que elaborasse uma planilha com indicadores básicos de desempenho: vendas, conversão, ticket médio e churn. O profissional reuniu os dados, mas, em vez de fazer uma análise real, pediu à IA para gerar um relatório com conclusões.
Em segundos, o sistema devolveu um belo relatório com frases de efeito: “O ticket médio caiu devido à perda de foco no pós-venda” e também “A conversão subiu por conta do novo layout do e-commerce”.
Soa convincente, mas há um detalhe inacreditável: a empresa não tem e-commerce e o profissional sequer revisou esse detalhe antes de compartilhar a brilhante conclusão. Quanto aos demais indicadores, ele também não soube justificar ou explicar a metodologia, a lógica nem as variáveis envolvidas.
Em outro caso, também recente, o profissional trouxe um “laudo” em que pediu ao ChatGPT para avaliar a construção da meta do mês, apontando os riscos de gerar burnout no time de vendas.
Seria cômico se não fosse preocupante: profissionais sustentando posições em castelos de areia e correndo o risco de que decisões importantes sejam tomadas com base em conclusões fabricadas por uma IA que não tem contexto nem senso de causalidade.
Essa prática de delegar à IA o pensamento analítico cria o que chamo de “falsa competência digital”: o profissional parece produtivo, parece técnico, mas, na verdade, perdeu o controle sobre o raciocínio.
E isso já está sendo observado cientificamente. Um estudo publicado na revista Humanities and Social Sciences Communications (Nature, 2023), conduzido com estudantes do Paquistão e da China, mostrou que o uso indiscriminado da Inteligência Artificial está associado a uma perda expressiva da capacidade de tomada de decisão humana: 27,7% dos participantes relataram dependência cognitiva ou “preguiça mental” ao delegar análises à IA.
Outro estudo, AI Tools in Society: Impacts on Cognitive Offloading (MDPI, 2024), aponta um fenômeno semelhante: pessoas que dependem de IA para tarefas analíticas passam a desenvolver menor proficiência em raciocínio independente, confiando demais nas respostas automatizadas, mesmo quando incorretas.
Ambas as pesquisas confirmam o que já se percebe no dia a dia corporativo: quanto mais terceirizamos o pensamento, mais perdemos o domínio sobre ele.
O verdadeiro diferencial está em quem pensa com a IA, e não por meio dela.
E isso exige domínio dos fundamentos, como entender indicadores, testar hipóteses, validar correlações e aplicar senso crítico sobre cada conclusão gerada.
A Inteligência Artificial está mudando tudo, menos o essencial: a necessidade de pensar. O futuro do trabalho exigirá menos operadores de ferramenta e mais curadores de sentido. Porque, no fim, a IA só é inteligente quando quem a usa também é.
O profissional do amanhã não será definido pela velocidade da entrega, mas pela profundidade do raciocínio.
(Por Cecília Rapassi. Disponível em: https://mercadoeconsumo.com.br. Acesso em: dezembro de 2025. Adaptado.)
De acordo com o texto, marque V para as afirmativas verdadeiras e F para as falsas.

( ) Segundo a autora, “falsa competência digital” (7º§), em outras palavras, seria o processo pelo qual o indivíduo passa a utilizar a inteligência artificial de modo impreciso e negativamente comprometido em todos os aspectos.
( ) Estudos científicos têm apresentado dados que demonstram e confirmam as inquietações suscitadas no texto acerca do uso da inteligência artificial.
( ) Os cientistas demonstram, por meio de pesquisas e dados, que o comprometimento causado pelo uso da inteligência artificial equipara-se ao comprometimento de defasagem de competências já estabelecidas, como, por exemplo, a competência leitora.

A sequência está correta em
 

Provas

Questão presente nas seguintes provas
4027528 Ano: 2026
Disciplina: Português
Banca: Consulplan
Orgão: Pref. Manaus-AM
ChatGPT não é analista: o perigo da falsa competência digital
Há uma epidemia invisível que começa a se espalhar no mundo corporativo: profissionais que utilizam ferramentas de Inteligência Artificial sem realmente entender os dados, a lógica ou o significado por trás deles. Relatórios e apresentações impecáveis à primeira vista, mas que revelam, em poucos minutos de leitura, que quem os produziu não entendeu o que estava dizendo.
Recentemente, um cliente pediu ao seu líder de área de vendas que elaborasse uma planilha com indicadores básicos de desempenho: vendas, conversão, ticket médio e churn. O profissional reuniu os dados, mas, em vez de fazer uma análise real, pediu à IA para gerar um relatório com conclusões.
Em segundos, o sistema devolveu um belo relatório com frases de efeito: “O ticket médio caiu devido à perda de foco no pós-venda” e também “A conversão subiu por conta do novo layout do e-commerce”.
Soa convincente, mas há um detalhe inacreditável: a empresa não tem e-commerce e o profissional sequer revisou esse detalhe antes de compartilhar a brilhante conclusão. Quanto aos demais indicadores, ele também não soube justificar ou explicar a metodologia, a lógica nem as variáveis envolvidas.
Em outro caso, também recente, o profissional trouxe um “laudo” em que pediu ao ChatGPT para avaliar a construção da meta do mês, apontando os riscos de gerar burnout no time de vendas.
Seria cômico se não fosse preocupante: profissionais sustentando posições em castelos de areia e correndo o risco de que decisões importantes sejam tomadas com base em conclusões fabricadas por uma IA que não tem contexto nem senso de causalidade.
Essa prática de delegar à IA o pensamento analítico cria o que chamo de “falsa competência digital”: o profissional parece produtivo, parece técnico, mas, na verdade, perdeu o controle sobre o raciocínio.
E isso já está sendo observado cientificamente. Um estudo publicado na revista Humanities and Social Sciences Communications (Nature, 2023), conduzido com estudantes do Paquistão e da China, mostrou que o uso indiscriminado da Inteligência Artificial está associado a uma perda expressiva da capacidade de tomada de decisão humana: 27,7% dos participantes relataram dependência cognitiva ou “preguiça mental” ao delegar análises à IA.
Outro estudo, AI Tools in Society: Impacts on Cognitive Offloading (MDPI, 2024), aponta um fenômeno semelhante: pessoas que dependem de IA para tarefas analíticas passam a desenvolver menor proficiência em raciocínio independente, confiando demais nas respostas automatizadas, mesmo quando incorretas.
Ambas as pesquisas confirmam o que já se percebe no dia a dia corporativo: quanto mais terceirizamos o pensamento, mais perdemos o domínio sobre ele.
O verdadeiro diferencial está em quem pensa com a IA, e não por meio dela.
E isso exige domínio dos fundamentos, como entender indicadores, testar hipóteses, validar correlações e aplicar senso crítico sobre cada conclusão gerada.
A Inteligência Artificial está mudando tudo, menos o essencial: a necessidade de pensar. O futuro do trabalho exigirá menos operadores de ferramenta e mais curadores de sentido. Porque, no fim, a IA só é inteligente quando quem a usa também é.
O profissional do amanhã não será definido pela velocidade da entrega, mas pela profundidade do raciocínio.
(Por Cecília Rapassi. Disponível em: https://mercadoeconsumo.com.br. Acesso em: dezembro de 2025. Adaptado.)
Dentre os exemplos a seguir, assinale o que apresenta ocorrência de crase indevida diferentemente do indicado em: “O profissional reuniu os dados, mas, em vez de fazer uma análise real, pediu à IA para gerar um relatório com conclusões.” (2º§).
 

Provas

Questão presente nas seguintes provas
4027527 Ano: 2026
Disciplina: Português
Banca: Consulplan
Orgão: Pref. Manaus-AM
ChatGPT não é analista: o perigo da falsa competência digital
Há uma epidemia invisível que começa a se espalhar no mundo corporativo: profissionais que utilizam ferramentas de Inteligência Artificial sem realmente entender os dados, a lógica ou o significado por trás deles. Relatórios e apresentações impecáveis à primeira vista, mas que revelam, em poucos minutos de leitura, que quem os produziu não entendeu o que estava dizendo.
Recentemente, um cliente pediu ao seu líder de área de vendas que elaborasse uma planilha com indicadores básicos de desempenho: vendas, conversão, ticket médio e churn. O profissional reuniu os dados, mas, em vez de fazer uma análise real, pediu à IA para gerar um relatório com conclusões.
Em segundos, o sistema devolveu um belo relatório com frases de efeito: “O ticket médio caiu devido à perda de foco no pós-venda” e também “A conversão subiu por conta do novo layout do e-commerce”.
Soa convincente, mas há um detalhe inacreditável: a empresa não tem e-commerce e o profissional sequer revisou esse detalhe antes de compartilhar a brilhante conclusão. Quanto aos demais indicadores, ele também não soube justificar ou explicar a metodologia, a lógica nem as variáveis envolvidas.
Em outro caso, também recente, o profissional trouxe um “laudo” em que pediu ao ChatGPT para avaliar a construção da meta do mês, apontando os riscos de gerar burnout no time de vendas.
Seria cômico se não fosse preocupante: profissionais sustentando posições em castelos de areia e correndo o risco de que decisões importantes sejam tomadas com base em conclusões fabricadas por uma IA que não tem contexto nem senso de causalidade.
Essa prática de delegar à IA o pensamento analítico cria o que chamo de “falsa competência digital”: o profissional parece produtivo, parece técnico, mas, na verdade, perdeu o controle sobre o raciocínio.
E isso já está sendo observado cientificamente. Um estudo publicado na revista Humanities and Social Sciences Communications (Nature, 2023), conduzido com estudantes do Paquistão e da China, mostrou que o uso indiscriminado da Inteligência Artificial está associado a uma perda expressiva da capacidade de tomada de decisão humana: 27,7% dos participantes relataram dependência cognitiva ou “preguiça mental” ao delegar análises à IA.
Outro estudo, AI Tools in Society: Impacts on Cognitive Offloading (MDPI, 2024), aponta um fenômeno semelhante: pessoas que dependem de IA para tarefas analíticas passam a desenvolver menor proficiência em raciocínio independente, confiando demais nas respostas automatizadas, mesmo quando incorretas.
Ambas as pesquisas confirmam o que já se percebe no dia a dia corporativo: quanto mais terceirizamos o pensamento, mais perdemos o domínio sobre ele.
O verdadeiro diferencial está em quem pensa com a IA, e não por meio dela.
E isso exige domínio dos fundamentos, como entender indicadores, testar hipóteses, validar correlações e aplicar senso crítico sobre cada conclusão gerada.
A Inteligência Artificial está mudando tudo, menos o essencial: a necessidade de pensar. O futuro do trabalho exigirá menos operadores de ferramenta e mais curadores de sentido. Porque, no fim, a IA só é inteligente quando quem a usa também é.
O profissional do amanhã não será definido pela velocidade da entrega, mas pela profundidade do raciocínio.
(Por Cecília Rapassi. Disponível em: https://mercadoeconsumo.com.br. Acesso em: dezembro de 2025. Adaptado.)
A reescrita para o trecho “A Inteligência Artificial está mudando tudo, menos o essencial: a necessidade de pensar. O futuro do trabalho exigirá menos operadores de ferramenta e mais curadores de sentido. Porque, no fim, a IA só é inteligente quando quem a usa também é.” (13º§), em que estão preservadas as correções gramatical e semântica, está indicada em:
 

Provas

Questão presente nas seguintes provas
4027526 Ano: 2026
Disciplina: Português
Banca: Consulplan
Orgão: Pref. Manaus-AM
ChatGPT não é analista: o perigo da falsa competência digital
Há uma epidemia invisível que começa a se espalhar no mundo corporativo: profissionais que utilizam ferramentas de Inteligência Artificial sem realmente entender os dados, a lógica ou o significado por trás deles. Relatórios e apresentações impecáveis à primeira vista, mas que revelam, em poucos minutos de leitura, que quem os produziu não entendeu o que estava dizendo.
Recentemente, um cliente pediu ao seu líder de área de vendas que elaborasse uma planilha com indicadores básicos de desempenho: vendas, conversão, ticket médio e churn. O profissional reuniu os dados, mas, em vez de fazer uma análise real, pediu à IA para gerar um relatório com conclusões.
Em segundos, o sistema devolveu um belo relatório com frases de efeito: “O ticket médio caiu devido à perda de foco no pós-venda” e também “A conversão subiu por conta do novo layout do e-commerce”.
Soa convincente, mas há um detalhe inacreditável: a empresa não tem e-commerce e o profissional sequer revisou esse detalhe antes de compartilhar a brilhante conclusão. Quanto aos demais indicadores, ele também não soube justificar ou explicar a metodologia, a lógica nem as variáveis envolvidas.
Em outro caso, também recente, o profissional trouxe um “laudo” em que pediu ao ChatGPT para avaliar a construção da meta do mês, apontando os riscos de gerar burnout no time de vendas.
Seria cômico se não fosse preocupante: profissionais sustentando posições em castelos de areia e correndo o risco de que decisões importantes sejam tomadas com base em conclusões fabricadas por uma IA que não tem contexto nem senso de causalidade.
Essa prática de delegar à IA o pensamento analítico cria o que chamo de “falsa competência digital”: o profissional parece produtivo, parece técnico, mas, na verdade, perdeu o controle sobre o raciocínio.
E isso já está sendo observado cientificamente. Um estudo publicado na revista Humanities and Social Sciences Communications (Nature, 2023), conduzido com estudantes do Paquistão e da China, mostrou que o uso indiscriminado da Inteligência Artificial está associado a uma perda expressiva da capacidade de tomada de decisão humana: 27,7% dos participantes relataram dependência cognitiva ou “preguiça mental” ao delegar análises à IA.
Outro estudo, AI Tools in Society: Impacts on Cognitive Offloading (MDPI, 2024), aponta um fenômeno semelhante: pessoas que dependem de IA para tarefas analíticas passam a desenvolver menor proficiência em raciocínio independente, confiando demais nas respostas automatizadas, mesmo quando incorretas.
Ambas as pesquisas confirmam o que já se percebe no dia a dia corporativo: quanto mais terceirizamos o pensamento, mais perdemos o domínio sobre ele.
O verdadeiro diferencial está em quem pensa com a IA, e não por meio dela.
E isso exige domínio dos fundamentos, como entender indicadores, testar hipóteses, validar correlações e aplicar senso crítico sobre cada conclusão gerada.
A Inteligência Artificial está mudando tudo, menos o essencial: a necessidade de pensar. O futuro do trabalho exigirá menos operadores de ferramenta e mais curadores de sentido. Porque, no fim, a IA só é inteligente quando quem a usa também é.
O profissional do amanhã não será definido pela velocidade da entrega, mas pela profundidade do raciocínio.
(Por Cecília Rapassi. Disponível em: https://mercadoeconsumo.com.br. Acesso em: dezembro de 2025. Adaptado.)
Considerando o texto apresentado, analise as afirmativas a seguir.

I. Segundo o texto, a produtividade do profissional contemporâneo, nas mais variadas áreas de atuação, tornou-se dependente do uso da inteligência artificial, qualitativamente.
II. Ferramentas tecnológicas como a IA têm seu uso positivamente significativo quando não demonstram ser um recurso plenamente substitutivo e independente.
III. A “epidemia invisível” (1º§), de acordo com o texto, é uma realidade instaurada e vivida no cotidiano de ações que envolvem a tomada de decisões importantes.

Está correto o que se afirma em
 

Provas

Questão presente nas seguintes provas
4027525 Ano: 2026
Disciplina: Português
Banca: Consulplan
Orgão: Pref. Manaus-AM
ChatGPT não é analista: o perigo da falsa competência digital
Há uma epidemia invisível que começa a se espalhar no mundo corporativo: profissionais que utilizam ferramentas de Inteligência Artificial sem realmente entender os dados, a lógica ou o significado por trás deles. Relatórios e apresentações impecáveis à primeira vista, mas que revelam, em poucos minutos de leitura, que quem os produziu não entendeu o que estava dizendo.
Recentemente, um cliente pediu ao seu líder de área de vendas que elaborasse uma planilha com indicadores básicos de desempenho: vendas, conversão, ticket médio e churn. O profissional reuniu os dados, mas, em vez de fazer uma análise real, pediu à IA para gerar um relatório com conclusões.
Em segundos, o sistema devolveu um belo relatório com frases de efeito: “O ticket médio caiu devido à perda de foco no pós-venda” e também “A conversão subiu por conta do novo layout do e-commerce”.
Soa convincente, mas há um detalhe inacreditável: a empresa não tem e-commerce e o profissional sequer revisou esse detalhe antes de compartilhar a brilhante conclusão. Quanto aos demais indicadores, ele também não soube justificar ou explicar a metodologia, a lógica nem as variáveis envolvidas.
Em outro caso, também recente, o profissional trouxe um “laudo” em que pediu ao ChatGPT para avaliar a construção da meta do mês, apontando os riscos de gerar burnout no time de vendas.
Seria cômico se não fosse preocupante: profissionais sustentando posições em castelos de areia e correndo o risco de que decisões importantes sejam tomadas com base em conclusões fabricadas por uma IA que não tem contexto nem senso de causalidade.
Essa prática de delegar à IA o pensamento analítico cria o que chamo de “falsa competência digital”: o profissional parece produtivo, parece técnico, mas, na verdade, perdeu o controle sobre o raciocínio.
E isso já está sendo observado cientificamente. Um estudo publicado na revista Humanities and Social Sciences Communications (Nature, 2023), conduzido com estudantes do Paquistão e da China, mostrou que o uso indiscriminado da Inteligência Artificial está associado a uma perda expressiva da capacidade de tomada de decisão humana: 27,7% dos participantes relataram dependência cognitiva ou “preguiça mental” ao delegar análises à IA.
Outro estudo, AI Tools in Society: Impacts on Cognitive Offloading (MDPI, 2024), aponta um fenômeno semelhante: pessoas que dependem de IA para tarefas analíticas passam a desenvolver menor proficiência em raciocínio independente, confiando demais nas respostas automatizadas, mesmo quando incorretas.
Ambas as pesquisas confirmam o que já se percebe no dia a dia corporativo: quanto mais terceirizamos o pensamento, mais perdemos o domínio sobre ele.
O verdadeiro diferencial está em quem pensa com a IA, e não por meio dela.
E isso exige domínio dos fundamentos, como entender indicadores, testar hipóteses, validar correlações e aplicar senso crítico sobre cada conclusão gerada.
A Inteligência Artificial está mudando tudo, menos o essencial: a necessidade de pensar. O futuro do trabalho exigirá menos operadores de ferramenta e mais curadores de sentido. Porque, no fim, a IA só é inteligente quando quem a usa também é.
O profissional do amanhã não será definido pela velocidade da entrega, mas pela profundidade do raciocínio.
(Por Cecília Rapassi. Disponível em: https://mercadoeconsumo.com.br. Acesso em: dezembro de 2025. Adaptado.)
Em “Seria cômico se não fosse preocupante: profissionais sustentando posições em castelos de areia e correndo o risco de que decisões importantes sejam tomadas com base em conclusões fabricadas por uma IA que não tem contexto nem senso de causalidade.” (6º§), é possível inferir, a partir da expressão grifada, que:
 

Provas

Questão presente nas seguintes provas
4027524 Ano: 2026
Disciplina: Português
Banca: Consulplan
Orgão: Pref. Manaus-AM
ChatGPT não é analista: o perigo da falsa competência digital
Há uma epidemia invisível que começa a se espalhar no mundo corporativo: profissionais que utilizam ferramentas de Inteligência Artificial sem realmente entender os dados, a lógica ou o significado por trás deles. Relatórios e apresentações impecáveis à primeira vista, mas que revelam, em poucos minutos de leitura, que quem os produziu não entendeu o que estava dizendo.
Recentemente, um cliente pediu ao seu líder de área de vendas que elaborasse uma planilha com indicadores básicos de desempenho: vendas, conversão, ticket médio e churn. O profissional reuniu os dados, mas, em vez de fazer uma análise real, pediu à IA para gerar um relatório com conclusões.
Em segundos, o sistema devolveu um belo relatório com frases de efeito: “O ticket médio caiu devido à perda de foco no pós-venda” e também “A conversão subiu por conta do novo layout do e-commerce”.
Soa convincente, mas há um detalhe inacreditável: a empresa não tem e-commerce e o profissional sequer revisou esse detalhe antes de compartilhar a brilhante conclusão. Quanto aos demais indicadores, ele também não soube justificar ou explicar a metodologia, a lógica nem as variáveis envolvidas.
Em outro caso, também recente, o profissional trouxe um “laudo” em que pediu ao ChatGPT para avaliar a construção da meta do mês, apontando os riscos de gerar burnout no time de vendas.
Seria cômico se não fosse preocupante: profissionais sustentando posições em castelos de areia e correndo o risco de que decisões importantes sejam tomadas com base em conclusões fabricadas por uma IA que não tem contexto nem senso de causalidade.
Essa prática de delegar à IA o pensamento analítico cria o que chamo de “falsa competência digital”: o profissional parece produtivo, parece técnico, mas, na verdade, perdeu o controle sobre o raciocínio.
E isso já está sendo observado cientificamente. Um estudo publicado na revista Humanities and Social Sciences Communications (Nature, 2023), conduzido com estudantes do Paquistão e da China, mostrou que o uso indiscriminado da Inteligência Artificial está associado a uma perda expressiva da capacidade de tomada de decisão humana: 27,7% dos participantes relataram dependência cognitiva ou “preguiça mental” ao delegar análises à IA.
Outro estudo, AI Tools in Society: Impacts on Cognitive Offloading (MDPI, 2024), aponta um fenômeno semelhante: pessoas que dependem de IA para tarefas analíticas passam a desenvolver menor proficiência em raciocínio independente, confiando demais nas respostas automatizadas, mesmo quando incorretas.
Ambas as pesquisas confirmam o que já se percebe no dia a dia corporativo: quanto mais terceirizamos o pensamento, mais perdemos o domínio sobre ele.
O verdadeiro diferencial está em quem pensa com a IA, e não por meio dela.
E isso exige domínio dos fundamentos, como entender indicadores, testar hipóteses, validar correlações e aplicar senso crítico sobre cada conclusão gerada.
A Inteligência Artificial está mudando tudo, menos o essencial: a necessidade de pensar. O futuro do trabalho exigirá menos operadores de ferramenta e mais curadores de sentido. Porque, no fim, a IA só é inteligente quando quem a usa também é.
O profissional do amanhã não será definido pela velocidade da entrega, mas pela profundidade do raciocínio.
(Por Cecília Rapassi. Disponível em: https://mercadoeconsumo.com.br. Acesso em: dezembro de 2025. Adaptado.)
Considerando os aspectos composicionais do texto apresentado, assim como o conteúdo desenvolvido, pode-se afirmar que o principal objetivo comunicativo do texto é:
 

Provas

Questão presente nas seguintes provas
4027523 Ano: 2026
Disciplina: Português
Banca: Consulplan
Orgão: Pref. Manaus-AM
ChatGPT não é analista: o perigo da falsa competência digital
Há uma epidemia invisível que começa a se espalhar no mundo corporativo: profissionais que utilizam ferramentas de Inteligência Artificial sem realmente entender os dados, a lógica ou o significado por trás deles. Relatórios e apresentações impecáveis à primeira vista, mas que revelam, em poucos minutos de leitura, que quem os produziu não entendeu o que estava dizendo.
Recentemente, um cliente pediu ao seu líder de área de vendas que elaborasse uma planilha com indicadores básicos de desempenho: vendas, conversão, ticket médio e churn. O profissional reuniu os dados, mas, em vez de fazer uma análise real, pediu à IA para gerar um relatório com conclusões.
Em segundos, o sistema devolveu um belo relatório com frases de efeito: “O ticket médio caiu devido à perda de foco no pós-venda” e também “A conversão subiu por conta do novo layout do e-commerce”.
Soa convincente, mas há um detalhe inacreditável: a empresa não tem e-commerce e o profissional sequer revisou esse detalhe antes de compartilhar a brilhante conclusão. Quanto aos demais indicadores, ele também não soube justificar ou explicar a metodologia, a lógica nem as variáveis envolvidas.
Em outro caso, também recente, o profissional trouxe um “laudo” em que pediu ao ChatGPT para avaliar a construção da meta do mês, apontando os riscos de gerar burnout no time de vendas.
Seria cômico se não fosse preocupante: profissionais sustentando posições em castelos de areia e correndo o risco de que decisões importantes sejam tomadas com base em conclusões fabricadas por uma IA que não tem contexto nem senso de causalidade.
Essa prática de delegar à IA o pensamento analítico cria o que chamo de “falsa competência digital”: o profissional parece produtivo, parece técnico, mas, na verdade, perdeu o controle sobre o raciocínio.
E isso já está sendo observado cientificamente. Um estudo publicado na revista Humanities and Social Sciences Communications (Nature, 2023), conduzido com estudantes do Paquistão e da China, mostrou que o uso indiscriminado da Inteligência Artificial está associado a uma perda expressiva da capacidade de tomada de decisão humana: 27,7% dos participantes relataram dependência cognitiva ou “preguiça mental” ao delegar análises à IA.
Outro estudo, AI Tools in Society: Impacts on Cognitive Offloading (MDPI, 2024), aponta um fenômeno semelhante: pessoas que dependem de IA para tarefas analíticas passam a desenvolver menor proficiência em raciocínio independente, confiando demais nas respostas automatizadas, mesmo quando incorretas.
Ambas as pesquisas confirmam o que já se percebe no dia a dia corporativo: quanto mais terceirizamos o pensamento, mais perdemos o domínio sobre ele.
O verdadeiro diferencial está em quem pensa com a IA, e não por meio dela.
E isso exige domínio dos fundamentos, como entender indicadores, testar hipóteses, validar correlações e aplicar senso crítico sobre cada conclusão gerada.
A Inteligência Artificial está mudando tudo, menos o essencial: a necessidade de pensar. O futuro do trabalho exigirá menos operadores de ferramenta e mais curadores de sentido. Porque, no fim, a IA só é inteligente quando quem a usa também é.
O profissional do amanhã não será definido pela velocidade da entrega, mas pela profundidade do raciocínio.
(Por Cecília Rapassi. Disponível em: https://mercadoeconsumo.com.br. Acesso em: dezembro de 2025. Adaptado.)
Considerando o conteúdo do texto, assinale a afirmativa correta.
 

Provas

Questão presente nas seguintes provas
4027522 Ano: 2026
Disciplina: Português
Banca: Consulplan
Orgão: Pref. Manaus-AM
ChatGPT não é analista: o perigo da falsa competência digital
Há uma epidemia invisível que começa a se espalhar no mundo corporativo: profissionais que utilizam ferramentas de Inteligência Artificial sem realmente entender os dados, a lógica ou o significado por trás deles. Relatórios e apresentações impecáveis à primeira vista, mas que revelam, em poucos minutos de leitura, que quem os produziu não entendeu o que estava dizendo.
Recentemente, um cliente pediu ao seu líder de área de vendas que elaborasse uma planilha com indicadores básicos de desempenho: vendas, conversão, ticket médio e churn. O profissional reuniu os dados, mas, em vez de fazer uma análise real, pediu à IA para gerar um relatório com conclusões.
Em segundos, o sistema devolveu um belo relatório com frases de efeito: “O ticket médio caiu devido à perda de foco no pós-venda” e também “A conversão subiu por conta do novo layout do e-commerce”.
Soa convincente, mas há um detalhe inacreditável: a empresa não tem e-commerce e o profissional sequer revisou esse detalhe antes de compartilhar a brilhante conclusão. Quanto aos demais indicadores, ele também não soube justificar ou explicar a metodologia, a lógica nem as variáveis envolvidas.
Em outro caso, também recente, o profissional trouxe um “laudo” em que pediu ao ChatGPT para avaliar a construção da meta do mês, apontando os riscos de gerar burnout no time de vendas.
Seria cômico se não fosse preocupante: profissionais sustentando posições em castelos de areia e correndo o risco de que decisões importantes sejam tomadas com base em conclusões fabricadas por uma IA que não tem contexto nem senso de causalidade.
Essa prática de delegar à IA o pensamento analítico cria o que chamo de “falsa competência digital”: o profissional parece produtivo, parece técnico, mas, na verdade, perdeu o controle sobre o raciocínio.
E isso já está sendo observado cientificamente. Um estudo publicado na revista Humanities and Social Sciences Communications (Nature, 2023), conduzido com estudantes do Paquistão e da China, mostrou que o uso indiscriminado da Inteligência Artificial está associado a uma perda expressiva da capacidade de tomada de decisão humana: 27,7% dos participantes relataram dependência cognitiva ou “preguiça mental” ao delegar análises à IA.
Outro estudo, AI Tools in Society: Impacts on Cognitive Offloading (MDPI, 2024), aponta um fenômeno semelhante: pessoas que dependem de IA para tarefas analíticas passam a desenvolver menor proficiência em raciocínio independente, confiando demais nas respostas automatizadas, mesmo quando incorretas.
Ambas as pesquisas confirmam o que já se percebe no dia a dia corporativo: quanto mais terceirizamos o pensamento, mais perdemos o domínio sobre ele.
O verdadeiro diferencial está em quem pensa com a IA, e não por meio dela.
E isso exige domínio dos fundamentos, como entender indicadores, testar hipóteses, validar correlações e aplicar senso crítico sobre cada conclusão gerada.
A Inteligência Artificial está mudando tudo, menos o essencial: a necessidade de pensar. O futuro do trabalho exigirá menos operadores de ferramenta e mais curadores de sentido. Porque, no fim, a IA só é inteligente quando quem a usa também é.
O profissional do amanhã não será definido pela velocidade da entrega, mas pela profundidade do raciocínio.
(Por Cecília Rapassi. Disponível em: https://mercadoeconsumo.com.br. Acesso em: dezembro de 2025. Adaptado.)
Acerca do título do texto – “ChatGPT não é analista: o perigo da falsa competência digital” – é possível afirmar que:
 

Provas

Questão presente nas seguintes provas
4027521 Ano: 2026
Disciplina: Português
Banca: Consulplan
Orgão: Pref. Manaus-AM
ChatGPT não é analista: o perigo da falsa competência digital
Há uma epidemia invisível que começa a se espalhar no mundo corporativo: profissionais que utilizam ferramentas de Inteligência Artificial sem realmente entender os dados, a lógica ou o significado por trás deles. Relatórios e apresentações impecáveis à primeira vista, mas que revelam, em poucos minutos de leitura, que quem os produziu não entendeu o que estava dizendo.
Recentemente, um cliente pediu ao seu líder de área de vendas que elaborasse uma planilha com indicadores básicos de desempenho: vendas, conversão, ticket médio e churn. O profissional reuniu os dados, mas, em vez de fazer uma análise real, pediu à IA para gerar um relatório com conclusões.
Em segundos, o sistema devolveu um belo relatório com frases de efeito: “O ticket médio caiu devido à perda de foco no pós-venda” e também “A conversão subiu por conta do novo layout do e-commerce”.
Soa convincente, mas há um detalhe inacreditável: a empresa não tem e-commerce e o profissional sequer revisou esse detalhe antes de compartilhar a brilhante conclusão. Quanto aos demais indicadores, ele também não soube justificar ou explicar a metodologia, a lógica nem as variáveis envolvidas.
Em outro caso, também recente, o profissional trouxe um “laudo” em que pediu ao ChatGPT para avaliar a construção da meta do mês, apontando os riscos de gerar burnout no time de vendas.
Seria cômico se não fosse preocupante: profissionais sustentando posições em castelos de areia e correndo o risco de que decisões importantes sejam tomadas com base em conclusões fabricadas por uma IA que não tem contexto nem senso de causalidade.
Essa prática de delegar à IA o pensamento analítico cria o que chamo de “falsa competência digital”: o profissional parece produtivo, parece técnico, mas, na verdade, perdeu o controle sobre o raciocínio.
E isso já está sendo observado cientificamente. Um estudo publicado na revista Humanities and Social Sciences Communications (Nature, 2023), conduzido com estudantes do Paquistão e da China, mostrou que o uso indiscriminado da Inteligência Artificial está associado a uma perda expressiva da capacidade de tomada de decisão humana: 27,7% dos participantes relataram dependência cognitiva ou “preguiça mental” ao delegar análises à IA.
Outro estudo, AI Tools in Society: Impacts on Cognitive Offloading (MDPI, 2024), aponta um fenômeno semelhante: pessoas que dependem de IA para tarefas analíticas passam a desenvolver menor proficiência em raciocínio independente, confiando demais nas respostas automatizadas, mesmo quando incorretas.
Ambas as pesquisas confirmam o que já se percebe no dia a dia corporativo: quanto mais terceirizamos o pensamento, mais perdemos o domínio sobre ele.
O verdadeiro diferencial está em quem pensa com a IA, e não por meio dela.
E isso exige domínio dos fundamentos, como entender indicadores, testar hipóteses, validar correlações e aplicar senso crítico sobre cada conclusão gerada.
A Inteligência Artificial está mudando tudo, menos o essencial: a necessidade de pensar. O futuro do trabalho exigirá menos operadores de ferramenta e mais curadores de sentido. Porque, no fim, a IA só é inteligente quando quem a usa também é.
O profissional do amanhã não será definido pela velocidade da entrega, mas pela profundidade do raciocínio.
(Por Cecília Rapassi. Disponível em: https://mercadoeconsumo.com.br. Acesso em: dezembro de 2025. Adaptado.)
No trecho do texto compreendido entre o 2º§ e o 6º§ é possível reconhecer a utilização de uma estratégia que contribui para que o desenvolvimento dos argumentos textuais ocorra de modo adequado. De acordo com o exposto, assinale a afirmativa correta.
 

Provas

Questão presente nas seguintes provas
4027520 Ano: 2026
Disciplina: Português
Banca: Consulplan
Orgão: Pref. Manaus-AM
ChatGPT não é analista: o perigo da falsa competência digital
Há uma epidemia invisível que começa a se espalhar no mundo corporativo: profissionais que utilizam ferramentas de Inteligência Artificial sem realmente entender os dados, a lógica ou o significado por trás deles. Relatórios e apresentações impecáveis à primeira vista, mas que revelam, em poucos minutos de leitura, que quem os produziu não entendeu o que estava dizendo.
Recentemente, um cliente pediu ao seu líder de área de vendas que elaborasse uma planilha com indicadores básicos de desempenho: vendas, conversão, ticket médio e churn. O profissional reuniu os dados, mas, em vez de fazer uma análise real, pediu à IA para gerar um relatório com conclusões.
Em segundos, o sistema devolveu um belo relatório com frases de efeito: “O ticket médio caiu devido à perda de foco no pós-venda” e também “A conversão subiu por conta do novo layout do e-commerce”.
Soa convincente, mas há um detalhe inacreditável: a empresa não tem e-commerce e o profissional sequer revisou esse detalhe antes de compartilhar a brilhante conclusão. Quanto aos demais indicadores, ele também não soube justificar ou explicar a metodologia, a lógica nem as variáveis envolvidas.
Em outro caso, também recente, o profissional trouxe um “laudo” em que pediu ao ChatGPT para avaliar a construção da meta do mês, apontando os riscos de gerar burnout no time de vendas.
Seria cômico se não fosse preocupante: profissionais sustentando posições em castelos de areia e correndo o risco de que decisões importantes sejam tomadas com base em conclusões fabricadas por uma IA que não tem contexto nem senso de causalidade.
Essa prática de delegar à IA o pensamento analítico cria o que chamo de “falsa competência digital”: o profissional parece produtivo, parece técnico, mas, na verdade, perdeu o controle sobre o raciocínio.
E isso já está sendo observado cientificamente. Um estudo publicado na revista Humanities and Social Sciences Communications (Nature, 2023), conduzido com estudantes do Paquistão e da China, mostrou que o uso indiscriminado da Inteligência Artificial está associado a uma perda expressiva da capacidade de tomada de decisão humana: 27,7% dos participantes relataram dependência cognitiva ou “preguiça mental” ao delegar análises à IA.
Outro estudo, AI Tools in Society: Impacts on Cognitive Offloading (MDPI, 2024), aponta um fenômeno semelhante: pessoas que dependem de IA para tarefas analíticas passam a desenvolver menor proficiência em raciocínio independente, confiando demais nas respostas automatizadas, mesmo quando incorretas.
Ambas as pesquisas confirmam o que já se percebe no dia a dia corporativo: quanto mais terceirizamos o pensamento, mais perdemos o domínio sobre ele.
O verdadeiro diferencial está em quem pensa com a IA, e não por meio dela.
E isso exige domínio dos fundamentos, como entender indicadores, testar hipóteses, validar correlações e aplicar senso crítico sobre cada conclusão gerada.
A Inteligência Artificial está mudando tudo, menos o essencial: a necessidade de pensar. O futuro do trabalho exigirá menos operadores de ferramenta e mais curadores de sentido. Porque, no fim, a IA só é inteligente quando quem a usa também é.
O profissional do amanhã não será definido pela velocidade da entrega, mas pela profundidade do raciocínio.
(Por Cecília Rapassi. Disponível em: https://mercadoeconsumo.com.br. Acesso em: dezembro de 2025. Adaptado.)
Em “Há uma epidemia invisível que começa a se espalhar no mundo corporativo: profissionais que utilizam ferramentas de Inteligência Artificial sem realmente entender os dados, a lógica ou o significado por trás deles. Relatórios e apresentações impecáveis à primeira vista, mas que revelam, em poucos minutos de leitura, que quem os produziu não entendeu o que estava dizendo.” (1º§), sem que haja prejuízo de correção gramatical e semântica, pode-se afirmar que:
 

Provas

Questão presente nas seguintes provas