Magna Concursos
3985581 Ano: 2025
Disciplina: Português
Banca: FURG
Orgão: Pref. Rodeio Bonito-RS
Provas:
Quem treina a IA não confia
Quando quem treina IA diariamente diz para não usar, o recado é que a tecnologia não funciona como está sendo divulgada
Trabalhadores que treinam sistemas de IA como ChatGPT, Gemini e Grok estão alertando familiares para não usarem essas ferramentas. Uma reportagem do jornal inglês The Guardian conta que muitos, ao perceberem como é fácil deixar passar conteúdos racistas durante avaliações, abandonam o uso de IA e proíbem filhos de usar chatbots.
Outros avaliadores relatam que empresas os colocam para avaliar respostas sobre saúde e ética sem treinamento especializado e que seu feedback é ignorado. Segundo a NewsGuard, os chatbots reduziram a taxa de respostas "não sei" de 31% para 0% entre 2024 e 2025 e dobraram a reprodução de desinformação.
O problema está na base. Modelos de linguagem apenas preveem palavras baseados em padrões estatísticos. Não pensam, não raciocinam. Décadas de neurociência mostram que linguagem e pensamento são processos separados no cérebro.
Você pode perder a fala e manter o raciocínio intacto. A promessa de que aumentar o tamanho dos modelos levará à superinteligência ignora que cognição humana envolve muito mais que texto. Intuição, habilidades físicas, compreensão social e outras coisas que não cabem em palavras são também essenciais.
A OpenAI enfrenta processo pela morte de um adolescente de 16 anos, que passou meses conversando com ChatGPT antes de morrer por suicídio. A empresa alega "uso inadequado" e diz que menores não podem usar a ferramenta sem autorização dos pais. É cruel ver uma empresa que promete superinteligência admitir que o sistema não consegue identificar e prevenir esse tipo de uso.
A família afirma que o chatbot forneceu instruções de métodos suicidas, incentivou segredo e guiou os passos finais. Segundo uma reportagem do New York Times, a OpenAI diz ter recomendado ajuda 100 vezes, mas evita reconhecer que priorizou crescimento da plataforma sobre segurança.
A Character.AI, que enfrenta processos similares, tomou medidas e bloqueou o acesso de menores de 18 anos, que agora podem usar apenas o modo "Stories", com narrativas guiadas em vez de conversas abertas. Reconheceu que chatbots disponíveis 24 horas não são adequados para adolescentes.
Quando quem treina IA diariamente diz para não usar, o recado é que a tecnologia não funciona como está sendo divulgada. Quem vivencia os bastidores fala menos sobre superinteligência iminente e mais sobre um sistema frágil que confunde prever palavras com pensar.
(Disponível em: https://iclnoticias.com.br/quem-treina-a-ia-nao-confia/. Acesso em: 08 dez. 2025. Adaptado.)
De acordo com o texto, analise as sentenças a seguir:

I.O problema das IAs está no fato de que elas não pensam, apenas entregam respostas baseadas em padrões estatísticos, em previsão e não em raciocínio.

II.Ter quem está por trás do treinamento das IAs dizendo que elas não devem ser usadas revela o quanto a segurança interna das plataformas é frágil, afinal, é inadmissível que os próprios trabalhadores não vistam a camisa da empresa.

III.O texto possibilita ao leitor inferir que as empresas por trás das IAs prometem chegar à superinteligência dos sistemas, ignorando o fato de que cognição humana está além do que esses sistemas oferecem hoje, pois ela é complexa e demanda uma série de aspectos interligados e que não estão presos simplesmente a palavras.

É correto o que se afirma em:
 

Provas

Questão presente nas seguintes provas

Atendente de Farmácia

50 Questões