Quem treina a IA não confia
Quando quem treina IA diariamente diz para não usar, o
recado é que a tecnologia não funciona como está sendo
divulgada
Trabalhadores que treinam sistemas de IA como
ChatGPT, Gemini e Grok estão alertando familiares para
não usarem essas ferramentas. Uma reportagem do
jornal inglês The Guardian conta que muitos, ao
perceberem como é fácil deixar passar conteúdos
racistas durante avaliações, abandonam o uso de IA e
proíbem filhos de usar chatbots.
Outros avaliadores relatam que empresas os colocam
para avaliar respostas sobre saúde e ética sem
treinamento especializado e que seu feedback é
ignorado. Segundo a NewsGuard, os chatbots reduziram
a taxa de respostas "não sei" de 31% para 0% entre
2024 e 2025 e dobraram a reprodução de
desinformação.
O problema está na base. Modelos de linguagem apenas
preveem palavras baseados em padrões estatísticos.
Não pensam, não raciocinam. Décadas de neurociência
mostram que linguagem e pensamento são processos
separados no cérebro.
Você pode perder a fala e manter o raciocínio intacto. A
promessa de que aumentar o tamanho dos modelos
levará à superinteligência ignora que cognição humana
envolve muito mais que texto. Intuição, habilidades
físicas, compreensão social e outras coisas que não
cabem em palavras são também essenciais.
A OpenAI enfrenta processo pela morte de um
adolescente de 16 anos, que passou meses
conversando com ChatGPT antes de morrer por suicídio.
A empresa alega "uso inadequado" e diz que menores
não podem usar a ferramenta sem autorização dos pais.
É cruel ver uma empresa que promete superinteligência
admitir que o sistema não consegue identificar e prevenir
esse tipo de uso.
A família afirma que o chatbot forneceu instruções de
métodos suicidas, incentivou segredo e guiou os passos
finais. Segundo uma reportagem do New York Times, a
OpenAI diz ter recomendado ajuda 100 vezes, mas evita
reconhecer que priorizou crescimento da plataforma
sobre segurança.
A Character.AI, que enfrenta processos similares, tomou
medidas e bloqueou o acesso de menores de 18 anos,
que agora podem usar apenas o modo "Stories", com
narrativas guiadas em vez de conversas abertas.
Reconheceu que chatbots disponíveis 24 horas não são
adequados para adolescentes.
Quando quem treina IA diariamente diz para não usar, o
recado é que a tecnologia não funciona como está sendo
divulgada. Quem vivencia os bastidores fala menos sobre superinteligência iminente e mais sobre um
sistema frágil que confunde prever palavras com pensar.
(Disponível em: https://iclnoticias.com.br/quem-treina-a-ia-nao-confia/.
Acesso em: 08 dez. 2025. Adaptado.)
Primeira coluna: regras de uso da vírgula
1.A vírgula é empregada para separar orações ou termos coordenados sem a utilização de conectivo.
2.A vírgula é empregada para indicar/separar uma oração adjetiva explicativa.
3.A vírgula é empregada para separar o adjunto adverbial deslocado.
Segunda coluna: aplicações
(__)"A Character.AI, que enfrenta processos similares, tomou medidas e bloqueou o acesso de menores de 18 anos".
(__)"Segundo uma reportagem do New York Times, a OpenAI diz ter recomendado ajuda 100 vezes".
(__)"Não pensam, não raciocinam."
Assinale a alternativa que apresenta a correta associação entre as colunas: