LETRAMENTO ALGORÍTMICO: ENFRENTANDO A SOCIEDADE DA CAIXA PRETA
Mariana Ochs
Nos últimos anos, avançamos bastante no entendimento da necessidade urgente de construir a
autonomia dos jovens para que atuem nos ambientes informacionais da sociedade com segurança, ética e
responsabilidade. Cada vez mais presente nas normas educacionais, na legislação e em diversos esforços
da sociedade civil, a educação midiática apresenta-se como forma mais eficaz e sustentável de lidarmos com
desinformação, boatos, discursos de ódio, propaganda e outros fenômenos que podem violar direitos e até
desestabilizar a democracia.
Mas, além dos conteúdos que circulam nas mídias, há, também, a parte mais opaca dos ecossistemas
de comunicação: os algoritmos que, sujeitos a lógicas e interesses comerciais, personalizam o que vemos a
ponto de nos expor a recortes seletivos da realidade, direcionando comportamentos, moldando nossas
opiniões de maneira sutil e, por vezes, prejudicial. Esses algoritmos muitas vezes priorizam e reforçam
engajamento com conteúdo enviesados, ofensivos ou violentos, podendo, inclusive, empurrar determinados
indivíduos mais suscetíveis para ambientes — e ações — extremistas.
Com os ambientes digitais mediando cada vez mais a nossa visão de mundo, enfrentar esses desafios
exige olharmos não só para as habilidades de acessar e avaliar mensagens mas também, e cada vez
mais, educar os jovens para perceber o funcionamento e os efeitos do próprio ambiente tecnológico. Em
tempos de inteligência artificial, em que perguntas humanas podem encontrar respostas incorretas ou
enviesadas criadas por sistemas preditivos, a computação precisa urgentemente entrar na pauta da educação
midiática.
No entanto, deve ser explorada de forma crítica, para entendermos os seus impactos sobre a justiça
social e a democracia — e não apenas como ferramenta de trabalho em uma sociedade digital. A esse novo
campo, que expande os limites da educação para a informação e oferece uma ponte entre a computação e a
educação midiática, chamamos de "letramento algorítmico crítico".
Hoje vivemos o crescimento exponencial da automação baseada em dados — tecnologias chamadas
de algorítmicas ou de inteligência artificial capazes de fazer previsões e tomar decisões a partir dos dados
que as alimentam. Esses sistemas operam de forma silenciosa e quase onipresente na vida contemporânea,
impactando desde a escolha do vídeo que vai ser apresentado a uma criança no YouTube até o sistema que
vai regular sua oferta de emprego ou de crédito quando crescer. É o que vem sendo chamado de "sociedade
da caixa preta”. Segundo o pesquisador australiano Neil Selwin, nesse modelo, decisões automatizadas,
geralmente invisíveis para o usuário comum, moldam seu acesso a direitos, serviços e informação.
Na prática, a educação midiática pode desenvolver as habilidades necessárias para que os jovens
sejam capazes de perceber, questionar e influenciar o comportamento dos sistemas tecnológicos. Crianças
e jovens devem ser levados a explorar as formas de funcionamento dos algoritmos que moldam os resultados
de nossas buscas na internet; podem questionar a ética dos sistemas de previsão e recomendação, ou ainda
o design por trás das interfaces das redes sociais que utilizam, incluindo os chamados "dark patterns", que
manipulam nossas decisões. Devem estar atentos a dinâmicas que promovem imagens inalcançáveis ou
vulnerabilizam determinados grupos. Precisam perceber e questionar exclusões ou vieses refletidos
na produção das IAs generativas. Sobretudo, devem entender os mecanismos de engajamento e de atenção
que favorecem conteúdos que segregam, ofendem e desestabilizam as comunidades.
Em suma, educar para as novas dinâmicas sociotécnicas implica reconhecer que as tecnologias não
são neutras e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos,
impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem
amplificar exponencialmente as injustiças sociais e a exclusão.
Nesse novo ambiente, a educação midiática deve ir além de construir as habilidades de acessar,
avaliar e criar mensagens, examinando autoria, propósito e contexto; deve abranger também uma
compreensão mais profunda da dinâmica complexa, e muitas vezes oculta, entre os indivíduos, as mídias e
os sistemas tecnológicos que moldam nosso mundo. Sem a capacidade de identificar e agir sobre esses
sistemas, nos tornamos vulneráveis aos efeitos desestabilizadores da desinformação e da polarização, que
ameaçam as instituições e a própria paz social, e ao potencial excludente das IAs. É preciso abrir a caixa
preta.
Disponível em: <https://www1.folha.uol.com.br/>. Acesso em: 09 nov. 2023. (texto adaptado)
Provas
Questão presente nas seguintes provas
Assistente de Administração
40 Questões
Assistente de Alunos
40 Questões
Técnico de Edificações
40 Questões
Técnico de Enfermagem
40 Questões
Técnico de Laboratório - Ciências
40 Questões
Técnico de Laboratório - Eletroeletrônica
40 Questões
Técnico de Laboratório - Informática
40 Questões
Técnico de Laboratório - Multimídia
40 Questões
Técnico de Laboratório - Química
40 Questões
Técnico de TI
40 Questões