Texto: Quem Controla Nossa Memória?
Minha investigação acadêmica buscou
entender como as ferramentas de inteligência
artificial (IA) influenciam o comportamento
humano. O que descobri foi alarmante. Imagens
geradas por IA estavam repletas de estereótipos
quando retratavam grupos historicamente
marginalizados, como mulheres, pessoas com
deficiência, LGBTI+ e não brancos. Mais
preocupante ainda foi perceber que os
participantes da minha pesquisa reproduziam
preconceitos ao interagir com essas imagens.
As imagens têm poder, tanto de uma
perspectiva histórica quanto cultural. Elas podem
interromper conflitos, mudar opiniões políticas e
unir pessoas. Publicitários sabem disso e exploram
essa capacidade em mídias tradicionais e digitais.
O advento da IA amplia esse potencial de
influência, mas também traz riscos inéditos: e se a
IA puder moldar o passado, alterando registros
históricos e reescrevendo a realidade?
No começo de 2024, durante o Super
Bowl, a cantora Alicia Keys desafinou em sua
apresentação enquanto cantava “If I Ain’t Got You”.
No dia seguinte, a versão oficial do vídeo havia
sido corrigida. Quem não gravou o evento ao vivo
não encontrará o erro original. Esse episódio pode
parecer banal, mas mostra como registros podem
ser alterados ou apagados, criando uma história
oficial que não corresponde à realidade. Se um
erro em um show pode ser apagado, o que
impediria que registros históricos e culturais
fossem modificados? Quem decide o que é real?
Quem controla a verdade?
Durante minha pesquisa, desenvolvi um
conceito chamado de apagamento pela IA (“AI
Erasure”, no original em inglês). Ele explora os
riscos por duas vias: a capacidade de essas
ferramentas moldarem registros e a possibilidade
de apagá-los. O que coloca, de modo geral, a
memória coletiva em risco.
Se imagens sintéticas podem influenciar
preconceitos, o que impede que vídeos, áudios e
mídias manipuladas também distorçam a história?
A digitalização democratizou o acesso à
informação, mas não garante diversidade nem
representação. Ferramentas do estilo Wikipedia,
que tinha o objetivo inicial de democratizar a
informação, mostram como dados digitalizados
podem estar cheios de informações equivocadas.
A solução, então, passa por regulamentação, ética
e rigor na construção de bancos de dados.
O apagamento pela IA também envolve
manipulações intencionais por governos
autoritários ou corporações, criando registros que
promovem interesses políticos ou econômicos.
Isso pode levar à homogeneização da história,
apagando a diversidade humana em nome de
narrativas dominantes. Quem controla nossa
memória?
Stephanie Dinkins é uma artista que cria
representações de mulheres negras em sistemas
de IA. Recentemente, no jornal americano The
New York Times, ela questionou por que a palavra
“escravo” não podia ser usada por uma ferramenta
generativa. Para atenuar preconceitos raciais e
imagens ofensivas, algumas empresas passaram
a proibir certas palavras nas entradas de texto
submetidos a geradores, como “escravo” e
“fascista”. O que Dinkins propõe ecoa o conceito
de “apagamento pela IA”: “O que essa tecnologia
está fazendo com a história? Podemos ver que
alguém está tentando corrigir o viés, mas, ao
mesmo tempo, isso apaga um pedaço da história.”
Vivemos num momento histórico de alerta
para o futuro digital. Devemos levantar questões
urgentes sobre o que escolhemos lembrar, quem é
representado nos arquivos digitais e como a IA
pode remodelar nossa compreensão da história e
identidade. Diante dessas ameaças, é urgente
questionar quem será representado nos arquivos
digitais e como a IA poderá remodelar a
compreensão sobre história e identidade. É
preciso defender a diversidade, regulamentar as
tecnologias e proteger memórias e culturas contra
o apagamento digital.
A integração da IA nos sistemas sociais
requer responsabilidade coletiva para evitar que a
história seja moldada e apagada ao sabor de
interesses específicos. Se não agirmos agora,
arriscaremos perder muito mais do que dados:
perderemos parte essencial do que nos torna
humanos.
GUILDO MELO
Adaptado de nexojornal.com.br, 09/03/2025.