Foram encontradas 390 questões.
LETRAMENTO ALGORÍTMICO: ENFRENTANDO A SOCIEDADE DA CAIXA PRETA
Mariana Ochs
Nos últimos anos, avançamos bastante no entendimento da necessidade urgente de construir a
autonomia dos jovens para que atuem nos ambientes informacionais da sociedade com segurança, ética e
responsabilidade. Cada vez mais presente nas normas educacionais, na legislação e em diversos esforços
da sociedade civil, a educação midiática apresenta-se como forma mais eficaz e sustentável de lidarmos com
desinformação, boatos, discursos de ódio, propaganda e outros fenômenos que podem violar direitos e até
desestabilizar a democracia.
Mas, além dos conteúdos que circulam nas mídias, há, também, a parte mais opaca dos ecossistemas
de comunicação: os algoritmos que, sujeitos a lógicas e interesses comerciais, personalizam o que vemos a
ponto de nos expor a recortes seletivos da realidade, direcionando comportamentos, moldando nossas
opiniões de maneira sutil e, por vezes, prejudicial. Esses algoritmos muitas vezes priorizam e reforçam
engajamento com conteúdo enviesados, ofensivos ou violentos, podendo, inclusive, empurrar determinados
indivíduos mais suscetíveis para ambientes — e ações — extremistas.
Com os ambientes digitais mediando cada vez mais a nossa visão de mundo, enfrentar esses desafios
exige olharmos não só para as habilidades de acessar e avaliar mensagens mas também, e cada vez
mais, educar os jovens para perceber o funcionamento e os efeitos do próprio ambiente tecnológico. Em
tempos de inteligência artificial, em que perguntas humanas podem encontrar respostas incorretas ou
enviesadas criadas por sistemas preditivos, a computação precisa urgentemente entrar na pauta da educação
midiática.
No entanto, deve ser explorada de forma crítica, para entendermos os seus impactos sobre a justiça
social e a democracia — e não apenas como ferramenta de trabalho em uma sociedade digital. A esse novo
campo, que expande os limites da educação para a informação e oferece uma ponte entre a computação e a
educação midiática, chamamos de "letramento algorítmico crítico".
Hoje vivemos o crescimento exponencial da automação baseada em dados — tecnologias chamadas
de algorítmicas ou de inteligência artificial capazes de fazer previsões e tomar decisões a partir dos dados
que as alimentam. Esses sistemas operam de forma silenciosa e quase onipresente na vida contemporânea,
impactando desde a escolha do vídeo que vai ser apresentado a uma criança no YouTube até o sistema que
vai regular sua oferta de emprego ou de crédito quando crescer. É o que vem sendo chamado de "sociedade
da caixa preta”. Segundo o pesquisador australiano Neil Selwin, nesse modelo, decisões automatizadas,
geralmente invisíveis para o usuário comum, moldam seu acesso a direitos, serviços e informação.
Na prática, a educação midiática pode desenvolver as habilidades necessárias para que os jovens
sejam capazes de perceber, questionar e influenciar o comportamento dos sistemas tecnológicos. Crianças
e jovens devem ser levados a explorar as formas de funcionamento dos algoritmos que moldam os resultados
de nossas buscas na internet; podem questionar a ética dos sistemas de previsão e recomendação, ou ainda
o design por trás das interfaces das redes sociais que utilizam, incluindo os chamados "dark patterns", que
manipulam nossas decisões. Devem estar atentos a dinâmicas que promovem imagens inalcançáveis ou
vulnerabilizam determinados grupos. Precisam perceber e questionar exclusões ou vieses refletidos
na produção das IAs generativas. Sobretudo, devem entender os mecanismos de engajamento e de atenção
que favorecem conteúdos que segregam, ofendem e desestabilizam as comunidades.
Em suma, educar para as novas dinâmicas sociotécnicas implica reconhecer que as tecnologias não
são neutras e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos,
impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem
amplificar exponencialmente as injustiças sociais e a exclusão.
Nesse novo ambiente, a educação midiática deve ir além de construir as habilidades de acessar,
avaliar e criar mensagens, examinando autoria, propósito e contexto; deve abranger também uma
compreensão mais profunda da dinâmica complexa, e muitas vezes oculta, entre os indivíduos, as mídias e
os sistemas tecnológicos que moldam nosso mundo. Sem a capacidade de identificar e agir sobre esses
sistemas, nos tornamos vulneráveis aos efeitos desestabilizadores da desinformação e da polarização, que
ameaçam as instituições e a própria paz social, e ao potencial excludente das IAs. É preciso abrir a caixa
preta.
Disponível em: <https://www1.folha.uol.com.br/>. Acesso em: 09 nov. 2023. (texto adaptado)
Sobre as quatro ocorrências da palavra “que”, é correto afirmar:
Provas
Questão presente nas seguintes provas
LETRAMENTO ALGORÍTMICO: ENFRENTANDO A SOCIEDADE DA CAIXA PRETA
Mariana Ochs
Nos últimos anos, avançamos bastante no entendimento da necessidade urgente de construir a
autonomia dos jovens para que atuem nos ambientes informacionais da sociedade com segurança, ética e
responsabilidade. Cada vez mais presente nas normas educacionais, na legislação e em diversos esforços
da sociedade civil, a educação midiática apresenta-se como forma mais eficaz e sustentável de lidarmos com
desinformação, boatos, discursos de ódio, propaganda e outros fenômenos que podem violar direitos e até
desestabilizar a democracia.
Mas, além dos conteúdos que circulam nas mídias, há, também, a parte mais opaca dos ecossistemas
de comunicação: os algoritmos que, sujeitos a lógicas e interesses comerciais, personalizam o que vemos a
ponto de nos expor a recortes seletivos da realidade, direcionando comportamentos, moldando nossas
opiniões de maneira sutil e, por vezes, prejudicial. Esses algoritmos muitas vezes priorizam e reforçam
engajamento com conteúdo enviesados, ofensivos ou violentos, podendo, inclusive, empurrar determinados
indivíduos mais suscetíveis para ambientes — e ações — extremistas.
Com os ambientes digitais mediando cada vez mais a nossa visão de mundo, enfrentar esses desafios
exige olharmos não só para as habilidades de acessar e avaliar mensagens mas também, e cada vez
mais, educar os jovens para perceber o funcionamento e os efeitos do próprio ambiente tecnológico. Em
tempos de inteligência artificial, em que perguntas humanas podem encontrar respostas incorretas ou
enviesadas criadas por sistemas preditivos, a computação precisa urgentemente entrar na pauta da educação
midiática.
No entanto, deve ser explorada de forma crítica, para entendermos os seus impactos sobre a justiça
social e a democracia — e não apenas como ferramenta de trabalho em uma sociedade digital. A esse novo
campo, que expande os limites da educação para a informação e oferece uma ponte entre a computação e a
educação midiática, chamamos de "letramento algorítmico crítico".
Hoje vivemos o crescimento exponencial da automação baseada em dados — tecnologias chamadas
de algorítmicas ou de inteligência artificial capazes de fazer previsões e tomar decisões a partir dos dados
que as alimentam. Esses sistemas operam de forma silenciosa e quase onipresente na vida contemporânea,
impactando desde a escolha do vídeo que vai ser apresentado a uma criança no YouTube até o sistema que
vai regular sua oferta de emprego ou de crédito quando crescer. É o que vem sendo chamado de "sociedade
da caixa preta”. Segundo o pesquisador australiano Neil Selwin, nesse modelo, decisões automatizadas,
geralmente invisíveis para o usuário comum, moldam seu acesso a direitos, serviços e informação.
Na prática, a educação midiática pode desenvolver as habilidades necessárias para que os jovens
sejam capazes de perceber, questionar e influenciar o comportamento dos sistemas tecnológicos. Crianças
e jovens devem ser levados a explorar as formas de funcionamento dos algoritmos que moldam os resultados
de nossas buscas na internet; podem questionar a ética dos sistemas de previsão e recomendação, ou ainda
o design por trás das interfaces das redes sociais que utilizam, incluindo os chamados "dark patterns", que
manipulam nossas decisões. Devem estar atentos a dinâmicas que promovem imagens inalcançáveis ou
vulnerabilizam determinados grupos. Precisam perceber e questionar exclusões ou vieses refletidos
na produção das IAs generativas. Sobretudo, devem entender os mecanismos de engajamento e de atenção
que favorecem conteúdos que segregam, ofendem e desestabilizam as comunidades.
Em suma, educar para as novas dinâmicas sociotécnicas implica reconhecer que as tecnologias não
são neutras e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos,
impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem
amplificar exponencialmente as injustiças sociais e a exclusão.
Nesse novo ambiente, a educação midiática deve ir além de construir as habilidades de acessar,
avaliar e criar mensagens, examinando autoria, propósito e contexto; deve abranger também uma
compreensão mais profunda da dinâmica complexa, e muitas vezes oculta, entre os indivíduos, as mídias e
os sistemas tecnológicos que moldam nosso mundo. Sem a capacidade de identificar e agir sobre esses
sistemas, nos tornamos vulneráveis aos efeitos desestabilizadores da desinformação e da polarização, que
ameaçam as instituições e a própria paz social, e ao potencial excludente das IAs. É preciso abrir a caixa
preta.
Disponível em: <https://www1.folha.uol.com.br/>. Acesso em: 09 nov. 2023. (texto adaptado)
Provas
Questão presente nas seguintes provas
LETRAMENTO ALGORÍTMICO: ENFRENTANDO A SOCIEDADE DA CAIXA PRETA
Mariana Ochs
Nos últimos anos, avançamos bastante no entendimento da necessidade urgente de construir a
autonomia dos jovens para que atuem nos ambientes informacionais da sociedade com segurança, ética e
responsabilidade. Cada vez mais presente nas normas educacionais, na legislação e em diversos esforços
da sociedade civil, a educação midiática apresenta-se como forma mais eficaz e sustentável de lidarmos com
desinformação, boatos, discursos de ódio, propaganda e outros fenômenos que podem violar direitos e até
desestabilizar a democracia.
Mas, além dos conteúdos que circulam nas mídias, há, também, a parte mais opaca dos ecossistemas
de comunicação: os algoritmos que, sujeitos a lógicas e interesses comerciais, personalizam o que vemos a
ponto de nos expor a recortes seletivos da realidade, direcionando comportamentos, moldando nossas
opiniões de maneira sutil e, por vezes, prejudicial. Esses algoritmos muitas vezes priorizam e reforçam
engajamento com conteúdo enviesados, ofensivos ou violentos, podendo, inclusive, empurrar determinados
indivíduos mais suscetíveis para ambientes — e ações — extremistas.
Com os ambientes digitais mediando cada vez mais a nossa visão de mundo, enfrentar esses desafios
exige olharmos não só para as habilidades de acessar e avaliar mensagens mas também, e cada vez
mais, educar os jovens para perceber o funcionamento e os efeitos do próprio ambiente tecnológico. Em
tempos de inteligência artificial, em que perguntas humanas podem encontrar respostas incorretas ou
enviesadas criadas por sistemas preditivos, a computação precisa urgentemente entrar na pauta da educação
midiática.
No entanto, deve ser explorada de forma crítica, para entendermos os seus impactos sobre a justiça
social e a democracia — e não apenas como ferramenta de trabalho em uma sociedade digital. A esse novo
campo, que expande os limites da educação para a informação e oferece uma ponte entre a computação e a
educação midiática, chamamos de "letramento algorítmico crítico".
Hoje vivemos o crescimento exponencial da automação baseada em dados — tecnologias chamadas
de algorítmicas ou de inteligência artificial capazes de fazer previsões e tomar decisões a partir dos dados
que as alimentam. Esses sistemas operam de forma silenciosa e quase onipresente na vida contemporânea,
impactando desde a escolha do vídeo que vai ser apresentado a uma criança no YouTube até o sistema que
vai regular sua oferta de emprego ou de crédito quando crescer. É o que vem sendo chamado de "sociedade
da caixa preta”. Segundo o pesquisador australiano Neil Selwin, nesse modelo, decisões automatizadas,
geralmente invisíveis para o usuário comum, moldam seu acesso a direitos, serviços e informação.
Na prática, a educação midiática pode desenvolver as habilidades necessárias para que os jovens
sejam capazes de perceber, questionar e influenciar o comportamento dos sistemas tecnológicos. Crianças
e jovens devem ser levados a explorar as formas de funcionamento dos algoritmos que moldam os resultados
de nossas buscas na internet; podem questionar a ética dos sistemas de previsão e recomendação, ou ainda
o design por trás das interfaces das redes sociais que utilizam, incluindo os chamados "dark patterns", que
manipulam nossas decisões. Devem estar atentos a dinâmicas que promovem imagens inalcançáveis ou
vulnerabilizam determinados grupos. Precisam perceber e questionar exclusões ou vieses refletidos
na produção das IAs generativas. Sobretudo, devem entender os mecanismos de engajamento e de atenção
que favorecem conteúdos que segregam, ofendem e desestabilizam as comunidades.
Em suma, educar para as novas dinâmicas sociotécnicas implica reconhecer que as tecnologias não
são neutras e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos,
impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem
amplificar exponencialmente as injustiças sociais e a exclusão.
Nesse novo ambiente, a educação midiática deve ir além de construir as habilidades de acessar,
avaliar e criar mensagens, examinando autoria, propósito e contexto; deve abranger também uma
compreensão mais profunda da dinâmica complexa, e muitas vezes oculta, entre os indivíduos, as mídias e
os sistemas tecnológicos que moldam nosso mundo. Sem a capacidade de identificar e agir sobre esses
sistemas, nos tornamos vulneráveis aos efeitos desestabilizadores da desinformação e da polarização, que
ameaçam as instituições e a própria paz social, e ao potencial excludente das IAs. É preciso abrir a caixa
preta.
Disponível em: <https://www1.folha.uol.com.br/>. Acesso em: 09 nov. 2023. (texto adaptado)
Provas
Questão presente nas seguintes provas
LETRAMENTO ALGORÍTMICO: ENFRENTANDO A SOCIEDADE DA CAIXA PRETA
Mariana Ochs
Nos últimos anos, avançamos bastante no entendimento da necessidade urgente de construir a
autonomia dos jovens para que atuem nos ambientes informacionais da sociedade com segurança, ética e
responsabilidade. Cada vez mais presente nas normas educacionais, na legislação e em diversos esforços
da sociedade civil, a educação midiática apresenta-se como forma mais eficaz e sustentável de lidarmos com
desinformação, boatos, discursos de ódio, propaganda e outros fenômenos que podem violar direitos e até
desestabilizar a democracia.
Mas, além dos conteúdos que circulam nas mídias, há, também, a parte mais opaca dos ecossistemas
de comunicação: os algoritmos que, sujeitos a lógicas e interesses comerciais, personalizam o que vemos a
ponto de nos expor a recortes seletivos da realidade, direcionando comportamentos, moldando nossas
opiniões de maneira sutil e, por vezes, prejudicial. Esses algoritmos muitas vezes priorizam e reforçam
engajamento com conteúdo enviesados, ofensivos ou violentos, podendo, inclusive, empurrar determinados
indivíduos mais suscetíveis para ambientes — e ações — extremistas.
Com os ambientes digitais mediando cada vez mais a nossa visão de mundo, enfrentar esses desafios
exige olharmos não só para as habilidades de acessar e avaliar mensagens mas também, e cada vez
mais, educar os jovens para perceber o funcionamento e os efeitos do próprio ambiente tecnológico. Em
tempos de inteligência artificial, em que perguntas humanas podem encontrar respostas incorretas ou
enviesadas criadas por sistemas preditivos, a computação precisa urgentemente entrar na pauta da educação
midiática.
No entanto, deve ser explorada de forma crítica, para entendermos os seus impactos sobre a justiça
social e a democracia — e não apenas como ferramenta de trabalho em uma sociedade digital. A esse novo
campo, que expande os limites da educação para a informação e oferece uma ponte entre a computação e a
educação midiática, chamamos de "letramento algorítmico crítico".
Hoje vivemos o crescimento exponencial da automação baseada em dados — tecnologias chamadas
de algorítmicas ou de inteligência artificial capazes de fazer previsões e tomar decisões a partir dos dados
que as alimentam. Esses sistemas operam de forma silenciosa e quase onipresente na vida contemporânea,
impactando desde a escolha do vídeo que vai ser apresentado a uma criança no YouTube até o sistema que
vai regular sua oferta de emprego ou de crédito quando crescer. É o que vem sendo chamado de "sociedade
da caixa preta”. Segundo o pesquisador australiano Neil Selwin, nesse modelo, decisões automatizadas,
geralmente invisíveis para o usuário comum, moldam seu acesso a direitos, serviços e informação.
Na prática, a educação midiática pode desenvolver as habilidades necessárias para que os jovens
sejam capazes de perceber, questionar e influenciar o comportamento dos sistemas tecnológicos. Crianças
e jovens devem ser levados a explorar as formas de funcionamento dos algoritmos que moldam os resultados
de nossas buscas na internet; podem questionar a ética dos sistemas de previsão e recomendação, ou ainda
o design por trás das interfaces das redes sociais que utilizam, incluindo os chamados "dark patterns", que
manipulam nossas decisões. Devem estar atentos a dinâmicas que promovem imagens inalcançáveis ou
vulnerabilizam determinados grupos. Precisam perceber e questionar exclusões ou vieses refletidos
na produção das IAs generativas. Sobretudo, devem entender os mecanismos de engajamento e de atenção
que favorecem conteúdos que segregam, ofendem e desestabilizam as comunidades.
Em suma, educar para as novas dinâmicas sociotécnicas implica reconhecer que as tecnologias não
são neutras e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos,
impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem
amplificar exponencialmente as injustiças sociais e a exclusão.
Nesse novo ambiente, a educação midiática deve ir além de construir as habilidades de acessar,
avaliar e criar mensagens, examinando autoria, propósito e contexto; deve abranger também uma
compreensão mais profunda da dinâmica complexa, e muitas vezes oculta, entre os indivíduos, as mídias e
os sistemas tecnológicos que moldam nosso mundo. Sem a capacidade de identificar e agir sobre esses
sistemas, nos tornamos vulneráveis aos efeitos desestabilizadores da desinformação e da polarização, que
ameaçam as instituições e a própria paz social, e ao potencial excludente das IAs. É preciso abrir a caixa
preta.
Disponível em: <https://www1.folha.uol.com.br/>. Acesso em: 09 nov. 2023. (texto adaptado)
Provas
Questão presente nas seguintes provas
LETRAMENTO ALGORÍTMICO: ENFRENTANDO A SOCIEDADE DA CAIXA PRETA
Mariana Ochs
Nos últimos anos, avançamos bastante no entendimento da necessidade urgente de construir a
autonomia dos jovens para que atuem nos ambientes informacionais da sociedade com segurança, ética e
responsabilidade. Cada vez mais presente nas normas educacionais, na legislação e em diversos esforços
da sociedade civil, a educação midiática apresenta-se como forma mais eficaz e sustentável de lidarmos com
desinformação, boatos, discursos de ódio, propaganda e outros fenômenos que podem violar direitos e até
desestabilizar a democracia.
Mas, além dos conteúdos que circulam nas mídias, há, também, a parte mais opaca dos ecossistemas
de comunicação: os algoritmos que, sujeitos a lógicas e interesses comerciais, personalizam o que vemos a
ponto de nos expor a recortes seletivos da realidade, direcionando comportamentos, moldando nossas
opiniões de maneira sutil e, por vezes, prejudicial. Esses algoritmos muitas vezes priorizam e reforçam
engajamento com conteúdo enviesados, ofensivos ou violentos, podendo, inclusive, empurrar determinados
indivíduos mais suscetíveis para ambientes — e ações — extremistas.
Com os ambientes digitais mediando cada vez mais a nossa visão de mundo, enfrentar esses desafios
exige olharmos não só para as habilidades de acessar e avaliar mensagens mas também, e cada vez
mais, educar os jovens para perceber o funcionamento e os efeitos do próprio ambiente tecnológico. Em
tempos de inteligência artificial, em que perguntas humanas podem encontrar respostas incorretas ou
enviesadas criadas por sistemas preditivos, a computação precisa urgentemente entrar na pauta da educação
midiática.
No entanto, deve ser explorada de forma crítica, para entendermos os seus impactos sobre a justiça
social e a democracia — e não apenas como ferramenta de trabalho em uma sociedade digital. A esse novo
campo, que expande os limites da educação para a informação e oferece uma ponte entre a computação e a
educação midiática, chamamos de "letramento algorítmico crítico".
Hoje vivemos o crescimento exponencial da automação baseada em dados — tecnologias chamadas
de algorítmicas ou de inteligência artificial capazes de fazer previsões e tomar decisões a partir dos dados
que as alimentam. Esses sistemas operam de forma silenciosa e quase onipresente na vida contemporânea,
impactando desde a escolha do vídeo que vai ser apresentado a uma criança no YouTube até o sistema que
vai regular sua oferta de emprego ou de crédito quando crescer. É o que vem sendo chamado de "sociedade
da caixa preta”. Segundo o pesquisador australiano Neil Selwin, nesse modelo, decisões automatizadas,
geralmente invisíveis para o usuário comum, moldam seu acesso a direitos, serviços e informação.
Na prática, a educação midiática pode desenvolver as habilidades necessárias para que os jovens
sejam capazes de perceber, questionar e influenciar o comportamento dos sistemas tecnológicos. Crianças
e jovens devem ser levados a explorar as formas de funcionamento dos algoritmos que moldam os resultados
de nossas buscas na internet; podem questionar a ética dos sistemas de previsão e recomendação, ou ainda
o design por trás das interfaces das redes sociais que utilizam, incluindo os chamados "dark patterns", que
manipulam nossas decisões. Devem estar atentos a dinâmicas que promovem imagens inalcançáveis ou
vulnerabilizam determinados grupos. Precisam perceber e questionar exclusões ou vieses refletidos
na produção das IAs generativas. Sobretudo, devem entender os mecanismos de engajamento e de atenção
que favorecem conteúdos que segregam, ofendem e desestabilizam as comunidades.
Em suma, educar para as novas dinâmicas sociotécnicas implica reconhecer que as tecnologias não
são neutras e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos,
impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem
amplificar exponencialmente as injustiças sociais e a exclusão.
Nesse novo ambiente, a educação midiática deve ir além de construir as habilidades de acessar,
avaliar e criar mensagens, examinando autoria, propósito e contexto; deve abranger também uma
compreensão mais profunda da dinâmica complexa, e muitas vezes oculta, entre os indivíduos, as mídias e
os sistemas tecnológicos que moldam nosso mundo. Sem a capacidade de identificar e agir sobre esses
sistemas, nos tornamos vulneráveis aos efeitos desestabilizadores da desinformação e da polarização, que
ameaçam as instituições e a própria paz social, e ao potencial excludente das IAs. É preciso abrir a caixa
preta.
Disponível em: <https://www1.folha.uol.com.br/>. Acesso em: 09 nov. 2023. (texto adaptado)
Provas
Questão presente nas seguintes provas
A INTELIGÊNCIA ARTIFICIAL ESTÁ MUDANDO O MUNDO, MAS PRECISAMOS PROTEGÊ-LO
Dora Kaufman
No início de 2023, Geoffrey Hinton, considerado o “padrinho da IA” e vencedor do Prêmio Turing (Nobel da tecnologia), declarou à revista Technology review: “De repente, mudei minha opinião sobre se essas coisas (máquinas movidas por inteligência artificial) serão mais inteligentes do que nós. Acho que elas estão muito próximas disso agora e serão muito mais inteligentes do que nós no futuro.” A cientista da computação Melanie Mitchell reconhece, na revista Science, que é uma afirmação extraordinária, mas que exige evidências igualmente extraordinárias. “Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera. Mitchell refuta cada um dos testes realizados para comprovar a semelhança entre as capacidades cognitivas da IA generativa e as dos seres humanos, concluindo que, a partir das evidências fornecidas, não é possível afirmar que os sistemas de IA em breve igualarão ou excederão a inteligência humana.
Para o Prêmio Nobel Judea Pearl, autor de The book of why: the new science of cause and effect (Basic Books, 2018), estamos longe de produzir máquinas com inteligência semelhante à humana. A diferença profunda é a ausência de um modelo mental da realidade onde a imaginação acontece. Para ir mais longe, pondera Pearl, precisamos desenvolver um modelo causal, e não apenas modelos de correlação como as técnicas atuais de IA. “Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais”, argumenta Pearl, lembrando que as intuições humanas são organizadas em torno de relações causais, não estatísticas.
Abstraindo as controvérsias sobre o futuro da inteligência artificial, o que temos hoje é um sistema estatístico de probabilidade, fundamentalmente modelos baseados na técnica de redes neurais profundas (deep learning), com inúmeras limitações a começar pela variável de incerteza intrínseca aos sistemas estatísticos; soluções como o ChatGPT preveem o próximo token em uma sequência com base em uma lógica de probabilidade. A subjetividade humana permeia toda a cadeia de desenvolvimento da IA. São os humanos que tomam as decisões ao longo do processo, bem como são os humanos que interpretam os resultados e decidem como utilizá-los.
Ainda que limitada, a IA tem demonstrado um potencial revolucionário em diversas áreas, como saúde, transporte, educação, segurança e na otimização de processos operacionais. No entanto, seu uso também traz desafios e preocupações, como viés algorítmico discriminatório, privacidade, responsabilidade civil e impacto no mercado de trabalho. Regulamentar adequadamente a IA torna-se crucial para garantir sua aplicação ética, segura e responsável, especialmente porque as legislações existentes não abrangem a totalidade dos riscos associados a esses sistemas. Embora a regulamentação da IA seja essencial, trata-se de um desafio complexo; não por acaso ainda não temos, no mundo ocidental, um marco regulatório, o processo mais avançado é o europeu – “AI Act”, em debate público desde abril de 2021, 3.000 emendas em novembro de 2022, segunda versão votada no Parlamento Europeu em 14 de julho de 2023 –, com fortes críticas tanto do mercado quanto da academia.
Regulamentar a IA não é como regular um produto ou um serviço, não é trivial pré-identificar e isolar nos sistemas os riscos e suas consequências. A eficácia da lei na efetiva proteção da sociedade depende da convergência de diretrizes compartilhadas globalmente, autorregulação e arcabouço regulatório. Regulamentação é um projeto coletivo, que inclui legisladores, partes interessadas, setor privado, academia e sociedade civil. A lacuna de conhecimento sobre IA dos reguladores é uma grande barreira na regulamentação (e posterior fiscalização/enforcement); entender como funcionam as cadeias de suprimento dos sistemas de IA, e como atribuir responsabilidades distintas demanda tempo e capacitação. Entre os especialistas, forma-se um consenso de que a efetividade de qualquer regulamentação da IA depende de estabelecer padrões (tipo ISO).
Reconhecendo o tamanho do desafio, as organizações multilaterais estão convocando os especialistas. A Organização para a Cooperação e Desenvolvimento Econômico, por exemplo, formou o grupo OECD.AI, coordenado pelo britânico Stuart Russell, com o propósito de equipar os governos com o conhecimento e instrumentos necessários para desenvolver políticas voltadas para o futuro da IA. A ONU está capitaneando diversas iniciativas gerais e setoriais, como a reunião promovida pela Unesco com 40 ministros da educação para avaliar as oportunidades, desafios e riscos no curto e longo prazo das tecnologias de IA. Pesquisa global da Unesco, em mais de 450 escolas e universidades, revelou que apenas 10% desenvolveram políticas institucionais e/ou orientações formais sobre o uso de sistemas de IA generativa.
Com base nesse cenário, o órgão está elaborando um conjunto de diretrizes políticas, bem como estruturas de competências de IA para alunos e professores, a ser lançado na “Digital Learning Week”, no segundo semestre de 2023 em sua sede em Paris.
Os governos nacionais igualmente estão se movimentando. Na Europa e nos EUA, os órgãos executivos estão formando equipes de formuladores de política com os parlamentares, agregando acadêmicos e especialistas de mercado. A administração Biden-Harris anunciou um grupo de trabalho do Instituto Nacional de Padrões e Tecnologias (AI@NIST) com voluntários, especialistas dos setores público e privado.
No Brasil, o projeto de lei para criação do Marco Regulatório da Inteligência Artificial, Projeto de Lei 2338, em tramitação no Senado, é um bom ponto de partida, mas requer aperfeiçoamentos, no geral, para: (a) reduzir os custos de conformidade que afetam negativamente a inovação e positivamente a concentração de mercado (empresas médias, pequenas e startups não terão capacidade de atender às exigências legais); e (b) especificar os direitos do usuário afetado, evitando uma enxurrada de ações judiciais. É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico. A categorização de risco é inadequada para regulamentar os grandes modelos de linguagem (LLMs) ou modelos de fundação, que têm aplicações versáteis e imprevisíveis e trazem preocupações sobre proteção de dados e direito autoral.
Para ter algum protagonismo nesse novo ambiente, o Brasil precisa de investimentos em infraestrutura, plataforma de código aberto e banco de dados robusto em português. A hegemonia da língua inglesa não só compromete a eficiência e confiabilidade para usuários não falantes de inglês, mas também tende a gerar hegemonia da cultura americana (monocultura). A questão ambiental, tema fora da pauta dos reguladores de IA, é estratégica na relação do Brasil com o resto do mundo, e o caminho de avanço da IA com sistemas cada vez mais ricos em dados tem uma pegada de carbono significativa em função do consumo de energia dos data centers para rodar sistemas robustos e de emissões associadas à produção de equipamentos e dispositivos. A regulamentação da IA deve incluir obrigações para reduzir o impacto de carbono (otimização dos processos de treinamento e implantação e uso de fontes de energia renováveis). Regular a IA é urgente, mas sem açodamento. O processo é tão importante quanto o resultado final.
Disponível em https://revistacult.uol.com.br/. Acesso em: 17 out. 2023. (texto adaptado)
Considere o período reproduzido abaixo.
Regular a IA é urgente, mas sem açodamento.
A palavra “açodamento” mantém relação de
Provas
Questão presente nas seguintes provas
A INTELIGÊNCIA ARTIFICIAL ESTÁ MUDANDO O MUNDO, MAS PRECISAMOS PROTEGÊ-LO
Dora Kaufman
No início de 2023, Geoffrey Hinton, considerado o “padrinho da IA” e vencedor do Prêmio Turing (Nobel da tecnologia), declarou à revista Technology review: “De repente, mudei minha opinião sobre se essas coisas (máquinas movidas por inteligência artificial) serão mais inteligentes do que nós. Acho que elas estão muito próximas disso agora e serão muito mais inteligentes do que nós no futuro.” A cientista da computação Melanie Mitchell reconhece, na revista Science, que é uma afirmação extraordinária, mas que exige evidências igualmente extraordinárias. “Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera. Mitchell refuta cada um dos testes realizados para comprovar a semelhança entre as capacidades cognitivas da IA generativa e as dos seres humanos, concluindo que, a partir das evidências fornecidas, não é possível afirmar que os sistemas de IA em breve igualarão ou excederão a inteligência humana.
Para o Prêmio Nobel Judea Pearl, autor de The book of why: the new science of cause and effect (Basic Books, 2018), estamos longe de produzir máquinas com inteligência semelhante à humana. A diferença profunda é a ausência de um modelo mental da realidade onde a imaginação acontece. Para ir mais longe, pondera Pearl, precisamos desenvolver um modelo causal, e não apenas modelos de correlação como as técnicas atuais de IA. “Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais”, argumenta Pearl, lembrando que as intuições humanas são organizadas em torno de relações causais, não estatísticas.
Abstraindo as controvérsias sobre o futuro da inteligência artificial, o que temos hoje é um sistema estatístico de probabilidade, fundamentalmente modelos baseados na técnica de redes neurais profundas (deep learning), com inúmeras limitações a começar pela variável de incerteza intrínseca aos sistemas estatísticos; soluções como o ChatGPT preveem o próximo token em uma sequência com base em uma lógica de probabilidade. A subjetividade humana permeia toda a cadeia de desenvolvimento da IA. São os humanos que tomam as decisões ao longo do processo, bem como são os humanos que interpretam os resultados e decidem como utilizá-los.
Ainda que limitada, a IA tem demonstrado um potencial revolucionário em diversas áreas, como saúde, transporte, educação, segurança e na otimização de processos operacionais. No entanto, seu uso também traz desafios e preocupações, como viés algorítmico discriminatório, privacidade, responsabilidade civil e impacto no mercado de trabalho. Regulamentar adequadamente a IA torna-se crucial para garantir sua aplicação ética, segura e responsável, especialmente porque as legislações existentes não abrangem a totalidade dos riscos associados a esses sistemas. Embora a regulamentação da IA seja essencial, trata-se de um desafio complexo; não por acaso ainda não temos, no mundo ocidental, um marco regulatório, o processo mais avançado é o europeu – “AI Act”, em debate público desde abril de 2021, 3.000 emendas em novembro de 2022, segunda versão votada no Parlamento Europeu em 14 de julho de 2023 –, com fortes críticas tanto do mercado quanto da academia.
Regulamentar a IA não é como regular um produto ou um serviço, não é trivial pré-identificar e isolar nos sistemas os riscos e suas consequências. A eficácia da lei na efetiva proteção da sociedade depende da convergência de diretrizes compartilhadas globalmente, autorregulação e arcabouço regulatório. Regulamentação é um projeto coletivo, que inclui legisladores, partes interessadas, setor privado, academia e sociedade civil. A lacuna de conhecimento sobre IA dos reguladores é uma grande barreira na regulamentação (e posterior fiscalização/enforcement); entender como funcionam as cadeias de suprimento dos sistemas de IA, e como atribuir responsabilidades distintas demanda tempo e capacitação. Entre os especialistas, forma-se um consenso de que a efetividade de qualquer regulamentação da IA depende de estabelecer padrões (tipo ISO).
Reconhecendo o tamanho do desafio, as organizações multilaterais estão convocando os especialistas. A Organização para a Cooperação e Desenvolvimento Econômico, por exemplo, formou o grupo OECD.AI, coordenado pelo britânico Stuart Russell, com o propósito de equipar os governos com o conhecimento e instrumentos necessários para desenvolver políticas voltadas para o futuro da IA. A ONU está capitaneando diversas iniciativas gerais e setoriais, como a reunião promovida pela Unesco com 40 ministros da educação para avaliar as oportunidades, desafios e riscos no curto e longo prazo das tecnologias de IA. Pesquisa global da Unesco, em mais de 450 escolas e universidades, revelou que apenas 10% desenvolveram políticas institucionais e/ou orientações formais sobre o uso de sistemas de IA generativa.
Com base nesse cenário, o órgão está elaborando um conjunto de diretrizes políticas, bem como estruturas de competências de IA para alunos e professores, a ser lançado na “Digital Learning Week”, no segundo semestre de 2023 em sua sede em Paris.
Os governos nacionais igualmente estão se movimentando. Na Europa e nos EUA, os órgãos executivos estão formando equipes de formuladores de política com os parlamentares, agregando acadêmicos e especialistas de mercado. A administração Biden-Harris anunciou um grupo de trabalho do Instituto Nacional de Padrões e Tecnologias (AI@NIST) com voluntários, especialistas dos setores público e privado.
No Brasil, o projeto de lei para criação do Marco Regulatório da Inteligência Artificial, Projeto de Lei 2338, em tramitação no Senado, é um bom ponto de partida, mas requer aperfeiçoamentos, no geral, para: (a) reduzir os custos de conformidade que afetam negativamente a inovação e positivamente a concentração de mercado (empresas médias, pequenas e startups não terão capacidade de atender às exigências legais); e (b) especificar os direitos do usuário afetado, evitando uma enxurrada de ações judiciais. É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico. A categorização de risco é inadequada para regulamentar os grandes modelos de linguagem (LLMs) ou modelos de fundação, que têm aplicações versáteis e imprevisíveis e trazem preocupações sobre proteção de dados e direito autoral.
Para ter algum protagonismo nesse novo ambiente, o Brasil precisa de investimentos em infraestrutura, plataforma de código aberto e banco de dados robusto em português. A hegemonia da língua inglesa não só compromete a eficiência e confiabilidade para usuários não falantes de inglês, mas também tende a gerar hegemonia da cultura americana (monocultura). A questão ambiental, tema fora da pauta dos reguladores de IA, é estratégica na relação do Brasil com o resto do mundo, e o caminho de avanço da IA com sistemas cada vez mais ricos em dados tem uma pegada de carbono significativa em função do consumo de energia dos data centers para rodar sistemas robustos e de emissões associadas à produção de equipamentos e dispositivos. A regulamentação da IA deve incluir obrigações para reduzir o impacto de carbono (otimização dos processos de treinamento e implantação e uso de fontes de energia renováveis). Regular a IA é urgente, mas sem açodamento. O processo é tão importante quanto o resultado final.
Disponível em https://revistacult.uol.com.br/. Acesso em: 17 out. 2023. (texto adaptado)
“Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais” [...].
O não uso do acento grave, nas duas ocorrências da palavra “a”, deve-se,
Provas
Questão presente nas seguintes provas
A INTELIGÊNCIA ARTIFICIAL ESTÁ MUDANDO O MUNDO, MAS PRECISAMOS PROTEGÊ-LO
Dora Kaufman
No início de 2023, Geoffrey Hinton, considerado o “padrinho da IA” e vencedor do Prêmio Turing (Nobel da tecnologia), declarou à revista Technology review: “De repente, mudei minha opinião sobre se essas coisas (máquinas movidas por inteligência artificial) serão mais inteligentes do que nós. Acho que elas estão muito próximas disso agora e serão muito mais inteligentes do que nós no futuro.” A cientista da computação Melanie Mitchell reconhece, na revista Science, que é uma afirmação extraordinária, mas que exige evidências igualmente extraordinárias. “Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera. Mitchell refuta cada um dos testes realizados para comprovar a semelhança entre as capacidades cognitivas da IA generativa e as dos seres humanos, concluindo que, a partir das evidências fornecidas, não é possível afirmar que os sistemas de IA em breve igualarão ou excederão a inteligência humana.
Para o Prêmio Nobel Judea Pearl, autor de The book of why: the new science of cause and effect (Basic Books, 2018), estamos longe de produzir máquinas com inteligência semelhante à humana. A diferença profunda é a ausência de um modelo mental da realidade onde a imaginação acontece. Para ir mais longe, pondera Pearl, precisamos desenvolver um modelo causal, e não apenas modelos de correlação como as técnicas atuais de IA. “Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais”, argumenta Pearl, lembrando que as intuições humanas são organizadas em torno de relações causais, não estatísticas.
Abstraindo as controvérsias sobre o futuro da inteligência artificial, o que temos hoje é um sistema estatístico de probabilidade, fundamentalmente modelos baseados na técnica de redes neurais profundas (deep learning), com inúmeras limitações a começar pela variável de incerteza intrínseca aos sistemas estatísticos; soluções como o ChatGPT preveem o próximo token em uma sequência com base em uma lógica de probabilidade. A subjetividade humana permeia toda a cadeia de desenvolvimento da IA. São os humanos que tomam as decisões ao longo do processo, bem como são os humanos que interpretam os resultados e decidem como utilizá-los.
Ainda que limitada, a IA tem demonstrado um potencial revolucionário em diversas áreas, como saúde, transporte, educação, segurança e na otimização de processos operacionais. No entanto, seu uso também traz desafios e preocupações, como viés algorítmico discriminatório, privacidade, responsabilidade civil e impacto no mercado de trabalho. Regulamentar adequadamente a IA torna-se crucial para garantir sua aplicação ética, segura e responsável, especialmente porque as legislações existentes não abrangem a totalidade dos riscos associados a esses sistemas. Embora a regulamentação da IA seja essencial, trata-se de um desafio complexo; não por acaso ainda não temos, no mundo ocidental, um marco regulatório, o processo mais avançado é o europeu – “AI Act”, em debate público desde abril de 2021, 3.000 emendas em novembro de 2022, segunda versão votada no Parlamento Europeu em 14 de julho de 2023 –, com fortes críticas tanto do mercado quanto da academia.
Regulamentar a IA não é como regular um produto ou um serviço, não é trivial pré-identificar e isolar nos sistemas os riscos e suas consequências. A eficácia da lei na efetiva proteção da sociedade depende da convergência de diretrizes compartilhadas globalmente, autorregulação e arcabouço regulatório. Regulamentação é um projeto coletivo, que inclui legisladores, partes interessadas, setor privado, academia e sociedade civil. A lacuna de conhecimento sobre IA dos reguladores é uma grande barreira na regulamentação (e posterior fiscalização/enforcement); entender como funcionam as cadeias de suprimento dos sistemas de IA, e como atribuir responsabilidades distintas demanda tempo e capacitação. Entre os especialistas, forma-se um consenso de que a efetividade de qualquer regulamentação da IA depende de estabelecer padrões (tipo ISO).
Reconhecendo o tamanho do desafio, as organizações multilaterais estão convocando os especialistas. A Organização para a Cooperação e Desenvolvimento Econômico, por exemplo, formou o grupo OECD.AI, coordenado pelo britânico Stuart Russell, com o propósito de equipar os governos com o conhecimento e instrumentos necessários para desenvolver políticas voltadas para o futuro da IA. A ONU está capitaneando diversas iniciativas gerais e setoriais, como a reunião promovida pela Unesco com 40 ministros da educação para avaliar as oportunidades, desafios e riscos no curto e longo prazo das tecnologias de IA. Pesquisa global da Unesco, em mais de 450 escolas e universidades, revelou que apenas 10% desenvolveram políticas institucionais e/ou orientações formais sobre o uso de sistemas de IA generativa.
Com base nesse cenário, o órgão está elaborando um conjunto de diretrizes políticas, bem como estruturas de competências de IA para alunos e professores, a ser lançado na “Digital Learning Week”, no segundo semestre de 2023 em sua sede em Paris.
Os governos nacionais igualmente estão se movimentando. Na Europa e nos EUA, os órgãos executivos estão formando equipes de formuladores de política com os parlamentares, agregando acadêmicos e especialistas de mercado. A administração Biden-Harris anunciou um grupo de trabalho do Instituto Nacional de Padrões e Tecnologias (AI@NIST) com voluntários, especialistas dos setores público e privado.
No Brasil, o projeto de lei para criação do Marco Regulatório da Inteligência Artificial, Projeto de Lei 2338, em tramitação no Senado, é um bom ponto de partida, mas requer aperfeiçoamentos, no geral, para: (a) reduzir os custos de conformidade que afetam negativamente a inovação e positivamente a concentração de mercado (empresas médias, pequenas e startups não terão capacidade de atender às exigências legais); e (b) especificar os direitos do usuário afetado, evitando uma enxurrada de ações judiciais. É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico. A categorização de risco é inadequada para regulamentar os grandes modelos de linguagem (LLMs) ou modelos de fundação, que têm aplicações versáteis e imprevisíveis e trazem preocupações sobre proteção de dados e direito autoral.
Para ter algum protagonismo nesse novo ambiente, o Brasil precisa de investimentos em infraestrutura, plataforma de código aberto e banco de dados robusto em português. A hegemonia da língua inglesa não só compromete a eficiência e confiabilidade para usuários não falantes de inglês, mas também tende a gerar hegemonia da cultura americana (monocultura). A questão ambiental, tema fora da pauta dos reguladores de IA, é estratégica na relação do Brasil com o resto do mundo, e o caminho de avanço da IA com sistemas cada vez mais ricos em dados tem uma pegada de carbono significativa em função do consumo de energia dos data centers para rodar sistemas robustos e de emissões associadas à produção de equipamentos e dispositivos. A regulamentação da IA deve incluir obrigações para reduzir o impacto de carbono (otimização dos processos de treinamento e implantação e uso de fontes de energia renováveis). Regular a IA é urgente, mas sem açodamento. O processo é tão importante quanto o resultado final.
Disponível em https://revistacult.uol.com.br/. Acesso em: 17 out. 2023. (texto adaptado)
Para evitar a repetição redundante da expressão “os robôs”, nesse trecho, utilizou-se o recurso coesivo
Provas
Questão presente nas seguintes provas
A INTELIGÊNCIA ARTIFICIAL ESTÁ MUDANDO O MUNDO, MAS PRECISAMOS PROTEGÊ-LO
Dora Kaufman
No início de 2023, Geoffrey Hinton, considerado o “padrinho da IA” e vencedor do Prêmio Turing (Nobel da tecnologia), declarou à revista Technology review: “De repente, mudei minha opinião sobre se essas coisas (máquinas movidas por inteligência artificial) serão mais inteligentes do que nós. Acho que elas estão muito próximas disso agora e serão muito mais inteligentes do que nós no futuro.” A cientista da computação Melanie Mitchell reconhece, na revista Science, que é uma afirmação extraordinária, mas que exige evidências igualmente extraordinárias. “Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera. Mitchell refuta cada um dos testes realizados para comprovar a semelhança entre as capacidades cognitivas da IA generativa e as dos seres humanos, concluindo que, a partir das evidências fornecidas, não é possível afirmar que os sistemas de IA em breve igualarão ou excederão a inteligência humana.
Para o Prêmio Nobel Judea Pearl, autor de The book of why: the new science of cause and effect (Basic Books, 2018), estamos longe de produzir máquinas com inteligência semelhante à humana. A diferença profunda é a ausência de um modelo mental da realidade onde a imaginação acontece. Para ir mais longe, pondera Pearl, precisamos desenvolver um modelo causal, e não apenas modelos de correlação como as técnicas atuais de IA. “Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais”, argumenta Pearl, lembrando que as intuições humanas são organizadas em torno de relações causais, não estatísticas.
Abstraindo as controvérsias sobre o futuro da inteligência artificial, o que temos hoje é um sistema estatístico de probabilidade, fundamentalmente modelos baseados na técnica de redes neurais profundas (deep learning), com inúmeras limitações a começar pela variável de incerteza intrínseca aos sistemas estatísticos; soluções como o ChatGPT preveem o próximo token em uma sequência com base em uma lógica de probabilidade. A subjetividade humana permeia toda a cadeia de desenvolvimento da IA. São os humanos que tomam as decisões ao longo do processo, bem como são os humanos que interpretam os resultados e decidem como utilizá-los.
Ainda que limitada, a IA tem demonstrado um potencial revolucionário em diversas áreas, como saúde, transporte, educação, segurança e na otimização de processos operacionais. No entanto, seu uso também traz desafios e preocupações, como viés algorítmico discriminatório, privacidade, responsabilidade civil e impacto no mercado de trabalho. Regulamentar adequadamente a IA torna-se crucial para garantir sua aplicação ética, segura e responsável, especialmente porque as legislações existentes não abrangem a totalidade dos riscos associados a esses sistemas. Embora a regulamentação da IA seja essencial, trata-se de um desafio complexo; não por acaso ainda não temos, no mundo ocidental, um marco regulatório, o processo mais avançado é o europeu – “AI Act”, em debate público desde abril de 2021, 3.000 emendas em novembro de 2022, segunda versão votada no Parlamento Europeu em 14 de julho de 2023 –, com fortes críticas tanto do mercado quanto da academia.
Regulamentar a IA não é como regular um produto ou um serviço, não é trivial pré-identificar e isolar nos sistemas os riscos e suas consequências. A eficácia da lei na efetiva proteção da sociedade depende da convergência de diretrizes compartilhadas globalmente, autorregulação e arcabouço regulatório. Regulamentação é um projeto coletivo, que inclui legisladores, partes interessadas, setor privado, academia e sociedade civil. A lacuna de conhecimento sobre IA dos reguladores é uma grande barreira na regulamentação (e posterior fiscalização/enforcement); entender como funcionam as cadeias de suprimento dos sistemas de IA, e como atribuir responsabilidades distintas demanda tempo e capacitação. Entre os especialistas, forma-se um consenso de que a efetividade de qualquer regulamentação da IA depende de estabelecer padrões (tipo ISO).
Reconhecendo o tamanho do desafio, as organizações multilaterais estão convocando os especialistas. A Organização para a Cooperação e Desenvolvimento Econômico, por exemplo, formou o grupo OECD.AI, coordenado pelo britânico Stuart Russell, com o propósito de equipar os governos com o conhecimento e instrumentos necessários para desenvolver políticas voltadas para o futuro da IA. A ONU está capitaneando diversas iniciativas gerais e setoriais, como a reunião promovida pela Unesco com 40 ministros da educação para avaliar as oportunidades, desafios e riscos no curto e longo prazo das tecnologias de IA. Pesquisa global da Unesco, em mais de 450 escolas e universidades, revelou que apenas 10% desenvolveram políticas institucionais e/ou orientações formais sobre o uso de sistemas de IA generativa.
Com base nesse cenário, o órgão está elaborando um conjunto de diretrizes políticas, bem como estruturas de competências de IA para alunos e professores, a ser lançado na “Digital Learning Week”, no segundo semestre de 2023 em sua sede em Paris.
Os governos nacionais igualmente estão se movimentando. Na Europa e nos EUA, os órgãos executivos estão formando equipes de formuladores de política com os parlamentares, agregando acadêmicos e especialistas de mercado. A administração Biden-Harris anunciou um grupo de trabalho do Instituto Nacional de Padrões e Tecnologias (AI@NIST) com voluntários, especialistas dos setores público e privado.
No Brasil, o projeto de lei para criação do Marco Regulatório da Inteligência Artificial, Projeto de Lei 2338, em tramitação no Senado, é um bom ponto de partida, mas requer aperfeiçoamentos, no geral, para: (a) reduzir os custos de conformidade que afetam negativamente a inovação e positivamente a concentração de mercado (empresas médias, pequenas e startups não terão capacidade de atender às exigências legais); e (b) especificar os direitos do usuário afetado, evitando uma enxurrada de ações judiciais. É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico. A categorização de risco é inadequada para regulamentar os grandes modelos de linguagem (LLMs) ou modelos de fundação, que têm aplicações versáteis e imprevisíveis e trazem preocupações sobre proteção de dados e direito autoral.
Para ter algum protagonismo nesse novo ambiente, o Brasil precisa de investimentos em infraestrutura, plataforma de código aberto e banco de dados robusto em português. A hegemonia da língua inglesa não só compromete a eficiência e confiabilidade para usuários não falantes de inglês, mas também tende a gerar hegemonia da cultura americana (monocultura). A questão ambiental, tema fora da pauta dos reguladores de IA, é estratégica na relação do Brasil com o resto do mundo, e o caminho de avanço da IA com sistemas cada vez mais ricos em dados tem uma pegada de carbono significativa em função do consumo de energia dos data centers para rodar sistemas robustos e de emissões associadas à produção de equipamentos e dispositivos. A regulamentação da IA deve incluir obrigações para reduzir o impacto de carbono (otimização dos processos de treinamento e implantação e uso de fontes de energia renováveis). Regular a IA é urgente, mas sem açodamento. O processo é tão importante quanto o resultado final.
Disponível em https://revistacult.uol.com.br/. Acesso em: 17 out. 2023. (texto adaptado)
“Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera.
Nesse trecho, citado pela autora, em que a cientista da computação Melanie Mitchell justifica a ideia de que somos propensos ao antropomorfismo, a expressão até mesmo, usada pela cientista, assinala que
Provas
Questão presente nas seguintes provas
A INTELIGÊNCIA ARTIFICIAL ESTÁ MUDANDO O MUNDO, MAS PRECISAMOS PROTEGÊ-LO
Dora Kaufman
No início de 2023, Geoffrey Hinton, considerado o “padrinho da IA” e vencedor do Prêmio Turing (Nobel da tecnologia), declarou à revista Technology review: “De repente, mudei minha opinião sobre se essas coisas (máquinas movidas por inteligência artificial) serão mais inteligentes do que nós. Acho que elas estão muito próximas disso agora e serão muito mais inteligentes do que nós no futuro.” A cientista da computação Melanie Mitchell reconhece, na revista Science, que é uma afirmação extraordinária, mas que exige evidências igualmente extraordinárias. “Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera. Mitchell refuta cada um dos testes realizados para comprovar a semelhança entre as capacidades cognitivas da IA generativa e as dos seres humanos, concluindo que, a partir das evidências fornecidas, não é possível afirmar que os sistemas de IA em breve igualarão ou excederão a inteligência humana.
Para o Prêmio Nobel Judea Pearl, autor de The book of why: the new science of cause and effect (Basic Books, 2018), estamos longe de produzir máquinas com inteligência semelhante à humana. A diferença profunda é a ausência de um modelo mental da realidade onde a imaginação acontece. Para ir mais longe, pondera Pearl, precisamos desenvolver um modelo causal, e não apenas modelos de correlação como as técnicas atuais de IA. “Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais”, argumenta Pearl, lembrando que as intuições humanas são organizadas em torno de relações causais, não estatísticas.
Abstraindo as controvérsias sobre o futuro da inteligência artificial, o que temos hoje é um sistema estatístico de probabilidade, fundamentalmente modelos baseados na técnica de redes neurais profundas (deep learning), com inúmeras limitações a começar pela variável de incerteza intrínseca aos sistemas estatísticos; soluções como o ChatGPT preveem o próximo token em uma sequência com base em uma lógica de probabilidade. A subjetividade humana permeia toda a cadeia de desenvolvimento da IA. São os humanos que tomam as decisões ao longo do processo, bem como são os humanos que interpretam os resultados e decidem como utilizá-los.
Ainda que limitada, a IA tem demonstrado um potencial revolucionário em diversas áreas, como saúde, transporte, educação, segurança e na otimização de processos operacionais. No entanto, seu uso também traz desafios e preocupações, como viés algorítmico discriminatório, privacidade, responsabilidade civil e impacto no mercado de trabalho. Regulamentar adequadamente a IA torna-se crucial para garantir sua aplicação ética, segura e responsável, especialmente porque as legislações existentes não abrangem a totalidade dos riscos associados a esses sistemas. Embora a regulamentação da IA seja essencial, trata-se de um desafio complexo; não por acaso ainda não temos, no mundo ocidental, um marco regulatório, o processo mais avançado é o europeu – “AI Act”, em debate público desde abril de 2021, 3.000 emendas em novembro de 2022, segunda versão votada no Parlamento Europeu em 14 de julho de 2023 –, com fortes críticas tanto do mercado quanto da academia.
Regulamentar a IA não é como regular um produto ou um serviço, não é trivial pré-identificar e isolar nos sistemas os riscos e suas consequências. A eficácia da lei na efetiva proteção da sociedade depende da convergência de diretrizes compartilhadas globalmente, autorregulação e arcabouço regulatório. Regulamentação é um projeto coletivo, que inclui legisladores, partes interessadas, setor privado, academia e sociedade civil. A lacuna de conhecimento sobre IA dos reguladores é uma grande barreira na regulamentação (e posterior fiscalização/enforcement); entender como funcionam as cadeias de suprimento dos sistemas de IA, e como atribuir responsabilidades distintas demanda tempo e capacitação. Entre os especialistas, forma-se um consenso de que a efetividade de qualquer regulamentação da IA depende de estabelecer padrões (tipo ISO).
Reconhecendo o tamanho do desafio, as organizações multilaterais estão convocando os especialistas. A Organização para a Cooperação e Desenvolvimento Econômico, por exemplo, formou o grupo OECD.AI, coordenado pelo britânico Stuart Russell, com o propósito de equipar os governos com o conhecimento e instrumentos necessários para desenvolver políticas voltadas para o futuro da IA. A ONU está capitaneando diversas iniciativas gerais e setoriais, como a reunião promovida pela Unesco com 40 ministros da educação para avaliar as oportunidades, desafios e riscos no curto e longo prazo das tecnologias de IA. Pesquisa global da Unesco, em mais de 450 escolas e universidades, revelou que apenas 10% desenvolveram políticas institucionais e/ou orientações formais sobre o uso de sistemas de IA generativa.
Com base nesse cenário, o órgão está elaborando um conjunto de diretrizes políticas, bem como estruturas de competências de IA para alunos e professores, a ser lançado na “Digital Learning Week”, no segundo semestre de 2023 em sua sede em Paris.
Os governos nacionais igualmente estão se movimentando. Na Europa e nos EUA, os órgãos executivos estão formando equipes de formuladores de política com os parlamentares, agregando acadêmicos e especialistas de mercado. A administração Biden-Harris anunciou um grupo de trabalho do Instituto Nacional de Padrões e Tecnologias (AI@NIST) com voluntários, especialistas dos setores público e privado.
No Brasil, o projeto de lei para criação do Marco Regulatório da Inteligência Artificial, Projeto de Lei 2338, em tramitação no Senado, é um bom ponto de partida, mas requer aperfeiçoamentos, no geral, para: (a) reduzir os custos de conformidade que afetam negativamente a inovação e positivamente a concentração de mercado (empresas médias, pequenas e startups não terão capacidade de atender às exigências legais); e (b) especificar os direitos do usuário afetado, evitando uma enxurrada de ações judiciais. É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico. A categorização de risco é inadequada para regulamentar os grandes modelos de linguagem (LLMs) ou modelos de fundação, que têm aplicações versáteis e imprevisíveis e trazem preocupações sobre proteção de dados e direito autoral.
Para ter algum protagonismo nesse novo ambiente, o Brasil precisa de investimentos em infraestrutura, plataforma de código aberto e banco de dados robusto em português. A hegemonia da língua inglesa não só compromete a eficiência e confiabilidade para usuários não falantes de inglês, mas também tende a gerar hegemonia da cultura americana (monocultura). A questão ambiental, tema fora da pauta dos reguladores de IA, é estratégica na relação do Brasil com o resto do mundo, e o caminho de avanço da IA com sistemas cada vez mais ricos em dados tem uma pegada de carbono significativa em função do consumo de energia dos data centers para rodar sistemas robustos e de emissões associadas à produção de equipamentos e dispositivos. A regulamentação da IA deve incluir obrigações para reduzir o impacto de carbono (otimização dos processos de treinamento e implantação e uso de fontes de energia renováveis). Regular a IA é urgente, mas sem açodamento. O processo é tão importante quanto o resultado final.
Disponível em https://revistacult.uol.com.br/. Acesso em: 17 out. 2023. (texto adaptado)
É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico.
Sobre a construção desse trecho, é correto afirmar que a autora recorre a uma estrutura
Provas
Questão presente nas seguintes provas
Cadernos
Caderno Container