Foram encontradas 110 questões.
Leia o Texto.
Inteligência Artificial no Mercado Editorial: Possibilidades e desafios éticos
Gabriel Cunha Leal de Araújo, 09/04/2024
O uso da Inteligência Artificial Generativa (IAG) e suas repercussões têm sido acompanhados nas mais diversas esferas, devido principalmente à facilidade que ela traz para produção de conteúdo e operacionalização das atividades de maneira automatizada. Um dos mercados mais impactados por essas novidades é o mercado editorial. Como veremos a seguir, a IA, apesar de trazer várias facilidades ao trabalho, também coloca a nossa frente novos desafios e exigências de seus profissionais. Requer, pois, um olhar crítico e aprofundado sobre as desigualdades que ela pode produzir, se for utilizada de forma incorreta.
O mercado editorial, e aqui pretendo me referir a ele em todas as suas possíveis ramificações, não apenas relacionadas aos grandes conglomerados editoriais de livros tradicionais, mas também à editoração científica e de conteúdo num geral, tem se beneficiado da utilização das diversas atribuições da IAG que fazem parte do seu rol de atividades. Desde a geração automática de conteúdo, passando pela revisão gramatical e até pela própria criação de ilustrações para publicação.
Algumas dessas tarefas, como a revisão gramatical, podem ser entediantes e dispendiosas, porém a utilização da IA pode favorecer o trabalho e facilitar essa rotina. Escrever um artigo científico e verificar se a normalização está de acordo com o solicitado pela revista é um compromisso muitas vezes mais técnico do que intelectual. Para quem já se esforçou intelectual e criativamente para a elaboração de ideias e de conteúdo, ter que se preocupar com a normalização pode ser muitas vezes frustrante. Nesse contexto, as ferramentas de IA são um importante auxílio para o autor e revisores. Podem ser ampliadas, por exemplo, se utilizadas como auxiliadoras no processo de tradução ou na geração de resumos, sob um posterior olhar profissional qualificado.
Entretanto, as possibilidades que a IA traz para o trabalho editorial, se forem usadas indiscriminadamente, podem muitas vezes esbarrar em uma área cinzenta: onde o que é ético ou não. Quando utilizamos a ferramenta não para correção, mas para geração de conteúdo, é correto aceitar uma autoria que na verdade não existe? É esperado que não saibamos as fontes exatas do que colocamos para publicação? É bom senso que consideramos como abstração intelectual um resultado proveniente de uma ferramenta estatística sofisticada de prospecção de palavras que imitam a linguagem humana? Até esse ponto podemos considerar uma ferramenta algorítmica como fonte de informação e de autonomia científica, criativa e intelectual?
Esses questionamentos, apesar de importantes, não abarcam nem a metade dos problemas que podemos ter com as IAs. Essas ferramentas também apresentam (em seu estado atual da arte) diversas questões complexas sobre sua construção. Os modelos de aprendizado profundo de máquina (Deep Learning) possuem um enorme custo de energia, e os recursos computacionais usados para treinar esses modelos produzem uma grande pegada de carbono. Além disso, questões intrínsecas à sua construção, como a opacidade algorítmica por trás dessas ferramentas e os próprios dados usados para alimentar e fomentar o aprendizado da máquina levantam questões relacionadas à privacidade e aos problemas relacionados ao treinamento por dados invejados e com potencial desinformativo.
A IA deve ser entendida como uma facilitadora para as atividades editoriais, e ser utilizada como os softwares de apoio no nosso dia a dia de trabalho. Ela precisa ser parte auxiliar do processo editorial, e não o processo editorial em si. Realmente queremos renunciar à sensibilidade artística dos ilustradores para terceirizar esse serviço às ferramentas de IA? O quão nocivo seria quebrar o contrato implícito entre o autor e seu público, que espera que ler algo produzido por ele, e não por uma inteligência artificial?
Não existe uma solução fácil nem definitiva quando tratamos do avanço da tecnologia de IA nas práticas editoriais. Assim como muitas das tecnologias disruptivas anteriores, ela vem consolidando seu espaço, e seu papel na otimização dessas práticas é inegável. Diante desse cenário, cabe a nós, como profissionais e cidadãos interessados, estabelecer os limites éticos de sua boa utilização, sempre tendo como norte a importância da atenção artística e intelectual humana na produção de conteúdo.
Disponível: https://portal.fgv.br/en/node/31487. Acesso em: 15/08/2024. Adaptação.
O uso de dois pontos no título do texto assinala
Provas
Leia o Texto.
Inteligência Artificial no Mercado Editorial: Possibilidades e desafios éticos
Gabriel Cunha Leal de Araújo, 09/04/2024
O uso da Inteligência Artificial Generativa (IAG) e suas repercussões têm sido acompanhados nas mais diversas esferas, devido principalmente à facilidade que ela traz para produção de conteúdo e operacionalização das atividades de maneira automatizada. Um dos mercados mais impactados por essas novidades é o mercado editorial. Como veremos a seguir, a IA, apesar de trazer várias facilidades ao trabalho, também coloca a nossa frente novos desafios e exigências de seus profissionais. Requer, pois, um olhar crítico e aprofundado sobre as desigualdades que ela pode produzir, se for utilizada de forma incorreta.
O mercado editorial, e aqui pretendo me referir a ele em todas as suas possíveis ramificações, não apenas relacionadas aos grandes conglomerados editoriais de livros tradicionais, mas também à editoração científica e de conteúdo num geral, tem se beneficiado da utilização das diversas atribuições da IAG que fazem parte do seu rol de atividades. Desde a geração automática de conteúdo, passando pela revisão gramatical e até pela própria criação de ilustrações para publicação.
Algumas dessas tarefas, como a revisão gramatical, podem ser entediantes e dispendiosas, porém a utilização da IA pode favorecer o trabalho e facilitar essa rotina. Escrever um artigo científico e verificar se a normalização está de acordo com o solicitado pela revista é um compromisso muitas vezes mais técnico do que intelectual. Para quem já se esforçou intelectual e criativamente para a elaboração de ideias e de conteúdo, ter que se preocupar com a normalização pode ser muitas vezes frustrante. Nesse contexto, as ferramentas de IA são um importante auxílio para o autor e revisores. Podem ser ampliadas, por exemplo, se utilizadas como auxiliadoras no processo de tradução ou na geração de resumos, sob um posterior olhar profissional qualificado.
Entretanto, as possibilidades que a IA traz para o trabalho editorial, se forem usadas indiscriminadamente, podem muitas vezes esbarrar em uma área cinzenta: onde o que é ético ou não. Quando utilizamos a ferramenta não para correção, mas para geração de conteúdo, é correto aceitar uma autoria que na verdade não existe? É esperado que não saibamos as fontes exatas do que colocamos para publicação? É bom senso que consideramos como abstração intelectual um resultado proveniente de uma ferramenta estatística sofisticada de prospecção de palavras que imitam a linguagem humana? Até esse ponto podemos considerar uma ferramenta algorítmica como fonte de informação e de autonomia científica, criativa e intelectual?
Esses questionamentos, apesar de importantes, não abarcam nem a metade dos problemas que podemos ter com as IAs. Essas ferramentas também apresentam (em seu estado atual da arte) diversas questões complexas sobre sua construção. Os modelos de aprendizado profundo de máquina (Deep Learning) possuem um enorme custo de energia, e os recursos computacionais usados para treinar esses modelos produzem uma grande pegada de carbono. Além disso, questões intrínsecas à sua construção, como a opacidade algorítmica por trás dessas ferramentas e os próprios dados usados para alimentar e fomentar o aprendizado da máquina levantam questões relacionadas à privacidade e aos problemas relacionados ao treinamento por dados invejados e com potencial desinformativo.
A IA deve ser entendida como uma facilitadora para as atividades editoriais, e ser utilizada como os softwares de apoio no nosso dia a dia de trabalho. Ela precisa ser parte auxiliar do processo editorial, e não o processo editorial em si. Realmente queremos renunciar à sensibilidade artística dos ilustradores para terceirizar esse serviço às ferramentas de IA? O quão nocivo seria quebrar o contrato implícito entre o autor e seu público, que espera que ler algo produzido por ele, e não por uma inteligência artificial?
Não existe uma solução fácil nem definitiva quando tratamos do avanço da tecnologia de IA nas práticas editoriais. Assim como muitas das tecnologias disruptivas anteriores, ela vem consolidando seu espaço, e seu papel na otimização dessas práticas é inegável. Diante desse cenário, cabe a nós, como profissionais e cidadãos interessados, estabelecer os limites éticos de sua boa utilização, sempre tendo como norte a importância da atenção artística e intelectual humana na produção de conteúdo.
Disponível: https://portal.fgv.br/en/node/31487. Acesso em: 15/08/2024. Adaptação.
É correto afirmar que a palavra em que há apenas derivação prefixal em sua formação é
Provas
Leia o Texto.
Inteligência Artificial no Mercado Editorial: Possibilidades e desafios éticos
Gabriel Cunha Leal de Araújo, 09/04/2024
O uso da Inteligência Artificial Generativa (IAG) e suas repercussões têm sido acompanhados nas mais diversas esferas, devido principalmente à facilidade que ela traz para produção de conteúdo e operacionalização das atividades de maneira automatizada. Um dos mercados mais impactados por essas novidades é o mercado editorial. Como veremos a seguir, a IA, apesar de trazer várias facilidades ao trabalho, também coloca a nossa frente novos desafios e exigências de seus profissionais. Requer, pois, um olhar crítico e aprofundado sobre as desigualdades que ela pode produzir, se for utilizada de forma incorreta.
O mercado editorial, e aqui pretendo me referir a ele em todas as suas possíveis ramificações, não apenas relacionadas aos grandes conglomerados editoriais de livros tradicionais, mas também à editoração científica e de conteúdo num geral, tem se beneficiado da utilização das diversas atribuições da IAG que fazem parte do seu rol de atividades. Desde a geração automática de conteúdo, passando pela revisão gramatical e até pela própria criação de ilustrações para publicação.
Algumas dessas tarefas, como a revisão gramatical, podem ser entediantes e dispendiosas, porém a utilização da IA pode favorecer o trabalho e facilitar essa rotina. Escrever um artigo científico e verificar se a normalização está de acordo com o solicitado pela revista é um compromisso muitas vezes mais técnico do que intelectual. Para quem já se esforçou intelectual e criativamente para a elaboração de ideias e de conteúdo, ter que se preocupar com a normalização pode ser muitas vezes frustrante. Nesse contexto, as ferramentas de IA são um importante auxílio para o autor e revisores. Podem ser ampliadas, por exemplo, se utilizadas como auxiliadoras no processo de tradução ou na geração de resumos, sob um posterior olhar profissional qualificado.
Entretanto, as possibilidades que a IA traz para o trabalho editorial, se forem usadas indiscriminadamente, podem muitas vezes esbarrar em uma área cinzenta: onde o que é ético ou não. Quando utilizamos a ferramenta não para correção, mas para geração de conteúdo, é correto aceitar uma autoria que na verdade não existe? É esperado que não saibamos as fontes exatas do que colocamos para publicação? É bom senso que consideramos como abstração intelectual um resultado proveniente de uma ferramenta estatística sofisticada de prospecção de palavras que imitam a linguagem humana? Até esse ponto podemos considerar uma ferramenta algorítmica como fonte de informação e de autonomia científica, criativa e intelectual?
Esses questionamentos, apesar de importantes, não abarcam nem a metade dos problemas que podemos ter com as IAs. Essas ferramentas também apresentam (em seu estado atual da arte) diversas questões complexas sobre sua construção. Os modelos de aprendizado profundo de máquina (Deep Learning) possuem um enorme custo de energia, e os recursos computacionais usados para treinar esses modelos produzem uma grande pegada de carbono. Além disso, questões intrínsecas à sua construção, como a opacidade algorítmica por trás dessas ferramentas e os próprios dados usados para alimentar e fomentar o aprendizado da máquina levantam questões relacionadas à privacidade e aos problemas relacionados ao treinamento por dados invejados e com potencial desinformativo.
A IA deve ser entendida como uma facilitadora para as atividades editoriais, e ser utilizada como os softwares de apoio no nosso dia a dia de trabalho. Ela precisa ser parte auxiliar do processo editorial, e não o processo editorial em si. Realmente queremos renunciar à sensibilidade artística dos ilustradores para terceirizar esse serviço às ferramentas de IA? O quão nocivo seria quebrar o contrato implícito entre o autor e seu público, que espera que ler algo produzido por ele, e não por uma inteligência artificial?
Não existe uma solução fácil nem definitiva quando tratamos do avanço da tecnologia de IA nas práticas editoriais. Assim como muitas das tecnologias disruptivas anteriores, ela vem consolidando seu espaço, e seu papel na otimização dessas práticas é inegável. Diante desse cenário, cabe a nós, como profissionais e cidadãos interessados, estabelecer os limites éticos de sua boa utilização, sempre tendo como norte a importância da atenção artística e intelectual humana na produção de conteúdo.
Disponível: https://portal.fgv.br/en/node/31487. Acesso em: 15/08/2024. Adaptação.
Observe as palavras que seguem:
I. algorítmica;
II. conteúdo;
III. ético;
IV. inegável;
V. técnico.
Das palavras acima apresentadas, são acentuadas pela mesma regra ortográfica somente as que constam em
Provas
Leia o Texto.
Inteligência Artificial no Mercado Editorial: Possibilidades e desafios éticos
Gabriel Cunha Leal de Araújo, 09/04/2024
O uso da Inteligência Artificial Generativa (IAG) e suas repercussões têm sido acompanhados nas mais diversas esferas, devido principalmente à facilidade que ela traz para produção de conteúdo e operacionalização das atividades de maneira automatizada. Um dos mercados mais impactados por essas novidades é o mercado editorial. Como veremos a seguir, a IA, apesar de trazer várias facilidades ao trabalho, também coloca a nossa frente novos desafios e exigências de seus profissionais. Requer, pois, um olhar crítico e aprofundado sobre as desigualdades que ela pode produzir, se for utilizada de forma incorreta.
O mercado editorial, e aqui pretendo me referir a ele em todas as suas possíveis ramificações, não apenas relacionadas aos grandes conglomerados editoriais de livros tradicionais, mas também à editoração científica e de conteúdo num geral, tem se beneficiado da utilização das diversas atribuições da IAG que fazem parte do seu rol de atividades. Desde a geração automática de conteúdo, passando pela revisão gramatical e até pela própria criação de ilustrações para publicação.
Algumas dessas tarefas, como a revisão gramatical, podem ser entediantes e dispendiosas, porém a utilização da IA pode favorecer o trabalho e facilitar essa rotina. Escrever um artigo científico e verificar se a normalização está de acordo com o solicitado pela revista é um compromisso muitas vezes mais técnico do que intelectual. Para quem já se esforçou intelectual e criativamente para a elaboração de ideias e de conteúdo, ter que se preocupar com a normalização pode ser muitas vezes frustrante. Nesse contexto, as ferramentas de IA são um importante auxílio para o autor e revisores. Podem ser ampliadas, por exemplo, se utilizadas como auxiliadoras no processo de tradução ou na geração de resumos, sob um posterior olhar profissional qualificado.
Entretanto, as possibilidades que a IA traz para o trabalho editorial, se forem usadas indiscriminadamente, podem muitas vezes esbarrar em uma área cinzenta: onde o que é ético ou não. Quando utilizamos a ferramenta não para correção, mas para geração de conteúdo, é correto aceitar uma autoria que na verdade não existe? É esperado que não saibamos as fontes exatas do que colocamos para publicação? É bom senso que consideramos como abstração intelectual um resultado proveniente de uma ferramenta estatística sofisticada de prospecção de palavras que imitam a linguagem humana? Até esse ponto podemos considerar uma ferramenta algorítmica como fonte de informação e de autonomia científica, criativa e intelectual?
Esses questionamentos, apesar de importantes, não abarcam nem a metade dos problemas que podemos ter com as IAs. Essas ferramentas também apresentam (em seu estado atual da arte) diversas questões complexas sobre sua construção. Os modelos de aprendizado profundo de máquina (Deep Learning) possuem um enorme custo de energia, e os recursos computacionais usados para treinar esses modelos produzem uma grande pegada de carbono. Além disso, questões intrínsecas à sua construção, como a opacidade algorítmica por trás dessas ferramentas e os próprios dados usados para alimentar e fomentar o aprendizado da máquina levantam questões relacionadas à privacidade e aos problemas relacionados ao treinamento por dados invejados e com potencial desinformativo.
A IA deve ser entendida como uma facilitadora para as atividades editoriais, e ser utilizada como os softwares de apoio no nosso dia a dia de trabalho. Ela precisa ser parte auxiliar do processo editorial, e não o processo editorial em si. Realmente queremos renunciar à sensibilidade artística dos ilustradores para terceirizar esse serviço às ferramentas de IA? O quão nocivo seria quebrar o contrato implícito entre o autor e seu público, que espera que ler algo produzido por ele, e não por uma inteligência artificial?
Não existe uma solução fácil nem definitiva quando tratamos do avanço da tecnologia de IA nas práticas editoriais. Assim como muitas das tecnologias disruptivas anteriores, ela vem consolidando seu espaço, e seu papel na otimização dessas práticas é inegável. Diante desse cenário, cabe a nós, como profissionais e cidadãos interessados, estabelecer os limites éticos de sua boa utilização, sempre tendo como norte a importância da atenção artística e intelectual humana na produção de conteúdo.
Disponível: https://portal.fgv.br/en/node/31487. Acesso em: 15/08/2024. Adaptação.
A sequência que apresenta todas as palavras grafadas corretamente é:
Provas
Leia o Texto.
Inteligência Artificial no Mercado Editorial: Possibilidades e desafios éticos
Gabriel Cunha Leal de Araújo, 09/04/2024
O uso da Inteligência Artificial Generativa (IAG) e suas repercussões têm sido acompanhados nas mais diversas esferas, devido principalmente à facilidade que ela traz para produção de conteúdo e operacionalização das atividades de maneira automatizada. Um dos mercados mais impactados por essas novidades é o mercado editorial. Como veremos a seguir, a IA, apesar de trazer várias facilidades ao trabalho, também coloca a nossa frente novos desafios e exigências de seus profissionais. Requer, pois, um olhar crítico e aprofundado sobre as desigualdades que ela pode produzir, se for utilizada de forma incorreta.
O mercado editorial, e aqui pretendo me referir a ele em todas as suas possíveis ramificações, não apenas relacionadas aos grandes conglomerados editoriais de livros tradicionais, mas também à editoração científica e de conteúdo num geral, tem se beneficiado da utilização das diversas atribuições da IAG que fazem parte do seu rol de atividades. Desde a geração automática de conteúdo, passando pela revisão gramatical e até pela própria criação de ilustrações para publicação.
Algumas dessas tarefas, como a revisão gramatical, podem ser entediantes e dispendiosas, porém a utilização da IA pode favorecer o trabalho e facilitar essa rotina. Escrever um artigo científico e verificar se a normalização está de acordo com o solicitado pela revista é um compromisso muitas vezes mais técnico do que intelectual. Para quem já se esforçou intelectual e criativamente para a elaboração de ideias e de conteúdo, ter que se preocupar com a normalização pode ser muitas vezes frustrante. Nesse contexto, as ferramentas de IA são um importante auxílio para o autor e revisores. Podem ser ampliadas, por exemplo, se utilizadas como auxiliadoras no processo de tradução ou na geração de resumos, sob um posterior olhar profissional qualificado.
Entretanto, as possibilidades que a IA traz para o trabalho editorial, se forem usadas indiscriminadamente, podem muitas vezes esbarrar em uma área cinzenta: onde o que é ético ou não. Quando utilizamos a ferramenta não para correção, mas para geração de conteúdo, é correto aceitar uma autoria que na verdade não existe? É esperado que não saibamos as fontes exatas do que colocamos para publicação? É bom senso que consideramos como abstração intelectual um resultado proveniente de uma ferramenta estatística sofisticada de prospecção de palavras que imitam a linguagem humana? Até esse ponto podemos considerar uma ferramenta algorítmica como fonte de informação e de autonomia científica, criativa e intelectual?
Esses questionamentos, apesar de importantes, não abarcam nem a metade dos problemas que podemos ter com as IAs. Essas ferramentas também apresentam (em seu estado atual da arte) diversas questões complexas sobre sua construção. Os modelos de aprendizado profundo de máquina (Deep Learning) possuem um enorme custo de energia, e os recursos computacionais usados para treinar esses modelos produzem uma grande pegada de carbono. Além disso, questões intrínsecas à sua construção, como a opacidade algorítmica por trás dessas ferramentas e os próprios dados usados para alimentar e fomentar o aprendizado da máquina levantam questões relacionadas à privacidade e aos problemas relacionados ao treinamento por dados invejados e com potencial desinformativo.
A IA deve ser entendida como uma facilitadora para as atividades editoriais, e ser utilizada como os softwares de apoio no nosso dia a dia de trabalho. Ela precisa ser parte auxiliar do processo editorial, e não o processo editorial em si. Realmente queremos renunciar à sensibilidade artística dos ilustradores para terceirizar esse serviço às ferramentas de IA? O quão nocivo seria quebrar o contrato implícito entre o autor e seu público, que espera que ler algo produzido por ele, e não por uma inteligência artificial?
Não existe uma solução fácil nem definitiva quando tratamos do avanço da tecnologia de IA nas práticas editoriais. Assim como muitas das tecnologias disruptivas anteriores, ela vem consolidando seu espaço, e seu papel na otimização dessas práticas é inegável. Diante desse cenário, cabe a nós, como profissionais e cidadãos interessados, estabelecer os limites éticos de sua boa utilização, sempre tendo como norte a importância da atenção artística e intelectual humana na produção de conteúdo.
Disponível: https://portal.fgv.br/en/node/31487. Acesso em: 15/08/2024. Adaptação.
Leia as duas construções linguísticas a seguir, retiradas do texto.
I. “Além disso, questões intrínsecas à sua construção…”.
II. “…levantam questões relacionadas à privacidade e aos problemas…”.
Sobre essas construções, é correto afirmar que
Provas
Leia o Texto.
Inteligência Artificial no Mercado Editorial: Possibilidades e desafios éticos
Gabriel Cunha Leal de Araújo, 09/04/2024
O uso da Inteligência Artificial Generativa (IAG) e suas repercussões têm sido acompanhados nas mais diversas esferas, devido principalmente à facilidade que ela traz para produção de conteúdo e operacionalização das atividades de maneira automatizada. Um dos mercados mais impactados por essas novidades é o mercado editorial. Como veremos a seguir, a IA, apesar de trazer várias facilidades ao trabalho, também coloca a nossa frente novos desafios e exigências de seus profissionais. Requer, pois, um olhar crítico e aprofundado sobre as desigualdades que ela pode produzir, se for utilizada de forma incorreta.
O mercado editorial, e aqui pretendo me referir a ele em todas as suas possíveis ramificações, não apenas relacionadas aos grandes conglomerados editoriais de livros tradicionais, mas também à editoração científica e de conteúdo num geral, tem se beneficiado da utilização das diversas atribuições da IAG que fazem parte do seu rol de atividades. Desde a geração automática de conteúdo, passando pela revisão gramatical e até pela própria criação de ilustrações para publicação.
Algumas dessas tarefas, como a revisão gramatical, podem ser entediantes e dispendiosas, porém a utilização da IA pode favorecer o trabalho e facilitar essa rotina. Escrever um artigo científico e verificar se a normalização está de acordo com o solicitado pela revista é um compromisso muitas vezes mais técnico do que intelectual. Para quem já se esforçou intelectual e criativamente para a elaboração de ideias e de conteúdo, ter que se preocupar com a normalização pode ser muitas vezes frustrante. Nesse contexto, as ferramentas de IA são um importante auxílio para o autor e revisores. Podem ser ampliadas, por exemplo, se utilizadas como auxiliadoras no processo de tradução ou na geração de resumos, sob um posterior olhar profissional qualificado.
Entretanto, as possibilidades que a IA traz para o trabalho editorial, se forem usadas indiscriminadamente, podem muitas vezes esbarrar em uma área cinzenta: onde o que é ético ou não. Quando utilizamos a ferramenta não para correção, mas para geração de conteúdo, é correto aceitar uma autoria que na verdade não existe? É esperado que não saibamos as fontes exatas do que colocamos para publicação? É bom senso que consideramos como abstração intelectual um resultado proveniente de uma ferramenta estatística sofisticada de prospecção de palavras que imitam a linguagem humana? Até esse ponto podemos considerar uma ferramenta algorítmica como fonte de informação e de autonomia científica, criativa e intelectual?
Esses questionamentos, apesar de importantes, não abarcam nem a metade dos problemas que podemos ter com as IAs. Essas ferramentas também apresentam (em seu estado atual da arte) diversas questões complexas sobre sua construção. Os modelos de aprendizado profundo de máquina (Deep Learning) possuem um enorme custo de energia, e os recursos computacionais usados para treinar esses modelos produzem uma grande pegada de carbono. Além disso, questões intrínsecas à sua construção, como a opacidade algorítmica por trás dessas ferramentas e os próprios dados usados para alimentar e fomentar o aprendizado da máquina levantam questões relacionadas à privacidade e aos problemas relacionados ao treinamento por dados invejados e com potencial desinformativo.
A IA deve ser entendida como uma facilitadora para as atividades editoriais, e ser utilizada como os softwares de apoio no nosso dia a dia de trabalho. Ela precisa ser parte auxiliar do processo editorial, e não o processo editorial em si. Realmente queremos renunciar à sensibilidade artística dos ilustradores para terceirizar esse serviço às ferramentas de IA? O quão nocivo seria quebrar o contrato implícito entre o autor e seu público, que espera que ler algo produzido por ele, e não por uma inteligência artificial?
Não existe uma solução fácil nem definitiva quando tratamos do avanço da tecnologia de IA nas práticas editoriais. Assim como muitas das tecnologias disruptivas anteriores, ela vem consolidando seu espaço, e seu papel na otimização dessas práticas é inegável. Diante desse cenário, cabe a nós, como profissionais e cidadãos interessados, estabelecer os limites éticos de sua boa utilização, sempre tendo como norte a importância da atenção artística e intelectual humana na produção de conteúdo.
Disponível: https://portal.fgv.br/en/node/31487. Acesso em: 15/08/2024. Adaptação.
Por suas características formais, por sua função e uso, é correto afirmar que o texto é
Provas
Leia o Texto.
Inteligência Artificial no Mercado Editorial: Possibilidades e desafios éticos
Gabriel Cunha Leal de Araújo, 09/04/2024
O uso da Inteligência Artificial Generativa (IAG) e suas repercussões têm sido acompanhados nas mais diversas esferas, devido principalmente à facilidade que ela traz para produção de conteúdo e operacionalização das atividades de maneira automatizada. Um dos mercados mais impactados por essas novidades é o mercado editorial. Como veremos a seguir, a IA, apesar de trazer várias facilidades ao trabalho, também coloca a nossa frente novos desafios e exigências de seus profissionais. Requer, pois, um olhar crítico e aprofundado sobre as desigualdades que ela pode produzir, se for utilizada de forma incorreta.
O mercado editorial, e aqui pretendo me referir a ele em todas as suas possíveis ramificações, não apenas relacionadas aos grandes conglomerados editoriais de livros tradicionais, mas também à editoração científica e de conteúdo num geral, tem se beneficiado da utilização das diversas atribuições da IAG que fazem parte do seu rol de atividades. Desde a geração automática de conteúdo, passando pela revisão gramatical e até pela própria criação de ilustrações para publicação.
Algumas dessas tarefas, como a revisão gramatical, podem ser entediantes e dispendiosas, porém a utilização da IA pode favorecer o trabalho e facilitar essa rotina. Escrever um artigo científico e verificar se a normalização está de acordo com o solicitado pela revista é um compromisso muitas vezes mais técnico do que intelectual. Para quem já se esforçou intelectual e criativamente para a elaboração de ideias e de conteúdo, ter que se preocupar com a normalização pode ser muitas vezes frustrante. Nesse contexto, as ferramentas de IA são um importante auxílio para o autor e revisores. Podem ser ampliadas, por exemplo, se utilizadas como auxiliadoras no processo de tradução ou na geração de resumos, sob um posterior olhar profissional qualificado.
Entretanto, as possibilidades que a IA traz para o trabalho editorial, se forem usadas indiscriminadamente, podem muitas vezes esbarrar em uma área cinzenta: onde o que é ético ou não. Quando utilizamos a ferramenta não para correção, mas para geração de conteúdo, é correto aceitar uma autoria que na verdade não existe? É esperado que não saibamos as fontes exatas do que colocamos para publicação? É bom senso que consideramos como abstração intelectual um resultado proveniente de uma ferramenta estatística sofisticada de prospecção de palavras que imitam a linguagem humana? Até esse ponto podemos considerar uma ferramenta algorítmica como fonte de informação e de autonomia científica, criativa e intelectual?
Esses questionamentos, apesar de importantes, não abarcam nem a metade dos problemas que podemos ter com as IAs. Essas ferramentas também apresentam (em seu estado atual da arte) diversas questões complexas sobre sua construção. Os modelos de aprendizado profundo de máquina (Deep Learning) possuem um enorme custo de energia, e os recursos computacionais usados para treinar esses modelos produzem uma grande pegada de carbono. Além disso, questões intrínsecas à sua construção, como a opacidade algorítmica por trás dessas ferramentas e os próprios dados usados para alimentar e fomentar o aprendizado da máquina levantam questões relacionadas à privacidade e aos problemas relacionados ao treinamento por dados invejados e com potencial desinformativo.
A IA deve ser entendida como uma facilitadora para as atividades editoriais, e ser utilizada como os softwares de apoio no nosso dia a dia de trabalho. Ela precisa ser parte auxiliar do processo editorial, e não o processo editorial em si. Realmente queremos renunciar à sensibilidade artística dos ilustradores para terceirizar esse serviço às ferramentas de IA? O quão nocivo seria quebrar o contrato implícito entre o autor e seu público, que espera que ler algo produzido por ele, e não por uma inteligência artificial?
Não existe uma solução fácil nem definitiva quando tratamos do avanço da tecnologia de IA nas práticas editoriais. Assim como muitas das tecnologias disruptivas anteriores, ela vem consolidando seu espaço, e seu papel na otimização dessas práticas é inegável. Diante desse cenário, cabe a nós, como profissionais e cidadãos interessados, estabelecer os limites éticos de sua boa utilização, sempre tendo como norte a importância da atenção artística e intelectual humana na produção de conteúdo.
Disponível: https://portal.fgv.br/en/node/31487. Acesso em: 15/08/2024. Adaptação.
O texto denota a opinião do seu autor frente ao uso da IA no mercado editorial. Tal posicionamento é expresso por meio de uma atitude
Provas
- SintaxeFrase, Oração e PeríodoOração CoordenadaOrações Coordenadas Sindéticas
- SintaxeFrase, Oração e PeríodoOração SubordinadaSubordinadas Adverbial
Leia o Texto.
A IA, os causídicos e o ChatGPT
O jornal espanhol El País fez interessante editorial sobre a coqueluche (ou a pandemia) do momento: a tal inteligência artificial ChatGPT.
Com o tempo, cada vez mais os sistemas IA farão interfaces com nossos dispositivos e se tornarão uma espécie de oráculos de nossas atividades profissionais.
É por isso que o jornal chama a atenção: há riscos nisso e devemos tomar medidas para mitigá-losA antes que eles se tornem uma unanimidade. Uma IADependência (a palavra é minha).
Prós: sua capacidade de analisar grandes quantidades de dados e fazer previsões oferece uma assistência valiosa na previsão de desastres, diagnóstico de doenças, gerenciamento de recursos a longo prazo e eficiência no transporte. Suas habilidades já aliviam muitos meios de comunicação de acompanhar as flutuações da bolsa de valores, transmitir o futebol de ligas menores ou prever o tempo. E servem à educação, oferecendo a possibilidade de reforço personalizado em disciplinas especializadas, desde a matemática até o latim.
Contras: o fato é que não podemos automatizar estas funções sem mitigar as prováveis desigualdadesB que cresceriam exponencialmente, por exemplo, entre aqueles que mantêm acesso cada vez mais privilegiado a médicos, professores, secretários e jornalistas. Isto é: uma IA excludente.
Mais: a automação de serviços oferece vantagens econômicas às empresas, que podem estar abertas 24 horas por dia, sete dias por semana, sem pagar salários ou previdência social. Ao mesmo tempo, porém, constitui um risco para a privacidade e o cuidado do usuário, paciente e cidadão.
O ponto: é imperativo estabelecer diretrizes e regulamentos claros que garantam um princípio de transparência e responsabilidade no desenvolvimento e implementação de modelos automatizados, particularmente em empréstimos, saúde, contratação ou justiça criminal.
A diretriz ética inegociável: nenhuma IA pode nos substituir ou tomar decisões por nósC; apenas nos ajudar a decidir, diagnosticar, pensar melhor.
Dilemas e perplexidades: como evitar assimetrias que surgirão entre aqueles com acesso privilegiado aos dados e à gestão de plataformas digitais e os nossos interesses, necessidades e diretrizes regulatórias?
Efeitos colaterais: altos custos ambientais. Modelos de treinamento como o GPT-3 exigem grandes quantidades de solo, minerais, fluidos, energia e capacidade computacional, e geram quantidades industriais de resíduos e gases de efeito estufa.
Conselho: devemos colocar nossa casa em ordem antes de deixá-la nas mãos da inteligência artificialD. A pergunta: temos a casa em ordem?
Na rede social, ouvi (e assisti a) um diálogo em que um advogado diz que, no seu escritório, os advogados e estagiários usam o Google Bard e o ChatGPT para fazer petições. O que levava dias, agora leva apenas algumas horas. Acentua, ainda, que o advogado que hoje não entende que ele tem que usar a inteligência artificial do Google, perde mercado. Segundo o causídico, atualmente a competição não se dá entre advogados, e, sim, entre o advogado que usa inteligência artificial e o que não usa. E o diálogo se encerra com a “advertência de uma advogada”, com ar professoral: ou você usa o recurso para se aprimorar ou você está fora do mercado; não tem o que fazer, não tem como você ficar criticando a inteligência artificial, ela não vai sumir.
E há um dado que é um chute na canela dos usuários da IA: o ChatGPT já faz textos melhores que a ampla maioria – mas ampla, mesmo – dos formados em Direito. O ChatGPT é melhor que o seu usuário. Bem feito. Perdeu, mané. Daí a pergunta: somos capazes de construir máquinas que fazem as coisas melhores que nós e nós mesmos não conseguimos ser melhores do que somos? Será o nosso fim?
Não, não respondam.
Lenio Luiz Streck é professor, parecerista, advogado e sócio fundador do Streck & Trindade Advogados Associados: www.streckadvogados.com.br. Disponível em: https: //conjur.com.br. 14/03/2024. Acesso em 18/08/2024. Adaptado.
Dentre os períodos apresentados a seguir, é composto por orações coordenada e subordinada o trecho
Provas
Leia o Texto.
A IA, os causídicos e o ChatGPT
O jornal espanhol El País fez interessante editorial sobre a coqueluche (ou a pandemia) do momento: a tal inteligência artificial ChatGPT.
Com o tempo, cada vez mais os sistemas IA farão interfaces com nossos dispositivos e se tornarão uma espécie de oráculos de nossas atividades profissionais.
É por isso que o jornal chama a atenção: há riscos nisso e devemos tomar medidas para mitigá-los antes que eles se tornem uma unanimidade. Uma IADependência (a palavra é minha).
Prós: sua capacidade de analisar grandes quantidades de dados e fazer previsões oferece uma assistência valiosa na previsão de desastres, diagnóstico de doenças, gerenciamento de recursos a longo prazo e eficiência no transporte. Suas habilidades já aliviam muitos meios de comunicação de acompanhar as flutuações da bolsa de valores, transmitir o futebol de ligas menores ou prever o tempo. E servem à educação, oferecendo a possibilidade de reforço personalizado em disciplinas especializadas, desde a matemática até o latim.
Contras: o fato é que não podemos automatizar estas funções sem mitigar as prováveis desigualdades que cresceriam exponencialmente, por exemplo, entre aqueles que mantêm acesso cada vez mais privilegiado a médicos, professores, secretários e jornalistas. Isto é: uma IA excludente.
Mais: a automação de serviços oferece vantagens econômicas às empresas, que podem estar abertas 24 horas por dia, sete dias por semana, sem pagar salários ou previdência social. Ao mesmo tempo, porém, constitui um risco para a privacidade e o cuidado do usuário, paciente e cidadão.
O ponto: é imperativo estabelecer diretrizes e regulamentos claros que garantam um princípio de transparência e responsabilidade no desenvolvimento e implementação de modelos automatizados, particularmente em empréstimos, saúde, contratação ou justiça criminal.
A diretriz ética inegociável: nenhuma IA pode nos substituir ou tomar decisões por nós; apenas nos ajudar a decidir, diagnosticar, pensar melhor.
Dilemas e perplexidades: como evitar assimetrias que surgirão entre aqueles com acesso privilegiado aos dados e à gestão de plataformas digitais e os nossos interesses, necessidades e diretrizes regulatórias?
Efeitos colaterais: altos custos ambientais. Modelos de treinamento como o GPT-3 exigem grandes quantidades de solo, minerais, fluidos, energia e capacidade computacional, e geram quantidades industriais de resíduos e gases de efeito estufa.
Conselho: devemos colocar nossa casa em ordem antes de deixá-la nas mãos da inteligência artificial. A pergunta: temos a casa em ordem?
Na rede social, ouvi (e assisti a) um diálogo em que um advogado diz que, no seu escritório, os advogados e estagiários usam o Google Bard e o ChatGPT para fazer petições. O que levava dias, agora leva apenas algumas horas. Acentua, ainda, que o advogado que hoje não entende que ele tem que usar a inteligência artificial do Google, perde mercado. Segundo o causídico, atualmente a competição não se dá entre advogados, e, sim, entre o advogado que usa inteligência artificial e o que não usa. E o diálogo se encerra com a “advertência de uma advogada”, com ar professoral: ou você usa o recurso para se aprimorar ou você está fora do mercado; não tem o que fazer, não tem como você ficar criticando a inteligência artificial, ela não vai sumir.
E há um dado que é um chute na canela dos usuários da IA: o ChatGPT já faz textos melhores que a ampla maioria – mas ampla, mesmo – dos formados em Direito. O ChatGPT é melhor que o seu usuário. Bem feito. Perdeu, mané. Daí a pergunta: somos capazes de construir máquinas que fazem as coisas melhores que nós e nós mesmos não conseguimos ser melhores do que somos? Será o nosso fim?
Não, não respondam.
Lenio Luiz Streck é professor, parecerista, advogado e sócio fundador do Streck & Trindade Advogados Associados: www.streckadvogados.com.br. Disponível em: https: //conjur.com.br. 14/03/2024. Acesso em 18/08/2024. Adaptado.
Na oração “a automação de serviços oferece vantagens econômicas às empresas…”, a função sintática de “às empresas” é
Provas
Leia o Texto.
A IA, os causídicos e o ChatGPT
O jornal espanhol El País fez interessante editorial sobre a coqueluche (ou a pandemia) do momento: a tal inteligência artificial ChatGPT.
Com o tempo, cada vez mais os sistemas IA farão interfaces com nossos dispositivos e se tornarão uma espécie de oráculos de nossas atividades profissionais.
É por isso que o jornal chama a atenção: há riscos nisso e devemos tomar medidas para mitigá-los antes que eles se tornem uma unanimidade. Uma IADependência (a palavra é minha).
Prós: sua capacidade de analisar grandes quantidades de dados e fazer previsões oferece uma assistência valiosa na previsão de desastres, diagnóstico de doenças, gerenciamento de recursos a longo prazo e eficiência no transporte. Suas habilidades já aliviam muitos meios de comunicação de acompanhar as flutuações da bolsa de valores, transmitir o futebol de ligas menores ou prever o tempo. E servem à educação, oferecendo a possibilidade de reforço personalizado em disciplinas especializadas, desde a matemática até o latim.
Contras: o fato é que não podemos automatizar estas funções sem mitigar as prováveis desigualdades que cresceriam exponencialmente, por exemplo, entre aqueles que mantêm acesso cada vez mais privilegiado a médicos, professores, secretários e jornalistas. Isto é: uma IA excludente.
Mais: a automação de serviços oferece vantagens econômicas às empresas, que podem estar abertas 24 horas por dia, sete dias por semana, sem pagar salários ou previdência social. Ao mesmo tempo, porém, constitui um risco para a privacidade e o cuidado do usuário, paciente e cidadão.
O ponto: é imperativo estabelecer diretrizes e regulamentos claros que garantam um princípio de transparência e responsabilidade no desenvolvimento e implementação de modelos automatizados, particularmente em empréstimos, saúde, contratação ou justiça criminal.
A diretriz ética inegociável: nenhuma IA pode nos substituir ou tomar decisões por nós; apenas nos ajudar a decidir, diagnosticar, pensar melhor.
Dilemas e perplexidades: como evitar assimetrias que surgirão entre aqueles com acesso privilegiado aos dados e à gestão de plataformas digitais e os nossos interesses, necessidades e diretrizes regulatórias?
Efeitos colaterais: altos custos ambientais. Modelos de treinamento como o GPT-3 exigem grandes quantidades de solo, minerais, fluidos, energia e capacidade computacional, e geram quantidades industriais de resíduos e gases de efeito estufa.
Conselho: devemos colocar nossa casa em ordem antes de deixá-la nas mãos da inteligência artificial. A pergunta: temos a casa em ordem?
Na rede social, ouvi (e assisti a) um diálogo em que um advogado diz que, no seu escritório, os advogados e estagiários usam o Google Bard e o ChatGPT para fazer petições. O que levava dias, agora leva apenas algumas horas. Acentua, ainda, que o advogado que hoje não entende que ele tem que usar a inteligência artificial do Google, perde mercado. Segundo o causídico, atualmente a competição não se dá entre advogados, e, sim, entre o advogado que usa inteligência artificial e o que não usa. E o diálogo se encerra com a “advertência de uma advogada”, com ar professoral: ou você usa o recurso para se aprimorar ou você está fora do mercado; não tem o que fazer, não tem como você ficar criticando a inteligência artificial, ela não vai sumir.
E há um dado que é um chute na canela dos usuários da IA: o ChatGPT já faz textos melhores que a ampla maioria – mas ampla, mesmo – dos formados em Direito. O ChatGPT é melhor que o seu usuário. Bem feito. Perdeu, mané. Daí a pergunta: somos capazes de construir máquinas que fazem as coisas melhores que nós e nós mesmos não conseguimos ser melhores do que somos? Será o nosso fim?
Não, não respondam.
Lenio Luiz Streck é professor, parecerista, advogado e sócio fundador do Streck & Trindade Advogados Associados: www.streckadvogados.com.br. Disponível em: https: //conjur.com.br. 14/03/2024. Acesso em 18/08/2024. Adaptado.
Há um sufixo formador de advérbio em
Provas
Caderno Container