Foram encontradas 110 questões.
Leia o Texto.
A IA, os causídicos e o ChatGPT
O jornal espanhol El País fez interessante editorial sobre a coqueluche (ou a pandemia) do momento: a tal inteligência artificial ChatGPT.
Com o tempo, cada vez mais os sistemas IA farão interfaces com nossos dispositivos e se tornarão uma espécie de oráculos de nossas atividades profissionais.
É por isso que o jornal chama a atenção: há riscos nisso e devemos tomar medidas para mitigá-los antes que eles se tornem uma unanimidade. Uma IADependência (a palavra é minha).
Prós: sua capacidade de analisar grandes quantidades de dados e fazer previsões oferece uma assistência valiosa na previsão de desastres, diagnóstico de doenças, gerenciamento de recursos a longo prazo e eficiência no transporte. Suas habilidades já aliviam muitos meios de comunicação de acompanhar as flutuações da bolsa de valores, transmitir o futebol de ligas menores ou prever o tempo. E servem à educação, oferecendo a possibilidade de reforço personalizado em disciplinas especializadas, desde a matemática até o latim.
Contras: o fato é que não podemos automatizar estas funções sem mitigar as prováveis desigualdades que cresceriam exponencialmente, por exemplo, entre aqueles que mantêm acesso cada vez mais privilegiado a médicos, professores, secretários e jornalistas. Isto é: uma IA excludente.
Mais: a automação de serviços oferece vantagens econômicas às empresas, que podem estar abertas 24 horas por dia, sete dias por semana, sem pagar salários ou previdência social. Ao mesmo tempo, porém, constitui um risco para a privacidade e o cuidado do usuário, paciente e cidadão.
O ponto: é imperativo estabelecer diretrizes e regulamentos claros que garantam um princípio de transparência e responsabilidade no desenvolvimento e implementação de modelos automatizados, particularmente em empréstimos, saúde, contratação ou justiça criminal.
A diretriz ética inegociável: nenhuma IA pode nos substituir ou tomar decisões por nós; apenas nos ajudar a decidir, diagnosticar, pensar melhor.
Dilemas e perplexidades: como evitar assimetrias que surgirão entre aqueles com acesso privilegiado aos dados e à gestão de plataformas digitais e os nossos interesses, necessidades e diretrizes regulatórias?
Efeitos colaterais: altos custos ambientais. Modelos de treinamento como o GPT-3 exigem grandes quantidades de solo, minerais, fluidos, energia e capacidade computacional, e geram quantidades industriais de resíduos e gases de efeito estufa.
Conselho: devemos colocar nossa casa em ordem antes de deixá-la nas mãos da inteligência artificial. A pergunta: temos a casa em ordem?
Na rede social, ouvi (e assisti a) um diálogo em que um advogado diz que, no seu escritório, os advogados e estagiários usam o Google Bard e o ChatGPT para fazer petições. O que levava dias, agora leva apenas algumas horas. Acentua, ainda, que o advogado que hoje não entende que ele tem que usar a inteligência artificial do Google, perde mercado. Segundo o causídico, atualmente a competição não se dá entre advogados, e, sim, entre o advogado que usa inteligência artificial e o que não usa. E o diálogo se encerra com a “advertência de uma advogada”, com ar professoral: ou você usa o recurso para se aprimorar ou você está fora do mercado; não tem o que fazer, não tem como você ficar criticando a inteligência artificial, ela não vai sumir.
E há um dado que é um chute na canela dos usuários da IA: o ChatGPT já faz textos melhores que a ampla maioria – mas ampla, mesmo – dos formados em Direito. O ChatGPT é melhor que o seu usuário. Bem feito. Perdeu, mané. Daí a pergunta: somos capazes de construir máquinas que fazem as coisas melhores que nós e nós mesmos não conseguimos ser melhores do que somos? Será o nosso fim?
Não, não respondam.
Lenio Luiz Streck é professor, parecerista, advogado e sócio fundador do Streck & Trindade Advogados Associados: www.streckadvogados.com.br. Disponível em: https: //conjur.com.br. 14/03/2024. Acesso em 18/08/2024. Adaptado.
No texto, o autor destaca o uso da regência de assistir (= presenciar) entre parênteses no trecho “Na rede social, ouvi (e assisti a) um diálogo…”.
Segundo a norma-padrão da língua portuguesa, é correta a regência do verbo
Provas
Leia o Texto.
A IA, os causídicos e o ChatGPT
O jornal espanhol El País fez interessante editorial sobre a coqueluche (ou a pandemia) do momento: a tal inteligência artificial ChatGPT.
Com o tempo, cada vez mais os sistemas IA farão interfaces com nossos dispositivos e se tornarão uma espécie de oráculos de nossas atividades profissionais.
É por isso que o jornal chama a atenção: há riscos nisso e devemos tomar medidas para mitigá-los antes que eles se tornem uma unanimidade. Uma IADependência (a palavra é minha).
Prós: sua capacidade de analisar grandes quantidades de dados e fazer previsões oferece uma assistência valiosa na previsão de desastres, diagnóstico de doenças, gerenciamento de recursos a longo prazo e eficiência no transporte. Suas habilidades já aliviam muitos meios de comunicação de acompanhar as flutuações da bolsa de valores, transmitir o futebol de ligas menores ou prever o tempo. E servem à educação, oferecendo a possibilidade de reforço personalizado em disciplinas especializadas, desde a matemática até o latim.
Contras: o fato é que não podemos automatizar estas funções sem mitigar as prováveis desigualdades que cresceriam exponencialmente, por exemplo, entre aqueles que mantêm acesso cada vez mais privilegiado a médicos, professores, secretários e jornalistas. Isto é: uma IA excludente.
Mais: a automação de serviços oferece vantagens econômicas às empresas, que podem estar abertas 24 horas por dia, sete dias por semana, sem pagar salários ou previdência social. Ao mesmo tempo, porém, constitui um risco para a privacidade e o cuidado do usuário, paciente e cidadão.
O ponto: é imperativo estabelecer diretrizes e regulamentos claros que garantam um princípio de transparência e responsabilidade no desenvolvimento e implementação de modelos automatizados, particularmente em empréstimos, saúde, contratação ou justiça criminal.
A diretriz ética inegociável: nenhuma IA pode nos substituir ou tomar decisões por nós; apenas nos ajudar a decidir, diagnosticar, pensar melhor.
Dilemas e perplexidades: como evitar assimetrias que surgirão entre aqueles com acesso privilegiado aos dados e à gestão de plataformas digitais e os nossos interesses, necessidades e diretrizes regulatórias?
Efeitos colaterais: altos custos ambientais. Modelos de treinamento como o GPT-3 exigem grandes quantidades de solo, minerais, fluidos, energia e capacidade computacional, e geram quantidades industriais de resíduos e gases de efeito estufa.
Conselho: devemos colocar nossa casa em ordem antes de deixá-la nas mãos da inteligência artificial. A pergunta: temos a casa em ordem?
Na rede social, ouvi (e assisti a) um diálogo em que um advogado diz que, no seu escritório, os advogados e estagiários usam o Google Bard e o ChatGPT para fazer petições. O que levava dias, agora leva apenas algumas horas. Acentua, ainda, que o advogado que hoje não entende que ele tem que usar a inteligência artificial do Google, perde mercado. Segundo o causídico, atualmente a competição não se dá entre advogados, e, sim, entre o advogado que usa inteligência artificial e o que não usa. E o diálogo se encerra com a “advertência de uma advogada”, com ar professoral: ou você usa o recurso para se aprimorar ou você está fora do mercado; não tem o que fazer, não tem como você ficar criticando a inteligência artificial, ela não vai sumir.
E há um dado que é um chute na canela dos usuários da IA: o ChatGPT já faz textos melhores que a ampla maioria – mas ampla, mesmo – dos formados em Direito. O ChatGPT é melhor que o seu usuário. Bem feito. Perdeu, mané. Daí a pergunta: somos capazes de construir máquinas que fazem as coisas melhores que nós e nós mesmos não conseguimos ser melhores do que somos? Será o nosso fim?
Não, não respondam.
Lenio Luiz Streck é professor, parecerista, advogado e sócio fundador do Streck & Trindade Advogados Associados: www.streckadvogados.com.br. Disponível em: https: //conjur.com.br. 14/03/2024. Acesso em 18/08/2024. Adaptado.
No texto, há o uso da flexão do plural do -ão tônico em “…e fazer previsões oferece uma assistência valiosa na previsão de desastres…
O substantivo que pode apresentar até três formas do plural do -ão tônico é
Provas
Leia o Texto.
A IA, os causídicos e o ChatGPT
O jornal espanhol El País fez interessante editorial sobre a coqueluche (ou a pandemia) do momento: a tal inteligência artificial ChatGPT.
Com o tempo, cada vez mais os sistemas IA farão interfaces com nossos dispositivos e se tornarão uma espécie de oráculos de nossas atividades profissionais.
É por isso que o jornal chama a atenção: há riscos nisso e devemos tomar medidas para mitigá-los antes que eles se tornem uma unanimidade. Uma IADependência (a palavra é minha).
Prós: sua capacidade de analisar grandes quantidades de dados e fazer previsões oferece uma assistência valiosa na previsão de desastres, diagnóstico de doenças, gerenciamento de recursos a longo prazo e eficiência no transporte. Suas habilidades já aliviam muitos meios de comunicação de acompanhar as flutuações da bolsa de valores, transmitir o futebol de ligas menores ou prever o tempo. E servem à educação, oferecendo a possibilidade de reforço personalizado em disciplinas especializadas, desde a matemática até o latim.
Contras: o fato é que não podemos automatizar estas funções sem mitigar as prováveis desigualdades que cresceriam exponencialmente, por exemplo, entre aqueles que mantêm acesso cada vez mais privilegiado a médicos, professores, secretários e jornalistas. Isto é: uma IA excludente.
Mais: a automação de serviços oferece vantagens econômicas às empresas, que podem estar abertas 24 horas por dia, sete dias por semana, sem pagar salários ou previdência social. Ao mesmo tempo, porém, constitui um risco para a privacidade e o cuidado do usuário, paciente e cidadão.
O ponto: é imperativo estabelecer diretrizes e regulamentos claros que garantam um princípio de transparência e responsabilidade no desenvolvimento e implementação de modelos automatizados, particularmente em empréstimos, saúde, contratação ou justiça criminal.
A diretriz ética inegociável: nenhuma IA pode nos substituir ou tomar decisões por nós; apenas nos ajudar a decidir, diagnosticar, pensar melhor.
Dilemas e perplexidades: como evitar assimetrias que surgirão entre aqueles com acesso privilegiado aos dados e à gestão de plataformas digitais e os nossos interesses, necessidades e diretrizes regulatórias?
Efeitos colaterais: altos custos ambientais. Modelos de treinamento como o GPT-3 exigem grandes quantidades de solo, minerais, fluidos, energia e capacidade computacional, e geram quantidades industriais de resíduos e gases de efeito estufa.
Conselho: devemos colocar nossa casa em ordem antes de deixá-la nas mãos da inteligência artificial. A pergunta: temos a casa em ordem?
Na rede social, ouvi (e assisti a) um diálogo em que um advogado diz que, no seu escritório, os advogados e estagiários usam o Google Bard e o ChatGPT para fazer petições. O que levava dias, agora leva apenas algumas horas. Acentua, ainda, que o advogado que hoje não entende que ele tem que usar a inteligência artificial do Google, perde mercado. Segundo o causídico, atualmente a competição não se dá entre advogados, e, sim, entre o advogado que usa inteligência artificial e o que não usa. E o diálogo se encerra com a “advertência de uma advogada”, com ar professoral: ou você usa o recurso para se aprimorar ou você está fora do mercado; não tem o que fazer, não tem como você ficar criticando a inteligência artificial, ela não vai sumir.
E há um dado que é um chute na canela dos usuários da IA: o ChatGPT já faz textos melhores que a ampla maioria – mas ampla, mesmo – dos formados em Direito. O ChatGPT é melhor que o seu usuário. Bem feito. Perdeu, mané. Daí a pergunta: somos capazes de construir máquinas que fazem as coisas melhores que nós e nós mesmos não conseguimos ser melhores do que somos? Será o nosso fim?
Não, não respondam.
Lenio Luiz Streck é professor, parecerista, advogado e sócio fundador do Streck & Trindade Advogados Associados: www.streckadvogados.com.br. Disponível em: https: //conjur.com.br. 14/03/2024. Acesso em 18/08/2024. Adaptado.
A sequência cujas palavras são acentuadas pela mesma regra é:
Provas
Leia o Texto.
A IA, os causídicos e o ChatGPT
O jornal espanhol El País fez interessante editorial sobre a coqueluche (ou a pandemia) do momento: a tal inteligência artificial ChatGPT.
Com o tempo, cada vez mais os sistemas IA farão interfaces com nossos dispositivos e se tornarão uma espécie de oráculos de nossas atividades profissionais.
É por isso que o jornal chama a atenção: há riscos nisso e devemos tomar medidas para mitigá-los antes que eles se tornem uma unanimidade. Uma IADependência (a palavra é minha).
Prós: sua capacidade de analisar grandes quantidades de dados e fazer previsões oferece uma assistência valiosa na previsão de desastres, diagnóstico de doenças, gerenciamento de recursos a longo prazo e eficiência no transporte. Suas habilidades já aliviam muitos meios de comunicação de acompanhar as flutuações da bolsa de valores, transmitir o futebol de ligas menores ou prever o tempo. E servem à educação, oferecendo a possibilidade de reforço personalizado em disciplinas especializadas, desde a matemática até o latim.
Contras: o fato é que não podemos automatizar estas funções sem mitigar as prováveis desigualdades que cresceriam exponencialmente, por exemplo, entre aqueles que mantêm acesso cada vez mais privilegiado a médicos, professores, secretários e jornalistas. Isto é: uma IA excludente.
Mais: a automação de serviços oferece vantagens econômicas às empresas, que podem estar abertas 24 horas por dia, sete dias por semana, sem pagar salários ou previdência social. Ao mesmo tempo, porém, constitui um risco para a privacidadeB e o cuidado do usuário, paciente e cidadão.
O ponto: é imperativo estabelecer diretrizes e regulamentos claros que garantam um princípio de transparência e responsabilidade no desenvolvimento e implementação de modelos automatizados, particularmente em empréstimos, saúde, contratação ou justiça criminal.
A diretriz ética inegociável: nenhuma IA pode nos substituir ou tomar decisões por nós; apenas nos ajudar a decidir, diagnosticar, pensar melhor.
Dilemas e perplexidades: como evitar assimetrias que surgirão entre aqueles com acesso privilegiado aos dados e à gestão de plataformas digitais e os nossos interesses, necessidades e diretrizes regulatórias?
Efeitos colaterais: altos custos ambientais. Modelos de treinamento como o GPT-3 exigem grandes quantidades de solo, minerais, fluidos, energia e capacidade computacionalA, e geram quantidades industriais de resíduos e gases de efeito estufa.
Conselho: devemos colocar nossa casa em ordem antes de deixá-la nas mãos da inteligência artificial. A pergunta: temos a casa em ordem?
Na rede social, ouvi (e assisti a) um diálogo em que um advogado diz que, no seu escritório, os advogados e estagiários usam o Google Bard e o ChatGPT para fazer petições. O que levava dias, agora leva apenas algumas horas. Acentua, ainda, que o advogado que hoje não entende que ele tem que usar a inteligência artificial do Google, perde mercado. Segundo o causídico, atualmente a competição não se dá entre advogados, e, sim, entre o advogado que usa inteligência artificial e o que não usa. E o diálogo se encerra com a “advertência de uma advogada”, com ar professoral: ou você usa o recurso para se aprimorar ou você está fora do mercado; não tem o que fazer, não tem como você ficar criticando a inteligência artificial, ela não vai sumir.
E há um dado que é um chute na canela dos usuários da IA: o ChatGPT já faz textos melhores que a ampla maioria – mas ampla, mesmo – dos formados em Direito. O ChatGPT é melhor que o seu usuário. Bem feito. Perdeu, manéC. Daí a pergunta: somos capazes de construir máquinas que fazem as coisas melhores que nós e nós mesmos não conseguimos ser melhores do que somos? Será o nosso fim?
Não, não respondam.D
Lenio Luiz Streck é professor, parecerista, advogado e sócio fundador do Streck & Trindade Advogados Associados: www.streckadvogados.com.br. Disponível em: https: //conjur.com.br. 14/03/2024. Acesso em 18/08/2024. Adaptado.
A norma apresentada entre colchetes que corresponde ao emprego de vírgula está correta em
Provas
Leia o Texto.
A IA, os causídicos e o ChatGPT
O jornal espanhol El País fez interessante editorial sobre a coqueluche (ou a pandemia) do momento: a tal inteligência artificial ChatGPT.
Com o tempo, cada vez mais os sistemas IA farão interfaces com nossos dispositivos e se tornarão uma espécie de oráculos de nossas atividades profissionais.
É por isso que o jornal chama a atenção: há riscos nisso e devemos tomar medidas para mitigá-los antes que eles se tornem uma unanimidade. Uma IADependência (a palavra é minha).
Prós: sua capacidade de analisar grandes quantidades de dados e fazer previsões oferece uma assistência valiosa na previsão de desastres, diagnóstico de doenças, gerenciamento de recursos a longo prazo e eficiência no transporte. Suas habilidades já aliviam muitos meios de comunicação de acompanhar as flutuações da bolsa de valores, transmitir o futebol de ligas menores ou prever o tempo. E servem à educação, oferecendo a possibilidade de reforço personalizado em disciplinas especializadas, desde a matemática até o latim.
Contras: o fato é que não podemos automatizar estas funções sem mitigar as prováveis desigualdades que cresceriam exponencialmente, por exemplo, entre aqueles que mantêm acesso cada vez mais privilegiado a médicos, professores, secretários e jornalistas. Isto é: uma IA excludente.
Mais: a automação de serviços oferece vantagens econômicas às empresas, que podem estar abertas 24 horas por dia, sete dias por semana, sem pagar salários ou previdência social. Ao mesmo tempo, porém, constitui um risco para a privacidade e o cuidado do usuário, paciente e cidadão.
O ponto: é imperativo estabelecer diretrizes e regulamentos claros que garantam um princípio de transparência e responsabilidade no desenvolvimento e implementação de modelos automatizados, particularmente em empréstimos, saúde, contratação ou justiça criminal.
A diretriz ética inegociável: nenhuma IA pode nos substituir ou tomar decisões por nós; apenas nos ajudar a decidir, diagnosticar, pensar melhor.
Dilemas e perplexidades: como evitar assimetrias que surgirão entre aqueles com acesso privilegiado aos dados e à gestão de plataformas digitais e os nossos interesses, necessidades e diretrizes regulatórias?
Efeitos colaterais: altos custos ambientais. Modelos de treinamento como o GPT-3 exigem grandes quantidades de solo, minerais, fluidos, energia e capacidade computacional, e geram quantidades industriais de resíduos e gases de efeito estufa.
Conselho: devemos colocar nossa casa em ordem antes de deixá-la nas mãos da inteligência artificial. A pergunta: temos a casa em ordem?
Na rede social, ouvi (e assisti a) um diálogo em que um advogado diz que, no seu escritório, os advogados e estagiários usam o Google Bard e o ChatGPT para fazer petições. O que levava dias, agora leva apenas algumas horas. Acentua, ainda, que o advogado que hoje não entende que ele tem que usar a inteligência artificial do Google, perde mercado. Segundo o causídico, atualmente a competição não se dá entre advogados, e, sim, entre o advogado que usa inteligência artificial e o que não usa. E o diálogo se encerra com a “advertência de uma advogada”, com ar professoral: ou você usa o recurso para se aprimorar ou você está fora do mercado; não tem o que fazer, não tem como você ficar criticando a inteligência artificial, ela não vai sumir.
E há um dado que é um chute na canela dos usuários da IA: o ChatGPT já faz textos melhores que a ampla maioria – mas ampla, mesmo – dos formados em Direito. O ChatGPT é melhor que o seu usuário. Bem feito. Perdeu, mané. Daí a pergunta: somos capazes de construir máquinas que fazem as coisas melhores que nós e nós mesmos não conseguimos ser melhores do que somos? Será o nosso fim?
Não, não respondam.
Lenio Luiz Streck é professor, parecerista, advogado e sócio fundador do Streck & Trindade Advogados Associados: www.streckadvogados.com.br. Disponível em: https: //conjur.com.br. 14/03/2024. Acesso em 18/08/2024. Adaptado.
A respeito dos termos destacados em: “...interessante editorial sobre a coqueluche (ou a pandemia) do momento...”, é correto afirmar que
Provas
Leia o Texto.
A IA, os causídicos e o ChatGPT
O jornal espanhol El País fez interessante editorial sobre a coqueluche (ou a pandemia) do momento: a tal inteligência artificial ChatGPT.
Com o tempo, cada vez mais os sistemas IA farão interfaces com nossos dispositivos e se tornarão uma espécie de oráculos de nossas atividades profissionais.
É por isso que o jornal chama a atenção: há riscos nisso e devemos tomar medidas para mitigá-los antes que eles se tornem uma unanimidade. Uma IADependência (a palavra é minha).
Prós: sua capacidade de analisar grandes quantidades de dados e fazer previsões oferece uma assistência valiosa na previsão de desastres, diagnóstico de doenças, gerenciamento de recursos a longo prazo e eficiência no transporte. Suas habilidades já aliviam muitos meios de comunicação de acompanhar as flutuações da bolsa de valores, transmitir o futebol de ligas menores ou prever o tempo. E servem à educação, oferecendo a possibilidade de reforço personalizado em disciplinas especializadas, desde a matemática até o latim.
Contras: o fato é que não podemos automatizar estas funções sem mitigar as prováveis desigualdades que cresceriam exponencialmente, por exemplo, entre aqueles que mantêm acesso cada vez mais privilegiado a médicos, professores, secretários e jornalistas. Isto é: uma IA excludente.
Mais: a automação de serviços oferece vantagens econômicas às empresas, que podem estar abertas 24 horas por dia, sete dias por semana, sem pagar salários ou previdência social. Ao mesmo tempo, porém, constitui um risco para a privacidade e o cuidado do usuário, paciente e cidadão.
O ponto: é imperativo estabelecer diretrizes e regulamentos claros que garantam um princípio de transparência e responsabilidade no desenvolvimento e implementação de modelos automatizados, particularmente em empréstimos, saúde, contratação ou justiça criminal.
A diretriz ética inegociável: nenhuma IA pode nos substituir ou tomar decisões por nós; apenas nos ajudar a decidir, diagnosticar, pensar melhor.
Dilemas e perplexidades: como evitar assimetrias que surgirão entre aqueles com acesso privilegiado aos dados e à gestão de plataformas digitais e os nossos interesses, necessidades e diretrizes regulatórias?
Efeitos colaterais: altos custos ambientais. Modelos de treinamento como o GPT-3 exigem grandes quantidades de solo, minerais, fluidos, energia e capacidade computacional, e geram quantidades industriais de resíduos e gases de efeito estufa.
Conselho: devemos colocar nossa casa em ordem antes de deixá-la nas mãos da inteligência artificial. A pergunta: temos a casa em ordem?
Na rede social, ouvi (e assisti a) um diálogo em que um advogado diz que, no seu escritório, os advogados e estagiários usam o Google Bard e o ChatGPT para fazer petições. O que levava dias, agora leva apenas algumas horas. Acentua, ainda, que o advogado que hoje não entende que ele tem que usar a inteligência artificial do Google, perde mercado. Segundo o causídico, atualmente a competição não se dá entre advogados, e, sim, entre o advogado que usa inteligência artificial e o que não usa. E o diálogo se encerra com a “advertência de uma advogada”, com ar professoral: ou você usa o recurso para se aprimorar ou você está fora do mercado; não tem o que fazer, não tem como você ficar criticando a inteligência artificial, ela não vai sumir.
E há um dado que é um chute na canela dos usuários da IA: o ChatGPT já faz textos melhores que a ampla maioria – mas ampla, mesmo – dos formados em Direito. O ChatGPT é melhor que o seu usuário. Bem feito. Perdeu, mané. Daí a pergunta: somos capazes de construir máquinas que fazem as coisas melhores que nós e nós mesmos não conseguimos ser melhores do que somos? Será o nosso fim?
Não, não respondam.
Lenio Luiz Streck é professor, parecerista, advogado e sócio fundador do Streck & Trindade Advogados Associados: www.streckadvogados.com.br. Disponível em: https: //conjur.com.br. 14/03/2024. Acesso em 18/08/2024. Adaptado.
Quanto ao processo de construção do texto, é correto afirmar que o autor
Provas
Leia o Texto.
A IA, os causídicos e o ChatGPT
O jornal espanhol El País fez interessante editorial sobre a coqueluche (ou a pandemia) do momento: a tal inteligência artificial ChatGPT.
Com o tempo, cada vez mais os sistemas IA farão interfaces com nossos dispositivos e se tornarão uma espécie de oráculos de nossas atividades profissionais.
É por isso que o jornal chama a atenção: há riscos nisso e devemos tomar medidas para mitigá-los antes que eles se tornem uma unanimidade. Uma IADependência (a palavra é minha).
Prós: sua capacidade de analisar grandes quantidades de dados e fazer previsões oferece uma assistência valiosa na previsão de desastres, diagnóstico de doenças, gerenciamento de recursos a longo prazo e eficiência no transporte. Suas habilidades já aliviam muitos meios de comunicação de acompanhar as flutuações da bolsa de valores, transmitir o futebol de ligas menores ou prever o tempo. E servem à educação, oferecendo a possibilidade de reforço personalizado em disciplinas especializadas, desde a matemática até o latim.
Contras: o fato é que não podemos automatizar estas funções sem mitigar as prováveis desigualdades que cresceriam exponencialmente, por exemplo, entre aqueles que mantêm acesso cada vez mais privilegiado a médicos, professores, secretários e jornalistas. Isto é: uma IA excludente.
Mais: a automação de serviços oferece vantagens econômicas às empresas, que podem estar abertas 24 horas por dia, sete dias por semana, sem pagar salários ou previdência social. Ao mesmo tempo, porém, constitui um risco para a privacidade e o cuidado do usuário, paciente e cidadão.
O ponto: é imperativo estabelecer diretrizes e regulamentos claros que garantam um princípio de transparência e responsabilidade no desenvolvimento e implementação de modelos automatizados, particularmente em empréstimos, saúde, contratação ou justiça criminal.
A diretriz ética inegociável: nenhuma IA pode nos substituir ou tomar decisões por nós; apenas nos ajudar a decidir, diagnosticar, pensar melhor.
Dilemas e perplexidades: como evitar assimetrias que surgirão entre aqueles com acesso privilegiado aos dados e à gestão de plataformas digitais e os nossos interesses, necessidades e diretrizes regulatórias?
Efeitos colaterais: altos custos ambientais. Modelos de treinamento como o GPT-3 exigem grandes quantidades de solo, minerais, fluidos, energia e capacidade computacional, e geram quantidades industriais de resíduos e gases de efeito estufa.
Conselho: devemos colocar nossa casa em ordem antes de deixá-la nas mãos da inteligência artificial. A pergunta: temos a casa em ordem?
Na rede social, ouvi (e assisti a) um diálogo em que um advogado diz que, no seu escritório, os advogados e estagiários usam o Google Bard e o ChatGPT para fazer petições. O que levava dias, agora leva apenas algumas horas. Acentua, ainda, que o advogado que hoje não entende que ele tem que usar a inteligência artificial do Google, perde mercado. Segundo o causídico, atualmente a competição não se dá entre advogados, e, sim, entre o advogado que usa inteligência artificial e o que não usa. E o diálogo se encerra com a “advertência de uma advogada”, com ar professoral: ou você usa o recurso para se aprimorar ou você está fora do mercado; não tem o que fazer, não tem como você ficar criticando a inteligência artificial, ela não vai sumir.
E há um dado que é um chute na canela dos usuários da IA: o ChatGPT já faz textos melhores que a ampla maioria – mas ampla, mesmo – dos formados em Direito. O ChatGPT é melhor que o seu usuário. Bem feito. Perdeu, mané. Daí a pergunta: somos capazes de construir máquinas que fazem as coisas melhores que nós e nós mesmos não conseguimos ser melhores do que somos? Será o nosso fim?
Não, não respondam.
Lenio Luiz Streck é professor, parecerista, advogado e sócio fundador do Streck & Trindade Advogados Associados: www.streckadvogados.com.br. Disponível em: https: //conjur.com.br. 14/03/2024. Acesso em 18/08/2024. Adaptado.
Observando a linguagem empregada no texto, é correto afirmar que o autor busca imprimir um tom
Provas
Provas
I. A ITIL® (Versão 3) é uma abordagem para o gerenciamento de serviços de TI que abrange cinco principais estágios: Estratégia do Serviço, Projeto de Serviço, Transição de Serviço, Operação do Serviço e Melhoria Contínua do Serviço.
II. A estratégia do serviço na ITIL® é focada em definir as necessidades dos clientes e o valor que os serviços de TI proporcionarão a eles, enquanto o Projeto de Serviço lida com a implementação de novos serviços ou a modificação dos existentes.
III. O COBIT 4.1 é um framework que fornece uma abordagem para o gerenciamento de TI, incluindo práticas e processos para garantir o alinhamento da TI com os objetivos empresariais e a governança de TI.
IV. A melhoria contínua do serviço na ITIL® é o processo responsável por garantir que todos os aspectos dos serviços de TI sejam aprimorados continuamente, usando métricas e feedback para realizar ajustes e otimizações.
É correto o que se afirma somente em
Provas
Ana está configurando um novo sistema de gerenciamento de e-mails para sua empresa e também precisa otimizar as ferramentas de pesquisa usadas por sua equipe. Ela deseja entender melhor as tecnologias subjacentes para tomar decisões informadas sobre a integração e o uso dessas ferramentas.
Assim, para garantir que as comunicações por e-mail sejam criptografadas e que apenas os destinatários pretendidos possam acessar as mensagens; para melhorar a eficiência na busca de informações na internet, garantindo que as pesquisas sejam realizadas com a maior precisão possível; e para utilizar uma ferramenta de navegação que permita o armazenamento e o gerenciamento de senhas de forma segura e integrada, a combinação correta de conceitos e tecnologias que atende a essas necessidades é a seguinte:
Provas
Caderno Container