Magna Concursos

Foram encontradas 190 questões.

Em um leilão de antiguidades, 9 esculturas estão expostas em uma fila, organizadas em ordem crescente de valor da esquerda para a direita. O preço de cada escultura é R$ 45,00 a mais do que a escultura imediatamente anterior. Da esquerda para a direita, sabe-se que a terceira escultura tem um valor que representa 1/3 do valor da oitava escultura. Dessa forma, qual o valor da escultura mais cara?

 

Provas

Questão presente nas seguintes provas

João, Marcos e Pedro são amigos e possuem alturas de 1,70 m; 1,75 m; e 1,80 m, mas não necessariamente nessa ordem. Além disso, atualmente, sabe-se que o curso de graduação de um dos amigos é medicina, de outro é engenharia civil e, do amigo restante, direito. Sabe-se que Marcos estuda engenharia civil e não possui 1,75 m de altura. Além disso, o aluno de direito possui 1,70 m de altura e Pedro não estuda medicina. Com base nessas informações, quais são, respectivamente, a altura e o curso de João?

 

Provas

Questão presente nas seguintes provas

Dois trabalhadores estão pintando uma grande parede. O primeiro trabalhador é mais rápido e o segundo é um pouco mais lento. Quando estão trabalhando juntos, eles conseguem concluir todo o serviço em 24 minutos. No entanto, se apenas um dos trabalhadores fosse responsável pelo trabalho, o trabalhador mais lento precisaria de 20 minutos a mais do que o trabalhador mais rápido para completar o mesmo serviço. Com base nessas informações, qual é a soma, em minutos, dos tempos individuais que cada trabalhador levaria para pintar a parede se trabalhasse sozinho?

 

Provas

Questão presente nas seguintes provas

Carlos é analista de dados em uma empresa de tecnologia e concluiu um relatório extenso. Na empresa, ele trabalha de segunda-feira a sexta-feira e, em cada dia de trabalho, Carlos dedica 1 hora e 15 minutos exclusivamente para essa tarefa. Seguindo esse ritmo, ele levou um tempo total de 27 horas e 30 minutos para concluir o relatório. Considere que Carlos começou a elaborar o relatório em uma terça-feira e, nos demais dias úteis, trabalhou sem interrupções. Se, durante a execução do relatório, houve apenas dois dias que Carlos não trabalhou devido a feriados municipais, em qual dia da semana ele terminou o relatório?

 

Provas

Questão presente nas seguintes provas

Futuro da Inteligência Artificial e a necessidade da ética relacional para uma governança inclusiva

Estamos vivendo a era da datificação, em que todos os aspectos da vida social são transformados em dados. Esse processo, fundamental para o desenvolvimento da Inteligência Artificial (IA), nos promete um futuro onde decisões complexas podem ser automatizadas e otimizadas em uma escala sem precedentes. No entanto, isso frequentemente simplifica a complexidade da vida humana em métricas e números, ignorando as relações e os contextos que tornam cada indivíduo único. Quando esses dados são usados em sistemas de IA, eles podem acabar reforçando as mesmas desigualdades e exclusões que pretendiam resolver.

Os dados que alimentam esses sistemas muitas vezes refletem contextos históricos de desigualdade. Como Coté (2022) observa, ao moldar identidades e comportamentos humanos em padrões digitais, a datificação impõe limites às representações, limitando a diversidade de experiências humanas e, em muitos casos, perpetuando estereótipos. Isso pode resultar em decisões enviesadas, criando um ciclo de exclusão e discriminação. Esse desafio nos obriga a questionar a suposta neutralidade dos algoritmos e a refletir sobre como essas decisões automatizadas moldam a sociedade, frequentemente favorecendo certos grupos em detrimento de outros.

Pensando em uma governança que seja realmente inclusiva, Browne (2023) propõe a criação de “AI Public Body” – uma entidade pública que permite a participação de cidadãos comuns, especialmente daqueles mais afetados pelas tecnologias de IA, nas decisões sobre o uso dessas tecnologias. Inspirado em modelos de democracia deliberativa, esse corpo incluiria a voz de comunidades diversas, trazendo uma nova perspectiva para as decisões que, até hoje, são dominadas por especialistas técnicos.

Esse modelo representa uma mudança significativa na forma como entendemos a governança, enfatizando que a IA não deve ser apenas uma questão de precisão técnica, mas também de justiça e representatividade. A inclusão dessas vozes no processo de governança cria um espaço onde os efeitos sociais das tecnologias podem ser mais bem compreendidos e endereçados, resultando em uma governança que reflete a diversidade da sociedade.

A justiça algorítmica muitas vezes é tratada como uma questão de otimização matemática, ajustando dados e métricas para minimizar desigualdades estatísticas. No entanto, como Van Nuenen (2022) aponta, a justiça social na IA deve ir além dos ajustes técnicos, considerando as complexas desigualdades estruturais que esses dados representam. Em vez de se limitar a resultados estatísticos, a justiça social exige uma compreensão mais profunda do impacto das decisões tecnológicas na vida das pessoas.

No caso de algoritmos usados em concessão de crédito ou reconhecimento facial, é essencial entender que esses sistemas não operam em um vácuo: eles são parte de uma sociedade com uma longa história de desigualdade. Para que a IA seja realmente justa, ela deve ser projetada com o compromisso de mitigar essas desigualdades, considerando as realidades vividas por comunidades marginalizadas e integrando suas vozes no desenvolvimento e na aplicação dessas tecnologias.

(Carine Roos. Em: 08/02/2025. Disponível em: https://www.hojeemdia.com.br/opiniao. Fragmento.)

De acordo com a prosódia, assinale o grupo de palavras que são equivalentes quanto à classificação do acento tônico das palavras.

 

Provas

Questão presente nas seguintes provas

Futuro da Inteligência Artificial e a necessidade da ética relacional para uma governança inclusiva

Estamos vivendo a era da datificação, em que todos os aspectos da vida social são transformados em dados. Esse processo, fundamental para o desenvolvimento da Inteligência Artificial (IA), nos promete um futuro onde decisões complexas podem ser automatizadas e otimizadas em uma escala sem precedentes. No entanto, isso frequentemente simplifica a complexidade da vida humana em métricas e números, ignorando as relações e os contextos que tornam cada indivíduo único. Quando esses dados são usados em sistemas de IA, eles podem acabar reforçando as mesmas desigualdades e exclusões que pretendiam resolver.

Os dados que alimentam esses sistemas muitas vezes refletem contextos históricos de desigualdade. Como Coté (2022) observa, ao moldar identidades e comportamentos humanos em padrões digitais, a datificação impõe limites às representações, limitando a diversidade de experiências humanas e, em muitos casos, perpetuando estereótipos. Isso pode resultar em decisões enviesadas, criando um ciclo de exclusão e discriminação. Esse desafio nos obriga a questionar a suposta neutralidade dos algoritmos e a refletir sobre como essas decisões automatizadas moldam a sociedade, frequentemente favorecendo certos grupos em detrimento de outros.

Pensando em uma governança que seja realmente inclusiva, Browne (2023) propõe a criação de “AI Public Body” – uma entidade pública que permite a participação de cidadãos comuns, especialmente daqueles mais afetados pelas tecnologias de IA, nas decisões sobre o uso dessas tecnologias. Inspirado em modelos de democracia deliberativa, esse corpo incluiria a voz de comunidades diversas, trazendo uma nova perspectiva para as decisões que, até hoje, são dominadas por especialistas técnicos.

Esse modelo representa uma mudança significativa na forma como entendemos a governança, enfatizando que a IA não deve ser apenas uma questão de precisão técnica, mas também de justiça e representatividade. A inclusão dessas vozes no processo de governança cria um espaço onde os efeitos sociais das tecnologias podem ser mais bem compreendidos e endereçados, resultando em uma governança que reflete a diversidade da sociedade.

A justiça algorítmica muitas vezes é tratada como uma questão de otimização matemática, ajustando dados e métricas para minimizar desigualdades estatísticas. No entanto, como Van Nuenen (2022) aponta, a justiça social na IA deve ir além dos ajustes técnicos, considerando as complexas desigualdades estruturais que esses dados representam. Em vez de se limitar a resultados estatísticos, a justiça social exige uma compreensão mais profunda do impacto das decisões tecnológicas na vida das pessoas.

No caso de algoritmos usados em concessão de crédito ou reconhecimento facial, é essencial entender que esses sistemas não operam em um vácuo: eles são parte de uma sociedade com uma longa história de desigualdade. Para que a IA seja realmente justa, ela deve ser projetada com o compromisso de mitigar essas desigualdades, considerando as realidades vividas por comunidades marginalizadas e integrando suas vozes no desenvolvimento e na aplicação dessas tecnologias.

(Carine Roos. Em: 08/02/2025. Disponível em: https://www.hojeemdia.com.br/opiniao. Fragmento.)

Dentre os segmentos destacados a seguir, assinale o que utiliza estratégia argumentativa que confere legitimação à informação e/ou ideia apresentada, diferenciando-se, por esse motivo, dos demais.

 

Provas

Questão presente nas seguintes provas

Futuro da Inteligência Artificial e a necessidade da ética relacional para uma governança inclusiva

Estamos vivendo a era da datificação, em que todos os aspectos da vida social são transformados em dados. Esse processo, fundamental para o desenvolvimento da Inteligência Artificial (IA), nos promete um futuro onde decisões complexas podem ser automatizadas e otimizadas em uma escala sem precedentes. No entanto, isso frequentemente simplifica a complexidade da vida humana em métricas e números, ignorando as relações e os contextos que tornam cada indivíduo único. Quando esses dados são usados em sistemas de IA, eles podem acabar reforçando as mesmas desigualdades e exclusões que pretendiam resolver.

Os dados que alimentam esses sistemas muitas vezes refletem contextos históricos de desigualdade. Como Coté (2022) observa, ao moldar identidades e comportamentos humanos em padrões digitais, a datificação impõe limites às representações, limitando a diversidade de experiências humanas e, em muitos casos, perpetuando estereótipos. Isso pode resultar em decisões enviesadas, criando um ciclo de exclusão e discriminação. Esse desafio nos obriga a questionar a suposta neutralidade dos algoritmos e a refletir sobre como essas decisões automatizadas moldam a sociedade, frequentemente favorecendo certos grupos em detrimento de outros.

Pensando em uma governança que seja realmente inclusiva, Browne (2023) propõe a criação de “AI Public Body” – uma entidade pública que permite a participação de cidadãos comuns, especialmente daqueles mais afetados pelas tecnologias de IA, nas decisões sobre o uso dessas tecnologias. Inspirado em modelos de democracia deliberativa, esse corpo incluiria a voz de comunidades diversas, trazendo uma nova perspectiva para as decisões que, até hoje, são dominadas por especialistas técnicos.

Esse modelo representa uma mudança significativa na forma como entendemos a governança, enfatizando que a IA não deve ser apenas uma questão de precisão técnica, mas também de justiça e representatividade. A inclusão dessas vozes no processo de governança cria um espaço onde os efeitos sociais das tecnologias podem ser mais bem compreendidos e endereçados, resultando em uma governança que reflete a diversidade da sociedade.

A justiça algorítmica muitas vezes é tratada como uma questão de otimização matemática, ajustando dados e métricas para minimizar desigualdades estatísticas. No entanto, como Van Nuenen (2022) aponta, a justiça social na IA deve ir além dos ajustes técnicos, considerando as complexas desigualdades estruturais que esses dados representam. Em vez de se limitar a resultados estatísticos, a justiça social exige uma compreensão mais profunda do impacto das decisões tecnológicas na vida das pessoas.

No caso de algoritmos usados em concessão de crédito ou reconhecimento facial, é essencial entender que esses sistemas não operam em um vácuo: eles são parte de uma sociedade com uma longa história de desigualdade. Para que a IA seja realmente justa, ela deve ser projetada com o compromisso de mitigar essas desigualdades, considerando as realidades vividas por comunidades marginalizadas e integrando suas vozes no desenvolvimento e na aplicação dessas tecnologias.

(Carine Roos. Em: 08/02/2025. Disponível em: https://www.hojeemdia.com.br/opiniao. Fragmento.)

Em “Os dados que alimentam esses sistemas muitas vezes refletem contextos históricos de desigualdade.” (2º§), pode-se afirmar que a estruturação sintática do período demonstra:

 

Provas

Questão presente nas seguintes provas

Futuro da Inteligência Artificial e a necessidade da ética relacional para uma governança inclusiva

Estamos vivendo a era da datificação, em que todos os aspectos da vida social são transformados em dados. Esse processo, fundamental para o desenvolvimento da Inteligência Artificial (IA), nos promete um futuro onde decisões complexas podem ser automatizadas e otimizadas em uma escala sem precedentes. No entanto, isso frequentemente simplifica a complexidade da vida humana em métricas e números, ignorando as relações e os contextos que tornam cada indivíduo único. Quando esses dados são usados em sistemas de IA, eles podem acabar reforçando as mesmas desigualdades e exclusões que pretendiam resolver.

Os dados que alimentam esses sistemas muitas vezes refletem contextos históricos de desigualdade. Como Coté (2022) observa, ao moldar identidades e comportamentos humanos em padrões digitais, a datificação impõe limites às representações, limitando a diversidade de experiências humanas e, em muitos casos, perpetuando estereótipos. Isso pode resultar em decisões enviesadas, criando um ciclo de exclusão e discriminação. Esse desafio nos obriga a questionar a suposta neutralidade dos algoritmos e a refletir sobre como essas decisões automatizadas moldam a sociedade, frequentemente favorecendo certos grupos em detrimento de outros.

Pensando em uma governança que seja realmente inclusiva, Browne (2023) propõe a criação de “AI Public Body” – uma entidade pública que permite a participação de cidadãos comuns, especialmente daqueles mais afetados pelas tecnologias de IA, nas decisões sobre o uso dessas tecnologias. Inspirado em modelos de democracia deliberativa, esse corpo incluiria a voz de comunidades diversas, trazendo uma nova perspectiva para as decisões que, até hoje, são dominadas por especialistas técnicos.

Esse modelo representa uma mudança significativa na forma como entendemos a governança, enfatizando que a IA não deve ser apenas uma questão de precisão técnica, mas também de justiça e representatividade. A inclusão dessas vozes no processo de governança cria um espaço onde os efeitos sociais das tecnologias podem ser mais bem compreendidos e endereçados, resultando em uma governança que reflete a diversidade da sociedade.

A justiça algorítmica muitas vezes é tratada como uma questão de otimização matemática, ajustando dados e métricas para minimizar desigualdades estatísticas. No entanto, como Van Nuenen (2022) aponta, a justiça social na IA deve ir além dos ajustes técnicos, considerando as complexas desigualdades estruturais que esses dados representam. Em vez de se limitar a resultados estatísticos, a justiça social exige uma compreensão mais profunda do impacto das decisões tecnológicas na vida das pessoas.

No caso de algoritmos usados em concessão de crédito ou reconhecimento facial, é essencial entender que esses sistemas não operam em um vácuo: eles são parte de uma sociedade com uma longa história de desigualdade. Para que a IA seja realmente justa, ela deve ser projetada com o compromisso de mitigar essas desigualdades, considerando as realidades vividas por comunidades marginalizadas e integrando suas vozes no desenvolvimento e na aplicação dessas tecnologias.

(Carine Roos. Em: 08/02/2025. Disponível em: https://www.hojeemdia.com.br/opiniao. Fragmento.)

A reescrita do segmento destacado em que há adequação semântica e gramatical de acordo com o texto original está indicada em:

 

Provas

Questão presente nas seguintes provas

Futuro da Inteligência Artificial e a necessidade da ética relacional para uma governança inclusiva

Estamos vivendo a era da datificação, em que todos os aspectos da vida social são transformados em dados. Esse processo, fundamental para o desenvolvimento da Inteligência Artificial (IA), nos promete um futuro onde decisões complexas podem ser automatizadas e otimizadas em uma escala sem precedentes. No entanto, isso frequentemente simplifica a complexidade da vida humana em métricas e números, ignorando as relações e os contextos que tornam cada indivíduo único. Quando esses dados são usados em sistemas de IA, eles podem acabar reforçando as mesmas desigualdades e exclusões que pretendiam resolver.

Os dados que alimentam esses sistemas muitas vezes refletem contextos históricos de desigualdade. Como Coté (2022) observa, ao moldar identidades e comportamentos humanos em padrões digitais, a datificação impõe limites às representações, limitando a diversidade de experiências humanas e, em muitos casos, perpetuando estereótipos. Isso pode resultar em decisões enviesadas, criando um ciclo de exclusão e discriminação. Esse desafio nos obriga a questionar a suposta neutralidade dos algoritmos e a refletir sobre como essas decisões automatizadas moldam a sociedade, frequentemente favorecendo certos grupos em detrimento de outros.

Pensando em uma governança que seja realmente inclusiva, Browne (2023) propõe a criação de “AI Public Body” – uma entidade pública que permite a participação de cidadãos comuns, especialmente daqueles mais afetados pelas tecnologias de IA, nas decisões sobre o uso dessas tecnologias. Inspirado em modelos de democracia deliberativa, esse corpo incluiria a voz de comunidades diversas, trazendo uma nova perspectiva para as decisões que, até hoje, são dominadas por especialistas técnicos.

Esse modelo representa uma mudança significativa na forma como entendemos a governança, enfatizando que a IA não deve ser apenas uma questão de precisão técnica, mas também de justiça e representatividade. A inclusão dessas vozes no processo de governança cria um espaço onde os efeitos sociais das tecnologias podem ser mais bem compreendidos e endereçados, resultando em uma governança que reflete a diversidade da sociedade.

A justiça algorítmica muitas vezes é tratada como uma questão de otimização matemática, ajustando dados e métricas para minimizar desigualdades estatísticas. No entanto, como Van Nuenen (2022) aponta, a justiça social na IA deve ir além dos ajustes técnicos, considerando as complexas desigualdades estruturais que esses dados representam. Em vez de se limitar a resultados estatísticos, a justiça social exige uma compreensão mais profunda do impacto das decisões tecnológicas na vida das pessoas.

No caso de algoritmos usados em concessão de crédito ou reconhecimento facial, é essencial entender que esses sistemas não operam em um vácuo: eles são parte de uma sociedade com uma longa história de desigualdade. Para que a IA seja realmente justa, ela deve ser projetada com o compromisso de mitigar essas desigualdades, considerando as realidades vividas por comunidades marginalizadas e integrando suas vozes no desenvolvimento e na aplicação dessas tecnologias.

(Carine Roos. Em: 08/02/2025. Disponível em: https://www.hojeemdia.com.br/opiniao. Fragmento.)

O livre comentário a seguir, referente ao texto, que apresenta correção gramatical, está indicado em:

 

Provas

Questão presente nas seguintes provas

Futuro da Inteligência Artificial e a necessidade da ética relacional para uma governança inclusiva

Estamos vivendo a era da datificação, em que todos os aspectos da vida social são transformados em dados. Esse processo, fundamental para o desenvolvimento da Inteligência Artificial (IA), nos promete um futuro onde decisões complexas podem ser automatizadas e otimizadas em uma escala sem precedentes. No entanto, isso frequentemente simplifica a complexidade da vida humana em métricas e números, ignorando as relações e os contextos que tornam cada indivíduo único. Quando esses dados são usados em sistemas de IA, eles podem acabar reforçando as mesmas desigualdades e exclusões que pretendiam resolver.

Os dados que alimentam esses sistemas muitas vezes refletem contextos históricos de desigualdade. Como Coté (2022) observa, ao moldar identidades e comportamentos humanos em padrões digitais, a datificação impõe limites às representações, limitando a diversidade de experiências humanas e, em muitos casos, perpetuando estereótipos. Isso pode resultar em decisões enviesadas, criando um ciclo de exclusão e discriminação. Esse desafio nos obriga a questionar a suposta neutralidade dos algoritmos e a refletir sobre como essas decisões automatizadas moldam a sociedade, frequentemente favorecendo certos grupos em detrimento de outros.

Pensando em uma governança que seja realmente inclusiva, Browne (2023) propõe a criação de “AI Public Body” – uma entidade pública que permite a participação de cidadãos comuns, especialmente daqueles mais afetados pelas tecnologias de IA, nas decisões sobre o uso dessas tecnologias. Inspirado em modelos de democracia deliberativa, esse corpo incluiria a voz de comunidades diversas, trazendo uma nova perspectiva para as decisões que, até hoje, são dominadas por especialistas técnicos.

Esse modelo representa uma mudança significativa na forma como entendemos a governança, enfatizando que a IA não deve ser apenas uma questão de precisão técnica, mas também de justiça e representatividade. A inclusão dessas vozes no processo de governança cria um espaço onde os efeitos sociais das tecnologias podem ser mais bem compreendidos e endereçados, resultando em uma governança que reflete a diversidade da sociedade.

A justiça algorítmica muitas vezes é tratada como uma questão de otimização matemática, ajustando dados e métricas para minimizar desigualdades estatísticas. No entanto, como Van Nuenen (2022) aponta, a justiça social na IA deve ir além dos ajustes técnicos, considerando as complexas desigualdades estruturais que esses dados representam. Em vez de se limitar a resultados estatísticos, a justiça social exige uma compreensão mais profunda do impacto das decisões tecnológicas na vida das pessoas.

No caso de algoritmos usados em concessão de crédito ou reconhecimento facial, é essencial entender que esses sistemas não operam em um vácuo: eles são parte de uma sociedade com uma longa história de desigualdade. Para que a IA seja realmente justa, ela deve ser projetada com o compromisso de mitigar essas desigualdades, considerando as realidades vividas por comunidades marginalizadas e integrando suas vozes no desenvolvimento e na aplicação dessas tecnologias.

(Carine Roos. Em: 08/02/2025. Disponível em: https://www.hojeemdia.com.br/opiniao. Fragmento.)

Em “Esse processo, fundamental para o desenvolvimento da Inteligência Artificial (IA), nos promete um futuro onde decisões complexas podem ser automatizadas e otimizadas em uma escala sem precedentes.” (1º§), as vírgulas:

I. Podem ser substituídas por travessões.

II. Podem ser substituídas pelos parênteses.

III. Foram empregadas com adequação de acordo com a norma culta.

Está correto o que se afirma em

 

Provas

Questão presente nas seguintes provas