Magna Concursos

Foram encontradas 50 questões.

1817010 Ano: 2019
Disciplina: Veterinária
Banca: UFPI
Orgão: UFPI
A transfusão sanguínea é um tipo de tratamento considerado vital em casos graves de anemia, a qual pode ser decorrente de quadros de hemorragias, hemólises, doenças crônicas e enfermidades da medula óssea. A transfusão sanguínea é preconizada quando o paciente apresenta sintomas clínicos de prostração e hiporexia, o exame físico geral evidencia mucosas pálidas ou perláceas, dispneia, taquicardia, hipotensão, associado também aos achados laboratoriais. Com relação ao tema, assinale a opção CORRETA.
 

Provas

Questão presente nas seguintes provas
1816537 Ano: 2019
Disciplina: Veterinária
Banca: UFPI
Orgão: UFPI
Terapeuticamente os gatos possuem características próprias que devemos respeitar ao tratarmos essa espécie e considerar fatores, como idade, tipo de fármaco, forma farmacêutica e via de administração. Agentes antinflamatórios são comumente utilizados na espécie felina, entre eles a budesonida, sendo CORRETO afirmar quanto a esse fármaco:
 

Provas

Questão presente nas seguintes provas
1812590 Ano: 2019
Disciplina: Veterinária
Banca: UFPI
Orgão: UFPI
As Infecções do Trato Urinário (ITU) representam uma importante causa de doença infecciosa em cães. Por definição, ocorre ITU quando bactérias podem ser demonstradas na urina contida no rim, ureter ou na bexiga. A localização da infecção é um procedimento que exige uma boa avaliação clínica. Da mesma forma, os critérios de tratamento demandam conhecimento farmacológico, bem como das principais etiologias e fatores associados. Quanto ao tratamento das infecções de trato urinário, assinale a opção CORRETA.
 

Provas

Questão presente nas seguintes provas
TEXTO I
Assim os algoritmos perpetuam a desigualdade social
Cathy O'Neil, autora de 'Armas de Destruição Matemática', afirma que já é tarde para nos preocuparmos com a disponibilidade de nossos dados, que agora é preciso perguntar o que as empresas fazem com eles.
Cathy O’Neil é uma matemática de cabelo azul que dedica todos os seus esforços a abrir os olhos das pessoas sobre os algoritmos que dominam o mundo. Desde os que indicam ao banco se você é apto ou não a receber uma hipoteca, até os que decidem quem merece uma vaga de trabalho. Um sistema que pode perpetuar as desigualdades existentes no mundo se não começarmos a ser críticos, defende a cientista. “Estamos dando poder a mecanismos sem nos perguntar se realmente funcionam, isso é uma falha como sociedade”, explica de Nova York ao outro lado do telefone.
O’Neil, em seu livro Armas de Destruição Matemática, mostra alguns exemplos para colocar essa teoria em termos reais. Viaja em algumas de suas páginas a Reading, uma pequena cidade da Pensilvânia (Estados Unidos) que em 2011 tinha um nível de pobreza superior a 41%, o mais alto de todo o país. Com um efetivo reduzido pela crise, o chefe de polícia investiu em um programa de predição de crimes chamado PredPol que funciona com big data. O aplicativo divide a cidade em quadrantes e determina em qual deles é mais possível que se cometa um crime baseando-se no registro histórico da polícia. No leque de dados estão desde crimes mais leves como perturbação da ordem pública (beber na rua, por exemplo), até homicídios.
Quanto maior for o número de agentes enviados aos pontos indicados pelo programa, mais prisões ocorrem e assim se entra em um círculo vicioso que enche as prisões de gente, em sua maioria, acusada de crimes menos graves. A maioria dos detidos é de negros e hispânicos. “O mapa da delinquência gerado desse modo traça na realidade um rastro de pobreza”, diz a autora. “Continuamos prendendo negros por coisas pelas quais não prendemos brancos, mas agora já não o dizemos abertamente e disfarçamos de ciência porque o fazemos com o PredPol. Continuamos com o ciclo, porque continuamos prendendo gente de um bairro e os dados nos dizem que precisamos voltar a esse bairro, dessa forma a injustiça policial continua”, afirma na entrevista.
Vários estudos já indicaram que estamos cedendo o controle a mecanismos automáticos que perpetuam a discriminação. Do algoritmo do Google que identificou um negro como um gorila em uma foto, até a máquina que relaciona estar na cozinha com uma mulher, ou o algoritmo do Facebook que mostrava anúncios de casas à venda somente a usuários brancos. “Os engenheiros pensam em termos de otimização dos recursos, o que é preciso é diversidade nas equipes que escrevem os algoritmos para que incluam pessoas que pensem nas violações dos direitos humanos e na forma como esses códigos irão afetar a sociedade: sociólogos, advogados, psicólogos...”, afirma.
A matemática afirma que já é tarde para se preocupar pelo fato de que nossos dados estejam disponíveis, que agora é preciso perguntar às empresas e gigantes tecnológicos o que estão fazendo com eles. “Não nos damos conta na maioria das vezes que nos analisam, especialmente na Internet. Quando somos conscientes de que recebemos uma pontuação de acordo com nossos dados, a primeira coisa que precisamos fazer é pedir explicações, que nos mostrem o processo pelo qual fomos qualificados, se é algo importante como uma hipoteca e um trabalho, até mesmo utilizando mecanismos legais. As vezes em que não percebemos, são os Governos europeus e o dos Estados Unidos que precisam estabelecer normas que indiquem que a cada vez que recebemos essa pontuação precisamos saber”, diz O’Neil.
O’Neil apagou sua conta do Facebook há um ano (e a do Twitter também não está disponível há algumas semanas), logo depois das eleições vencidas por Donald Trump e que agora estão sendo investigadas pelo uso dos dados de milhões de usuários do Facebook. O escândalo levou seu criador, Mark Zuckerberg, a dar explicações no Senado dos Estados Unidos. “É preciso obrigar empresas como o Facebook a explicar o que estão conseguindo com produtos, em vez de assumir que estão fazendo o melhor. Já temos a suspeita de que o Facebook ajudou a divulgar notícias falsas, a influenciar o resultado de votações, a fazer com que as pessoas acreditassem em teorias da conspiração. Por que não temos as provas reais, por que não as mostram?”, pergunta a especialista.
O que acontece nos países menos desenvolvidos? São mais vulneráveis? “Lamentavelmente não acho que têm a oportunidade de tomar o controle porque as empresas norte-americanas e chinesas estabelecerão suas regras mais rápido do que as próprias pessoas”. Os dados variam, mas a Africa 2.0 International Foundation dizia em uma conversa há um ano que no continente africano existem 800 milhões de terminais, quando há 50 anos só existiam 40.000 telefones. Esses dispositivos, com Internet ou sem, já são uma fonte inesgotável de dados às empresas.
A matemática se mostra otimista, porque pelo menos os algoritmos fazem parte do debate atual, e não se cansa de alertar sobre a confiança cega no big data: “Se você só usa dados do passado, está condenado a repeti-lo. É preciso se perguntar aonde você quer chegar, em vez de se limitar a analisar de onde você vem. Se estivéssemos orgulhosos de nosso sistema, poderíamos querer usar esses dados para manter tudo igual, mas não é o caso”.
PEIRÓ, Patrícia. Disponível em: https://brasil.elpais.com/brasil/2018/04/12/tecnologia/1523546166_758362.html?%3Fid_externo_rsoc=FB_BR_CM&fbclid=IwAR1vUSeLMXpeiPJgtISOITMEQnfN2fbvPPm7mm02i9SCz3UwBh3onctnHBU (Acesso em 14/06/2019).
O trecho “Vários estudos já indicaram que estamos cedendo o controle a mecanismos automáticos que perpetuam a discriminação”, quando reescrito, apresenta alteração de sentido em:
 

Provas

Questão presente nas seguintes provas
1708995 Ano: 2019
Disciplina: Veterinária
Banca: UFPI
Orgão: UFPI
O hipotireoidismo se caracteriza pela produção ineficiente dos hormônios tireoideanos pela glândula tireoide, com consequente diminuição da atividade metabólica do organismo animal. Pode ser primário, secundário, terciário, entre outras classificações, conforme o local de instalação da afecção. Quanto ao hipotireoidismo em cães, é CORRETO afirmar:
 

Provas

Questão presente nas seguintes provas
TEXTO I
Assim os algoritmos perpetuam a desigualdade social
Cathy O'Neil, autora de 'Armas de Destruição Matemática', afirma que já é tarde para nos preocuparmos com a disponibilidade de nossos dados, que agora é preciso perguntar o que as empresas fazem com eles.
Cathy O’Neil é uma matemática de cabelo azul que dedica todos os seus esforços a abrir os olhos das pessoas sobre os algoritmos que dominam o mundo. Desde os que indicam ao banco se você é apto ou não a receber uma hipoteca, até os que decidem quem merece uma vaga de trabalho. Um sistema que pode perpetuar as desigualdades existentes no mundo se não começarmos a ser críticos, defende a cientista. “Estamos dando poder a mecanismos sem nos perguntar se realmente funcionam, isso é uma falha como sociedade”, explica de Nova York ao outro lado do telefone.
O’Neil, em seu livro Armas de Destruição Matemática, mostra alguns exemplos para colocar essa teoria em termos reais. Viaja em algumas de suas páginas a Reading, uma pequena cidade da Pensilvânia (Estados Unidos) que em 2011 tinha um nível de pobreza superior a 41%, o mais alto de todo o país. Com um efetivo reduzido pela crise, o chefe de polícia investiu em um programa de predição de crimes chamado PredPol que funciona com big data. O aplicativo divide a cidade em quadrantes e determina em qual deles é mais possível que se cometa um crime baseando-se no registro histórico da polícia. No leque de dados estão desde crimes mais leves como perturbação da ordem pública (beber na rua, por exemplo), até homicídios.
Quanto maior for o número de agentes enviados aos pontos indicados pelo programa, mais prisões ocorrem e assim se entra em um círculo vicioso que enche as prisões de gente, em sua maioria, acusada de crimes menos graves. A maioria dos detidos é de negros e hispânicos. “O mapa da delinquência gerado desse modo traça na realidade um rastro de pobreza”, diz a autora. “Continuamos prendendo negros por coisas pelas quais não prendemos brancos, mas agora já não o dizemos abertamente e disfarçamos de ciência porque o fazemos com o PredPol. Continuamos com o ciclo, porque continuamos prendendo gente de um bairro e os dados nos dizem que precisamos voltar a esse bairro, dessa forma a injustiça policial continua”, afirma na entrevista.
Vários estudos já indicaram que estamos cedendo o controle a mecanismos automáticos que perpetuam a discriminação. Do algoritmo do Google que identificou um negro como um gorila em uma foto, até a máquina que relaciona estar na cozinha com uma mulher, ou o algoritmo do Facebook que mostrava anúncios de casas à venda somente a usuários brancos. “Os engenheiros pensam em termos de otimização dos recursos, o que é preciso é diversidade nas equipes que escrevem os algoritmos para que incluam pessoas que pensem nas violações dos direitos humanos e na forma como esses códigos irão afetar a sociedade: sociólogos, advogados, psicólogos...”, afirma.
A matemática afirma que já é tarde para se preocupar pelo fato de que nossos dados estejam disponíveis, que agora é preciso perguntar às empresas e gigantes tecnológicos o que estão fazendo com eles. “Não nos damos conta na maioria das vezes que nos analisam, especialmente na Internet. Quando somos conscientes de que recebemos uma pontuação de acordo com nossos dados, a primeira coisa que precisamos fazer é pedir explicações, que nos mostrem o processo pelo qual fomos qualificados, se é algo importante como uma hipoteca e um trabalho, até mesmo utilizando mecanismos legais. As vezes em que não percebemos, são os Governos europeus e o dos Estados Unidos que precisam estabelecer normas que indiquem que a cada vez que recebemos essa pontuação precisamos saber”, diz O’Neil.
O’Neil apagou sua conta do Facebook há um ano (e a do Twitter também não está disponível há algumas semanas), logo depois das eleições vencidas por Donald Trump e que agora estão sendo investigadas pelo uso dos dados de milhões de usuários do Facebook. O escândalo levou seu criador, Mark Zuckerberg, a dar explicações no Senado dos Estados Unidos. “É preciso obrigar empresas como o Facebook a explicar o que estão conseguindo com produtos, em vez de assumir que estão fazendo o melhor. Já temos a suspeita de que o Facebook ajudou a divulgar notícias falsas, a influenciar o resultado de votações, a fazer com que as pessoas acreditassem em teorias da conspiração. Por que não temos as provas reais, por que não as mostram?”, pergunta a especialista.
O que acontece nos países menos desenvolvidos? São mais vulneráveis? “Lamentavelmente não acho que têm a oportunidade de tomar o controle porque as empresas norte-americanas e chinesas estabelecerão suas regras mais rápido do que as próprias pessoas”. Os dados variam, mas a Africa 2.0 International Foundation dizia em uma conversa há um ano que no continente africano existem 800 milhões de terminais, quando há 50 anos só existiam 40.000 telefones. Esses dispositivos, com Internet ou sem, já são uma fonte inesgotável de dados às empresas.
A matemática se mostra otimista, porque pelo menos os algoritmos fazem parte do debate atual, e não se cansa de alertar sobre a confiança cega no big data: “Se você só usa dados do passado, está condenado a repeti-lo. É preciso se perguntar aonde você quer chegar, em vez de se limitar a analisar de onde você vem. Se estivéssemos orgulhosos de nosso sistema, poderíamos querer usar esses dados para manter tudo igual, mas não é o caso”.
PEIRÓ, Patrícia. Disponível em: https://brasil.elpais.com/brasil/2018/04/12/tecnologia/1523546166_758362.html?%3Fid_externo_rsoc=FB_BR_CM&fbclid=IwAR1vUSeLMXpeiPJgtISOITMEQnfN2fbvPPm7mm02i9SCz3UwBh3onctnHBU (Acesso em 14/06/2019).
No período, “É preciso se perguntar aonde você quer chegar, em vez de se limitar a analisar de onde você vem”, é INCORRETO afirmar que:
 

Provas

Questão presente nas seguintes provas
1705267 Ano: 2019
Disciplina: Veterinária
Banca: UFPI
Orgão: UFPI
Doença gástrica normalmente resulta de inflamação, ulceração, neoplasia ou obstrução e se manifesta clinicamente como vômito, hematêmese, melena, hipersalivação, dor abdominal e perda de peso, tendo variável etiologia. Em algumas ocasiões, faz-se necessário o tratamento utilizando a inibição farmacológica da secreção ácida. Quanto à terapia antiácida, assinale a opção CORRETA.
 

Provas

Questão presente nas seguintes provas
1682857 Ano: 2019
Disciplina: Veterinária
Banca: UFPI
Orgão: UFPI
O botulismo pode ocasionar uma doença neuromuscular sendo causado pela toxina da bactéria Clostridium botulinum. Clinicamente pode desencadear um quadro de tetraplegia flácida de rápida evolução em cães. No Brasil, no diagnóstico diferencial do botulismo, uma importante causa de tetraplegia flácida é:
 

Provas

Questão presente nas seguintes provas
1665509 Ano: 2019
Disciplina: Veterinária
Banca: UFPI
Orgão: UFPI
Durante o exame neurológico de um cão, foram observados: nível de consciência alerta, ausência de alterações em nervos cranianos, reações posturais ausentes nos membros torácicos e pélvicos com hiperreflexia nos quatro membros, evidenciando sinais de neurônio motor superior nos membros torácicos e pélvicos. De acordo a esses achados, a localização da lesão caracterize a seguinte síndrome neurológica:
 

Provas

Questão presente nas seguintes provas
1656910 Ano: 2019
Disciplina: Veterinária
Banca: UFPI
Orgão: UFPI
Os antibióticos são substâncias químicas produzidas por microrganismos, com a capacidade de destruir ou impedir o crescimento de microrganismos patogênicos. Estes fármacos podem ser considerados como bacteriostáticos e bactericidas. Com relação ao tema, assinale a opção CORRETA.
 

Provas

Questão presente nas seguintes provas