Foram encontradas 4.978 questões.
“Trata-se de um termo guarda-chuva que combina arquiteturas, ferramentas, bases de dados, ferramentas analíticas, aplicativos e metodologias. O principal objetivo consiste em permitir acesso interativo (de vez em quando em tempo real) a dados, possibilitando, também, a manipulação de dados e oferecendo a analistas e gestores empresariais a capacidade de condução de análises apropriadas”. As informações se referem ao(à):
Provas
Durante a implementação de um novo sistema de BI, a Hemobrás identificou que sua base de dados transacional possui diversas inconsistências, incluindo valores nulos para a quantidade de medicamentos distribuídos e registros duplicados de hospitais. Para garantir a qualidade dos dados antes de carregá-los em um data warehouse, a equipe de TI deve aplicar corretamente o processo de ETL. Qual das opções a seguir melhor descreve as etapas de extração, transformação e carga (ETL) necessárias para corrigir essas inconsistências antes da análise?
Provas
A Hemobrás deseja otimizar suas análises sobre o fornecimento de medicamentos derivados do sangue para hospitais atendidos pelo Sistema Único de Saúde (SUS). A equipe de TI precisa projetar um datamart para facilitar a geração de relatórios sobre a demanda de produtos. O objetivo é permitir consultas eficientes sobre o consumo de medicamentos por hospital, período e tipo de produto. Diante dessa necessidade, qual modelo de datamart é mais adequado para essa solução, considerando que a análise se baseia principalmente na quantidade de medicamentos distribuídos e suas características associadas?
Provas
Acerca de sensores, de processamento de imagens e de aprendizado de máquina, julgue os próximos itens.
A utilização de câmeras estéreo permite a estimativa de profundidade por meio do cálculo de disparidade entre as imagens capturadas por dois sensores.
Provas
A respeito de visão computacional com redes neurais convolucionais (CNN), de classificação de imagens e de processamento de linguagem natural (PLN), julgue os itens seguintes.
A operação de convolução nas CNN envolve a aplicação de filtros (kernels) sobre blocos da matriz de pixels de uma imagem de entrada. Cada filtro gera um mapa de características ao realizar operações que capturam padrões locais específicos, como bordas e texturas. Esse processo resulta em uma transformação que não preserva necessariamente a posição espacial das informações relevantes da imagem, mas é fundamental para a redução da dimensionalidade dos dados.
Provas
Acerca de sensores, de processamento de imagens e de aprendizado de máquina, julgue os próximos itens.
Em ambientes externos, sensores ultrassônicos possuem melhor precisão de medição de profundidade que sensores LiDAR.
Provas
Com relação a processos de banco de dados ETL (extração, transformação e carga), julgue os itens subsequentes.
Na modelagem de data warehouses, a abordagem top-down torna o processo ETL mais flexível e adaptável a mudanças nos requisitos de negócio, enquanto a abordagem bottom-up exige um ETL rígido e pouco adaptável a novas necessidades.
Provas
Acerca de inteligência artificial e machine learning, julgue os itens que se seguem.
Para avaliar o desempenho de um classificador em problemas de classificação com classes significativamente desbalanceadas, a métrica acurácia é a mais adequada, pois considera a proporção de previsões corretas em relação ao total de amostras.
Provas
O NDVI (ou índice de vegetação por diferença normalizada) permite identificar a presença de vegetação verde e caracterizar sua distribuição espacial, como também sua evolução no decorrer do tempo. Para calcular o NDVI, a linguagem Python é amplamente utilizada, devido à sua flexibilidade e às bibliotecas de processamento de dados geoespaciais disponíveis. A seguir, é apresentado um código em Python relativo ao cálculo do NDVI.
import numpy as np
import rasterio
def calcular_ndvi(arquivo_nir, arquivo_red, saida_ndvi):
with rasterio.open(arquivo_nir) as nir_src:
nir = nir_src.read(1).astype('float32')
perfil = nir_src.profile
with rasterio.open(arquivo_red) as red_src:
red = red_src.read(1).astype('float32')
ndvi = (nir - red) / (nir + red + 1e-10)
perfil.update(dtype=rasterio.float32, count=1)
with rasterio.open(saida_ndvi, 'w', **perfil) as dst:
dst.write(ndvi, 1)
print(f"NDVI calculado e salvo em: {saida_ndvi}") Com base no código precedente, julgue os itens a seguir.
Ao salvar a imagem resultante, o código preserva automaticamente a escala original dos valores de NDVI, sem precisar de ajustes adicionais.
Provas
O NDVI (ou índice de vegetação por diferença normalizada) permite identificar a presença de vegetação verde e caracterizar sua distribuição espacial, como também sua evolução no decorrer do tempo. Para calcular o NDVI, a linguagem Python é amplamente utilizada, devido à sua flexibilidade e às bibliotecas de processamento de dados geoespaciais disponíveis. A seguir, é apresentado um código em Python relativo ao cálculo do NDVI.
import numpy as np
import rasterio
def calcular_ndvi(arquivo_nir, arquivo_red, saida_ndvi):
with rasterio.open(arquivo_nir) as nir_src:
nir = nir_src.read(1).astype('float32')
perfil = nir_src.profile
with rasterio.open(arquivo_red) as red_src:
red = red_src.read(1).astype('float32')
ndvi = (nir - red) / (nir + red + 1e-10)
perfil.update(dtype=rasterio.float32, count=1)
with rasterio.open(saida_ndvi, 'w', **perfil) as dst:
dst.write(ndvi, 1)
print(f"NDVI calculado e salvo em: {saida_ndvi}") Com base no código precedente, julgue os itens a seguir.
A função calcular_ndvi recebe, como parâmetros obrigatórios, três arquivos; se um deles não for encontrado, o código gerará um erro, o que impedirá a continuidade da execução.
Provas
Caderno Container