Foram encontradas 840 questões.
Os processos ELT (Extract, Load, Transform) e ETL (Extract,
Transform, Load) lidam com tratamento de dados através da
integração de dados de diversas fontes. Sobre os processos ELT
e ETL, assinale a afirmativa correta.
Provas
Questão presente nas seguintes provas
Considerando Data Lake, que geralmente é o armazenamento
único de todos os dados corporativos, incluindo cópias brutas
de dados do sistema de origem, assinale a afirmativa correta.
Provas
Questão presente nas seguintes provas
O Big Data, na sua grande maioria, é um conjunto de dados
que a cada milésimo de segundo são inseridos novos; assim
sendo, o mundo atual dos dados digitalizados contém uma inimaginável quantidade de informações, base que está em crescimento permanentemente. A característica do Big Data, que
faz parte dos 3 Vs e que está relacionada à dinâmica de crescimento e processamento de dados e à necessidade de respostas em um curto prazo ou em tempo real, é:
Provas
Questão presente nas seguintes provas
Pentaho Data Integration (PDI), também conhecido por Kettle
(Kettle Extraction, Transport, Transformation and Loading Environment), é o conjunto de ferramentas open source responsável pelos processos de ETL da Pentaho Business Intelligence
Suite. No PDI, os componentes de ligação entre os steps que
definem a direção da execução da transformação são conhecidos como:
Provas
Questão presente nas seguintes provas
A deduplicação objetiva identificar e combinar registros que
representam a mesma entidade no mundo real. A etapa da deduplicação que tem por objetivo agregar registros que apresentam semelhança, reduzindo o domínio de pares a serem
comparados nas etapas posteriores é:
Provas
Questão presente nas seguintes provas
Dados massivos são grandes grupos de dados que podem ser
capturados, comunicados, agregados, armazenados e analisados. Uma das plataformas de processamento de dados massivos mais conhecidas é o Apache Hadoop. Sobre tal plataforma,
assinale a afirmativa correta.
Provas
Questão presente nas seguintes provas
O CDC (Change Data Capture) é uma forma viável de atualizar
informações em um Data Warehouse com pouca latência porque fornece um mecanismo de simples implementação para o
rastreamento dos dados, trabalha de forma assíncrona e causa
um baixo impacto no servidor transacional. A metodologia utilizada para construir um CDC, que consiste em executar consultas ciclicamente para capturar e identificar as mudanças realizadas, sendo necessário, adicionalmente, utilizar algumas
propriedades nas tabelas como, por exemplo, possuir uma coluna chamada “última atualização” ou um inteiro crescente
como chave primária, denomina-se:
Provas
Questão presente nas seguintes provas
A legislação brasileira criou mecanismos para coibir e prevenir a violência doméstica e familiar contra a mulher. Considerando o disposto na Lei Maria da Penha, assinale a afirmativa correta.
Provas
Questão presente nas seguintes provas
Sobre a Nova Lei de Abuso de Autoridade – Lei nº 13.869,
de 5 de setembro de 2019, assinale a afirmativa INCORRETA.
Provas
Questão presente nas seguintes provas
- Código PenalCrimes Contra a Fé PúblicaFalsidade DocumentalFalsificação de Documento Público (art. 297)
- Código PenalCrimes Contra a Fé PúblicaFalsidade DocumentalFalsidade Ideológica (art. 299 do CP)
- Código PenalCrimes Contra a Fé PúblicaFalsidade DocumentalUso de Documento Falso (art. 304)
O agente que omitir, em documento público, declaração que
dele devia constar, ou nele inserir ou fazer inserir declaração
falsa ou diversa da que devia ser escrita, com o fim de prejudicar direito, criar obrigação ou alterar a verdade sobre fato
juridicamente relevante, pratica o crime de:
Provas
Questão presente nas seguintes provas
Cadernos
Caderno Container