Foram encontradas 100 questões.
Sistemas Gerenciadores de Bancos de Dados, SGBD, via de regra, permitem acesso às suas funcionalidades por meio de interfaces interativas e, também, por meio de programas de apoio ou comandos específicos. O SGBD PostgreSQL possui um conjunto de programas de apoio. O programa a ser utilizado para realizar o backup de um banco de dados ou de um esquema, no PostgreSQL, é o pg_dump.
Nesse contexto, considere o seguinte comando:
pg_dump -a -Fp Alfa > Beta
Esse comando gera um backup
Provas
Nas últimas décadas, a automatização e a inserção de máquinas agrícolas transformaram profundamente o panorama do trabalho nas áreas rurais [...] e, em menos de 50 anos, a produtividade do agronegócio brasileiro aumentou 400%. [...]
Esses resultados vieram com a adoção da tecnologia nos processos cotidianos, e também com o investimento em pesquisas [...]. Agora, o agronegócio pode estar diante de um novo salto de produtividade; big data e machine learning são ferramentas que estão ganhando espaço e que podem, novamente, transformar o cenário do campo.
Disponível em: https://summitagro.estadao.com.br/tendencias-e- -tecnologia/como-big-data-e-machine-learning-sao-aplicados-no- -agronegocio/. Acesso em: 5 jan. 2024. Adaptado.
A utilização da plataforma paralela de processamento MapReduce aplica-se adequadamente como um framework de processamento de Big Data, visando à escalabilidade para as aplicações.
Nesse contexto, uma característica inerente à MapReduce é a
Provas
- Banco de Dados DistribuídoFragmentação de Dados (Horizontal e Vertical)
- Banco de Dados DistribuídoReplicação de Dados
Sistemas de bancos de dados apresentam benefícios e desafios potencializados quando é possível adotar uma solução de gerência distribuída, coordenada por um sistema de banco de dados distribuído.
Nesse contexto, uma importante questão de projeto refere- se à
Provas
Disciplina: TI - Organização e Arquitetura dos Computadores
Banca: CESGRANRIO
Orgão: IPEA
O Banco Nossa Caixa é o primeiro banco do hemisfério sul a implantar o GDPS (Processamento Paralelo em Locais Geograficamente Distantes, na sigla em inglês), sistema que processa, simultaneamente, todos os dados da instituição em dois locais fisicamente separados. A tecnologia garante o armazenamento e a continuidade do funcionamento de todos os canais de atendimento e de negócios do banco, ainda que a operação de um dos equipamentos responsáveis por essas funções seja interrompida por um blecaute ou incêndio, por exemplo. O banco investiu R$ 80 milhões no projeto, que levou quatro anos desde a concepção até a implantação.
Do Banco Nossa Caixa Disponível em: https://www.saopaulo.sp.gov.br/ultimas-noticias/ nossa-caixa-usa-sistema-pioneiro-de-processamento-de-dados/. Acesso em: 5 jan. 2024.
No modelo de arquitetura Massively Parallel Processor, MPP, extensibilidade e escalabilidade são características comuns e vantajosas no armazenamento e no processamento de dados paralelos. Nesse contexto, qual modelo de processamento se enquadra à arquitetura MPP?
Provas
Apesar de existirem diversas aplicações reais em que há necessidade de ingestão periódica de dados, em algumas a ingestão em lote pode não ser vantajosa, como, por exemplo, em
Provas
Para melhorar o processamento de grandes volumes de dados através de computação paralela ou distribuída, pode-se utilizar sharding, técnica que divide os dados em partes menores, chamadas shards. Essas partes são normalmente armazenadas em diferentes nós, ou sítios, de processamento em um sistema distribuído.
O sharding é necessário para garantir a
Provas
Existem várias abordagens para a ingestão de dados, sendo cada uma delas adequada para determinado tipo de necessidade e de cenário.
No caso da ingestão de dados em tempo real, streaming, os dados são
Provas
O Ecossistema Spark tem componentes que oferecem funcionalidades específicas que o tornam uma ferramenta versátil e eficiente para o processamento de grandes volumes de dados, a análise em tempo real, o aprendizado de máquina e muito mais. Essa integração e flexibilidade são algumas das razões pelas quais o Spark se tornou uma ferramenta amplamente utilizada em aplicações de Big Data. Os componentes da Plataforma Spark pertencem a dois grupos principais: os componentes básicos e os componentes especializados, que provêm funcionalidades mais avançadas. Dentre os componentes básicos, podemos destacar o Spark Core, também conhecido como “coração” do Ecossistema, e que é responsável pelas tarefas consideradas essenciais.
O componente Spark Core
Provas
No contexto da ciência de dados em cloud computing, e considerando-se as soluções de Plataforma como Serviço (PaaS), as de Infraestrutura como Serviço (IaaS) e as de Software como Serviço (SaaS), constata-se que
Provas
O processo de ingestão de dados é normalmente dividido em três etapas principais:
1 - Extração, ou coleta, de dados das fontes disponíveis;
2 - Transformação dos dados coletados para que atendam às necessidades específicas de processamento e análise; e
3 - Carga dos dados em algum repositório de destino, como um banco de dados relacional ou um data lake. Essas três etapas podem variar dependendo de os dados serem estruturados ou não.
Nesse contexto, verifica-se que, na etapa de
Provas
Caderno Container