Foram encontradas 5.012 questões.
Disciplina: TI - Ciência de Dados e BI
Banca: FGV
Orgão: Pref. São José Campos-SP
( ) Existem diversas tecnologias para processamento e análise de Big Data, mas a maioria possui algumas características comuns. Ou seja, adotam técnicas de escalonamento e processamento paralelo; utilizam dados não relacionais, e aplicam análises avançadas e visualização de dados.
( ) Existem três tecnologias de Big Data que se destacam: MapReduce, Hadoop e NoSQL. O Hadoop é uma técnica popularizada pelo Google que distribui o processamento de dados em grandes arquivos de dados multiestruturados em um grande cluster que pode ser alcançado dividindo o processamento em pequenas unidades de trabalho que podem ser executadas em paralelo.
( ) O MapReduce é um modelo de programação e uma implementação associada para processar e gerar grandes conjuntos de dados. Os programas escritos neste estilo funcional são automaticamente paralelizados e executados em um grande cluster de máquinas de alto desempenho. O modelo que programadores sem qualquer experiência com sistemas paralelos e distribuídos utilizem facilmente os recursos.
As afirmativas são, respectivamente,
Provas
Disciplina: TI - Ciência de Dados e BI
Banca: FGV
Orgão: Pref. São José Campos-SP
Relacione as características de um data warehouse listadas a seguir com suas descrições, conforme estabelecido por William Inmon.
1. Orientados a Assunto.
2. Integração.
3. Não Volátil.
4. Variante no Tempo.
( ) O foco de um data warehouse na mudança ao longo do tempo é essencial para descobrir tendências e identificar padrões e relacionamentos ocultos nos negócios, para isso os analistas precisam de grandes quantidades de dados. Isso contrasta muito com o processamento de transações on-line onde os requisitos de desempenho exigem que os dados históricos sejam movidos para arquivos.
( ) Os data warehouses devem colocar dados de fontes diferentes em um formato consistente. Eles devem resolver problemas como nomear conflitos e inconsistências entre unidades de medida.
( ) Significa que, uma vez inseridos no data warehouse, os dados não devem mudar. Essa característica é lógica porque o propósito de um data warehouse é permitir que um analista analise o que ocorreu no passado.
( ) Os data warehouses são projetados para ajudar os profissionais a analisar grandes volumes de dados. Por exemplo, para saber mais sobre os dados de vendas de uma empresa, o analista pode construir um data warehouse que concentre a venda. Usando esse data warehouse, ele poderá responder perguntas como "Quem foi nosso melhor cliente para este item no ano passado?" ou "Quem provavelmente será nosso melhor cliente no próximo ano?"
A relação correta, na ordem dada, é:
Provas
Mineração de dados(Data Mining) pode ser definido como o processo de analisar bases de dados de grande porte, a fim de descobrir informações por meio de consultas. Tendo em vista as fases do processo de KDD (Knowlegde Discovery in Databases, descoberta de conhecimento nos bancos de dados) utilizado em Data Mining, marque V para as afirmativas verdadeiras e F para as falsas.
( ) Mineração de dados: fase responsável pela escolha dos algoritmos a serem aplicados para a descoberta de informações. Essa escolha depende fundamentalmente dos objetivos do processo de KDD.
( ) Preparação dos dados: nessa fase, os dados necessários para a solução de um problema são selecionados na base de dados. Essa etapa inicia-se a partir do agrupamento organizado de uma grande quantidade de dados de uma ou mais bases de dados, selecionando somente aqueles que são relevantes.
( ) Limpeza dos dados: essa fase consome grande parte do esforço necessário para todo o processo devido à dificuldade de integrar bases de dados heterogêneas.
( ) Interpretação: ao final do processo, o sistema de mineração de dados gera um relatório das descobertas, que passa então a ser interpretado por analistas de mineração. Somente após essa interpretação obtém-se o conhecimento.
A sequência está correta em
Provas
Machine learning (aprendizado de máquinas) é uma área da inteligência artificial que objetiva desenvolver algoritmos e modelos computacionais capazes de aprender e aprimorar seu desempenho por meio da experiência com dados. Esses sistemas utilizam técnicas estatísticas e de análise de dados para identificar padrões, tomar decisões e fazer previsões; a essência do aprendizado de máquina é permitir que elas se adaptem e evoluam com base em informações e experiências passadas, tornando-se capazes de realizar tarefas específicas de forma mais eficaz e precisa. NÃO é um tipo comumente reconhecido de aprendizado de máquina o aprendizado
Provas
Sobre os tópicos relacionados à tecnologia e informação com suas respectivas categorias de armazenamento e análise de dados, relacione adequadamente as colunas a seguir.
1. Data Warehouse.
2. Data Mart.
3. Data Lake.
4. Big Data.
5. Business Intelligence e Analytics.
6. Mineração de Dados.
( ) Ambiente de armazenamento de dados centralizado que integra informações de várias fontes para suportar a análise de negócios.
( ) Conjunto de ferramentas, técnicas e processos para coletar, organizar e analisar informações para fins estratégicos.
( ) Subconjunto de um Data Warehouse, geralmente focado em um único departamento ou área de negócios.
( ) Processo de descoberta de padrões, tendências e informações úteis em conjuntos de dados.
( ) Abordagem flexível e escalável para armazenar grandes volumes de dados de diferentes tipos.
( ) Conjuntos de dados extremamente grandes e complexos, muitas vezes além da capacidade de ferramentas de processamento de dados tradicionais.
A sequência está correta em
Provas
Disciplina: TI - Ciência de Dados e BI
Banca: DECORP
Orgão: Pref. Feijó-AC
Provas
A respeito das linguagens de programação Python e R, julgue o item subsecutivo.
Todos os seguintes trechos retornam de um dicionário igual a {'domingo': 1, 'segunda': 2, 'terça': 3}. Portanto, o resultado de a == b == c == d == e == f será igual a True.
a = dict(domingo=1, segunda=2, terça=3)
b = {'domingo': 1, 'segunda': 2, 'terça': 3}
c = dict(zip(['domingo', 'segunda', 'terça'], [1, 2, 3]))
d = dict([('segunda', 2), ('domingo', 1), ('terça', 3)])
e = dict({'terça': 3, 'domingo': 1, 'segunda': 2})
f = dict({'domingo': 1, 'terça': 3}, segunda=2)
a == b == c == d == e == f
Provas
A respeito de análise exploratória de dados, julgue o item a seguir.
Na etapa de pré-processamento de dados, a discretização envolve o ranqueamento estatístico dos dados, dividindo-os em faixas ou intervalos e agrupando-os em classes definidas com base em suas características intrínsecas.
Provas
Acerca de Big data, bancos de dados distribuídos e soluções de suporte à decisão, julgue o item seguinte.
As APIs REST do serviço web Hadoop HDFS oferecem acesso ao cluster, às aplicações e a outros recursos relacionados ao gerenciamento de recursos e execução de aplicativos no ambiente do Hadoop YARN.
Provas
Acerca de Big data, bancos de dados distribuídos e soluções de suporte à decisão, julgue o item seguinte.
No processo ETL (extract, transform e load), a transformação dos dados brutos ocorre na fase de preparação para adequá-los ao esquema do data warehouse de destino e garantir a qualidade e a acessibilidade dos dados.
Provas
Caderno Container