Foram encontradas 4.977 questões.
Modelos multidimensionais de dados são utilizados em ambiente de data warehouse, sendo que o modelo multidimensional básico, composto por uma tabela fato e várias tabelas dimensão, tem como uma de suas características:
Provas
Considerando as ações executadas no processo ETL, visando a montagem de um ambiente de data warehouse, é correto afirmar que a sequência de ações implicada por esse processo tem como uma de suas funções
Provas
A respeito da técnica de Data Mining, utilizada em bancos de dados, é correto afirmar que
Provas
Durante o desenvolvimento de um sistema preditivo para auxiliar na gestão de processos judiciais em um Tribunal do Trabalho, uma equipe de analistas treinou dois modelos distintos para resolver problemas diferentes:
• O modelo A prevê se um processo será encerrado em até 6 meses (1) ou não (0), com base em dados como tipo de ação, número de audiências e histórico de partes envolvidas.
• O modelo B estima o número de dias até o encerramento do processo, utilizando variáveis como a vara do trabalho, grau de complexidade e duração média de tramitação por tipo de causa.
Após o treinamento, os seguintes resultados foram obtidos:
• O modelo A apresentou alta acurácia (92%), mas AUC-ROC de 0.61.
• O modelo B apresentou R2 de 0.83 no treino e 0.42 no teste, além de MAE (Mean Absolute Error) de 120 dias.
Com base nos resultados e considerando as boas práticas de avaliação preditiva quanto à qualidade e confiabilidade,
Provas
- Inteligência ArtificialMachine LearningAlgoritmosRandom Forests
- ProgramaçãoPythonPandas
- ProgramaçãoPythonScikit-learn (Sklearn)
Em um projeto de análise preditiva no âmbito de um Tribunal do Trabalho, foi desenvolvido o código abaixo em Python para prever se UM processo será encerrado em até 6 meses (1) ou não (0), com base em atributos como número de audiências, tipo de ação e complexidade processual. Considere que este código será executado em condições ideais.
import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.ensemble import RandomForestClassifier
# Dataset com colunas como 'audiencias', 'tipo_acao', 'complexidade', 'encerramento_6m'
dados = pd.read_csv("processos.csv")
X = dados.drop("encerramento_6m", axis=1)
y = dados["encerramento_6m"]
X_train,X_test,y_train,y_test = train_test_split(X,y,test_size=0.3, random_state=42)
modelo = RandomForestClassifier()
modelo.fit(X_train, y_train)
print(modelo.score(X_test, y_test))
Ao observar o código e os recursos de aprendizado de máquina utilizados, uma Analista afirmou que
Provas
Em relação aos Vs do Big Data,
Provas
Um Analista de Sistemas de um órgão do poder judiciário está implantando uma solução de monitoramento e auditoria dos acessos ao sistema de tramitação de inquéritos. A equipe técnica decidiu utilizar o conjunto ELK (Elasticsearch, Logstash e Kibana) para centralizar os logs de acesso, detectar padrões de uso suspeitos e produzir dashboards com métricas de acesso em tempo real.
As fontes de dados incluem arquivos de log em servidores, registros de firewall e notificações de API, Cada linha de log contém carimbos de tempo, IPs, tipo de operação, usuário, e o resultado da ação.
Durante a configuração, o Analista precisa:
- Ingerir dados brutos de múltiplas fontes.
- Estruturar, transformar e enriquecer os dados.
- Indexar os dados de forma pesquisável.
- Visualizar padrões de acesso, falhas e comportamentos atípicos.
Com base nessa situação, reflete corretamente o papel e funcionamento das ferramentas da ELK Stack nesse contexto,
Provas
Uma Analista de um Tribunal Regional do Trabalho está conduzindo um diagnóstico demográfico de trabalhadores de diversos setores. Ela possui o arquivo trabalhadores.csv, que contém as colunas nome, idade, ocupação e salario. Antes de calcular a média de idade, a Analista precisa garantir que:
- Todos os registros com idade nula ou negativa sejam desconsiderados do cálculo;
- Apenas trabalhadores cuja ocupação seja diferente de “Estagiário” sejam considerados;
- A média de idade seja calculada com base nesse conjunto de dados filtrado.
Ela inicia o trabalho com o código Python abaixo.
import pandas as pd df = pd.read_csv('trabalhadores.csv') df_filtrado = __I__ media_idade = __II__ print (media_idade)
Considerando as condições estabelecidas e o uso adequado das ferramentas da biblioteca Pandas em condições ideais, as lacunas I e II devem ser preenchidas, correta e respectivamente, com:
Provas
Provas
Julgue os itens a seguir, relativos à inteligência artificial (IA).
Deepfakes são vídeos gerados por IA para produzir conteúdo altamente realista e podem ser criados por meio de rede adversária generativa (GAN), a qual corresponde a uma arquitetura de aprendizado profundo que treina duas redes neurais para competirem entre si.
Provas
Caderno Container