Foram encontradas 40 questões.
Você é um cientista de dados incumbido de desenvolver
uma aplicação de perguntas e respostas para facilitar a
extração de informações de documentos PDF contendo
artigos científicos na área da saúde. Para construir essa
aplicação, as seguintes estratégias foram apresentadas.
I. Utilizar a técnica de embeddings de texto para converter documentos PDF em vetores e armazená-los em um vectorstore, como ChromaDb ou Pinecone, permitindo buscas semânticas rápidas e eficientes baseadas no conteúdo dos artigos.
II. Desenvolver um sistema de indexação baseado em metadados extraídos dos documentos PDF, como autor, data de publicação e palavras-chave, para facilitar a filtragem e a busca por documentos específicos.
III. Implementar uma abordagem de processamento de linguagem natural (PLN) que empregue a API do modelo de linguagem para gerar respostas precisas às perguntas, utilizando os vetores e metadados armazenados para recuperar informações relevantes dos documentos e inseri-las no contexto do prompt.
IV. Realizar o fine-tuning do modelo de linguagem através de um dataset que contenha o conhecimento do domínio que se quer adicionar ao modelo, utilizando frameworks como LoRA ou QLoRA para fazer o merge desse dataset adicional treinado.
V. Criar uma hierarquia de documentos baseada na classificação dos artigos científicos por tópicos e subtópicos, utilizando algoritmos de clustering para organizar automaticamente os documentos em categorias relevantes.
Das estratégias acima:
I. Utilizar a técnica de embeddings de texto para converter documentos PDF em vetores e armazená-los em um vectorstore, como ChromaDb ou Pinecone, permitindo buscas semânticas rápidas e eficientes baseadas no conteúdo dos artigos.
II. Desenvolver um sistema de indexação baseado em metadados extraídos dos documentos PDF, como autor, data de publicação e palavras-chave, para facilitar a filtragem e a busca por documentos específicos.
III. Implementar uma abordagem de processamento de linguagem natural (PLN) que empregue a API do modelo de linguagem para gerar respostas precisas às perguntas, utilizando os vetores e metadados armazenados para recuperar informações relevantes dos documentos e inseri-las no contexto do prompt.
IV. Realizar o fine-tuning do modelo de linguagem através de um dataset que contenha o conhecimento do domínio que se quer adicionar ao modelo, utilizando frameworks como LoRA ou QLoRA para fazer o merge desse dataset adicional treinado.
V. Criar uma hierarquia de documentos baseada na classificação dos artigos científicos por tópicos e subtópicos, utilizando algoritmos de clustering para organizar automaticamente os documentos em categorias relevantes.
Das estratégias acima:
Provas
Questão presente nas seguintes provas
Acerca dos frameworks LangChain e Llamaindex, amplamente utilizados atualmente para construir aplicação
integradas a Large Language Models (LLMs), a opção que
apresenta uma observação correta é:
Provas
Questão presente nas seguintes provas
Ao integrar informações provenientes de fontes de
dados externas, como documentos ou bancos de dados,
com Large Language Models (LLMs), é possível empregar
uma variedade de técnicas e estratégias para construir
aplicações adaptadas às demandas específicas de cada
projeto e aos recursos disponíveis.
Das opções abaixo, a que descreve corretamente uma dessas técnicas é:
Das opções abaixo, a que descreve corretamente uma dessas técnicas é:
Provas
Questão presente nas seguintes provas
Considerando o avanço recente dos modelos de Processamento de Linguagem Natural (PLN) e a necessidade
crescente de processar e sumarizar grandes volumes de
documentos de forma eficiente, você foi encarregado de
desenvolver uma aplicação capaz de sumarizar automaticamente documentos clínicos, proporcionando aos
profissionais de saúde acessos mais rápidos e precisos às
informações relevantes dos pacientes. Um aspecto primordial no desenvolvimento de aplicações de sumarização é
a avaliação dos sumários gerados, na medida em que os
usuários passam a confiar nesses sumários para tomada
de decisão.
Sobre avaliação de sumários, a opção que NÃO apresenta um modelo adequado para esta tarefa é:
Sobre avaliação de sumários, a opção que NÃO apresenta um modelo adequado para esta tarefa é:
Provas
Questão presente nas seguintes provas
O uso de Large Language Models (LLMs) na área da
saúde, como GPT e BERT, oferece um vasto campo de
possibilidades para inovação. Atualmente, é possível criar
uma série de aplicações que fazem uso dessas LLMs,
variando desde melhorias da qualidade e acessibilidade
a conhecimentos até o apoio a novas pesquisas na área.
Entre as opções abaixo, aquela que apresenta uma iniciativa que NÃO pode ser baseada no uso de LLMs é:
Provas
Questão presente nas seguintes provas
A evolução das tecnologias de Inteligência Artificial,
especialmente no campo do Processamento de Linguagem
Natural (PLN), tem sido marcada por inovações significativas que transformaram a maneira como as máquinas entendem e geram linguagem humana. Uma dessas inovações
é a arquitetura de Transformers, introduzida pelo artigo
Attention is All You Need em 2017, superando as limitações
das abordagens anteriores baseadas em Redes Neurais
Recorrentes (RNNs) e tornando-se a base fundamental
para o surgimento dos Large Language Models (LLMs).
Sobre essa arquitetura, pode-se afirmar que:
Sobre essa arquitetura, pode-se afirmar que:
Provas
Questão presente nas seguintes provas
Você é um cientista de dados trabalhando em um projeto
de pesquisa em saúde que envolve a análise de relatórios
médicos utilizando técnicas de Processamento de Linguagem Natural (PLN). Parte do seu trabalho é explorar as
relações semânticas entre diferentes condições de saúde
utilizando um modelo pré-treinado de word embeddings em
português, focado na área da saúde. Você decide investigar
a relação entre diferentes doenças e tratamentos.
Seja o seguinte código Python, que utiliza a biblioteca gensim e um modelo hipotético de word embeddings denominado modelo_saude.bin especializado em termos médicos em português:
import numpy as np from gensim.models import KeyedVectors
def calcular_similaridade(vetor_a, vetor_b): numerador = np.dot(vetor_a, vetor_b) denominador = np.linalg.norm(vetor_a) *
np.linalg.norm(vetor_b) similaridade = numerador / denominador return similaridade
mo del = Ke yed Vectors. load_ word 2vec _ format(‘modelo_saude.bin’, binary=True) vetor_diabetes = model[‘diabetes’] vetor_hipertensao = model[‘hipertensão’] vetor_insulina = model[‘insulina’]
vetor_diabetes_ajustado = vetor_diabetes + vetor_insulina vetor_hipertensao_ajustado = vetor_hipertensao + vetor_insulina
similaridade = calcular_similaridade(vetor_ diabetes_ajustado, vetor_hipertensao_ajustado) print(f”Similaridade: {similaridade}”)
Utilizando o modelo hipotético model_saude.bin, o resultado mostrado pelo código foi de 0.7036085724830627. Baseado no cenário descrito, no código fornecido e no resultado mostrado, a opção que melhor descreve o que está sendo calculado e o significado do resultado é:
Seja o seguinte código Python, que utiliza a biblioteca gensim e um modelo hipotético de word embeddings denominado modelo_saude.bin especializado em termos médicos em português:
import numpy as np from gensim.models import KeyedVectors
def calcular_similaridade(vetor_a, vetor_b): numerador = np.dot(vetor_a, vetor_b) denominador = np.linalg.norm(vetor_a) *
np.linalg.norm(vetor_b) similaridade = numerador / denominador return similaridade
mo del = Ke yed Vectors. load_ word 2vec _ format(‘modelo_saude.bin’, binary=True) vetor_diabetes = model[‘diabetes’] vetor_hipertensao = model[‘hipertensão’] vetor_insulina = model[‘insulina’]
vetor_diabetes_ajustado = vetor_diabetes + vetor_insulina vetor_hipertensao_ajustado = vetor_hipertensao + vetor_insulina
similaridade = calcular_similaridade(vetor_ diabetes_ajustado, vetor_hipertensao_ajustado) print(f”Similaridade: {similaridade}”)
Utilizando o modelo hipotético model_saude.bin, o resultado mostrado pelo código foi de 0.7036085724830627. Baseado no cenário descrito, no código fornecido e no resultado mostrado, a opção que melhor descreve o que está sendo calculado e o significado do resultado é:
Provas
Questão presente nas seguintes provas
Entre as observações abaixo sobre a técnica de Word
Embeddings e sua importância em modelos de Processamento de Linguagem Natural (PLN), a que está correta é:
Provas
Questão presente nas seguintes provas
Observe o código Python abaixo, que utiliza a biblioteca NLTK para tarefas de Processamento de Linguagem
Natural.
import nltk nltk.download(‘punkt’) from nltk.tokenize import word_tokenize
texto = “Fundação Oswaldo Cruz (Fiocruz): Ciência e tecnologia em saúde para a população brasileira.” tokens = word_tokenize(texto)
contador = 0 resultado = 0 while contador < len(tokens): for letra in tokens[contador]: if letra.upper() in ‘FIOCRUZ’: resultado += 1 contador += 1
O valor da variável resultado, ao final da execução do código, é:
import nltk nltk.download(‘punkt’) from nltk.tokenize import word_tokenize
texto = “Fundação Oswaldo Cruz (Fiocruz): Ciência e tecnologia em saúde para a população brasileira.” tokens = word_tokenize(texto)
contador = 0 resultado = 0 while contador < len(tokens): for letra in tokens[contador]: if letra.upper() in ‘FIOCRUZ’: resultado += 1 contador += 1
O valor da variável resultado, ao final da execução do código, é:
Provas
Questão presente nas seguintes provas
O Processamento de Linguagem Natural (PLN) busca
melhorar a capacidade das máquinas de entender e interagir com a linguagem humana de forma natural e semanticamente adequada. Ao longo dos anos, a evolução
dos modelos de Machine Learning tem desempenhado um
papel fundamental nesse processo, permitindo avanços
significativos em tarefas como tradução automática, análise
de sentimentos e assistentes virtuais. Esses modelos dependem de uma série de técnicas de pré-processamento
para transformar texto bruto em formas que possam ser
eficientemente analisadas e compreendidas. Numere a
2ª coluna pela primeira, considerando as técnicas e as
respectivas definições.
COLUNA 1
(1) Tokenização, (2) POS Tagging, (3) Stemização, (4) Lematização e (5) Chunking.
COLUNA 2
( ) Técnica que transforma uma palavra para sua forma de dicionário, considerando o contexto, a classe gramatical e outras características linguísticas.
( ) Trata de dividir o texto em unidades menores, como palavras ou partes de palavras, transformando o texto bruto e preparando-o para ser manipulado por algoritmos de PLN.
( ) Refere-se a reduzir as palavras para suas formas radicais, facilitando a análise de padrões comuns em diferentes variações da mesma palavra.
( ) Técnica de atribuir a cada palavra em um texto a sua classe morfossintática, como substantivos, verbos, adjetivos, etc.
( ) Trata de dividir um texto em segmentos mais curtos, como conjuntos de palavras ou seções de um texto, que serão tratados separadamente em processos posteriores como, por exemplo, vetorização.
A sequência correta, de cima para baixo, é:
COLUNA 1
(1) Tokenização, (2) POS Tagging, (3) Stemização, (4) Lematização e (5) Chunking.
COLUNA 2
( ) Técnica que transforma uma palavra para sua forma de dicionário, considerando o contexto, a classe gramatical e outras características linguísticas.
( ) Trata de dividir o texto em unidades menores, como palavras ou partes de palavras, transformando o texto bruto e preparando-o para ser manipulado por algoritmos de PLN.
( ) Refere-se a reduzir as palavras para suas formas radicais, facilitando a análise de padrões comuns em diferentes variações da mesma palavra.
( ) Técnica de atribuir a cada palavra em um texto a sua classe morfossintática, como substantivos, verbos, adjetivos, etc.
( ) Trata de dividir um texto em segmentos mais curtos, como conjuntos de palavras ou seções de um texto, que serão tratados separadamente em processos posteriores como, por exemplo, vetorização.
A sequência correta, de cima para baixo, é:
Provas
Questão presente nas seguintes provas
Cadernos
Caderno Container