Magna Concursos
3076579 Ano: 2024
Disciplina: TI - Ciência de Dados e BI
Banca: CESGRANRIO
Orgão: IPEA

Na arquitetura de redes neurais, diferentes funções de ativação são utilizadas nas camadas de neurônios para aplicar transformações não lineares aos dados. Uma dessas funções é a ReLU, conhecida por sua eficácia em diversos modelos de aprendizado profundo.

Ao implementar a função ReLU, um pesquisador deve seguir a fórmula:

 

Provas

Questão presente nas seguintes provas