Uma Rede Neural Artificial (RNA) feed-forward sem nenhum bias possui uma camada oculta composta de três neurônios e uma camada de saída composta por dois neurônios. A função de ativação da camada oculta e da camada de saída é a Rectified Linear Unit (ReLU), onde
!$ f(x) = \left \{ \begin{matrix} x, se & x \ge 0 \\ 0, se & x<0 \end{matrix} \right. !$
e as matrizes
!$ W !$1 = !$ \begin{bmatrix} 0,1 & -0,2 \\ 0,4 & 0 \\ 0 & 0,2 \end{bmatrix} !$ e !$ W !$2 =!$ \begin{bmatrix} 0,3 & -0,5 & 0,1 \\ 0 & 0,2 & -0,1 \end{bmatrix} !$
representam os pesos entre a camada de entrada e a camada oculta e entre a camada oculta e a camada de saída, respectivamente.
Considerando um vetor de entrada !$ X !$ = !$ \begin{bmatrix} 1 \\ 2 \end{bmatrix} !$, o vetor de saída será: