Assinale a alternativa que melhor define a função de ativação Relu?
a.
é um neurônio sigmóide.
b.
é um conjunto de neurônios interconectados.
c.
função de unidade linear retificada, que não necessariamente é uma função linear, ou seja, uma variação nos pesos ou BIAS pode ser propagada para neurônios em outras camadas e ativá-los ou não, dependendo da proximidade da saída estiver de zero, ela ativará ou não um determinado neurônio.
d.
é próxima de uma função sigmoide, porém suas saídas não tem apenas a variação de número entre 0 e 1, ela possui saídas reais entre -1 e 1.
e.
o neurônio Maxout generaliza a função ReLU e sua versão Leaky ReLyu
Soluções para a tarefa
Respondido por
2
Resposta:
C.função de unidade linear retificada, que não necessariamente é uma função linear, ou seja, uma variação nos pesos ou BIAS pode ser propagada para neurônios em outras camadas e ativá-los ou não, dependendo da proximidade da saída estiver de zero, ela ativará ou não um determinado neurônio
Explicação:
Respondido por
0
Resposta:
C
Explicação:
função de unidade linear retificada, que não necessariamente é uma função linear, ou seja, uma variação nos pesos ou BIAS pode ser propagada para neurônios em outras camadas e ativá-los ou não, dependendo da proximidade da saída estiver de zero, ela ativará ou não um determinado neurônio.
Perguntas interessantes
Geografia,
4 meses atrás
Matemática,
4 meses atrás
Filosofia,
4 meses atrás
Matemática,
5 meses atrás
História,
5 meses atrás
Ed. Física,
10 meses atrás
História,
10 meses atrás