Informática, perguntado por mauricioasjunior, 5 meses atrás

Assinale a alternativa que melhor define a função de ativação Relu?

a.
é um neurônio sigmóide.

b.
é um conjunto de neurônios interconectados.

c.
função de unidade linear retificada, que não necessariamente é uma função linear, ou seja, uma variação nos pesos ou BIAS pode ser propagada para neurônios em outras camadas e ativá-los ou não, dependendo da proximidade da saída estiver de zero, ela ativará ou não um determinado neurônio.

d.
é próxima de uma função sigmoide, porém suas saídas não tem apenas a variação de número entre 0 e 1, ela possui saídas reais entre -1 e 1.

e.
o neurônio Maxout generaliza a função ReLU e sua versão Leaky ReLyu

Soluções para a tarefa

Respondido por krendeuspadi
2

Resposta:

C.função de unidade linear retificada, que não necessariamente é uma função linear, ou seja, uma variação nos pesos ou BIAS pode ser propagada para neurônios em outras camadas e ativá-los ou não, dependendo da proximidade da saída estiver de zero, ela ativará ou não um determinado neurônio

Explicação:

Respondido por paulodanielaraujopd9
0

Resposta:

C

Explicação:

função de unidade linear retificada, que não necessariamente é uma função linear, ou seja, uma variação nos pesos ou BIAS pode ser propagada para neurônios em outras camadas e ativá-los ou não, dependendo da proximidade da saída estiver de zero, ela ativará ou não um determinado neurônio.

Perguntas interessantes