. Выпрямленная линейная единица (ReLU): Функция ReLU — популярная функция активации, используемая в скрытых слоях нейронных сетей. Он выводит входное значение, если оно положительное, и 0 в противном случае. Математически функция ReLU определяется как:
f (x) = max (0, x)
ReLU привносит в сеть разреженность и нелинейность, помогая ей изучать и представлять сложные функции в данных.