Python: Функции активации, критерии качества работы НС | #6 нейросети на Python - видео HD

Python: Функции активации, критерии качества работы НС | #6 нейросети на Python - видео
00:19:13
Обнаружено блокирование рекламы на сайте

Для существования нашего сайта необходим показ рекламы. Просим отнестись с пониманием и добавить сайт в список исключений вашей программы для блокировки рекламы (AdBlock и другие).

12n.ru 18057 роликов

Функции активации, критерии качества работы НС | #6 нейросети на Python - видео.

Рекомендации по выбору функций активации для сетей с малым и большим числом слоев, а также для решения задач линейной регрессии и классификации. Рассматриваются функции: гиперболический тангенс, сигмоида, ReLu, softmax, linear.Рекомендации по выбору критериев качества при обучении нейронных сетей: хиндж (hinge), бинарная кросс-энтропия (binary crossentropy), категориальная кросс-энтропия (categorical crossentropy), logcosh, средний квадрат ошибок (mean squared error), средний модуль ошибок (mean absolute error), средний абсолютный процент ошибок (mean absolute percentage error), средний квадрат логарифмических ошибок (mean squared logarithmic error).
RSS
Сергей Дубинин
00:10
+3
Огромное спасибо за видео. Отдельное спасибо за подкрепление материала математическими формулами. Пересмотрел десятки часов видео, везде достаточно абстрактно объясняли почему применяют функцию активации ReLu или softmax, а чаще всего вообще не объясняли. Благодаря Вам стало намного понятнее.
No Name
22:02
продолжай пожалуйста
Zoe Petrovskaya
22:24
в формуле среднего абсолютного процента ошибок max(|yi|, эпсилон), эпсилон — это погрешность?
Dmitry Mitrofanov
23:46
+1
продолжай пожалуйста