Мы используем cookies («куки») и подобные им технологии для того, чтобы у Вас сложилось наилучшее впечатление о работе нашего сайта. Если Вы продолжаете использовать наш сайт, это означает, что Вы согласны с использованием cookies. Для получения дополнительной информации, пожалуйста, ознакомьтесь с нашими Политиками

Реестр отечественного ПО При поддержке НТИ

17 ноября 2020

Гиперпараметры: как перестать беспокоиться

Исследователь компании Антиплагиат проделал титанический, не побоимся этого слова, труд. Петр Остроухов решил развенчать миф о том, что машинное обучение — это легко и просто.

В результате получилась довольно интересная и познавательная статья на нашем корпоративном блоге Habr.com: «Гиперпараметры: как перестать беспокоиться и начать их оптимизировать».

В данной статье автор охарактеризовал процедуры GridSearch и RandomSearch, постарался привести интуитивное объяснение, как работают байесовские алгоритмы оптимизации гиперпараметров, а также протестировал несколько существующих фреймворков (hyperopt, scikit-optimize, optuna) на одной из задач NLP.

Петр указал все плюсы и минусы при разборе этих фреймворков и даже поделился кодом, выложив его на github. Пожалуйста, пользуйтесь! Мы рады помочь.

Из статьи вы узнаете:

  • Как процедуры RandomSearch и GridSearch дают существенный выигрыш во времени по сравнению с классикой?
  • Как работают алгоритмы оптимизации гиперпараметров?
  • Какие критерии используются в байесовской оптимизации и почему именно вероятностные «ведут себя лучше»?
  • И как так получилось, что почти все оптимизаторы приходят в одну и ту же точку, в которой accuracy на валидации является максимальным.

Итак, новая статья доступна на нашем корпоративном блоге на Habr.com. Приятного чтения!

Поделиться публикацией