У каждого наступает момент, когда нужно быстро освежить в памяти огромный пласт информации по всему ML. Причины разные - подготовка к собеседованию, начало преподавания или просто найти вдохновение.Времени мало, объема много, цели амбициозные - нужно научиться легко и быстро…
В этой статье я расскажу, что такое inductive bias, зачем он нужен и где встречается в машинном обучении. Спойлер: везде. Любая нейросеть имеет inductive bias (даже та, что в человеческом мозге, хе-хе)Также вы узнаете:- почему inductive bias — это очень хорошо- способы внедрить inductive bias в модели машинного обучения- какой inductive bias в сверточных нейросетях и как успех архитектуры Image Transformer связан с inductive bias Ну что, поехали:
Про SVD разложение и PCA. Решение задачи восстановления user-item matrix с помощью stochastic gradient descent. Читать далее
Иллюстрация из работы Г.М. Адельсон-Вельского и Е.М. Ландиса 1962 года Деревья поиска — это структуры данных для упорядоченного хранения и простого поиска элементов. Широко применяются двоичные деревья поиска, в которых у каждого узла есть только два потомка. В этой статье рассмотрим два метода организации двоичных деревьев поиска: алгоритм Адельсон-Вельского и Ландиса (АВЛ-деревья) и ослабленные АВЛ-деревья (WAVL-деревья). Читать дальше →