На днях ученые из MIT показали альтернативу многослойному перцептрону (MLP). MLP с самого момента изобретения глубокого обучения лежит в основе всех нейросетей, какими мы их знаем сегодня. На его идее в том числе построены большие языковые модели и системы компьютерного зрения. Однако теперь все может измениться. В KAN (Kolmogorov-Arnold Networks) исследователи реализовали перемещение функций активации с нейронов на ребра нейросети, и такой подход показал блестящие результаты. Читать далее
Встретив статьи (1, 2, 3, 4) про новую архитектуру KAN (Kolmogorov‑Arnold Networks) мне захотелось её опробовать для классификации данных ЭЭГ т. к. KAN может быть эффективен для моделирования сложных нелинейных зависимостей.Сразу оговорюсь, что из‑за ограниченного количества…
Это полный перевод второй статьи на тему нейронных сетей на основе алгоритма Колмогорова-Арнольда (KAN), опубликованной в августе 2024 года. В этой работе исследователи продолжают развивать тему KAN, раскрывают ее связь с наукой, а также приводят некоторые практические советы по использованию библиотеки pykan, написанной на python, в которой реализован алгоритм KAN. Перевод первой статьи размещен по адресу https://habr.com/ru/articles/856776/. Читать далее
В апреле практиками-исследователями и математики анонсировали новую архитектуру нейросетей. Крупного резонанса открытие не принесло, хотя с нашей точки зрения, KAN может претендовать на интересную технологию Важнее, что это не просто новая вариация трансформера или…