главная новое лучшее написать
3

В среде ML'щиков прямо захайпились сети Колмогорова-Арнольда - https://arxiv.org/abs/2404.19756
А насколько по вашему безумная идея попробовать другие варианты апроксимации функций на рёбрах сети. Математически базис рядов Фурье вроде как лучше должен на эту задачу ложиться, нежели сплайны.

2 finder 03-05-2024

Вот тут чувак попробовал как раз ряды Фурье https://news.ycombinator.com/item?id=40222212

В целом насчет хайпа вокруг KAN даже не знаю, статья выглядит прямым нарушением принципа the bitter lesson: давайте перейдем на что-то не GPU-friendly ради выигрыша в размере модели.

ответить
1 heni 06-05-2024

Меня в целом заинтересовало больше утверждение о более интерпретируемых для человека нейросетевых моделях. Понятно, что пока адекватного тулинга в этой области нет, но перспектива его появления прям обнадёживает.

Вполне могу поверить в адекватность мнения о том, что трейдофф между скоростью и интерпретируемостью полезен для сообщества.

ответить
2 someanonimcoder 07-05-2024

Fun fact, ставящий под сомнение осмысленность модели: ее не попробовали ни на каких реальных данных. Как мне кажется, вариантов три:
- оно настолько бесполезное что даже на мнисте не завелось
- завелось, но результаты такие что стремно показать
- просто забили - неправдоподобная версия(ну странно же придумать новую архитектуру, описать ее теоретическое обоснование преимуществ и не попробовать ее ну хотя бы на паре первых попавшихся датасетов с kaggle)

ответить
2 heni 08-05-2024

Непонятный наезд.
На MNIST'e все адекватно работает. Несложно ищется пример - https://github.com/KindXiaoming/pykan/issues/9#issuecomment-2094043020

ответить
1 someanonimcoder 13-05-2024

Да, вы правы, я просмотрел статью, не нашел упоминаний, и решил что не тестировали. К этому комменту тоже много вопросов, конечно, например то что равное число нейронов взято, а не равное число параметров - тут kan может побеждать тупо за счет того что кан плотнее в количество точек раз, но это уже что-то

ответить