главная новое лучшее написать
1

Тренируем большие (действительно большие, размером с GPT-3) языковые модели в 565 строчек кода: https://github.com/Cerebras/gigaGPT
Для прода, наверное, не годится :) но если хочется с нуля вкатиться в эту тему, можно начинать с этого кода.
in#llm

1 axone 28-12-2023

На нескольких 4090 получится 13B модель обучить на паре терабайт текста за вменяемое время с этим кодом? За неделю допустим.

ответить