Блог практикующих ML и DS инженеров с уклоном в NLP. От простого до сложного.
SeerAttention - динамические разреженное внимание для LLM
Внимание является краеугольным камнем современных крупных языковых моделей (LLM). Однако его квадратичная сложность ограничивает эффективность и масштабируемость LLM, особенно для моделей с длинным контекстом. Перспективный подход, решающий...