Блог практикующих ML и DS инженеров с уклоном в NLP. От простого до сложного.
Stanford Alpaca и Self-instruct - генерация синтетических текстовых инструкций
Исходный код генерации обучающего датасета и обучения модели Alpaca находится по ссылке https://github.com/tatsu-lab/stanford_alpaca/
Все началось с затравок в количестве 175 штук. Это примеры инструктивных задач, г...
Medprompt - Могут ли универсальные базовые модели превзойти специализированные только за счет промптинга? На примере медицины
Краткий ответ:
- да могут
- few-shot на основе векторной близости входящего вопроса и примеров с ответами из базы
- примеры во few-shot с цепочками рассуждений
- синт...
Instruction tuning LLM - инструктивное обучение больших языковых моделей
Модели, следующие инструкциям, - это уровень искусственного интеллекта конца 2023 года. Первой такой широко нашумевшей моделью стала GPT-3.5, и далее ChatGPT, Claude, Bing Chat и др.
Сейчас в модели стали добавлять разные д...
SeerAttention - динамические разреженное внимание для LLM
Внимание является краеугольным камнем современных крупных языковых моделей (LLM). Однако его квадратичная сложность ограничивает эффективность и масштабируемость LLM, особенно для моделей с длинным контекстом. Перспективный подход, решающий...
Lamini Memory Tuning - Mixture of Memory Experts (MoME)
В отдельных кейсах Lamini Memory Tuning дает 95% точности ответов LLM, снижая количество галлюцинаций модели в 10 раз, по заявлениям команды продукта Lamini.
Кратко:
Lamini Memory Tuning — это новый метод интеграции фактов в языковые...