fix link to bf16 model
#5
by
yaneivan
- opened
README.md
CHANGED
|
@@ -15,7 +15,7 @@ library_name: transformers
|
|
| 15 |
Представляем `GigaChat3-10B-A1.8B` — диалоговую модель семейства GigaChat. Модель основана на архитектуре Mixture-of-Experts (MoE) с 10B общих и 1.8B активных параметров.
|
| 16 |
Архитектура включает **Multi-head Latent Attention (MLA)** и **Multi-Token Prediction (MTP)**, за счет чего модель оптимизирована для высокой пропускной способности (throughput) при инференсе.
|
| 17 |
Модель обучена поверх нашей базовой версии ([GigaChat3-10B-A1.8B-base](https://huggingface.co/ai-sage/GigaChat3-10B-A1.8B-base)) с помощью высококачественных SFT-данных.
|
| 18 |
-
Данная версия предназначена для высокопроизводительного инференса в fp8, модель в bf16 — [GigaChat3-10B-A1.8B](https://huggingface.co/ai-sage/GigaChat3-10B-A1.8B).
|
| 19 |
Больше подробностей [в хабр статье](https://habr.com/en/companies/sberdevices/articles/968904/).
|
| 20 |
|
| 21 |
## Архитектура модели
|
|
|
|
| 15 |
Представляем `GigaChat3-10B-A1.8B` — диалоговую модель семейства GigaChat. Модель основана на архитектуре Mixture-of-Experts (MoE) с 10B общих и 1.8B активных параметров.
|
| 16 |
Архитектура включает **Multi-head Latent Attention (MLA)** и **Multi-Token Prediction (MTP)**, за счет чего модель оптимизирована для высокой пропускной способности (throughput) при инференсе.
|
| 17 |
Модель обучена поверх нашей базовой версии ([GigaChat3-10B-A1.8B-base](https://huggingface.co/ai-sage/GigaChat3-10B-A1.8B-base)) с помощью высококачественных SFT-данных.
|
| 18 |
+
Данная версия предназначена для высокопроизводительного инференса в fp8, модель в bf16 — [GigaChat3-10B-A1.8B](https://huggingface.co/ai-sage/GigaChat3-10B-A1.8B-bf16).
|
| 19 |
Больше подробностей [в хабр статье](https://habr.com/en/companies/sberdevices/articles/968904/).
|
| 20 |
|
| 21 |
## Архитектура модели
|