Vikhrmodels

93 models • 1 total models in database
Sort by:

it-5.2-fp16-cp

Долили сильно больше данных в sft, теперь стабильнее работает json и multiturn, слегка подточили параметры претрена модели Added a lot more data to sft, now json and multiturn work more stable on long context and hard prompts

llama
17,680
7

Borealis

license:apache-2.0
8,158
50

Vistral-24B-Instruct-GGUF

Vistral - это наша новая флагманская унимодальная LLM (Large Language Model) представляющая из себя улучшенную версию mistralai/Mistral-Small-3.2-24B-Instruct-2506 командой VikhrModels, адаптированную преимущественно для русского и английского языков. Удалён визуальный энкодер, убрана мультимодальность. Сохранена стандартная архитектура "MistralForCausalLM" без изменений в базовой структуре модели. Весь использованный код для обучения доступен в нашем репозитории effectivellmalignment на GitHub, а основные датасеты доступны в нашем профиле на HF.

NaNK
llama.cpp
7,482
8

QVikhr-3-8B-Instruction

Инструктивная модель на основе Qwen/Qwen3-8B, обученная на русскоязычном датасете GrandMaster2. Создана для высокоэффективной обработки текстов на русском и английском языках, обеспечивая точные ответы и быстрое выполнение задач. - GGUF Vikhrmodels/QVikhr-3-8B-Instruction-GGUF - MLX - 4 bit Vikhrmodels/QVikhr-3-8B-Instruction-MLX4bit - 8 bit Vikhrmodels/QVikhr-3-8B-Instruction-MLX8bit - 📚 Основа / Base: Qwen/Qwen3-8B - 🇷🇺 Специализация / Specialization: RU - 💾 Датасет / Dataset: GrandMaster2 - 🌍 Поддержка / Support: Bilingual RU/EN [](https://colab.research.google.com/drive/1DvostFGC7jnziSUaZ0gJnADhOi5lrSD?usp=sharing) | model | score | mathscore |physicsscore | |------------------------------------------|-------|-----------|--------------| | gpt-4.1 |0.466 |0.584 |0.347 | | QVikhr-3-8B-Instruction |0.445 |0.563 |0.327 | | Qwen3-8B |0.417 |0.538 |0.296 | | Gemma 3 27B |0.4 |0.474 |0.327 | QVikhr-3-8B-Instruction — мощная языковая модель, обученная на датасете GrandMaster-2, поддерживает генерацию инструкций, контекстные ответы и анализ текста на русском языке. Эта модель оптимизирована для задач инструктивного обучения и обработки текстов. Она подходит для использования в профессиональной среде, а также для интеграции в пользовательские приложения и сервисы. Модель построена на базе архитектуры Qwen/Qwen3-8B и была дообучена на большом русскоязычном датасете GrandMaster2. Такое специализированное обучение значительно улучшило её способность генерировать точные, контекстно-зависимые ответы и быстро выполнять задачи на русском языке. Тесты производительности подтверждают значительные улучшения модели. В рейтинге «DOoM» QVikhr-3-8B-Instruction получила оценку 0.445, что существенно превосходит результат базовой модели Qwen3-8B, и приближается к модели gpt-4.1. Это доказывает её превосходные возможности для решения задач связанные с математикой и физикой на русском языке. QVikhr-3-8B-Instruction была создана с использованием метода SFT (Supervised Fine-Tuning). Мы использовали синтетический датасет GrandMaster-2. - Sergei Bratchikov, NLP Wanderer, Vikhr Team - Nikolay Kompanets, LakoMoor, Vikhr Team - Konstantin Korolev, Vikhr Team - Aleksandr Nikolich, Vikhr Team

NaNK
license:apache-2.0
3,000
8

Vikhr-Gemma-2B-instruct-GGUF

NaNK
llamacpp
2,120
18

Vistral-24B-Instruct

NaNK
license:apache-2.0
1,934
14

Vikhr-Qwen-2.5-1.5B-Instruct

NaNK
license:apache-2.0
1,550
14

QVikhr-3-8B-Instruction-GGUF

NaNK
license:apache-2.0
1,353
7

Vikhr-Llama-3.2-1B-instruct-GGUF

NaNK
llamacpp
1,338
13

QVikhr-3-4B-Instruction-GGUF

Инструктивная модель на основе Qwen/Qwen3-4B, обученная на русскоязычном датасете GrandMaster2. Создана для высокоэффективной обработки текстов на русском и английском языках, обеспечивая точные ответы и быстрое выполнение задач. Instructive model based on Qwen/Qwen3-4B, trained on the Russian-language dataset GrandMaster2. Designed for high-efficiency text processing in Russian and English, delivering precise responses and fast task execution.

NaNK
llama.cpp
1,002
5

Vikhr-YandexGPT-5-Lite-8B-it

NaNK
llama
788
25

it-5.2-fp16-cp-GGUF

763
1

Borealis-5b-it

NaNK
license:apache-2.0
657
1

Vikhr Llama3.1 8B Instruct R 21 09 24

NaNK
llama
517
32

QVikhr-3-1.7B-Instruction-noreasoning-GGUF

NaNK
492
2

it-5.4-fp16-orpo-v2-GGUF

llamacpp
472
4

Vikhr-Gemma-2B-instruct

NaNK
license:apache-2.0
458
18

it-5.3-fp16-32k-GGUF

llamacpp
425
2

Vikhr-7B-instruct_0.4-GGUF

NaNK
llama-cpp
361
9

Vikhr-Llama-3.2-1B-Instruct

NaNK
llama
338
42

Vikhr-YandexGPT-5-Lite-8B-it_GGUF

NaNK
334
11

QVikhr-3-1.7B-Instruction-noreasoning

NaNK
license:apache-2.0
331
12

Vikhr-Qwen-2.5-1.5B-Instruct-GGUF

NaNK
llama.cpp
260
4

Vikhr-Qwen-2.5-0.5B-instruct-GGUF

NaNK
llamacpp
246
7

QVikhr-3-4B-Instruction

NaNK
license:apache-2.0
243
15

Qwen2.5-7B-Instruct-Tool-Planning-v0.1

NaNK
license:apache-2.0
231
13

QVikhr-2.5-1.5B-Instruct-r_GGUF

NaNK
llamacpp
230
4

QVikhr-2.5-1.5B-Instruct-SMPO

NaNK
license:apache-2.0
194
16

Vikhr-7B-instruct_0.4

NaNK
llama
187
34

Vikhr-Qwen-2.5-0.5b-Instruct

NaNK
license:apache-2.0
162
16

it-5.3-fp16-GGUF

121
0

Vikhr-Llama-3.2-1B-Instruct-abliterated

NaNK
llama
92
5

QVikhr-2.5-1.5B-Instruct-SMPO_GGUF

Инструктивная модель на основе Qwen-2.5-1.5B-Instruct, обученная на русскоязычном датасете GrandMaster-PRO-MAX с использованием SMPO (Simple Margin Preference Optimization). QVikhr-2.5-1.5B-Instruct-SMPO представляет собой языковую модель, прошедшую специализированное обучение с использованием метода SMPO. Эта модель демонстрирует прогресс в методах выравнивания, особенно в области улучшения качества ответов через оптимизацию предпочтений. - Sergei Bratchikov, NLP Wanderer, Vikhr Team - Nikolay Kompanets, LakoMoor, Vikhr Team - Konstantin Korolev, Vikhr Team - Aleksandr Nikolich, Vikhr Team

NaNK
llamacpp
90
9

QVikhr-2.5-1.5B-Instruct-r

NaNK
license:apache-2.0
86
31

Vikhr-7B-instruct_0.2

NaNK
llama
77
22

Vikhr-7b-0.1

NaNK
license:apache-2.0
35
57

Vikhr-Qwen-2.5-1.5B-Instruct-MLX_8bit

NaNK
license:apache-2.0
35
8

kolibri-vikhr-mistral-0427

license:apache-2.0
31
4

Vistral-24B-Instruct-MLX_4bit

This model Vikhrmodels/Vistral-24B-Instruct-MLX4bit was converted to MLX format from Vikhrmodels/Vistral-24B-Instruct using mlx-lm version 0.26.2.

NaNK
license:apache-2.0
29
2

Vikhr-7B-instruct_0.3

NaNK
llama
25
4

Vistral-24B-Instruct-MLX_8bit

This model Vikhrmodels/Vistral-24B-Instruct-MLX8bit was converted to MLX format from Vikhrmodels/Vistral-24B-Instruct using mlx-lm version 0.26.2.

NaNK
license:apache-2.0
25
2

Mini-cpm-vikhr

license:apache-2.0
20
0

salt-116k

NaNK
llama
18
4

QVikhr-2.5-1.5B-Instruct-r_MLX-8bit

NaNK
license:apache-2.0
18
1

QVikhr-3-1.7B-Instruction-noreasoning-MLX_8bit

NaNK
license:apache-2.0
17
0

QVikhr-3-8B-Instruction-MLX_8bit

NaNK
license:apache-2.0
17
0

salt-qwen2.5-0.5b-asr-tts

NaNK
16
0

Vikhr-YandexGPT-5-Lite-8B-it_MLX-8bit

NaNK
llama
13
1

it-5.4-fp16-orpo-v2

llama
12
7

QVikhr-3-4B-Instruction-MLX_4bit_DWQ

NaNK
license:apache-2.0
12
2

Vikhr-YandexGPT-5-Lite-8B-it_MLX-4bit

The Model Vikhrmodels/Vikhr-YandexGPT-5-Lite-8B-itMLX-4bit was converted to MLX format from Vikhrmodels/Vikhr-YandexGPT-5-Lite-8B-it using mlx-lm version 0.21.5.

NaNK
llama
12
1

QVikhr-3-8B-Instruction-MLX_4bit

NaNK
license:apache-2.0
12
1

Qwen3-0.6B-TTS

NaNK
11
5

salt-asr_wav-uni_1_tts_wav-uni_1-12k

llama
9
8

it-5.4-fp16-orpo-v2-Q4_K_M-GGUF

NaNK
llama-cpp
9
0

QVikhr-3-4B-Instruction-MLX_8bit

This model Vikhrmodels/QVikhr-3-4B-Instruction-MLX8bit was converted to MLX format from Vikhrmodels/QVikhr-3-4B-Instruction using mlx-lm version 0.25.2.

NaNK
license:apache-2.0
7
1

Borealis-ASR-4B-50k

NaNK
7
0

Salt2.5-DataMix-1.48

6
0

Vikhr-Qwen-2.5-1.5B-Instruct-MLX_4bit

NaNK
license:apache-2.0
5
1

salt-qwen2.5-0.5b-tts

NaNK
5
1

nemo-awq-q4

5
0

Vikhr-2-VL-2b-Instruct-experimental

NaNK
license:apache-2.0
4
19

QVikhr-2.5-1.5B-Instruct-SMPO_MLX-4bit

NaNK
license:apache-2.0
4
3

QVikhr-2.5-1.5B-Instruct-SMPO_MLX-8bit

The Model Vikhrmodels/QVikhr-2.5-1.5B-Instruct-SMPOMLX-8bit was converted to MLX format from Vikhrmodels/QVikhr-2.5-1.5B-Instruct-SMPO using mlx-lm version 0.21.1.

NaNK
license:apache-2.0
4
2

salt-asr_speech_1_wav_1_tts_speech_3_text-10k

NaNK
llama
4
1

Vikhr-7B-instruct_0.2-AQLM

NaNK
llama
3
1

saltm

llama
3
1

QVikhr-3-4B-Instruction-MLX_4bit

This model Vikhrmodels/QVikhr-3-4B-Instruction-MLX4bit was converted to MLX format from Vikhrmodels/QVikhr-3-4B-Instruction using mlx-lm version 0.25.2.

NaNK
license:apache-2.0
3
1

QVikhr-3-1.7B-Instruction-noreasoning-MLX_4bit

NaNK
license:apache-2.0
3
0

Qwen3-0.6B-experimental

NaNK
3
0

Salt2.5-DataMix

3
0

VikhrT5-240m

license:apache-2.0
2
10

VikhrT5-3b

NaNK
license:apache-2.0
2
9

Vikhr-7b-0.2

NaNK
llama
2
0

salt-75tps-asr

2
0

Qwen2.5-0.5-TTS

2
0

ss5

2
0

it-5.3-fp16-32k

llama
1
11

Vikhr-tiny-0.1

license:apache-2.0
1
2

it-5.2-eos

llama
1
0

12b-nemo-gguf-Q8-AWQ

NaNK
1
0

salt-asr_speech_1_wav_1_tts_speech_3_instruct-10k

llama
1
0

Llama-3.2-3B-asr-tts-checkpoint-4000

NaNK
llama
1
0

Salt-wav-ru

llama
1
0

Salt-wav-ru-v2

llama
1
0

QVikhr-2.5-1.5B-Instruct-r_MLX-4bit

NaNK
license:apache-2.0
1
0

salt-qwen2.5-0.5b-asr

NaNK
1
0

Salt2.5-DataMix-0.85

1
0

Vikhr-7B-instruct_0.1

NaNK
license:apache-2.0
0
13

Vikhr-7B-instruct_merged

NaNK
llama
0
4

qwen_emb_7200

0
2

Vikhr-gemma-kz_0.1

0
1

it-5.3-fp16-32k-EXL2

exllamav2
0
1