Vikhrmodels
it-5.2-fp16-cp
Долили сильно больше данных в sft, теперь стабильнее работает json и multiturn, слегка подточили параметры претрена модели Added a lot more data to sft, now json and multiturn work more stable on long context and hard prompts
Borealis
Vistral-24B-Instruct-GGUF
Vistral - это наша новая флагманская унимодальная LLM (Large Language Model) представляющая из себя улучшенную версию mistralai/Mistral-Small-3.2-24B-Instruct-2506 командой VikhrModels, адаптированную преимущественно для русского и английского языков. Удалён визуальный энкодер, убрана мультимодальность. Сохранена стандартная архитектура "MistralForCausalLM" без изменений в базовой структуре модели. Весь использованный код для обучения доступен в нашем репозитории effectivellmalignment на GitHub, а основные датасеты доступны в нашем профиле на HF.
QVikhr-3-8B-Instruction
Инструктивная модель на основе Qwen/Qwen3-8B, обученная на русскоязычном датасете GrandMaster2. Создана для высокоэффективной обработки текстов на русском и английском языках, обеспечивая точные ответы и быстрое выполнение задач. - GGUF Vikhrmodels/QVikhr-3-8B-Instruction-GGUF - MLX - 4 bit Vikhrmodels/QVikhr-3-8B-Instruction-MLX4bit - 8 bit Vikhrmodels/QVikhr-3-8B-Instruction-MLX8bit - 📚 Основа / Base: Qwen/Qwen3-8B - 🇷🇺 Специализация / Specialization: RU - 💾 Датасет / Dataset: GrandMaster2 - 🌍 Поддержка / Support: Bilingual RU/EN [](https://colab.research.google.com/drive/1DvostFGC7jnziSUaZ0gJnADhOi5lrSD?usp=sharing) | model | score | mathscore |physicsscore | |------------------------------------------|-------|-----------|--------------| | gpt-4.1 |0.466 |0.584 |0.347 | | QVikhr-3-8B-Instruction |0.445 |0.563 |0.327 | | Qwen3-8B |0.417 |0.538 |0.296 | | Gemma 3 27B |0.4 |0.474 |0.327 | QVikhr-3-8B-Instruction — мощная языковая модель, обученная на датасете GrandMaster-2, поддерживает генерацию инструкций, контекстные ответы и анализ текста на русском языке. Эта модель оптимизирована для задач инструктивного обучения и обработки текстов. Она подходит для использования в профессиональной среде, а также для интеграции в пользовательские приложения и сервисы. Модель построена на базе архитектуры Qwen/Qwen3-8B и была дообучена на большом русскоязычном датасете GrandMaster2. Такое специализированное обучение значительно улучшило её способность генерировать точные, контекстно-зависимые ответы и быстро выполнять задачи на русском языке. Тесты производительности подтверждают значительные улучшения модели. В рейтинге «DOoM» QVikhr-3-8B-Instruction получила оценку 0.445, что существенно превосходит результат базовой модели Qwen3-8B, и приближается к модели gpt-4.1. Это доказывает её превосходные возможности для решения задач связанные с математикой и физикой на русском языке. QVikhr-3-8B-Instruction была создана с использованием метода SFT (Supervised Fine-Tuning). Мы использовали синтетический датасет GrandMaster-2. - Sergei Bratchikov, NLP Wanderer, Vikhr Team - Nikolay Kompanets, LakoMoor, Vikhr Team - Konstantin Korolev, Vikhr Team - Aleksandr Nikolich, Vikhr Team
Vikhr-Gemma-2B-instruct-GGUF
Vistral-24B-Instruct
Vikhr-Qwen-2.5-1.5B-Instruct
QVikhr-3-8B-Instruction-GGUF
Vikhr-Llama-3.2-1B-instruct-GGUF
QVikhr-3-4B-Instruction-GGUF
Инструктивная модель на основе Qwen/Qwen3-4B, обученная на русскоязычном датасете GrandMaster2. Создана для высокоэффективной обработки текстов на русском и английском языках, обеспечивая точные ответы и быстрое выполнение задач. Instructive model based on Qwen/Qwen3-4B, trained on the Russian-language dataset GrandMaster2. Designed for high-efficiency text processing in Russian and English, delivering precise responses and fast task execution.
Vikhr-YandexGPT-5-Lite-8B-it
it-5.2-fp16-cp-GGUF
Borealis-5b-it
Vikhr Llama3.1 8B Instruct R 21 09 24
QVikhr-3-1.7B-Instruction-noreasoning-GGUF
it-5.4-fp16-orpo-v2-GGUF
Vikhr-Gemma-2B-instruct
it-5.3-fp16-32k-GGUF
Vikhr-7B-instruct_0.4-GGUF
Vikhr-Llama-3.2-1B-Instruct
Vikhr-YandexGPT-5-Lite-8B-it_GGUF
QVikhr-3-1.7B-Instruction-noreasoning
Vikhr-Qwen-2.5-1.5B-Instruct-GGUF
Vikhr-Qwen-2.5-0.5B-instruct-GGUF
QVikhr-3-4B-Instruction
Qwen2.5-7B-Instruct-Tool-Planning-v0.1
QVikhr-2.5-1.5B-Instruct-r_GGUF
QVikhr-2.5-1.5B-Instruct-SMPO
Vikhr-7B-instruct_0.4
Vikhr-Qwen-2.5-0.5b-Instruct
it-5.3-fp16-GGUF
Vikhr-Llama-3.2-1B-Instruct-abliterated
QVikhr-2.5-1.5B-Instruct-SMPO_GGUF
Инструктивная модель на основе Qwen-2.5-1.5B-Instruct, обученная на русскоязычном датасете GrandMaster-PRO-MAX с использованием SMPO (Simple Margin Preference Optimization). QVikhr-2.5-1.5B-Instruct-SMPO представляет собой языковую модель, прошедшую специализированное обучение с использованием метода SMPO. Эта модель демонстрирует прогресс в методах выравнивания, особенно в области улучшения качества ответов через оптимизацию предпочтений. - Sergei Bratchikov, NLP Wanderer, Vikhr Team - Nikolay Kompanets, LakoMoor, Vikhr Team - Konstantin Korolev, Vikhr Team - Aleksandr Nikolich, Vikhr Team
QVikhr-2.5-1.5B-Instruct-r
Vikhr-7B-instruct_0.2
Vikhr-7b-0.1
Vikhr-Qwen-2.5-1.5B-Instruct-MLX_8bit
kolibri-vikhr-mistral-0427
Vistral-24B-Instruct-MLX_4bit
This model Vikhrmodels/Vistral-24B-Instruct-MLX4bit was converted to MLX format from Vikhrmodels/Vistral-24B-Instruct using mlx-lm version 0.26.2.
Vikhr-7B-instruct_0.3
Vistral-24B-Instruct-MLX_8bit
This model Vikhrmodels/Vistral-24B-Instruct-MLX8bit was converted to MLX format from Vikhrmodels/Vistral-24B-Instruct using mlx-lm version 0.26.2.
Mini-cpm-vikhr
salt-116k
QVikhr-2.5-1.5B-Instruct-r_MLX-8bit
QVikhr-3-1.7B-Instruction-noreasoning-MLX_8bit
QVikhr-3-8B-Instruction-MLX_8bit
salt-qwen2.5-0.5b-asr-tts
Vikhr-YandexGPT-5-Lite-8B-it_MLX-8bit
it-5.4-fp16-orpo-v2
QVikhr-3-4B-Instruction-MLX_4bit_DWQ
Vikhr-YandexGPT-5-Lite-8B-it_MLX-4bit
The Model Vikhrmodels/Vikhr-YandexGPT-5-Lite-8B-itMLX-4bit was converted to MLX format from Vikhrmodels/Vikhr-YandexGPT-5-Lite-8B-it using mlx-lm version 0.21.5.
QVikhr-3-8B-Instruction-MLX_4bit
Qwen3-0.6B-TTS
salt-asr_wav-uni_1_tts_wav-uni_1-12k
it-5.4-fp16-orpo-v2-Q4_K_M-GGUF
QVikhr-3-4B-Instruction-MLX_8bit
This model Vikhrmodels/QVikhr-3-4B-Instruction-MLX8bit was converted to MLX format from Vikhrmodels/QVikhr-3-4B-Instruction using mlx-lm version 0.25.2.
Borealis-ASR-4B-50k
Salt2.5-DataMix-1.48
Vikhr-Qwen-2.5-1.5B-Instruct-MLX_4bit
salt-qwen2.5-0.5b-tts
nemo-awq-q4
Vikhr-2-VL-2b-Instruct-experimental
QVikhr-2.5-1.5B-Instruct-SMPO_MLX-4bit
QVikhr-2.5-1.5B-Instruct-SMPO_MLX-8bit
The Model Vikhrmodels/QVikhr-2.5-1.5B-Instruct-SMPOMLX-8bit was converted to MLX format from Vikhrmodels/QVikhr-2.5-1.5B-Instruct-SMPO using mlx-lm version 0.21.1.
salt-asr_speech_1_wav_1_tts_speech_3_text-10k
Vikhr-7B-instruct_0.2-AQLM
saltm
QVikhr-3-4B-Instruction-MLX_4bit
This model Vikhrmodels/QVikhr-3-4B-Instruction-MLX4bit was converted to MLX format from Vikhrmodels/QVikhr-3-4B-Instruction using mlx-lm version 0.25.2.