evilfreelancer

29 models • 2 total models in database
Sort by:

GLM-4.7-Flash-GGUF

license:mit
3,037
2

ruGPT3XL

license:mit
1,782
0

FRIDA GGUF

+ https://huggingface.co/evilfreelancer/FRIDA-GGUF + https://ollama.com/evilfreelancer/FRIDA FRIDA is a full-scale finetuned general text embedding model inspired by denoising architecture based on T5. The model is based on the encoder part of FRED-T5 model and continues research of text embedding models (ruMTEB, ru-en-RoSBERTa). It has been pre-trained on a Russian-English dataset and fine-tuned for improved performance on the target task. For more model details please refer to our technical report [TODO]. The model can be used as is with prefixes. It is recommended to use CLS pooling. The choice of prefix and pooling depends on the task. We use the following basic rules to choose a prefix: - `"searchquery: "` and `"searchdocument: "` prefixes are for answer or relevant paragraph retrieval - `"paraphrase: "` prefix is for symmetric paraphrasing related tasks (STS, paraphrase mining, deduplication) - `"categorize: "` prefix is for asymmetric matching of document title and body (e.g. news, scientific papers, social posts) - `"categorizesentiment: "` prefix is for any tasks that rely on sentiment features (e.g. hate, toxic, emotion) - `"categorizetopic: "` prefix is intended for tasks where you need to group texts by topic - `"categorizeentailment: "` prefix is for textual entailment task (NLI) To better tailor the model to your needs, you can fine-tune it with relevant high-quality Russian and English datasets. Below are examples of texts encoding using the Transformers and SentenceTransformers libraries. Authors + SaluteDevices AI for B2C RnD Team. + Artem Snegirev: HF profile, Github; + Anna Maksimova HF profile; + Aleksandr Abramov: HF profile, Github, Kaggle Competitions Master + Pavel Rykov: HF profile, Github - creator of GGUF version The model is designed to process texts in Russian, the quality in English is unknown. Maximum input text length is limited to 512 tokens.

NaNK
license:mit
478
16

PavelGPT-7B-128K-v0.1-GGUF

NaNK
license:mit
305
4

ruGPT3XL-GGUF

license:mit
119
0

o1_t-lite-it-1.0_gguf

LoRA-адаптер для модели T-lite-it-1.0 обученный на датасете Egor-AI/Russianthinkingdataset (машинный перевод на русский язык датасета BintangFortuna/OpenO1-SFT-EN-SY). Обученная модель способна имитировать логические размышлению на русском языке по аналогии с тем, как это делает `o1` от `OpenAI`. Необходимо использовать следующего вида системный промт: W&B отчёт: https://api.wandb.ai/links/evilfreelancer/fd7kpwjx Обучение производилось при помощи утилиты impruver используя конфигурацию T-lite-it/7Blorathinking. На всё про всё ушло примерно 20 часов, при этом понадобилось 23Гб видеопамяти.

license:mit
71
2

o1_gigachat-20b-a3b_gguf

NaNK
license:mit
62
1

ruMorpheme-v0.2

license:mit
56
0

r1_yandexgpt5-lite_gguf

license:mit
25
0

ruGPT-3.5-13B-lora

NaNK
license:mit
21
12

enbeddrus-v0.1

15
1

PavelGPT-7B-128K-v0.1-LoRA

NaNK
license:mit
9
10

llama2_7b_gguf_yakovlev

NaNK
llama
8
0

o1_t-lite-it-1.0_lora

LoRA-адаптер для модели T-lite-it-1.0 обученный на датасете Egor-AI/Russianthinkingdataset (машинный перевод на русский язык датасета BintangFortuna/OpenO1-SFT-EN-SY). Обученная модель способна имитировать логические размышлению на русском языке по аналогии с тем, как это делает `o1` от `OpenAI`. Необходимо использовать следующего вида системный промт: W&B отчёт: https://api.wandb.ai/links/evilfreelancer/fd7kpwjx Обучение производилось при помощи утилиты impruver используя конфигурацию T-lite-it/7Blorathinking. На всё про всё ушло примерно 20 часов, при этом понадобилось 23Гб видеопамяти.

NaNK
license:mit
7
3

ruMorpheme-v0.1

license:mit
6
1

dostoevsky_doesnt_write_it_gpt2

license:mit
5
1

ruGPT3.5-13B-lora-chain-of-thought

NaNK
license:mit
5
1

ruGPT3.5-13B-lora-saiga2

NaNK
license:mit
5
0

enbeddrus-v0.2

4
5

evilfreelancer/r1_yandexgpt5-lite_lora

LoRA-адаптер для модели YandexGPT-5-Lite-8B-pretrain обученный на миксе из датасетов реализующих r1 (ризонинг) подход. Обученная модель способна имитировать логические размышлению на русском языке по аналогии с тем, как это делает `r1` от `DeepSeek` или `o1` от `OpenAI` . W&B отчёт: https://api.wandb.ai/links/evilfreelancer/zj6s02v4 Обучение производилось при помощи утилиты impruver используя конфигурацию YandexGPT/8Blorar1. На всё про всё ушло примерно 18 часов на RTX 4090, при этом понадобилось 23.5Гб видеопамяти. Эффективный контекст 1400 токенов, так как больше не удалось уместить в 24Гб VRAM.

NaNK
dataset:lightblue/reasoning-multilingual-R1-Llama-70B-train
4
3

saiga_mistral_7b_128k_lora

NaNK
license:mit
2
10

ruGPT-3.5-13B-ggml

NaNK
license:mit
1
8

llama2-7b-toxicator-ru

NaNK
llama
1
2

moa-classification

license:mit
1
0

ruGPT3.5-13B-lora-function-call

NaNK
license:mit
1
0

o1_gigachat-20b-a3b_lora

NaNK
license:mit
0
2

ruGPT3XL-8k

license:mit
0
1

GigaChat3-10B-A1.8B-GGUF

NaNK
license:mit
0
1

enbeddrus-v0.1-domain

0
1