mmnga

293 models • 3 total models in database
Sort by:

Llama-3-70B-japanese-suzume-vector-v0.1

実験モデルです / This is an experimental model. lightblue/suzume-llama-3-8B-japaneseと、 meta-llama/Meta-Llama-3-8B-Instructの差分をchat-vectorアプローチで抽出し、 meta-llama/Meta-Llama-3-70B-Instructに適用しました - ja 1. `meta-llama/Meta-Llama-3-8B-Instruct`と`lightblue/suzume-llama-3-8B-japanese`の差分を作成 2. shapeが異なるので、差分をmeta-llama/Meta-Llama-3-70B-Instruct用にアップサンプリング 3. 前から 8-layer、最後から8-layerはそのまま適用 4. 中間layerを引き延ばして適用 - en 1. Create the difference between `meta-llama/Meta-Llama-3-8B-Instruct` and `lightblue/zume-llama-3-8B-japanese` 2. Since the shapes are different, the difference is upsampled for meta-llama/Meta-Llama-3-70B-Instruct 3. Apply the 8 layers from the front and 8 layers from the end as they are. 4. Continue applying the middle layer This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated. - Developed by: [More Information Needed] - Funded by [optional]: [More Information Needed] - Shared by [optional]: [More Information Needed] - Model type: [More Information Needed] - Language(s) (NLP): [More Information Needed] - License: [More Information Needed] - Finetuned from model [optional]: [More Information Needed] - Repository: [More Information Needed] - Paper [optional]: [More Information Needed] - Demo [optional]: [More Information Needed] Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations. Carbon emissions can be estimated using the Machine Learning Impact calculator presented in Lacoste et al. (2019). - Hardware Type: [More Information Needed] - Hours used: [More Information Needed] - Cloud Provider: [More Information Needed] - Compute Region: [More Information Needed] - Carbon Emitted: [More Information Needed]

NaNK
llama
8,507
4

plamo-2-translate-gguf

plamo-2-translate-gguf pfnetさんが公開しているplamo-2-translateのggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。

2,764
17

Llama-3-ELYZA-JP-8B-gguf

NaNK
license:llama3
1,509
4

cyberagent-DeepSeek-R1-Distill-Qwen-14B-Japanese-gguf

cyberagent-DeepSeek-R1-Distill-Qwen-14B-Japanese-gguf cyberagentさんが公開しているDeepSeek-R1-Distill-Qwen-14B-Japaneseのggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。 models mmnga/cyberagent-DeepSeek-R1-Distill-Qwen-14B-Japanese-gguf mmnga/cyberagent-DeepSeek-R1-Distill-Qwen-32B-Japanese-gguf

NaNK
license:mit
1,398
54

ELYZA-japanese-Llama-2-7b-fast-instruct-gguf

ELYZA-japanese-Llama-2-7b-fast-instruct-gguf ELYZAさんが公開しているELYZA-japanese-Llama-2-7b-fast-instructのggufフォーマット変換版です。 通常版: llama2に日本語のデータセットで学習したモデル mmnga/ELYZA-japanese-Llama-2-7b-gguf mmnga/ELYZA-japanese-Llama-2-7b-instruct-gguf Fast版 日本語の語彙を追加してトークンコストを減らし、1.8倍高速化したモデル mmnga/ELYZA-japanese-Llama-2-7b-fast-gguf mmnga/ELYZA-japanese-Llama-2-7b-fast-instruct-gguf Codellama版 GGUF mmnga/ELYZA-japanese-CodeLlama-7b-gguf mmnga/ELYZA-japanese-CodeLlama-7b-instruct-gguf Codellama版 GPTQ mmnga/ELYZA-japanese-CodeLlama-7b-instruct-GPTQ-calib-ja-1k Llama 2 is licensed under the LLAMA 2 Community License, Copyright (c) Meta Platforms, Inc. All Rights Reserved.

NaNK
llama2
1,344
44

Ninja-v1-NSFW-128k-gguf

license:apache-2.0
1,332
11

Vecteus-v1-gguf

license:apache-2.0
1,266
7

RakutenAI-2.0-mini-instruct-gguf

license:apache-2.0
1,179
6

pfnet-nekomata-14b-pfn-qfin-gguf

NaNK
1,110
1

cyberagent-Mistral-Nemo-Japanese-Instruct-2408-gguf

license:apache-2.0
954
3

qwen2.5-bakeneko-32b-instruct-v2-gguf

qwen2.5-bakeneko-32b-instruct-v2-gguf rinnaさんが公開しているqwen2.5-bakeneko-32b-instruct-v2のggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。

NaNK
license:apache-2.0
949
1

Meta-Llama-3-70B-Instruct-gguf

NaNK
llama3
934
6

Llama-3.3-70B-Instruct-gguf

NaNK
license:llama3.3
871
3

tokyotech-llm-Llama-3.1-Swallow-8B-Instruct-v0.1-gguf

NaNK
license:llama3.1
845
2

YuisekinAIEvol-Mistral-7B-ja-math-v0.1.1-gguf

NaNK
license:apache-2.0
834
2

HODACHI-Borea-Phi-3.5-mini-Instruct-Common-gguf

license:mit
819
1

llm-jp-3.1-1.8b-instruct4-gguf

NaNK
license:apache-2.0
810
0

pfnet-Llama3-Preferred-MedSwallow-70B-gguf

NaNK
license:llama3
800
0

Marco-o1-gguf

license:apache-2.0
793
0

lightblue-suzume-llama-3-8B-multilingual-gguf

NaNK
license:llama3
772
1

Aratako-Qwen3-30B-A3B-NSFW-JP-gguf

NaNK
license:mit
759
7

codegemma-1.1-2b-gguf

NaNK
754
2

ELYZA-japanese-Llama-2-7b-instruct-gguf

NaNK
llama2
734
23

DataPilot-ArrowPro-7B-RobinHood-gguf

NaNK
license:apache-2.0
721
2

ELYZA-Thinking-1.0-Qwen-32B-gguf

NaNK
license:apache-2.0
693
0

tokyotech-llm-Llama-3.1-Swallow-8B-Instruct-v0.3-gguf

NaNK
license:llama3.1
684
4

Llama-3.1-70B-Instruct-gguf

NaNK
llama3.1
682
2

haqishen-Llama-3-8B-Japanese-Instruct-gguf

NaNK
llama3
668
4

TinySwallow-1.5B-Instruct-gguf

NaNK
license:apache-2.0
660
0

tokyotech-llm-Llama-3.1-Swallow-70B-Instruct-v0.1-gguf

NaNK
license:llama3.1
632
3

Moonlight-16B-A3B-Instruct-gguf

Moonlight-16B-A3B-Instruct-gguf moonshotaiさんが公開しているMoonlight-16B-A3B-Instructのggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。

NaNK
license:mit
604
9

cyberagent-DeepSeek-R1-Distill-Qwen-32B-Japanese-gguf

NaNK
license:mit
595
38

Llama-3-Swallow-70B-Instruct-v0.1-gguf

NaNK
license:llama3
576
8

umiyuki-Umievo-itr012-Gleipnir-7B-gguf

NaNK
license:apache-2.0
569
7

aya-23-8B-gguf

NaNK
license:cc-by-nc-4.0
539
1

Llama-3.1-8B-Instruct-gguf

NaNK
llama3.1
538
8

EZO2.5-gemma-3-12b-it-Preview-gguf

NaNK
538
0

Llama-3.1-8B-EZO-1.1-it-gguf

NaNK
license:llama3.1
533
7

lightblue-DeepSeek-R1-Distill-Qwen-7B-Japanese-gguf

NaNK
license:mit
514
6

Phi-4-mini-instruct-gguf

license:mit
508
0

codegemma-1.1-7b-it-gguf

NaNK
503
0

HODACHI-EZO-Common-T2-2B-gemma-2-it-gguf

NaNK
486
5

DataPilot-ArrowPro-7B-KUJIRA-gguf

NaNK
license:apache-2.0
478
10

Llama-3.1-Swallow-8B-Instruct-v0.5-gguf

Llama-3.1-Swallow-8B-Instruct-v0.5-gguf tokyotech-llmさんが公開しているLlama-3.1-Swallow-8B-Instruct-v0.5のggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。

NaNK
base_model:tokyotech-llm/Llama-3.1-Swallow-8B-Instruct-v0.5
477
1

Llama-3.1-70B-Japanese-Instruct-2407-gguf

NaNK
llama
473
7

aya-23-35B-gguf

NaNK
license:cc-by-nc-4.0
473
1

sarashina2.2-0.5b-instruct-v0.1-gguf

NaNK
license:mit
466
1

llm-jp-13b-instruct-full-dolly-oasst-v1.0-gguf

NaNK
license:apache-2.0
465
0

ELYZA Japanese Llama 2 13b Fast Instruct Gguf

ELYZA-japanese-Llama-2-13b-fast-instruct-gguf ELYZAさんが公開しているELYZA-japanese-Llama-2-13b-fast-instructのggufフォーマット変換版です。 通常版: llama2に日本語のデータセットで学習したモデル mmnga/ELYZA-japanese-Llama-2-7b-gguf mmnga/ELYZA-japanese-Llama-2-7b-instruct-gguf Fast版 日本語の語彙を追加してトークンコストを減らし、1.8倍高速化したモデル mmnga/ELYZA-japanese-Llama-2-7b-fast-gguf mmnga/ELYZA-japanese-Llama-2-7b-fast-instruct-gguf mmnga/ELYZA-japanese-Llama-2-13b-fast-gguf mmnga/ELYZA-japanese-Llama-2-13b-fast-instruct-gguf Codellama版 GGUF mmnga/ELYZA-japanese-CodeLlama-7b-gguf mmnga/ELYZA-japanese-CodeLlama-7b-instruct-gguf Codellama版 GPTQ mmnga/ELYZA-japanese-CodeLlama-7b-instruct-GPTQ-calib-ja-1k Llama 2 is licensed under the LLAMA 2 Community License, Copyright (c) Meta Platforms, Inc. All Rights Reserved.

NaNK
llama2
461
25

ELYZA-japanese-CodeLlama-7b-instruct-gguf

NaNK
llama2
461
7

webbigdata-ALMA-7B-Ja-V2-gguf

NaNK
license:llama2
453
3

Fugaku-LLM-13B-instruct-gguf

NaNK
450
5

tokyotech-llm-Swallow-13b-instruct-v0.1-gguf

NaNK
license:llama2
442
1

aixsatoshi-Ex-karakuri-8x12B-chat-v1-gguf

NaNK
license:apache-2.0
440
0

gemma-2b-it-gguf

NaNK
432
2

Llama-3-Swallow-8B-Instruct-v0.1-gguf

NaNK
license:llama3
428
3

Light-R1-32B-gguf

NaNK
license:apache-2.0
428
0

HODACHI-EZO-Humanities-9B-gemma-2-it-gguf

NaNK
425
0

karakuri-lm-32b-thinking-2501-exp-gguf

NaNK
license:apache-2.0
412
1

gemma-2-2b-it-gguf

NaNK
390
1

RakutenAI-2.0-8x7B-instruct-gguf

NaNK
license:apache-2.0
389
5

lightblue-qarasu-14B-chat-plus-unleashed-gguf

NaNK
385
3

rinna-nekomata-7b-instruction-gguf

NaNK
383
3

rinna-llama-3-youko-70b-instruct-gguf

NaNK
license:llama3
378
1

Phi-3-medium-128k-instruct-gguf

license:mit
377
5

Llama-3.1-70B-EZO-1.1-it-gguf

NaNK
license:llama3.1
372
0

ELYZA-Shortcut-1.0-Qwen-7B-gguf

NaNK
license:apache-2.0
366
3

tokyotech-llm-Llama-3.3-Swallow-70B-Instruct-v0.4-gguf

NaNK
362
0

RakutenAI-7B-chat-gguf

NaNK
license:apache-2.0
343
3

RakutenAI-7B-instruct-gguf

NaNK
license:apache-2.0
334
3

ABEJA-QwQ32b-Reasoning-Japanese-v1.0-gguf

NaNK
license:apache-2.0
331
4

Reflection-Llama-3.1-70B-gguf

NaNK
license:llama3.1
325
1

Qwen3-4B-Instruct-2507-gguf

NaNK
license:apache-2.0
320
1

Llama-4-Scout-17B-16E-Instruct-gguf

NaNK
base_model:meta-llama/Llama-4-Scout-17B-16E-Instruct
318
2

Ninja-v1-NSFW-gguf

license:apache-2.0
316
5

japanese-stablelm-instruct-gamma-7b-gguf

NaNK
license:apache-2.0
313
5

japanese-stablelm-2-instruct-1_6b-gguf

NaNK
313
3

Phi-3-mini-128k-instruct-gguf

license:mit
311
8

ELYZA-japanese-Llama-2-7b-fast-gguf

NaNK
llama2
308
7

DeepSeek-R1-Distill-Qwen-7B-gguf

NaNK
license:mit
307
3

cyberagent-open-calm-3b-gguf

NaNK
license:cc-by-sa-4.0
306
1

Meta-Llama-3-8B-Instruct-gguf

NaNK
license:llama3
300
0

c4ai-command-r-plus-gguf

license:cc-by-nc-4.0
293
4

sarashina2.2-3b-instruct-v0.1-gguf

NaNK
license:mit
291
7

rinna-llama-3-youko-8b-gguf

NaNK
license:llama3
280
6

Ninja-v1-gguf

license:apache-2.0
280
0

gemma-7b-it-gguf

NaNK
274
8

cyberagent-calm2-7b-chat-dpo-experimental-gguf

NaNK
license:cc-by-4.0
267
4

plamo-2-8b-gguf

plamo-2-8b-gguf pfnetさんが公開しているplamo-2-8bのggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。

NaNK
266
1

llm-jp-3.1-13b-instruct4-gguf

NaNK
license:apache-2.0
265
2

aixsatoshi-Llama-3-8b-Cosmopedia-japanese-gguf

NaNK
llama3
263
0

lightblue-karasu-7B-chat-plus-unleashed-gguf

NaNK
license:apache-2.0
262
4

cyberagent-open-calm-7b-gguf

NaNK
license:cc-by-sa-4.0
253
2

Mistral-Large-Instruct-2407-gguf

253
0

Mistral-Small-24B-Instruct-2501-gguf

NaNK
license:apache-2.0
253
0

plamo-2-1b-gguf

NaNK
license:apache-2.0
250
0

karakuri-lm-70b-chat-v0.1-gguf

NaNK
llama2
242
12

llm-jp-13b-instruct-full-ac_001_16x-dolly-ichikara_004_001_single-oasst-oasst2-v2.0-gguf

NaNK
llama
233
5

alfredplpl-Llama-3-8B-Instruct-Ja-gguf

NaNK
llama3
233
0

Ninja-v1-128k-gguf

license:apache-2.0
231
2

codegemma-7b-it-gguf

NaNK
230
1

Superswallow-7b-v0.1-gguf

NaNK
llama
228
0

pfnet-nekomata-14b-pfn-qfin-inst-merge-gguf

NaNK
228
0

Gemma-2-Llama-Swallow-9b-it-v0.1-gguf

Gemma-2-Llama-Swallow-9b-it-v0.1-gguf tokyotech-llmさんが公開しているGemma-2-Llama-Swallow-9b-it-v0.1のggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。

NaNK
base_model:tokyotech-llm/Gemma-2-Llama-Swallow-9b-it-v0.1
219
1

tokyotech-llm-Swallow-70b-instruct-v0.1-gguf

NaNK
license:llama2
218
1

Mistral-Nemo-Instruct-2407-gguf

license:apache-2.0
217
2

ELYZA-japanese-Llama-2-13b-fast-gguf

NaNK
llama2
215
3

DeepSeek-R1-Distill-Qwen-32B-gguf

DeepSeek-R1-Distill-Qwen-32B-gguf deepseek-aiさんが公開しているDeepSeek-R1-Distill-Qwen-32Bのggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。

NaNK
license:mit
214
3

tokyotech-llm-Llama-3.1-Swallow-8B-Instruct-v0.2-gguf

tokyotech-llm-Llama-3.1-Swallow-8B-Instruct-v0.2-gguf tokyotech-llmさんが公開しているLlama-3.1-Swallow-8B-Instruct-v0.2のggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。

NaNK
license:llama3.1
212
2

K2-Think-gguf

license:apache-2.0
210
2

ELYZA-japanese-Llama-2-7b-gguf

NaNK
llama2
207
5

OrionStarAI-Orion-14B-LongChat-gguf

NaNK
207
1

c4ai-command-a-03-2025-gguf

NaNK
license:cc-by-nc-4.0
204
2

DeepSeek-R1-Distill-Qwen-1.5B-gguf

NaNK
license:mit
201
5

ryota39-Phi-3-mini-4k-instruct-dpo-gguf

license:mit
194
0

HODACHI-Borea-Phi-3.5-mini-Instruct-Jp-gguf

license:mit
192
4

ABEJA-Qwen2.5-7b-Japanese-v0.1-gguf

NaNK
license:apache-2.0
192
2

Qwen1.5-110B-Chat-gguf

NaNK
188
2

Llama3-ArrowSE-8B-v0.3-gguf

NaNK
license:llama3
187
0

cyberagent-calm2-7b-chat-gguf

NaNK
license:apache-2.0
186
7

rinna-youri-7b-instruction-gguf

NaNK
llama
185
1

aibuncho-japanese-novel-gpt-j-6b-gguf

NaNK
183
4

HODACHI-EZO-Common-9B-gemma-2-it-gguf

NaNK
183
0

llm-jp-3-13b-instruct3-gguf

llm-jp-3-13b-instruct3-gguf llm-jpさんが公開しているllm-jp-3-13b-instruct3のggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。 注意 llama.cppではcustom chat templateが使用できないので、-cvnが使用できません。 モデル mmnga/llm-jp-3-980m-instruct3-gguf mmnga/llm-jp-3-1.8b-instruct3-gguf mmnga/llm-jp-3-3.7b-instruct3-gguf mmnga/llm-jp-3-7.2b-instruct3-gguf mmnga/llm-jp-3-13b-instruct3-gguf mmnga/llm-jp-3-172b-instruct3-gguf

NaNK
license:apache-2.0
181
2

sarashina2.2-1b-instruct-v0.1-gguf

NaNK
license:mit
181
0

ArrowPro-7B-KillerWhale-gguf

NaNK
license:apache-2.0
179
1

Phi-4-reasoning-plus-gguf

license:mit
176
1

shisa-7b-v1-gguf

NaNK
license:apache-2.0
175
6

ELYZA-japanese-CodeLlama-7b-gguf

NaNK
llama2
174
1

Superswallow-13b-v0.1-gguf

NaNK
llama
171
0

Qwen3-30B-A3B-gguf

NaNK
license:apache-2.0
170
3

webbigdata-ALMA-7B-Ja-gguf

NaNK
169
2

lightblue-suzume-llama-3-8B-japanese-gguf

NaNK
llama3
168
2

gemma-3n-E4B-it-gguf

gemma-3n-E4B-it-gguf googleさんが公開しているgemma-3n-E4B-itのggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。

NaNK
162
0

llm-jp-13b-instruct-full-ac_001-dolly-ichikara_004_001_single-oasst-oasst2-v2.0-gguf

NaNK
llama
161
0

gemma-3n-E2B-it-gguf

NaNK
161
0

Vezora-Mistral-22B-v0.1-gguf

NaNK
license:apache-2.0
158
2

Mistral-7B-Instruct-v0.3-gguf

NaNK
license:apache-2.0
156
2

stockmark-gpt-neox-japanese-1.4b-gguf

NaNK
license:mit
154
1

SakanaAI-EvoLLM-JP-A-v1-7B-gguf

NaNK
153
7

c4ai-command-r7b-12-2024-gguf

NaNK
license:cc-by-nc-4.0
148
2

tokyotech-llm-Swallow-MS-7b-v0.1-gguf

NaNK
license:apache-2.0
147
3

rinna-youri-7b-chat-gguf

NaNK
llama
144
4

karakuri-vl-32b-thinking-2507-exp-gguf

karakuri-vl-32b-thinking-2507-exp-gguf karakuri-aiさんが公開しているkarakuri-vl-32b-thinking-2507-expのggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。

NaNK
license:apache-2.0
140
0

Llama-3.1-Nemotron-70B-Instruct-HF-gguf

NaNK
license:llama3.1
139
0

c4ai-command-r-plus-08-2024-gguf

license:cc-by-nc-4.0
138
6

DeepSeek-R1-Distill-Qwen-14B-gguf

NaNK
license:mit
138
5

umiyuki-Japanese-Chat-Umievo-itr001-7b-gguf

NaNK
license:apache-2.0
134
3

tokyotech-llm-Swallow-7b-plus-hf-gguf

NaNK
llama2
134
1

llm-jp-3-1.8b-instruct3-gguf

NaNK
license:apache-2.0
133
0

Qwen3-4B-Thinking-2507-gguf

NaNK
license:apache-2.0
128
0

AXCXEPT-phi-4-deepseek-R1K-RL-EZO-gguf

license:mit
126
0

llm-jp-13b-instruct-full-jaster-dolly-oasst-v1.0-gguf

NaNK
license:apache-2.0
125
5

japanese-stablelm-3b-4e1t-instruct-gguf

NaNK
license:apache-2.0
124
1

rinna-nekomata-14b-instruction-gguf

NaNK
122
5

aixsatoshi-Honyaku-Multi-Translator-Swallow-ms7b-gguf

NaNK
license:apache-2.0
122
4

cyberagent-open-calm-1b-gguf

NaNK
license:cc-by-sa-4.0
122
0

QwQ-32B-Preview-gguf

NaNK
license:apache-2.0
119
3

DeepSeek-R1-Distill-Llama-70B-gguf

NaNK
llama
119
0

DeepSeek-R1-0528-Qwen3-8B-gguf

NaNK
license:mit
119
0

aixsatoshi-Swallow-MX-8x7b-NVE-chatvector-Mixtral-instruct-v2-gguf

NaNK
license:apache-2.0
118
1

AXCXEPT-EZO-Qwen2.5-72B-Instruct-gguf

NaNK
117
3

tokyotech-llm-Llama-3.1-Swallow-70B-Instruct-v0.3-gguf

NaNK
base_model:tokyotech-llm/Llama-3.1-Swallow-70B-Instruct-v0.3
117
2

rinna-japanese-gpt-neox-3.6b-gguf

NaNK
license:mit
117
0

gemma-1.1-7b-it-gguf

NaNK
117
0

RakutenAI-7B-gguf

NaNK
license:apache-2.0
116
1

rinna-japanese-gpt-neox-3.6b-instruction-ppo-gguf

NaNK
license:mit
116
0

karakuri-lm-8x7b-instruct-v0.1-gguf

NaNK
license:apache-2.0
114
2

llm-jp-3-7.2b-instruct3-gguf

llm-jp-3-7.2b-instruct3-gguf llm-jpさんが公開しているllm-jp-3-7.2b-instruct3のggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。 注意 llama.cppではcustom chat templateが使用できないので、-cvnが使用できません。 モデル mmnga/llm-jp-3-980m-instruct3-gguf mmnga/llm-jp-3-1.8b-instruct3-gguf mmnga/llm-jp-3-3.7b-instruct3-gguf mmnga/llm-jp-3-7.2b-instruct3-gguf mmnga/llm-jp-3-13b-instruct3-gguf mmnga/llm-jp-3-172b-instruct3-gguf

NaNK
license:apache-2.0
113
4

baku-10b-chat-v2-gguf

NaNK
llama
111
0

aixsatoshi-calm2-7b-chat-7b-moe-gguf

NaNK
license:cc-by-4.0
105
1

llm-jp-3-3.7b-instruct3-gguf

NaNK
license:apache-2.0
105
1

Llama-3_3-Nemotron-Super-49B-v1-gguf

NaNK
base_model:nvidia/Llama-3_3-Nemotron-Super-49B-v1
105
1

stockmark-13b-gguf

NaNK
license:mit
104
3

SakanaAI-EvoLLM-JP-v1-7B-gguf

NaNK
102
4

Gemma-2-Llama-Swallow-2b-it-v0.1-gguf

Gemma-2-Llama-Swallow-2b-it-v0.1-gguf tokyotech-llmさんが公開しているGemma-2-Llama-Swallow-2b-it-v0.1のggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。

NaNK
base_model:tokyotech-llm/Gemma-2-Llama-Swallow-2b-it-v0.1
100
0

japanese-stablelm-base-gamma-7b-gguf

NaNK
license:apache-2.0
98
3

karakuri-lm-8x7b-chat-v0.1-gguf

NaNK
license:apache-2.0
93
4

sarashina2.1-1b-sft-gguf

NaNK
92
5

baku-10b-gguf

NaNK
llama
87
0

ELYZA-Shortcut-1.0-Qwen-32B-gguf

NaNK
license:apache-2.0
86
0

stockmark-100b-gguf

NaNK
llama
83
4

alfredplpl-suzume-poc-gguf

80
2

japanese-stablelm-3b-4e1t-base-gguf

NaNK
license:apache-2.0
80
0

datagemma-rag-27b-it-gguf

NaNK
80
0

aixsatoshi-Honyaku-13b-gguf

NaNK
license:llama2
79
1

rinna-bilingual-gpt-neox-4b-gguf

NaNK
license:mit
78
0

baku-13b-v2-gguf

NaNK
llama
74
0

tokyotech-llm-Swallow-MX-8x7b-NVE-v0.1-gguf

NaNK
license:apache-2.0
73
4

llm-jp-13b-v1.0-gguf

NaNK
license:apache-2.0
73
1

watashiha-gpt-6b-gguf

NaNK
license:apache-2.0
73
1

ArrowMint-Gemma3-4B-YUKI-v0.1-gguf

ArrowMint-Gemma3-4B-YUKI-v0.1-gguf DataPilotさんが公開しているArrowMint-Gemma3-4B-YUKI-v0.1のggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。

NaNK
73
0

gemma-3-270m-it-gguf

71
0

llm-jp-13b-v2.0-gguf

NaNK
llama
70
3

tokyotech-llm-Swallow-MS-7b-instruct-v0.1-gguf

NaNK
license:apache-2.0
70
0

mathstral-7B-v0.1-gguf

NaNK
license:apache-2.0
70
0

rinna-bilingual-gpt-neox-4b-instruction-ppo-gguf

NaNK
license:mit
69
0

line-corp-japanese-large-lm-1.7b-gguf

NaNK
license:apache-2.0
69
0

tokyotech-llm-Swallow-7b-instruct-v0.1-gguf

NaNK
license:llama2
68
0

QVQ-72B-Preview-gguf

QVQ-72B-Preview-gguf Qwenさんが公開しているQVQ-72B-Previewのggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。

NaNK
68
0

ABEJA-Qwen2.5-32b-Japanese-v1.0-gguf

NaNK
license:apache-2.0
67
0

line-corp-japanese-large-lm-1.7b-instruction-sft-gguf

NaNK
license:apache-2.0
66
0

Mistral-Small-3.1-24B-Instruct-2503-HF-gguf

NaNK
license:apache-2.0
66
0

DeepSeek-R1-Distill-Llama-8B-gguf

NaNK
llama
63
1

karakuri-vl-32b-instruct-2507-gguf

karakuri-vl-32b-instruct-2507-gguf karakuri-aiさんが公開しているkarakuri-vl-32b-instruct-2507のggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。

NaNK
license:apache-2.0
63
1

phi-4-gguf

NaNK
license:mit
60
0

cyberagent-calm2-7b-gguf

NaNK
license:apache-2.0
59
3

llm-jp-1.3b-v1.0-gguf

NaNK
license:apache-2.0
59
0

japanese-stablelm-base-ja_vocab-beta-7b-gguf

NaNK
license:apache-2.0
59
0

Qwen3-30B-A3B-Instruct-2507-gguf

NaNK
license:apache-2.0
59
0

AXCXEPT-EZO-phi-4-v2_900-gguf

license:mit
55
1

ABEJA-Qwen2.5-32b-Japanese-v0.1-gguf

NaNK
license:apache-2.0
55
1

line-corp-japanese-large-lm-3.6b-gguf

NaNK
license:apache-2.0
55
0

cogito-v1-preview-qwen-32B-gguf

NaNK
license:apache-2.0
54
1

lightblue-ao-karasu-72B-gguf

NaNK
54
0

llm-jp-13b-instruct-full-dolly-ichikara_004_001_single-oasst-oasst2-v2.0-gguf

NaNK
llama
53
0

matsuolab-weblab-10b-instruction-sft-gguf

NaNK
license:cc-by-nc-4.0
52
7

llm-jp-13b-instruct-dolly-en-ja-oasst-v1.1-gguf

NaNK
license:apache-2.0
51
1

llm-jp-3-8x13b-instruct3-gguf

NaNK
license:apache-2.0
47
1

rinna-youri-7b-gguf

NaNK
llama
46
1

qwen2.5-bakeneko-32b-instruct-gguf

NaNK
license:apache-2.0
45
3

aixsatoshi-Honyaku-7b-v2-gguf

NaNK
license:apache-2.0
44
1

AXCXEPT-phi-4-open-R1-Distill-EZOv1-gguf

license:mit
43
3

Athene-V2-Agent-gguf

Athene-V2-Agent-gguf Nexusflowさんが公開しているAthene-V2-Agentのggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。

43
0

japanese-stablelm-instruct-ja_vocab-beta-7b-gguf

NaNK
license:apache-2.0
42
1

Deepreneur-blue-lizard-gguf

llama2
42
1

matsuolab-weblab-10b-gguf

NaNK
license:cc-by-nc-4.0
42
0

napopoa32-swallow-hermes-st-v1-gguf

license:apache-2.0
41
0

lightblue-Karasu-Mixtral-8x22B-v0.1-gguf

NaNK
license:apache-2.0
41
0

Stockmark-2-100B-Instruct-beta-gguf

NaNK
license:mit
40
2

lightblue-karasu-1.1B-gguf

NaNK
llama
40
1

TinySwallow-1.5B-gguf

NaNK
license:apache-2.0
40
0

DeepSeek-V3-0324-experts-pertok-4-gguf

DeepSeek-V3-0324-experts-pertok-4-gguf deepseek-aiさんが公開しているDeepSeek-V3-0324のggufフォーマット変換版です。

NaNK
license:mit
40
0

Tanuki-ZeRo-gguf

license:apache-2.0
38
0

Qwen3-EZO-8B-beta-gguf

NaNK
license:apache-2.0
37
3

HachiML-youri-2x7b_v0.2-gguf

NaNK
llama
34
1

llm-jp-3-980m-instruct3-gguf

NaNK
license:apache-2.0
34
0

qwq-bakeneko-32b-gguf

NaNK
license:apache-2.0
33
3

llm-jp-3.1-8x13b-instruct4-gguf

llm-jp-3.1-8x13b-instruct4-gguf llm-jpさんが公開しているllm-jp-3.1-8x13b-instruct4のggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。

NaNK
license:apache-2.0
33
3

Preferred-MedLLM-Qwen-72B-gguf

NaNK
32
0

AXCXEPT-QwQ-32B-Distill-Qwen-1.5B-Alpha-gguf

NaNK
license:mit
32
0

DeepSeek-V3-slice-jp64-gguf

NaNK
27
6

r1-1776-distill-llama-70b-gguf

NaNK
base_model:perplexity-ai/r1-1776-distill-llama-70b
27
2

llm-jp-3-8x1.8b-instruct3-gguf

NaNK
license:apache-2.0
27
1

OrionStarAI-Orion-14B-Chat-RAG-gguf

NaNK
27
0

qwen2.5-bakeneko-32b-gguf

NaNK
license:apache-2.0
26
0

cogito-v1-preview-qwen-14B-gguf

NaNK
license:apache-2.0
26
0

DeepSeek-V3-bf16-gguf

DeepSeek-V3-bf16-gguf deepseek-aiさんが公開しているDeepSeek-V3のggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。

NaNK
25
0

line-corp-japanese-large-lm-3.6b-instruction-sft-gguf

NaNK
license:apache-2.0
24
3

deepseek-r1-distill-qwen2.5-bakeneko-32b-gguf

deepseek-r1-distill-qwen2.5-bakeneko-32b-gguf rinnaさんが公開しているdeepseek-r1-distill-qwen2.5-bakeneko-32bのggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。

NaNK
license:apache-2.0
23
3

shisa-v2-qwen2.5-7b-gguf

NaNK
license:apache-2.0
23
0

RoguePlanet-DeepSeek-R1-Qwen-32B-gguf

NaNK
license:apache-2.0
20
2

ArrowNeo-AME-3x4B-v0.1-MoE-gguf

NaNK
license:mit
18
0

ERNIE-4.5-21B-A3B-Thinking-gguf

ERNIE-4.5-21B-A3B-Thinking-gguf baiduさんが公開しているERNIE-4.5-21B-A3B-Thinkingのggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。

NaNK
license:apache-2.0
18
0

Phi-4-reasoning-gguf

license:mit
14
0

TinyR1-32B-Preview-gguf

NaNK
license:apache-2.0
12
0

Llama-3.1-Nemotron-Nano-8B-v1-gguf

NaNK
base_model:nvidia/Llama-3.1-Nemotron-Nano-8B-v1
11
1

Gemma-2-Llama-Swallow-27b-it-v0.1-gguf

Gemma-2-Llama-Swallow-27b-it-v0.1-gguf tokyotech-llmさんが公開しているGemma-2-Llama-Swallow-27b-it-v0.1のggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。

NaNK
base_model:tokyotech-llm/Gemma-2-Llama-Swallow-27b-it-v0.1
9
0

llm-jp-1.8bx24-combined-gguf

NaNK
license:apache-2.0
8
0

QwQ-32B-gguf

imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。

NaNK
license:apache-2.0
7
1

WabiSabi-V1-gguf

NaNK
license:apache-2.0
6
3

Sky-T1-32B-Preview-gguf

NaNK
license:apache-2.0
6
0

DeepSeek-V3-slice-jp64

実験モデルです 本モデルは DeepSeek-V3 をベースに、日本語の例文を元に頻出する MoE (Mixture of Experts) の各レイヤーごとのexpertsを厳選して再構成したモデルです。 元のモデルでは 256 のexpertsを搭載していますが、日本語出力における安定性とパフォーマンスのバランスを重視し、各層で頻出する 64 のexpertsを使用するように調整しています。 ライセンス ご使用前にライセンスファイルをご確認ください。 DeepSeek-V3 こちらのライセンスをそのまま使用しています。 - MoEモデルのexpertsから、日本語の例文出力をして各layerごとに頻出する64のexpertをして組み直したモデルです。 - 16ではまともに動かず、32では安定しなかったため64expertsにしています。 - scripts/layertopkidxdistribution.json - 各layerごとに頻出順に128のexpertのrankが記録されています。 - scripts/deepseekslice.py - 元モデル(bf16)から、64のexpertを使用したモデル(bf16)を作成します。 - scripts/modeltest.py - モデル実行用テスト用のスクリプトです。コメントアウトされている例文を元に頻出するexpertを計測しています

NaNK
5
11

Mixtral-Extraction-4x7B-Instruct-v0.1

NaNK
license:apache-2.0
5
5

cyberagent-calm2-7b-chat-GPTQ-calib-ja-1k

NaNK
llama
4
5

Mixtral-Fusion-4x7B-Instruct-v0.1

NaNK
license:apache-2.0
2
18

japanese-stablelm-instruct-gamma-7b-AWQ-calib-ja-1k

NaNK
license:apache-2.0
2
1

japanese-stablelm-base-gamma-7b-AWQ-calib-ja-1k

NaNK
license:apache-2.0
2
0

llm-jp-13b-v1.0-4bit-g128-GPTQ-calib-ja-1k

NaNK
license:apache-2.0
1
2

llm-jp-13b-instruct-full-jaster-dolly-oasst-v1.0-GPTQ-calib-ja-1k

NaNK
license:apache-2.0
1
1

debug

1
0

stockmark-13b-AWQ-calib-ja

NaNK
llama
1
0

japanese-stablelm-base-gamma-7b-GPTQ-calib-ja-1k

NaNK
license:apache-2.0
1
0

cyberagent-calm2-7b-GPTQ-calib-ja-1k

NaNK
llama
1
0

japanese-stablelm-instruct-ja_vocab-beta-7b-GPTQ-calib-ja-1k

NaNK
llama
1
0

japanese-stablelm-base-ja_vocab-beta-7b-GPTQ-calib-ja-1k

NaNK
llama
1
0

ELYZA-japanese-CodeLlama-7b-instruct-GPTQ-calib-ja-1k

NaNK
llama
1
0

line-corp-japanese-large-lm-3.6b-ggml

NaNK
license:apache-2.0
0
4

TinyMixtral-x8-Clonebase-7b

NaNK
license:apache-2.0
0
4

weblab-10b-instruction-sft-ggml

NaNK
license:cc-by-nc-4.0
0
3

ELYZA-japanese-Llama-2-7b-fast-instruct-GPTQ-calib-ja-2k

NaNK
llama
0
3

stockmark-13b-GPTQ-calib-ja-1k

NaNK
llama
0
3

Xwin-LM-7B-AWQ-calib-ja-100k

NaNK
llama
0
2

rinna-bilingual-gpt-neox-4b-instruction-sft-ggml

NaNK
license:mit
0
1

line-corp-japanese-large-lm-3.6b-instruction-sft-ggml

NaNK
license:apache-2.0
0
1

japanese-novel-gpt-j-6b-ggml

NaNK
0
1

line-corp-japanese-large-lm-1.7b-instruction-sft-ggml

NaNK
license:apache-2.0
0
1

line-corp-japanese-large-lm-1.7b-ggml

NaNK
license:apache-2.0
0
1

Xwin-LM-7B-GPTQ-calib-ja-2k

NaNK
llama
0
1

ELYZA-japanese-Llama-2-7b-fast-instruct-AWQ-calib-ja-100k

NaNK
llama
0
1

llm-jp-13b-instruct-full-dolly-oasst-v1.0-GPTQ-calib-ja-1k

NaNK
license:apache-2.0
0
1

command-a-reasoning-08-2025-gguf

command-a-reasoning-08-2025-gguf CohereLabsさんが公開しているcommand-a-reasoning-08-2025のggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。

NaNK
license:cc-by-nc-4.0
0
1

command-a-translate-08-2025-gguf

command-a-translate-08-2025-gguf CohereLabsさんが公開しているcommand-a-translate-08-2025のggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。

NaNK
license:cc-by-nc-4.0
0
1