mmnga
Llama-3-70B-japanese-suzume-vector-v0.1
実験モデルです / This is an experimental model. lightblue/suzume-llama-3-8B-japaneseと、 meta-llama/Meta-Llama-3-8B-Instructの差分をchat-vectorアプローチで抽出し、 meta-llama/Meta-Llama-3-70B-Instructに適用しました - ja 1. `meta-llama/Meta-Llama-3-8B-Instruct`と`lightblue/suzume-llama-3-8B-japanese`の差分を作成 2. shapeが異なるので、差分をmeta-llama/Meta-Llama-3-70B-Instruct用にアップサンプリング 3. 前から 8-layer、最後から8-layerはそのまま適用 4. 中間layerを引き延ばして適用 - en 1. Create the difference between `meta-llama/Meta-Llama-3-8B-Instruct` and `lightblue/zume-llama-3-8B-japanese` 2. Since the shapes are different, the difference is upsampled for meta-llama/Meta-Llama-3-70B-Instruct 3. Apply the 8 layers from the front and 8 layers from the end as they are. 4. Continue applying the middle layer This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated. - Developed by: [More Information Needed] - Funded by [optional]: [More Information Needed] - Shared by [optional]: [More Information Needed] - Model type: [More Information Needed] - Language(s) (NLP): [More Information Needed] - License: [More Information Needed] - Finetuned from model [optional]: [More Information Needed] - Repository: [More Information Needed] - Paper [optional]: [More Information Needed] - Demo [optional]: [More Information Needed] Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations. Carbon emissions can be estimated using the Machine Learning Impact calculator presented in Lacoste et al. (2019). - Hardware Type: [More Information Needed] - Hours used: [More Information Needed] - Cloud Provider: [More Information Needed] - Compute Region: [More Information Needed] - Carbon Emitted: [More Information Needed]
plamo-2-translate-gguf
plamo-2-translate-gguf pfnetさんが公開しているplamo-2-translateのggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。
Llama-3-ELYZA-JP-8B-gguf
cyberagent-DeepSeek-R1-Distill-Qwen-14B-Japanese-gguf
cyberagent-DeepSeek-R1-Distill-Qwen-14B-Japanese-gguf cyberagentさんが公開しているDeepSeek-R1-Distill-Qwen-14B-Japaneseのggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。 models mmnga/cyberagent-DeepSeek-R1-Distill-Qwen-14B-Japanese-gguf mmnga/cyberagent-DeepSeek-R1-Distill-Qwen-32B-Japanese-gguf
ELYZA-japanese-Llama-2-7b-fast-instruct-gguf
ELYZA-japanese-Llama-2-7b-fast-instruct-gguf ELYZAさんが公開しているELYZA-japanese-Llama-2-7b-fast-instructのggufフォーマット変換版です。 通常版: llama2に日本語のデータセットで学習したモデル mmnga/ELYZA-japanese-Llama-2-7b-gguf mmnga/ELYZA-japanese-Llama-2-7b-instruct-gguf Fast版 日本語の語彙を追加してトークンコストを減らし、1.8倍高速化したモデル mmnga/ELYZA-japanese-Llama-2-7b-fast-gguf mmnga/ELYZA-japanese-Llama-2-7b-fast-instruct-gguf Codellama版 GGUF mmnga/ELYZA-japanese-CodeLlama-7b-gguf mmnga/ELYZA-japanese-CodeLlama-7b-instruct-gguf Codellama版 GPTQ mmnga/ELYZA-japanese-CodeLlama-7b-instruct-GPTQ-calib-ja-1k Llama 2 is licensed under the LLAMA 2 Community License, Copyright (c) Meta Platforms, Inc. All Rights Reserved.
Ninja-v1-NSFW-128k-gguf
Vecteus-v1-gguf
RakutenAI-2.0-mini-instruct-gguf
pfnet-nekomata-14b-pfn-qfin-gguf
cyberagent-Mistral-Nemo-Japanese-Instruct-2408-gguf
qwen2.5-bakeneko-32b-instruct-v2-gguf
qwen2.5-bakeneko-32b-instruct-v2-gguf rinnaさんが公開しているqwen2.5-bakeneko-32b-instruct-v2のggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。
Meta-Llama-3-70B-Instruct-gguf
Llama-3.3-70B-Instruct-gguf
tokyotech-llm-Llama-3.1-Swallow-8B-Instruct-v0.1-gguf
YuisekinAIEvol-Mistral-7B-ja-math-v0.1.1-gguf
HODACHI-Borea-Phi-3.5-mini-Instruct-Common-gguf
llm-jp-3.1-1.8b-instruct4-gguf
pfnet-Llama3-Preferred-MedSwallow-70B-gguf
Marco-o1-gguf
lightblue-suzume-llama-3-8B-multilingual-gguf
Aratako-Qwen3-30B-A3B-NSFW-JP-gguf
codegemma-1.1-2b-gguf
ELYZA-japanese-Llama-2-7b-instruct-gguf
DataPilot-ArrowPro-7B-RobinHood-gguf
ELYZA-Thinking-1.0-Qwen-32B-gguf
tokyotech-llm-Llama-3.1-Swallow-8B-Instruct-v0.3-gguf
Llama-3.1-70B-Instruct-gguf
haqishen-Llama-3-8B-Japanese-Instruct-gguf
TinySwallow-1.5B-Instruct-gguf
tokyotech-llm-Llama-3.1-Swallow-70B-Instruct-v0.1-gguf
Moonlight-16B-A3B-Instruct-gguf
Moonlight-16B-A3B-Instruct-gguf moonshotaiさんが公開しているMoonlight-16B-A3B-Instructのggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。
cyberagent-DeepSeek-R1-Distill-Qwen-32B-Japanese-gguf
Llama-3-Swallow-70B-Instruct-v0.1-gguf
umiyuki-Umievo-itr012-Gleipnir-7B-gguf
aya-23-8B-gguf
Llama-3.1-8B-Instruct-gguf
EZO2.5-gemma-3-12b-it-Preview-gguf
Llama-3.1-8B-EZO-1.1-it-gguf
lightblue-DeepSeek-R1-Distill-Qwen-7B-Japanese-gguf
Phi-4-mini-instruct-gguf
codegemma-1.1-7b-it-gguf
HODACHI-EZO-Common-T2-2B-gemma-2-it-gguf
DataPilot-ArrowPro-7B-KUJIRA-gguf
Llama-3.1-Swallow-8B-Instruct-v0.5-gguf
Llama-3.1-Swallow-8B-Instruct-v0.5-gguf tokyotech-llmさんが公開しているLlama-3.1-Swallow-8B-Instruct-v0.5のggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。
Llama-3.1-70B-Japanese-Instruct-2407-gguf
aya-23-35B-gguf
sarashina2.2-0.5b-instruct-v0.1-gguf
llm-jp-13b-instruct-full-dolly-oasst-v1.0-gguf
ELYZA Japanese Llama 2 13b Fast Instruct Gguf
ELYZA-japanese-Llama-2-13b-fast-instruct-gguf ELYZAさんが公開しているELYZA-japanese-Llama-2-13b-fast-instructのggufフォーマット変換版です。 通常版: llama2に日本語のデータセットで学習したモデル mmnga/ELYZA-japanese-Llama-2-7b-gguf mmnga/ELYZA-japanese-Llama-2-7b-instruct-gguf Fast版 日本語の語彙を追加してトークンコストを減らし、1.8倍高速化したモデル mmnga/ELYZA-japanese-Llama-2-7b-fast-gguf mmnga/ELYZA-japanese-Llama-2-7b-fast-instruct-gguf mmnga/ELYZA-japanese-Llama-2-13b-fast-gguf mmnga/ELYZA-japanese-Llama-2-13b-fast-instruct-gguf Codellama版 GGUF mmnga/ELYZA-japanese-CodeLlama-7b-gguf mmnga/ELYZA-japanese-CodeLlama-7b-instruct-gguf Codellama版 GPTQ mmnga/ELYZA-japanese-CodeLlama-7b-instruct-GPTQ-calib-ja-1k Llama 2 is licensed under the LLAMA 2 Community License, Copyright (c) Meta Platforms, Inc. All Rights Reserved.
ELYZA-japanese-CodeLlama-7b-instruct-gguf
webbigdata-ALMA-7B-Ja-V2-gguf
Fugaku-LLM-13B-instruct-gguf
tokyotech-llm-Swallow-13b-instruct-v0.1-gguf
aixsatoshi-Ex-karakuri-8x12B-chat-v1-gguf
gemma-2b-it-gguf
Llama-3-Swallow-8B-Instruct-v0.1-gguf
Light-R1-32B-gguf
HODACHI-EZO-Humanities-9B-gemma-2-it-gguf
karakuri-lm-32b-thinking-2501-exp-gguf
gemma-2-2b-it-gguf
RakutenAI-2.0-8x7B-instruct-gguf
lightblue-qarasu-14B-chat-plus-unleashed-gguf
rinna-nekomata-7b-instruction-gguf
rinna-llama-3-youko-70b-instruct-gguf
Phi-3-medium-128k-instruct-gguf
Llama-3.1-70B-EZO-1.1-it-gguf
ELYZA-Shortcut-1.0-Qwen-7B-gguf
tokyotech-llm-Llama-3.3-Swallow-70B-Instruct-v0.4-gguf
RakutenAI-7B-chat-gguf
RakutenAI-7B-instruct-gguf
ABEJA-QwQ32b-Reasoning-Japanese-v1.0-gguf
Reflection-Llama-3.1-70B-gguf
Qwen3-4B-Instruct-2507-gguf
Llama-4-Scout-17B-16E-Instruct-gguf
Ninja-v1-NSFW-gguf
japanese-stablelm-instruct-gamma-7b-gguf
japanese-stablelm-2-instruct-1_6b-gguf
Phi-3-mini-128k-instruct-gguf
ELYZA-japanese-Llama-2-7b-fast-gguf
DeepSeek-R1-Distill-Qwen-7B-gguf
cyberagent-open-calm-3b-gguf
Meta-Llama-3-8B-Instruct-gguf
c4ai-command-r-plus-gguf
sarashina2.2-3b-instruct-v0.1-gguf
rinna-llama-3-youko-8b-gguf
Ninja-v1-gguf
gemma-7b-it-gguf
cyberagent-calm2-7b-chat-dpo-experimental-gguf
plamo-2-8b-gguf
plamo-2-8b-gguf pfnetさんが公開しているplamo-2-8bのggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。
llm-jp-3.1-13b-instruct4-gguf
aixsatoshi-Llama-3-8b-Cosmopedia-japanese-gguf
lightblue-karasu-7B-chat-plus-unleashed-gguf
cyberagent-open-calm-7b-gguf
Mistral-Large-Instruct-2407-gguf
Mistral-Small-24B-Instruct-2501-gguf
plamo-2-1b-gguf
karakuri-lm-70b-chat-v0.1-gguf
llm-jp-13b-instruct-full-ac_001_16x-dolly-ichikara_004_001_single-oasst-oasst2-v2.0-gguf
alfredplpl-Llama-3-8B-Instruct-Ja-gguf
Ninja-v1-128k-gguf
codegemma-7b-it-gguf
Superswallow-7b-v0.1-gguf
pfnet-nekomata-14b-pfn-qfin-inst-merge-gguf
Gemma-2-Llama-Swallow-9b-it-v0.1-gguf
Gemma-2-Llama-Swallow-9b-it-v0.1-gguf tokyotech-llmさんが公開しているGemma-2-Llama-Swallow-9b-it-v0.1のggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。
tokyotech-llm-Swallow-70b-instruct-v0.1-gguf
Mistral-Nemo-Instruct-2407-gguf
ELYZA-japanese-Llama-2-13b-fast-gguf
DeepSeek-R1-Distill-Qwen-32B-gguf
DeepSeek-R1-Distill-Qwen-32B-gguf deepseek-aiさんが公開しているDeepSeek-R1-Distill-Qwen-32Bのggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。
tokyotech-llm-Llama-3.1-Swallow-8B-Instruct-v0.2-gguf
tokyotech-llm-Llama-3.1-Swallow-8B-Instruct-v0.2-gguf tokyotech-llmさんが公開しているLlama-3.1-Swallow-8B-Instruct-v0.2のggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。
K2-Think-gguf
ELYZA-japanese-Llama-2-7b-gguf
OrionStarAI-Orion-14B-LongChat-gguf
c4ai-command-a-03-2025-gguf
DeepSeek-R1-Distill-Qwen-1.5B-gguf
ryota39-Phi-3-mini-4k-instruct-dpo-gguf
HODACHI-Borea-Phi-3.5-mini-Instruct-Jp-gguf
ABEJA-Qwen2.5-7b-Japanese-v0.1-gguf
Qwen1.5-110B-Chat-gguf
Llama3-ArrowSE-8B-v0.3-gguf
cyberagent-calm2-7b-chat-gguf
rinna-youri-7b-instruction-gguf
aibuncho-japanese-novel-gpt-j-6b-gguf
HODACHI-EZO-Common-9B-gemma-2-it-gguf
llm-jp-3-13b-instruct3-gguf
llm-jp-3-13b-instruct3-gguf llm-jpさんが公開しているllm-jp-3-13b-instruct3のggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。 注意 llama.cppではcustom chat templateが使用できないので、-cvnが使用できません。 モデル mmnga/llm-jp-3-980m-instruct3-gguf mmnga/llm-jp-3-1.8b-instruct3-gguf mmnga/llm-jp-3-3.7b-instruct3-gguf mmnga/llm-jp-3-7.2b-instruct3-gguf mmnga/llm-jp-3-13b-instruct3-gguf mmnga/llm-jp-3-172b-instruct3-gguf
sarashina2.2-1b-instruct-v0.1-gguf
ArrowPro-7B-KillerWhale-gguf
Phi-4-reasoning-plus-gguf
shisa-7b-v1-gguf
ELYZA-japanese-CodeLlama-7b-gguf
Superswallow-13b-v0.1-gguf
Qwen3-30B-A3B-gguf
webbigdata-ALMA-7B-Ja-gguf
lightblue-suzume-llama-3-8B-japanese-gguf
gemma-3n-E4B-it-gguf
gemma-3n-E4B-it-gguf googleさんが公開しているgemma-3n-E4B-itのggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。
llm-jp-13b-instruct-full-ac_001-dolly-ichikara_004_001_single-oasst-oasst2-v2.0-gguf
gemma-3n-E2B-it-gguf
Vezora-Mistral-22B-v0.1-gguf
Mistral-7B-Instruct-v0.3-gguf
stockmark-gpt-neox-japanese-1.4b-gguf
SakanaAI-EvoLLM-JP-A-v1-7B-gguf
c4ai-command-r7b-12-2024-gguf
tokyotech-llm-Swallow-MS-7b-v0.1-gguf
rinna-youri-7b-chat-gguf
karakuri-vl-32b-thinking-2507-exp-gguf
karakuri-vl-32b-thinking-2507-exp-gguf karakuri-aiさんが公開しているkarakuri-vl-32b-thinking-2507-expのggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。
Llama-3.1-Nemotron-70B-Instruct-HF-gguf
c4ai-command-r-plus-08-2024-gguf
DeepSeek-R1-Distill-Qwen-14B-gguf
umiyuki-Japanese-Chat-Umievo-itr001-7b-gguf
tokyotech-llm-Swallow-7b-plus-hf-gguf
llm-jp-3-1.8b-instruct3-gguf
Qwen3-4B-Thinking-2507-gguf
AXCXEPT-phi-4-deepseek-R1K-RL-EZO-gguf
llm-jp-13b-instruct-full-jaster-dolly-oasst-v1.0-gguf
japanese-stablelm-3b-4e1t-instruct-gguf
rinna-nekomata-14b-instruction-gguf
aixsatoshi-Honyaku-Multi-Translator-Swallow-ms7b-gguf
cyberagent-open-calm-1b-gguf
QwQ-32B-Preview-gguf
DeepSeek-R1-Distill-Llama-70B-gguf
DeepSeek-R1-0528-Qwen3-8B-gguf
aixsatoshi-Swallow-MX-8x7b-NVE-chatvector-Mixtral-instruct-v2-gguf
AXCXEPT-EZO-Qwen2.5-72B-Instruct-gguf
tokyotech-llm-Llama-3.1-Swallow-70B-Instruct-v0.3-gguf
rinna-japanese-gpt-neox-3.6b-gguf
gemma-1.1-7b-it-gguf
RakutenAI-7B-gguf
rinna-japanese-gpt-neox-3.6b-instruction-ppo-gguf
karakuri-lm-8x7b-instruct-v0.1-gguf
llm-jp-3-7.2b-instruct3-gguf
llm-jp-3-7.2b-instruct3-gguf llm-jpさんが公開しているllm-jp-3-7.2b-instruct3のggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。 注意 llama.cppではcustom chat templateが使用できないので、-cvnが使用できません。 モデル mmnga/llm-jp-3-980m-instruct3-gguf mmnga/llm-jp-3-1.8b-instruct3-gguf mmnga/llm-jp-3-3.7b-instruct3-gguf mmnga/llm-jp-3-7.2b-instruct3-gguf mmnga/llm-jp-3-13b-instruct3-gguf mmnga/llm-jp-3-172b-instruct3-gguf
baku-10b-chat-v2-gguf
aixsatoshi-calm2-7b-chat-7b-moe-gguf
llm-jp-3-3.7b-instruct3-gguf
Llama-3_3-Nemotron-Super-49B-v1-gguf
stockmark-13b-gguf
SakanaAI-EvoLLM-JP-v1-7B-gguf
Gemma-2-Llama-Swallow-2b-it-v0.1-gguf
Gemma-2-Llama-Swallow-2b-it-v0.1-gguf tokyotech-llmさんが公開しているGemma-2-Llama-Swallow-2b-it-v0.1のggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。
japanese-stablelm-base-gamma-7b-gguf
karakuri-lm-8x7b-chat-v0.1-gguf
sarashina2.1-1b-sft-gguf
baku-10b-gguf
ELYZA-Shortcut-1.0-Qwen-32B-gguf
stockmark-100b-gguf
alfredplpl-suzume-poc-gguf
japanese-stablelm-3b-4e1t-base-gguf
datagemma-rag-27b-it-gguf
aixsatoshi-Honyaku-13b-gguf
rinna-bilingual-gpt-neox-4b-gguf
baku-13b-v2-gguf
tokyotech-llm-Swallow-MX-8x7b-NVE-v0.1-gguf
llm-jp-13b-v1.0-gguf
watashiha-gpt-6b-gguf
ArrowMint-Gemma3-4B-YUKI-v0.1-gguf
ArrowMint-Gemma3-4B-YUKI-v0.1-gguf DataPilotさんが公開しているArrowMint-Gemma3-4B-YUKI-v0.1のggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。
gemma-3-270m-it-gguf
llm-jp-13b-v2.0-gguf
tokyotech-llm-Swallow-MS-7b-instruct-v0.1-gguf
mathstral-7B-v0.1-gguf
rinna-bilingual-gpt-neox-4b-instruction-ppo-gguf
line-corp-japanese-large-lm-1.7b-gguf
tokyotech-llm-Swallow-7b-instruct-v0.1-gguf
QVQ-72B-Preview-gguf
QVQ-72B-Preview-gguf Qwenさんが公開しているQVQ-72B-Previewのggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。
ABEJA-Qwen2.5-32b-Japanese-v1.0-gguf
line-corp-japanese-large-lm-1.7b-instruction-sft-gguf
Mistral-Small-3.1-24B-Instruct-2503-HF-gguf
DeepSeek-R1-Distill-Llama-8B-gguf
karakuri-vl-32b-instruct-2507-gguf
karakuri-vl-32b-instruct-2507-gguf karakuri-aiさんが公開しているkarakuri-vl-32b-instruct-2507のggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。
phi-4-gguf
cyberagent-calm2-7b-gguf
llm-jp-1.3b-v1.0-gguf
japanese-stablelm-base-ja_vocab-beta-7b-gguf
Qwen3-30B-A3B-Instruct-2507-gguf
AXCXEPT-EZO-phi-4-v2_900-gguf
ABEJA-Qwen2.5-32b-Japanese-v0.1-gguf
line-corp-japanese-large-lm-3.6b-gguf
cogito-v1-preview-qwen-32B-gguf
lightblue-ao-karasu-72B-gguf
llm-jp-13b-instruct-full-dolly-ichikara_004_001_single-oasst-oasst2-v2.0-gguf
matsuolab-weblab-10b-instruction-sft-gguf
llm-jp-13b-instruct-dolly-en-ja-oasst-v1.1-gguf
llm-jp-3-8x13b-instruct3-gguf
rinna-youri-7b-gguf
qwen2.5-bakeneko-32b-instruct-gguf
aixsatoshi-Honyaku-7b-v2-gguf
AXCXEPT-phi-4-open-R1-Distill-EZOv1-gguf
Athene-V2-Agent-gguf
Athene-V2-Agent-gguf Nexusflowさんが公開しているAthene-V2-Agentのggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。
japanese-stablelm-instruct-ja_vocab-beta-7b-gguf
Deepreneur-blue-lizard-gguf
matsuolab-weblab-10b-gguf
napopoa32-swallow-hermes-st-v1-gguf
lightblue-Karasu-Mixtral-8x22B-v0.1-gguf
Stockmark-2-100B-Instruct-beta-gguf
lightblue-karasu-1.1B-gguf
TinySwallow-1.5B-gguf
DeepSeek-V3-0324-experts-pertok-4-gguf
DeepSeek-V3-0324-experts-pertok-4-gguf deepseek-aiさんが公開しているDeepSeek-V3-0324のggufフォーマット変換版です。
Tanuki-ZeRo-gguf
Qwen3-EZO-8B-beta-gguf
HachiML-youri-2x7b_v0.2-gguf
llm-jp-3-980m-instruct3-gguf
qwq-bakeneko-32b-gguf
llm-jp-3.1-8x13b-instruct4-gguf
llm-jp-3.1-8x13b-instruct4-gguf llm-jpさんが公開しているllm-jp-3.1-8x13b-instruct4のggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。
Preferred-MedLLM-Qwen-72B-gguf
AXCXEPT-QwQ-32B-Distill-Qwen-1.5B-Alpha-gguf
DeepSeek-V3-slice-jp64-gguf
r1-1776-distill-llama-70b-gguf
llm-jp-3-8x1.8b-instruct3-gguf
OrionStarAI-Orion-14B-Chat-RAG-gguf
qwen2.5-bakeneko-32b-gguf
cogito-v1-preview-qwen-14B-gguf
DeepSeek-V3-bf16-gguf
DeepSeek-V3-bf16-gguf deepseek-aiさんが公開しているDeepSeek-V3のggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。
line-corp-japanese-large-lm-3.6b-instruction-sft-gguf
deepseek-r1-distill-qwen2.5-bakeneko-32b-gguf
deepseek-r1-distill-qwen2.5-bakeneko-32b-gguf rinnaさんが公開しているdeepseek-r1-distill-qwen2.5-bakeneko-32bのggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。
shisa-v2-qwen2.5-7b-gguf
RoguePlanet-DeepSeek-R1-Qwen-32B-gguf
ArrowNeo-AME-3x4B-v0.1-MoE-gguf
ERNIE-4.5-21B-A3B-Thinking-gguf
ERNIE-4.5-21B-A3B-Thinking-gguf baiduさんが公開しているERNIE-4.5-21B-A3B-Thinkingのggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。
Phi-4-reasoning-gguf
TinyR1-32B-Preview-gguf
Llama-3.1-Nemotron-Nano-8B-v1-gguf
Gemma-2-Llama-Swallow-27b-it-v0.1-gguf
Gemma-2-Llama-Swallow-27b-it-v0.1-gguf tokyotech-llmさんが公開しているGemma-2-Llama-Swallow-27b-it-v0.1のggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。
llm-jp-1.8bx24-combined-gguf
QwQ-32B-gguf
imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。
WabiSabi-V1-gguf
Sky-T1-32B-Preview-gguf
DeepSeek-V3-slice-jp64
実験モデルです 本モデルは DeepSeek-V3 をベースに、日本語の例文を元に頻出する MoE (Mixture of Experts) の各レイヤーごとのexpertsを厳選して再構成したモデルです。 元のモデルでは 256 のexpertsを搭載していますが、日本語出力における安定性とパフォーマンスのバランスを重視し、各層で頻出する 64 のexpertsを使用するように調整しています。 ライセンス ご使用前にライセンスファイルをご確認ください。 DeepSeek-V3 こちらのライセンスをそのまま使用しています。 - MoEモデルのexpertsから、日本語の例文出力をして各layerごとに頻出する64のexpertをして組み直したモデルです。 - 16ではまともに動かず、32では安定しなかったため64expertsにしています。 - scripts/layertopkidxdistribution.json - 各layerごとに頻出順に128のexpertのrankが記録されています。 - scripts/deepseekslice.py - 元モデル(bf16)から、64のexpertを使用したモデル(bf16)を作成します。 - scripts/modeltest.py - モデル実行用テスト用のスクリプトです。コメントアウトされている例文を元に頻出するexpertを計測しています
Mixtral-Extraction-4x7B-Instruct-v0.1
cyberagent-calm2-7b-chat-GPTQ-calib-ja-1k
Mixtral-Fusion-4x7B-Instruct-v0.1
japanese-stablelm-instruct-gamma-7b-AWQ-calib-ja-1k
japanese-stablelm-base-gamma-7b-AWQ-calib-ja-1k
llm-jp-13b-v1.0-4bit-g128-GPTQ-calib-ja-1k
llm-jp-13b-instruct-full-jaster-dolly-oasst-v1.0-GPTQ-calib-ja-1k
debug
stockmark-13b-AWQ-calib-ja
japanese-stablelm-base-gamma-7b-GPTQ-calib-ja-1k
cyberagent-calm2-7b-GPTQ-calib-ja-1k
japanese-stablelm-instruct-ja_vocab-beta-7b-GPTQ-calib-ja-1k
japanese-stablelm-base-ja_vocab-beta-7b-GPTQ-calib-ja-1k
ELYZA-japanese-CodeLlama-7b-instruct-GPTQ-calib-ja-1k
line-corp-japanese-large-lm-3.6b-ggml
TinyMixtral-x8-Clonebase-7b
weblab-10b-instruction-sft-ggml
ELYZA-japanese-Llama-2-7b-fast-instruct-GPTQ-calib-ja-2k
stockmark-13b-GPTQ-calib-ja-1k
Xwin-LM-7B-AWQ-calib-ja-100k
rinna-bilingual-gpt-neox-4b-instruction-sft-ggml
line-corp-japanese-large-lm-3.6b-instruction-sft-ggml
japanese-novel-gpt-j-6b-ggml
line-corp-japanese-large-lm-1.7b-instruction-sft-ggml
line-corp-japanese-large-lm-1.7b-ggml
Xwin-LM-7B-GPTQ-calib-ja-2k
ELYZA-japanese-Llama-2-7b-fast-instruct-AWQ-calib-ja-100k
llm-jp-13b-instruct-full-dolly-oasst-v1.0-GPTQ-calib-ja-1k
command-a-reasoning-08-2025-gguf
command-a-reasoning-08-2025-gguf CohereLabsさんが公開しているcommand-a-reasoning-08-2025のggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。
command-a-translate-08-2025-gguf
command-a-translate-08-2025-gguf CohereLabsさんが公開しているcommand-a-translate-08-2025のggufフォーマット変換版です。 imatrixのデータはTFMC/imatrix-dataset-for-japanese-llmを使用して作成しました。