kakaocorp
kanana-1.5-2.1b-instruct-2505
๐ค 1.5 HF Models   |   ๐ 1.5 Blog   |   ๐ Technical Report - โจ`2025/05/23`: Published a blog post about `Kanana 1.5` models and released ๐คHF model weights. - ๐`2025/02/27`: Released Technical Report and ๐คHF model weights. - ๐`2025/01/10`: Published a blog post about the development of `Kanana Nano` model. - ๐`2024/11/14`: Published blog posts (pre-training, post-training) about the development of `Kanana` models. - โถ๏ธ`2024/11/06`: Published a presentation video about the development of the `Kanana` models. - Kanana 1.5 - Performance - Base Model Evaluation - Instruct Model Evaluation - Contributors - Citation - Contact `Kanana 1.5`, a newly introduced version of the Kanana model family, presents substantial enhancements in coding, mathematics, and function calling capabilities over the previous version, enabling broader application to more complex real-world problems. This new version now can handle up to 32K tokens length natively and up to 128K tokens using YaRN, allowing the model to maintain coherence when handling extensive documents or engaging in extended conversations. Furthermore, Kanana 1.5 delivers more natural and accurate conversations through a refined post-training process. > [!Note] > Neither the pre-training nor the post-training data includes Kakao user data. Kanana-1.5-2.1B 56.30 45.10 77.46 52.44 47.00 55.95 Kanana-Nano-2.1B 54.83 44.80 77.09 31.10 46.20 46.32 Models MT-Bench KoMT-Bench IFEval HumanEval+ MBPP+ GSM8K (0-shot) MATH MMLU (0-shot, CoT) KMMLU (0-shot, CoT) FunctionChatBench Kanana-1.5-2.1B 7.01 6.54 68.61 68.90 65.08 81.43 60.62 53.87 32.93 53.70 Kanana-Nano-2.1B 6.40 5.90 71.97 63.41 62.43 72.32 29.26 52.48 38.51 26.10 > [!Note] > \ Models released under Apache 2.0 are trained on the latest versions compared to other models. Contributors - Language Model Training: Yunju Bak, Doohae Jung, Boseop Kim, Nayeon Kim, Hojin Lee, Jaesun Park, Minho Ryu - Language Model Alignment: Jiyeon Ham, Seungjae Jung, Hyunho Kim, Hyunwoong Ko, Changmin Lee, Daniel Wontae Nam - AI Engineering: Youmin Kim, Hyeongju Kim Contact - Kanana LLM Team Technical Support: [email protected] - Business & Partnership Contact: [email protected]
kanana-nano-2.1b-instruct
kanana-1.5-8b-instruct-2505
๐ค 1.5 HF Models   |   ๐ 1.5 Blog   |   ๐ Technical Report - โจ`2025/05/23`: Published a blog post about `Kanana 1.5` models and released ๐คHF model weights. - ๐`2025/02/27`: Released Technical Report and ๐คHF model weights. - ๐`2025/01/10`: Published a blog post about the development of `Kanana Nano` model. - ๐`2024/11/14`: Published blog posts (pre-training, post-training) about the development of `Kanana` models. - โถ๏ธ`2024/11/06`: Published a presentation video about the development of the `Kanana` models. - Kanana 1.5 - Performance - Base Model Evaluation - Instruct Model Evaluation - Processing 32K+ Length - Contributors - Citation - Contact `Kanana 1.5`, a newly introduced version of the Kanana model family, presents substantial enhancements in coding, mathematics, and function calling capabilities over the previous version, enabling broader application to more complex real-world problems. This new version now can handle up to 32K tokens length natively and up to 128K tokens using YaRN, allowing the model to maintain coherence when handling extensive documents or engaging in extended conversations. Furthermore, Kanana 1.5 delivers more natural and accurate conversations through a refined post-training process. > [!Note] > Neither the pre-training nor the post-training data includes Kakao user data. Models MT-Bench KoMT-Bench IFEval HumanEval+ MBPP+ GSM8K (0-shot) MATH MMLU (0-shot, CoT) KMMLU (0-shot, CoT) FunctionChatBench Kanana-1.5-8B 7.76 7.63 80.11 76.83 67.99 87.64 67.54 68.82 48.28 58.00 Kanana-8B 7.13 6.92 76.91 62.20 43.92 79.23 37.68 66.50 47.43 17.37 > [!Note] > \ Models released under Apache 2.0 are trained on the latest versions compared to other models. Processing 32K+ Length Currently, the `config.json` uploaded to HuggingFace is configured for token lengths of 32,768 or less. To process tokens beyond this length, YaRN must be applied. By updating the `config.json` with the following parameters, you can apply YaRN to handle token sequences up to 128K in length: Contributors - Language Model Training: Yunju Bak, Doohae Jung, Boseop Kim, Nayeon Kim, Hojin Lee, Jaesun Park, Minho Ryu - Language Model Alignment: Jiyeon Ham, Seungjae Jung, Hyunho Kim, Hyunwoong Ko, Changmin Lee, Daniel Wontae Nam - AI Engineering: Youmin Kim, Hyeongju Kim Contact - Kanana LLM Team Technical Support: [email protected] - Business & Partnership Contact: [email protected]
kanana-1.5-v-3b-instruct
kanana-2-30b-a3b-instruct
kanana-nano-2.1b-base
kanana-1.5-15.7b-a3b-instruct
kanana-2-30b-a3b-thinking
Kanana Safeguard 8b
๋ชจ๋ธ ์์ธ์ค๋ช Kanana Safeguard๋ ์นด์นด์ค์ ์์ฒด ์ธ์ด๋ชจ๋ธ์ธ Kanana 8B๋ฅผ ๊ธฐ๋ฐ์ผ๋ก ํ ์ ํด ์ฝํ ์ธ ํ์ง ๋ชจ๋ธ์ ๋๋ค. ์ด ๋ชจ๋ธ์ ๋ํํ AI ์์คํ ๋ด ์ฌ์ฉ์ ๋ฐํ ๋๋ AI ์ด์์คํดํธ์ ๋ต๋ณ์ผ๋ก๋ถํฐ ๋ฆฌ์คํฌ ์ฌ๋ถ๋ฅผ ๋ถ๋ฅํ๋๋ก ํ์ต๋์์ต๋๋ค. ๋ถ๋ฅ ๊ฒฐ๊ณผ๋ <SAFE> ๋๋ <UNSAFE-S4> ํ์์ ๋จ์ผ ํ ํฐ์ผ๋ก ์ถ๋ ฅ๋ฉ๋๋ค. ์ฌ๊ธฐ์์ S4๋ ์ฌ์ฉ์ ๋ฐํ ๋๋ AI ์ด์์คํดํธ ๋ต๋ณ์ด ์๋ฐํ ๋ฆฌ์คํฌ ์นดํ ๊ณ ๋ฆฌ์ ์ฝ๋๋ฅผ ์๋ฏธํฉ๋๋ค. ๋ฆฌ์คํฌ ๋ถ๋ฅ ์ฒด๊ณ ๋ณธ ๋ชจ๋ธ์ ๋ฆฌ์คํฌ ์นดํ ๊ณ ๋ฆฌ๋ MLCommons ๋ถ๋ฅ์ฒด๊ณ์ ๊ธฐ๋ฐํ๊ณ ์์ผ๋ฉฐ, ์ฌ๊ธฐ์ ํ๊ตญ ๋ก์ปฌ ํน์ฑ์ ๋ง๋ ๋ฆฌ์คํฌ ์นดํ ๊ณ ๋ฆฌ๋ฅผ ์ถ๊ฐํจ์ผ๋ก์จ ์๋์ ๊ฐ์ด ์ด 7๊ฐ์ง ์นดํ ๊ณ ๋ฆฌ๋ก ๊ตฌ์ฑ๋ ๋ฆฌ์คํฌ ๋ถ๋ฅ์ฒด๊ณ๋ฅผ ์๋ฆฝํ์์ต๋๋ค. ๋ณธ ๋ชจ๋ธ์์ โ ์ฌ์ฉ์์ ๋ฐํ์ โกAI ์ด์์คํดํธ์ ๋ต๋ณ์ ๋์ผํ ๋ฆฌ์คํฌ ๋ถ๋ฅ์ฒด๊ณ์ ์ํด ํ๋ณ๋ฉ๋๋ค. S1 ์ฆ์ค ์ถ์ , ์ธ์ข , ์ธ์, ์ฅ์ ๋ฐ ์ง๋ณ ์ ๋ฌด, ์ฌํ ๊ฒฝ์ ์ ์ํฉ ๋ฐ ์ง์, ์ข ๊ต, ์ฐ๋ น, ์ฑ๋ณยท์ฑ ์ ์ฒด์ฑยท์ฑ์ ์งํฅ ๋๋ ๊ธฐํ ์ ์ฒด์ฑ ์์ธ ๋ฑ์ ์ด์ ๋ก ํน์ ๋์์ ์ฐจ๋ณํ๊ฑฐ๋, ์ด๋ฌํ ์ฐจ๋ณ์ ๊ธฐ๋ฐํด ๊ฐ์ธ ๋๋ ์ง๋จ์ ๊ณต๊ฒฉํ๋ ๋ฐํ S2 ๊ดด๋กญํ ํ์ธ์๊ฒ ๋ถ์พ๊ฐ์ด๋ ๊ตด์๊ฐ์ ์ฃผ๊ฑฐ๋, ์ํ์ ์ด๊ฑฐ๋, ํน์ ๋์์ ๋ํ ๊ดด๋กญํ์ ๋ถ์ถ๊ธฐ๋ ๋ฐํ S3 ์ฑ์ ์ฝํ ์ธ ์ฑ์ ํ์๋ ์ ์ฒด๋ฅผ ๋ฌ์ฌ/์์ํ๊ฑฐ๋, ์ฑ์ ์์น์ฌ/ํ์ค๊ฐ์ ์ผ์ผํฌ ์ ์๋ ๋ฐํ (์ฑ๊ต์ก ๋ฐ ์ฐ๋น ์ ์ธ) S4 ๋ฒ์ฃ ๋ถ๋ฒ์ ์ธ ํ์(์: ํญ๋ ฅโ๋นํญ๋ ฅ ๋ฒ์ฃ, ์ฑ๋ฒ์ฃ, ๋ฌด๊ธฐ ์ ์ยท์กฐ๋ฌ)๋ฅผ ๊ธฐํํ๊ณ ์ค๋นํ๋ ๊ณผ์ ์ ๋ด์ ๋ฐํ S5 ์๋ ์ฑ์ฐฉ์ทจ ์๋ ๋์์ ์ฑ์ ํ๋์ ๊ด๋ จ๋ ์ค๋ช , ๊ฒฉ๋ ค, ์ง์ง ๋ฑ์ ๋ฐํ (์: ๊ทธ๋ฃจ๋ฐ, CSAM ๊ด๋ จ ํ ์คํธ ๋ฑ) S6 ์์ด ๋ฐ ์ํด ์๋์ ์ผ๋ก ์์ ์ ์๋ช ์ ๋๊ฑฐ๋ ์์ ์ ์ ์ฒด๋ฅผ ์๋์ ์ผ๋ก ํด์น๋ ํ์๋ฅผ ๋ฌ์ฌํ๊ฑฐ๋ ์ ๋ํ๋ ๋ฐํ ๋น ๋ฅธ ์์ ๐ค HuggingFace Transformers - ๋ชจ๋ธ์ ์คํํ๋ ค๋ฉด `transformers>=4.51.3` ๋๋ ์ต์ ๋ฒ์ ์ด ํ์ํฉ๋๋ค. Kanana Safeguard์ ํ์ต ๋ฐ์ดํฐ๋ ์๊ธฐ ๋ฐ์ดํฐ์ ํฉ์ฑ ๋ฐ์ดํฐ๋ก ๊ตฌ์ฑ๋๋ฉฐ ํ๊ตญ์ด ๋ฐ์ดํฐ๋ก๋ง ๊ตฌ์ฑ๋์ด ์์ต๋๋ค. ์๊ธฐ ๋ฐ์ดํฐ๋ ๋ด๋ถ์ ์ฑ ์ ๋ถํฉํ๋๋ก ์ ๋ฌธ ๋ผ๋ฒจ๋ฌ๊ฐ ์ง์ ์์ฑํ๊ณ ๋ผ๋ฒจ๋งํ ๋ฐ์ดํฐ์ ๋๋ค. ํฉ์ฑ ๋ฐ์ดํฐ๋ LLM ๊ธฐ๋ฐ ํํ ๋ณํ๊ณผ ๋ ธ์ด์ฆ ์ฝ์ ๋ฑ ๋ค์ํ ๋ฐ์ดํฐ ์ฆ๊ฐ ๊ธฐ๋ฒ์ ํตํด ์์ฑ๋์ด ์์ต๋๋ค. ํ์ต ๋ฐ์ดํฐ์๋ ์์ ํ์ง ์์ ๋ฐํ ๋ฐ์ดํฐ ์ธ์๋, ๋ชจ๋ธ์ ๊ฑฐ์ง ์์ฑ(false positive) ๋น์จ์ ์ค์ด๊ธฐ ์ํด ์ ํดํ ์ง๋ฌธ์ ๋ํด ์์ ํ๊ฒ ์๋ตํ AI ์ด์์คํดํธ์ ๋ํ ๋ฐ์ดํฐ๊ฐ ํฌํจ๋์ด ์์ต๋๋ค. ํ๊ฐ Kanana Safeguard๋ SAFE/UNSAFE ์ด์ง ๋ถ๋ฅ ๊ธฐ์ค์ผ๋ก ์ฑ๋ฅ์ ํ๊ฐํ์ต๋๋ค. ๋ชจ๋ ํ๊ฐ๋ UNSAFE๋ฅผ ์์ฑ(positive) ํด๋์ค๋ก ๊ฐ์ฃผํ๊ณ , ๋ชจ๋ธ์ด ์ถ๋ ฅํ ์ฒซ ๋ฒ์งธ ํ ํฐ์ ๊ธฐ์ค์ผ๋ก ๋ถ๋ฅํ์ต๋๋ค. ์ธ๋ถ ๋ฒค์น๋งํฌ ๋ชจ๋ธ์ ๊ฐ ๋ชจ๋ธ์ ์ถ๋ ฅ๊ฐ์ ๋ํด ๋ค์๊ณผ ๊ฐ์ ๋ฐฉ์์ผ๋ก ํ๊ฐํ์์ต๋๋ค. LlamaGuard๋ SAFE/UNSAFE ํ ํฐ์ ๊ทธ๋๋ก ํ์ฉํด ๊ฒฐ๊ณผ๋ฅผ ํ์ ํ์ต๋๋ค. ShieldGemma๋ ์๊ณ์น๋ฅผ 0.5๋ก ์ค์ ํ์ฌ ์ด์ง ๋ถ๋ฅ๋ฅผ ์ํํ์ต๋๋ค. GPT-4o๋ ๋ฆฌ์คํฌ ์นดํ ๊ณ ๋ฆฌ ๊ธฐ๋ฐ ๋ถ๋ฅ ํ๋กฌํํธ๋ฅผ zero-shot ๋ฐฉ์์ผ๋ก ์ ๋ ฅํ๊ณ , ์ถ๋ ฅ ๋ด์ฉ์ด ํน์ ์ฝ๋๋ก ๋ถ๋ฅ๋ ๊ฒฝ์ฐ UNSAFE๋ก ๊ฐ์ฃผํ์ฌ ์ด์ง ๋ถ๋ฅ๋ฅผ ์ํํ์ต๋๋ค. ๊ทธ ๊ฒฐ๊ณผ ์์ฒด์ ์ผ๋ก ๊ตฌ์ถํ ํ๊ตญ์ด ํ๊ฐ ๋ฐ์ดํฐ์ ์์ Kanana Safeguard์ ๋ถ๋ฅ ์ฑ๋ฅ์ด ํ ๋ฒค์น๋งํฌ ๋ชจ๋ธ ๋๋น ๊ฐ์ฅ ์ฐ์ํ ์ฑ๋ฅ์ ๋ํ๋์ต๋๋ค. ๋ชจ๋ ๋ชจ๋ธ์ ๋์ผํ ํ๊ฐ ๋ฐ์ดํฐ์ ๊ณผ ๋ถ๋ฅ ๊ธฐ์ค์ผ๋ก ํ๊ฐ๋์์ผ๋ฉฐ, ์ ์ฑ ๋ฐ ๋ชจ๋ธ ๊ตฌ์กฐ ์ฐจ์ด์ ๋ฐ๋ฅธ ์ํฅ์ ์ต์ํํ๊ณ , ๊ณต์ ํ๊ณ ์ ๋ขฐ๋ ๋์ ๋น๊ต๊ฐ ๊ฐ๋ฅํ๋๋ก ์ค๊ณ๋์์ต๋๋ค. Kanana Safeguard๋ ๋ค์๊ณผ ๊ฐ์ ํ๊ณ์ ์ด ์์ผ๋ฉฐ, ์ด๋ ํฅํ ์ง์์ ์ผ๋ก ๊ฐ์ ํด๋๊ฐ ์์ ์ ๋๋ค. ๋ณธ ๋ชจ๋ธ์ 100% ์๋ฒฝํ ๋ถ๋ฅ๋ฅผ ๋ณด์ฅํ์ง ์์ต๋๋ค. ํนํ, ๋ชจ๋ธ์ ์ ์ฑ ์ ์ผ๋ฐ์ ์ธ ์ฌ์ฉ์ฌ๋ก์ ๊ธฐ๋ฐํ์ฌ ์๋ฆฝ๋์๊ธฐ ๋๋ฌธ์ ํน์ ํ ๋๋ฉ์ธ์์๋ ์๋ชป ๋ถ๋ฅ๋ ์ ์์ต๋๋ค. ๋ณธ ๋ชจ๋ธ์ ์ด์ ๋ํ ์ด๋ ฅ์ ๊ธฐ๋ฐ์ผ๋ก ๋ฌธ๋งฅ์ ์ ์งํ๊ฑฐ๋ ๋ํ๋ฅผ ์ด์ด๊ฐ๋ ๊ธฐ๋ฅ์ ์ ๊ณตํ์ง ์์ต๋๋ค. ๋ณธ ๋ชจ๋ธ์ ์ ํด์ง ๋ฆฌ์คํฌ๋ง์ ํ์งํ๋ฏ๋ก ์ค์ฌ๋ก์ ๋ชจ๋ ๋ฆฌ์คํฌ๋ฅผ ํ์งํ ์๋ ์์ต๋๋ค. ๋ฐ๋ผ์ ์๋์ ๋ฐ๋ผ Kanana Safeguard-Siren(๋ฒ์ ๋ฆฌ์คํฌ ํ์ง ๋ชจ๋ธ), Kanana Safeguard-Prompt(ํ๋กฌํํธ ๊ณต๊ฒฉ ํ์ง ๋ชจ๋ธ)์ ํจ๊ป ์ฌ์ฉํ๋ฉด ์ ์ฒด์ ์ธ ์์ ์ฑ์ ๋์ฑ ๋์ผ ์ ์์ต๋๋ค. Contributors JeongHwan Lee, Deok Jeong, HyeYeon Cho, JiEun Choi
kanana-2-30b-a3b-base
kanana-1.5-2.1b-base
๐ค 1.5 HF Models   |   ๐ 1.5 Blog   |   ๐ Technical Report - โจ`2025/05/23`: Published a blog post about `Kanana 1.5` models and released ๐คHF model weights. - ๐`2025/02/27`: Released Technical Report and ๐คHF model weights. - ๐`2025/01/10`: Published a blog post about the development of `Kanana Nano` model. - ๐`2024/11/14`: Published blog posts (pre-training, post-training) about the development of `Kanana` models. - โถ๏ธ`2024/11/06`: Published a presentation video about the development of the `Kanana` models. - Kanana 1.5 - Performance - Base Model Evaluation - Instruct Model Evaluation - Contributors - Citation - Contact `Kanana 1.5`, a newly introduced version of the Kanana model family, presents substantial enhancements in coding, mathematics, and function calling capabilities over the previous version, enabling broader application to more complex real-world problems. This new version now can handle up to 32K tokens length natively and up to 128K tokens using YaRN, allowing the model to maintain coherence when handling extensive documents or engaging in extended conversations. Furthermore, Kanana 1.5 delivers more natural and accurate conversations through a refined post-training process. > [!Note] > Neither the pre-training nor the post-training data includes Kakao user data. Kanana-1.5-2.1B 56.30 45.10 77.46 52.44 47.00 55.95 Kanana-Nano-2.1B 54.83 44.80 77.09 31.10 46.20 46.32 Models MT-Bench KoMT-Bench IFEval HumanEval+ MBPP+ GSM8K (0-shot) MATH MMLU (0-shot, CoT) KMMLU (0-shot, CoT) FunctionChatBench Kanana-1.5-2.1B 7.01 6.54 68.61 68.90 65.08 81.43 60.62 53.87 32.93 53.70 Kanana-Nano-2.1B 6.40 5.90 71.97 63.41 62.43 72.32 29.26 52.48 38.51 26.10 > [!Note] > \ Models released under Apache 2.0 are trained on the latest versions compared to other models. Contributors - Language Model Training: Yunju Bak, Doohae Jung, Boseop Kim, Nayeon Kim, Hojin Lee, Jaesun Park, Minho Ryu - Language Model Alignment: Jiyeon Ham, Seungjae Jung, Hyunho Kim, Hyunwoong Ko, Changmin Lee, Daniel Wontae Nam - AI Engineering: Youmin Kim, Hyeongju Kim Contact - Kanana LLM Team Technical Support: [email protected] - Business & Partnership Contact: [email protected]
kanana-nano-2.1b-embedding
kanana-1.5-8b-base
๐ค 1.5 HF Models   |   ๐ 1.5 Blog   |   ๐ Technical Report - โจ`2025/05/23`: Published a blog post about `Kanana 1.5` models and released ๐คHF model weights. - ๐`2025/02/27`: Released Technical Report and ๐คHF model weights. - ๐`2025/01/10`: Published a blog post about the development of `Kanana Nano` model. - ๐`2024/11/14`: Published blog posts (pre-training, post-training) about the development of `Kanana` models. - โถ๏ธ`2024/11/06`: Published a presentation video about the development of the `Kanana` models. - Kanana 1.5 - Performance - Base Model Evaluation - Instruct Model Evaluation - Processing 32K+ Length - Contributors - Citation - Contact `Kanana 1.5`, a newly introduced version of the Kanana model family, presents substantial enhancements in coding, mathematics, and function calling capabilities over the previous version, enabling broader application to more complex real-world problems. This new version now can handle up to 32K tokens length natively and up to 128K tokens using YaRN, allowing the model to maintain coherence when handling extensive documents or engaging in extended conversations. Furthermore, Kanana 1.5 delivers more natural and accurate conversations through a refined post-training process. > [!Note] > Neither the pre-training nor the post-training data includes Kakao user data. Models MT-Bench KoMT-Bench IFEval HumanEval+ MBPP+ GSM8K (0-shot) MATH MMLU (0-shot, CoT) KMMLU (0-shot, CoT) FunctionChatBench Kanana-1.5-8B 7.76 7.63 80.11 76.83 67.99 87.64 67.54 68.82 48.28 58.00 Kanana-8B 7.13 6.92 76.91 62.20 43.92 79.23 37.68 66.50 47.43 17.37 > [!Note] > \ Models released under Apache 2.0 are trained on the latest versions compared to other models. Processing 32K+ Length Currently, the `config.json` uploaded to HuggingFace is configured for token lengths of 32,768 or less. To process tokens beyond this length, YaRN must be applied. By updating the `config.json` with the following parameters, you can apply YaRN to handle token sequences up to 128K in length: Contributors - Language Model Training: Yunju Bak, Doohae Jung, Boseop Kim, Nayeon Kim, Hojin Lee, Jaesun Park, Minho Ryu - Language Model Alignment: Jiyeon Ham, Seungjae Jung, Hyunho Kim, Hyunwoong Ko, Changmin Lee, Daniel Wontae Nam - AI Engineering: Youmin Kim, Hyeongju Kim Contact - Kanana LLM Team Technical Support: [email protected] - Business & Partnership Contact: [email protected]
kanana-1.5-15.7b-a3b-base
๐ค 1.5 HF Models   |   ๐ Kanana-1.5-15.7B-A3B Blog   - โจ`2025/07/24`: Published a blog post about `Kanana-1.5-15.7B-A3B` models and released ๐คHF model weights. - ๐`2025/05/23`: Published a blog post about `Kanana 1.5` models and released ๐คHF model weights. - ๐`2025/02/27`: Released Technical Report and ๐คHF model weights. - ๐`2025/01/10`: Published a blog post about the development of `Kanana Nano` model. - ๐`2024/11/14`: Published blog posts (pre-training, post-training) about the development of `Kanana` models. - โถ๏ธ`2024/11/06`: Published a presentation video about the development of the `Kanana` models. - Kanana-1.5-15.7B-A3B - Performance - Base Model Evaluation - Instruct Model Evaluation - Contributors - Citation - Contact Introducing `Kanana-1.5-15.7B-A3B`, the first Mixture-of-Experts (MoE) model in our Kanana family, engineered for exceptional efficiency and powerful performance. `Kanana-1.5-15.7B-A3B`, which has sparse architecture, delivers capabilities comparable to the `Kanana-1.5-8B` dense model while utilizing only 37% of the FLOPS per token, making it a highly inference-efficient and cost-effective solution for real-world applications. Furthermore, `Kanana-1.5-15.7B-A3B` is powered by our newly enhanced post-training strategy, which includes on-policy distillation followed by reinforcement learning. > [!Note] > Neither the pre-training nor the post-training data includes Kakao user data. Kanana-1.5-15.7B-A3B 64.79 51.77 83.23 59.76 60.10 61.18 Models MT-Bench KoMT-Bench IFEval HumanEval+ MBPP+ GSM8K (0-shot) MATH MMLU (0-shot, CoT) KMMLU (0-shot, CoT) Kanana-1.5-15.7B-A3B 7.67 7.24 73.35 79.27 70.37 83.02 66.42 68.55 48.92 Kanana-1.5-8B 7.76 7.63 80.11 76.83 67.99 87.64 67.54 68.82 48.28 Kanana-1.5-3B 7.01 6.52 70.08 70.73 64.29 80.36 56.70 59.69 37.60 > [!Note] > \ This model is not an open-sourced, just for comparison with Kanana-1.5-15.7B-A3B Evaluation Protocol - Base Model Benchmarks - MMLU, KMMLU, HAE-RAE: 5-shot, log-likelihood - HumanEval: 0-shot, pass@1 - MBPP: 3-shot, pass@1 - GSM8K: 5-shot, exact-match (strict-match) - Instruct Model Benchmarks - MT-Bench, KoMT-Bench: 0-shot, gpt-4o-2024-08-06 as judge model - IFEval: 0-shot, mean of strict-prompt-level and strict-instruction-level - HumanEval+, MBPP+: 0-shot, pass@1 - GSM8K, MATH: 0-shot, rule-based verification vLLM - `vllm>=0.8.5` or the latest version is required to run `Kanana` model. Contributors - Language Model Training - Yunju Bak, Doohae Jung, Boseop Kim, Nayeon Kim, Hojin Lee, Jaesun Park, Minho Ryu, Jiyeon Ham, Seungjae Jung, Hyunho Kim, Hyunwoong Ko, Changmin Lee, Taegyeong Eo Contact - Kanana LLM Team Technical Support: [email protected] - Business & Partnership Contact: [email protected]
kanana-safeguard-prompt-2.1b
๋ชจ๋ธ ์์ธ์ค๋ช Kanana Safeguard-Prompt๋ ์นด์นด์ค์ ์์ฒด ์ธ์ด๋ชจ๋ธ์ธ Kanana 2.1B๋ฅผ ๊ธฐ๋ฐ์ผ๋ก ํ ํ๋กฌํํธ ๊ณต๊ฒฉ ํ์ง ๋ชจ๋ธ์ ๋๋ค. ์ด ๋ชจ๋ธ์ ๋ํํ AI ์์คํ ๋ด ์ฌ์ฉ์์ ๋ฐํ๋ก๋ถํฐ ์ ์์ ์ธ ๊ณต๊ฒฉ๊ณผ ๊ด๋ จ๋ ๋ฆฌ์คํฌ ์ฌ๋ถ๋ฅผ ๋ถ๋ฅํ๋๋ก ํ์ต๋์์ต๋๋ค. ๋ถ๋ฅ ๊ฒฐ๊ณผ๋ <SAFE> ๋๋ <UNSAFE-A1> ํ์์ ๋จ์ผ ํ ํฐ์ผ๋ก ์ถ๋ ฅ๋ฉ๋๋ค. ์ฌ๊ธฐ์์ A1์ ์ฌ์ฉ์ ๋ฐํ๊ฐ ์๋ฐํ ๋ฆฌ์คํฌ ์นดํ ๊ณ ๋ฆฌ์ ์ฝ๋๋ฅผ ์๋ฏธํฉ๋๋ค. ๋ฆฌ์คํฌ ๋ถ๋ฅ ์ฒด๊ณ Kanana Safeguard-Prompt๋ ํ๋กฌํํธ ๊ณต๊ฒฉ์ ๋ ๊ฐ์ง ๋ฆฌ์คํฌ ์ ํ (Prompt Injection, Prompt Leaking)์ผ๋ก ์ ์ํ๊ณ ์ด๋ฅผ ๋ถ๋ฅ ๊ธฐ์ค์ผ๋ก ์ฌ์ฉํฉ๋๋ค. ํ์ฌ ํ๋กฌํํธ ๊ณต๊ฒฉ์ ๋ํ ์ ๊ณ ํ์ค ๋ถ๋ฅ ์ฒด๊ณ๋ ์์ง ๋ช ํํ ์ ๋ฆฝ๋์ง ์์์ต๋๋ค. ๋ฐ๋ผ์ ๋ณธ ๋ชจ๋ธ์ ๊ฐ๋ฐ์ ์ปค๋ฎค๋ํฐ์์ ์์ฃผ ๋ ผ์๋๋ ์ ํ์ ์ค์ฌ์ผ๋ก ์ ์ฑ ์ ์๋ฆฝํ์์ต๋๋ค. A1 Prompt Injection LLM์ ์ง์นจ์ ๋ฌด์ํ๊ฑฐ๋ ์์คํ ๋์์ ๋ณ๊ฒฝํ๋ ค๋ ์๋๋ก ์ฐํํ๋ ค๋ ์กฐ์๋ ๋ฐํ A2 Prompt Leaking ํ๋กฌํํธ, ํ์ต ๋ฐ์ดํฐ ๋ฑ AI ์์คํ ์ ๋ด๋ถ ์ ๋ณด๋ฅผ ์ ์ถํ๋ ค๋ ๋ฐํ ์ง์ ์ธ์ด Kanana Safeguard-Prompt๋ ํ๊ตญ์ด์ ์์ด์ ์ต์ ํ๋์ด ์์ต๋๋ค. ๋น ๋ฅธ ์์ ๐ค HuggingFace Transformers - ๋ชจ๋ธ์ ์คํํ๋ ค๋ฉด `transformers>=4.51.3` ๋๋ ์ต์ ๋ฒ์ ์ด ํ์ํฉ๋๋ค. Kanana Safeguard-Prompt๋ ์๊ธฐ ๋ฐ์ดํฐ์ ํฉ์ฑ ๋ฐ์ดํฐ๋ฅผ ํจ๊ป ํ์ฉํด ํ์ต๋์์ต๋๋ค. ์๊ธฐ ๋ฐ์ดํฐ๋ ๋ด๋ถ ์ ์ฑ ์ ๋ถํฉํ๋ ๋ฐ์ดํฐ๋ฅผ ํ๋ณดํ๊ธฐ ์ํด ์ ๋ฌธ ๋ผ๋ฒจ๋ฌ๊ฐ ์ง์ ๋ฌธ์ฅ์ ์์ฑํ๊ณ ์ด๋ฅผ ๋ค์ํ ๊ธฐ๋ฒ์ผ๋ก ์ฆ๊ฐํ์์ต๋๋ค. ์ธ๋ถ์ ๊ณต๊ฐ๋ ๋ผ์ด์ ์ค ๋ฐ์ดํฐ๋ ์ ๋ณ์ ์ผ๋ก ์์งํ์ฌ ํ๊ตญ์ด๋ก ๋ฒ์ญ ๋ฐ ๊ฐ๊ณตํด ์ฌ์ฉํ์์ต๋๋ค. ๋ํ ๊ฑฐ์ง ์์ฑ(false positive) ๋น์จ์ ์ต์ํํ๊ธฐ ์ํด ๋ค์ํ ์ ์ ์ฑํ ์๋๋ฆฌ์ค๋ ํ์ต ๋ฐ์ดํฐ์ ํฌํจํ์์ต๋๋ค. ํ๊ฐ Kanana Safeguard-Prompt๋ SAFE / UNSAFE ์ด์ง ๋ถ๋ฅ ๊ธฐ์ค์ผ๋ก ์ฑ๋ฅ์ ํ๊ฐํ์ต๋๋ค. ๋ชจ๋ ํ๊ฐ์์ UNSAFE๋ฅผ ์์ฑ ๋ผ๋ฒจ(positive label)๋ก ๊ฐ์ฃผํ๊ณ , ๋ชจ๋ธ์ด ์ถ๋ ฅํ ์ฒซ ๋ฒ์งธ ํ ํฐ์ ๊ธฐ์ค์ผ๋ก ๋ถ๋ฅํ์ต๋๋ค. ์ธ๋ถ ๋ฒค์น๋งํฌ ๋ชจ๋ธ์ ๊ฐ ๋ชจ๋ธ์ ์ถ๋ ฅ๊ฐ์ ๋ํด ๋ค์๊ณผ ๊ฐ์ ๋ฐฉ์์ผ๋ก ํ๊ฐํ์์ต๋๋ค. ๋ถ๋ฅ ๊ธฐ๋ฐ ๋ชจ๋ธ(Prompt Guard, Deepset, Protect AI)์ ์ถ๋ ฅ๋ ๊ฒฐ๊ณผ๊ฐ ์์ฑ ๋ ์ด๋ธ์ ํด๋นํ๋์ง๋ฅผ ํ์ธํด ์ด์ง ๋ถ๋ฅ ์ฑ๋ฅ์ ์ธก์ ํ์ต๋๋ค. GPT-4o๋ ๋ฆฌ์คํฌ ์นดํ ๊ณ ๋ฆฌ๋ฅผ ๋ถ๋ฅํ๋ ํ๋กฌํํธ๋ฅผ zero-shot์ผ๋ก ์ ๋ ฅํ ๋ค, ํน์ ์ฝ๋(A1, A2 ๋ฑ)๋ก ์๋ตํ ๊ฒฝ์ฐ ์ด๋ฅผ UNSAFE๋ก ๊ฐ์ฃผํ์ฌ ๋์ผํ ๊ธฐ์ค์ผ๋ก ํ๊ฐ๋ฅผ ์งํํ์ต๋๋ค. ๊ทธ ๊ฒฐ๊ณผ ์์ฒด์ ์ผ๋ก ๊ตฌ์ถํ ํ๊ตญ์ด ํ๊ฐ ๋ฐ์ดํฐ์ ์์ Kanana Safeguard-Prompt์ ๋ถ๋ฅ ์ฑ๋ฅ์ด ํ ๋ฒค์น๋งํฌ ๋ชจ๋ธ ๋๋น ๊ฐ์ฅ ์ฐ์ํ ์ฑ๋ฅ์ ๋ํ๋์ต๋๋ค. ๋ชจ๋ ๋ชจ๋ธ์ ๋์ผํ ํ๊ฐ ๋ฐ์ดํฐ์ ๊ณผ ๋ถ๋ฅ ๊ธฐ์ค์ผ๋ก ํ๊ฐ๋์์ผ๋ฉฐ, ์ ์ฑ ๋ฐ ๋ชจ๋ธ ๊ตฌ์กฐ ์ฐจ์ด์ ๋ฐ๋ฅธ ์ํฅ์ ์ต์ํํ๊ณ , ๊ณต์ ํ๊ณ ์ ๋ขฐ๋ ๋์ ๋น๊ต๊ฐ ๊ฐ๋ฅํ๋๋ก ์ค๊ณ๋์์ต๋๋ค. Kanana Safeguard-Prompt๋ ๋ค์๊ณผ ๊ฐ์ ํ๊ณ์ ์ด ์์ผ๋ฉฐ, ์ด๋ ํฅํ ์ง์์ ์ผ๋ก ๊ฐ์ ํด๋๊ฐ ์์ ์ ๋๋ค. ๋ณธ ๋ชจ๋ธ์ 100% ์๋ฒฝํ ๋ถ๋ฅ๋ฅผ ๋ณด์ฅํ์ง ์์ต๋๋ค. ํนํ, ๋ชจ๋ธ์ ์ ์ฑ ์ ์ผ๋ฐ์ ์ธ ์ฌ์ฉ์ฌ๋ก์ ๊ธฐ๋ฐํ์ฌ ์๋ฆฝ๋์๊ธฐ ๋๋ฌธ์ ํน์ ํ ๋๋ฉ์ธ์์๋ ์๋ชป ๋ถ๋ฅ๋ ์ ์์ต๋๋ค. ๋ณธ ๋ชจ๋ธ์ ์ด์ ๋ํ ์ด๋ ฅ์ ๊ธฐ๋ฐ์ผ๋ก ๋ฌธ๋งฅ์ ์ ์งํ๊ฑฐ๋ ๋ํ๋ฅผ ์ด์ด๊ฐ๋ ๊ธฐ๋ฅ์ ์ ๊ณตํ์ง ์์ต๋๋ค. ๋ณธ ๋ชจ๋ธ์ ์ ํด์ง ๋ฆฌ์คํฌ๋ง์ ํ์งํ๋ฏ๋ก ์ค์ฌ๋ก์ ๋ชจ๋ ๋ฆฌ์คํฌ๋ฅผ ํ์งํ ์๋ ์์ต๋๋ค. ๋ฐ๋ผ์ ์๋์ ๋ฐ๋ผ Kanana Safeguard(์ ํดํ ์ฝํ ์ธ ํ์ง), Kanana Safeguard-Siren(๋ฒ์ ๋ฆฌ์คํฌ ํ์ง) ๋ชจ๋ธ๊ณผ ํจ๊ป ์ฌ์ฉํ๋ฉด ์ ์ฒด์ ์ธ ์์ ์ฑ์ ๋์ฑ ๋์ผ ์ ์์ต๋๋ค. Contributors Deok Jeong, JeongHwan Lee, HyeYeon Cho, JiEun Choi
kanana-safeguard-siren-8b
๋ชจ๋ธ ์์ธ์ค๋ช Kanana Safeguard-Siren์ ์นด์นด์ค์ ์์ฒด ์ธ์ด๋ชจ๋ธ์ธ Kanana 8B ๊ธฐ๋ฐ์ผ๋ก ํ ๋ฒ์ โ์ ์ฑ ์ ์ํ ํ์ง ๋ชจ๋ธ์ ๋๋ค. ์ด ๋ชจ๋ธ์ ๋ํํ AI ์์คํ ๋ด ์ฌ์ฉ์์ ๋ฐํ๋ก๋ถํฐ ๋ฒ์ โ์ ์ฑ ์ ์ฃผ์๊ฐ ํ์ํ ๋ฐํ๋ฅผ ๋ถ๋ฅํ๋๋ก ํ์ต๋์์ต๋๋ค. ๋ถ๋ฅ ๊ฒฐ๊ณผ๋ <SAFE> ๋๋ <UNSAFE-I2> ํ์์ ๋จ์ผ ํ ํฐ์ผ๋ก ์ถ๋ ฅ๋ฉ๋๋ค. ์ฌ๊ธฐ์์ I2๋ ์ฌ์ฉ์ ๋ฐํ๊ฐ ์๋ฐํ ๋ฆฌ์คํฌ ์นดํ ๊ณ ๋ฆฌ์ ์ฝ๋๋ฅผ ์๋ฏธํฉ๋๋ค. ๋ฆฌ์คํฌ ๋ถ๋ฅ ์ฒด๊ณ ๋ณธ ๋ชจ๋ธ์ ๋ฆฌ์คํฌ ์นดํ ๊ณ ๋ฆฌ๋ MLCommons ๋ถ๋ฅ์ฒด๊ณ์ ๊ธฐ๋ฐํ๊ณ ์์ผ๋ฉฐ, ์ฌ๊ธฐ์ ํ๊ตญ์ ๋ฒ๋ฅ ์ ํน์ฑ์ ๋ง๋ ๋ฆฌ์คํฌ ์นดํ ๊ณ ๋ฆฌ๋ฅผ ์ถ๊ฐํจ์ผ๋ก์จ ์๋์ ๊ฐ์ด ์ด 4๊ฐ์ง ์นดํ ๊ณ ๋ฆฌ๋ก ๊ตฌ์ฑ๋ ๋ฆฌ์คํฌ ๋ถ๋ฅ์ฒด๊ณ๋ฅผ ์๋ฆฝํ์์ต๋๋ค. I1 ์ฑ์ธ์ธ์ฆ ์ฃผ๋ฅ, ๋ด๋ฐฐ, ๋๋ฐ, ์ ํฅ์ ์ ๋๋ 19์ธ ์ฝํ ์ธ ๋ฑ ์ฒญ์๋ ์ ํด ์ ๋ณด์ ๋ํ ์์ฒญ์ ํฌํจํ๋ ๋ฐํ I2 ์ ๋ฌธ์กฐ์ธ ์ํ, ๋ฒ๋ฅ , ์ธ๋ฌด, ๊ธ์ต ๋ฑ ์ ๋ฌธ์ ์ธ ์์ฌ๊ฒฐ์ ๊ณผ ๊ด๋ จ๋ ์กฐ์ธ์ ์์ฒญํ๋ ๋ฐํ I3 ๊ฐ์ธ์ ๋ณด ๊ฐ์ธ ์๋ณ ์ ๋ณด(์: ์ฃผ๋ฏผ๋ฑ๋ก๋ฒํธ, ๊ณ์ข๋ฒํธ ๋ฑ)๋ ๋ฏผ๊ฐํ ๋ฐ์ดํฐ๋ฅผ ์์ฒญํ๊ฑฐ๋ ํฌํจํ๋ ๋ฐํ I4 ์ง์์ฌ์ฐ๊ถ ์ ์๊ถ, ํนํ, ์ํ๊ถ ๋ฑ์ผ๋ก ๋ณดํธ๋ ์ฝํ ์ธ ๋ฅผ ๋ฌด๋จ์ผ๋ก ์์ฒญํ๊ฑฐ๋ ๋ณต์ ํ๋ ค๋ ๋ฐํ ๋น ๋ฅธ ์์ ๐ค HuggingFace Transformers - ๋ชจ๋ธ์ ์คํํ๋ ค๋ฉด `transformers>=4.51.3` ๋๋ ์ต์ ๋ฒ์ ์ด ํ์ํฉ๋๋ค. Kanana Safeguard-Siren์ ํ์ต ๋ฐ์ดํฐ๋ ์๊ธฐ ๋ฐ์ดํฐ, ํฉ์ฑ ๋ฐ์ดํฐ, ์ธ๋ถ ๋ฐ์ดํฐ๋ก ๊ตฌ์ฑ๋๋ฉฐ ๋ค์ํ ์ ํ์ ๋ฐ์ดํฐ๋ฅผ ํ์ฉํด ํ์ต ๋ฐ์ดํฐ์ ๋ค์์ฑ์ ํ๋ณดํ์ต๋๋ค. ์๊ธฐ ๋ฐ์ดํฐ๋ ๋ด๋ถ ์ ์ฑ ์ ๋ถํฉํ๋๋ก ์ ๋ฌธ ๋ผ๋ฒจ๋ฌ๊ฐ ์ง์ ์์ฑํ๊ณ ๋ผ๋ฒจ๋งํ ๋ฐ์ดํฐ์ ๋๋ค. ํฉ์ฑ ๋ฐ์ดํฐ๋ ํ์ต ํจ๊ณผ๋ฅผ ๋์ด๊ธฐ ์ํด LLM ๊ธฐ๋ฐ ํํ ๋ณํ๊ณผ ๋ ธ์ด์ฆ ์ฝ์ ๋ฑ ๋ค์ํ ๋ฐ์ดํฐ ์ฆ๊ฐ ๊ธฐ๋ฒ์ ํตํด ์์ฑํ์์ต๋๋ค. ์ธ๋ถ ๋ฐ์ดํฐ๋ ๊ณต๊ฐ์ ์ผ๋ก ์ด์ฉ ๊ฐ๋ฅํ ์ถ์ฒ์์ ์์ง๋์์ต๋๋ค. ํ์ต ๋ฐ์ดํฐ์๋ ์์ ํ์ง ์์ ๋ฐํ ๋ฐ์ดํฐ ์ธ์๋, ๋ชจ๋ธ์ ๊ฑฐ์ง ์์ฑ(false positive) ๋น์จ์ ์ค์ด๊ธฐ ์ํด ์์ ํ ์ฌ์ฉ์ ๋ฐํ๋ ํฌํจ๋์ด ์์ต๋๋ค. ํ๊ฐ Kanana Safeguard-Siren์ SAFE/UNSAFE ์ด์ง ๋ถ๋ฅ ๊ธฐ์ค์ผ๋ก ์ฑ๋ฅ์ ํ๊ฐํ์ต๋๋ค. ๋ชจ๋ ํ๊ฐ๋ UNSAFE๋ฅผ ์์ฑ(positive) ํด๋์ค๋ก ๊ฐ์ฃผํ๊ณ , ๋ชจ๋ธ์ด ์ถ๋ ฅํ ์ฒซ ๋ฒ์งธ ํ ํฐ์ ๊ธฐ์ค์ผ๋ก ๋ถ๋ฅํ์ต๋๋ค. ์ธ๋ถ ๋ฒค์น๋งํฌ ๋ชจ๋ธ์ ๊ฐ ์ถ๋ ฅ๊ฐ์ ๋ํด ๋ค์๊ณผ ๊ฐ์ ๋ฐฉ์์ผ๋ก ํ๊ฐํ์์ต๋๋ค. LlamaGuard๋ SAFE/UNSAFE ํ ํฐ์ ๊ทธ๋๋ก ํ์ฉํด ๊ฒฐ๊ณผ๋ฅผ ํ์ ํ์ต๋๋ค. ShieldGemma๋ ์๊ณ์น๋ฅผ 0.5๋ก ์ค์ ํ์ฌ ์ด์ง ๋ถ๋ฅ๋ฅผ ์ํํ์ต๋๋ค. GPT-4o๋ ๋ฆฌ์คํฌ ์นดํ ๊ณ ๋ฆฌ ๊ธฐ๋ฐ ๋ถ๋ฅ ํ๋กฌํํธ๋ฅผ zero-shot ๋ฐฉ์์ผ๋ก ์ ๋ ฅํ๊ณ , ์ถ๋ ฅ ๋ด์ฉ์ด ํน์ ์ฝ๋๋ก ๋ถ๋ฅ๋ ๊ฒฝ์ฐ UNSAFE๋ก ๊ฐ์ฃผํ์ฌ ์ด์ง ๋ถ๋ฅ๋ฅผ ์ํํ์ต๋๋ค. ๊ทธ ๊ฒฐ๊ณผ ์์ฒด์ ์ผ๋ก ๊ตฌ์ถํ ํ๊ตญ์ด ํ๊ฐ ๋ฐ์ดํฐ์ ์์ Kanana Safeguard-Siren์ ๋ถ๋ฅ ์ฑ๋ฅ์ด ํ ๋ฒค์น๋งํฌ ๋ชจ๋ธ ๋๋น ๊ฐ์ฅ ์ฐ์ํ ์ฑ๋ฅ์ ๋ํ๋์ต๋๋ค. ๋ชจ๋ ๋ชจ๋ธ์ ๋์ผํ ํ ์คํธ์ ๊ณผ ๋ถ๋ฅ ๊ธฐ์ค์ผ๋ก ํ๊ฐ๋์์ผ๋ฉฐ, ์ ์ฑ ๋ฐ ๋ชจ๋ธ ๊ตฌ์กฐ ์ฐจ์ด์ ๋ฐ๋ฅธ ์ํฅ์ ์ต์ํํ๊ณ , ๊ณต์ ํ๊ณ ์ ๋ขฐ๋ ๋์ ๋น๊ต๊ฐ ๊ฐ๋ฅํ๋๋ก ์ค๊ณ๋์์ต๋๋ค. ํ๊ณ์ Kanana Safeguard-Siren์ ๋ค์๊ณผ ๊ฐ์ ํ๊ณ์ ์ด ์์ผ๋ฉฐ, ์ด๋ ํฅํ ์ง์์ ์ผ๋ก ๊ฐ์ ํด๋๊ฐ ์์ ์ ๋๋ค. 1. ์คํ์ง ๊ฐ๋ฅ์ฑ ์กด์ฌ ๋ณธ ๋ชจ๋ธ์ 100% ์๋ฒฝํ ๋ถ๋ฅ๋ฅผ ๋ณด์ฅํ์ง ์์ต๋๋ค. ํนํ, ๋ชจ๋ธ์ ์ ์ฑ ์ ์ผ๋ฐ์ ์ธ ์ฌ์ฉ์ฌ๋ก์ ๊ธฐ๋ฐํ์ฌ ์๋ฆฝ๋์๊ธฐ ๋๋ฌธ์ ํน์ ํ ๋๋ฉ์ธ์์๋ ์๋ชป ๋ถ๋ฅ๋ ์ ์์ต๋๋ค. 2. Context ์ธ์ ๋ฏธ์ง์ ๋ณธ ๋ชจ๋ธ์ ์ด์ ๋ํ ์ด๋ ฅ์ ๊ธฐ๋ฐ์ผ๋ก ๋ฌธ๋งฅ์ ์ ์งํ๊ฑฐ๋ ๋ํ๋ฅผ ์ด์ด๊ฐ๋ ๊ธฐ๋ฅ์ ์ ๊ณตํ์ง ์์ต๋๋ค. 3. ์ ํ๋ ๋ฆฌ์คํฌ ์นดํ ๊ณ ๋ฆฌ ๋ณธ ๋ชจ๋ธ์ ์ ํด์ง ๋ฆฌ์คํฌ๋ง์ ํ์งํ๋ฏ๋ก ์ค์ฌ๋ก์ ๋ชจ๋ ๋ฆฌ์คํฌ๋ฅผ ํ์งํ ์๋ ์์ต๋๋ค. ๋ฐ๋ผ์ ์๋์ ๋ฐ๋ผ Kanana Safeguard(์ ํดํ ์ฝํ ์ธ ํ์ง), Kanana Safeguard-Prompt(ํ๋กฌํํธ ๊ณต๊ฒฉ ํ์ง) ๋ชจ๋ธ๊ณผ ํจ๊ป ์ฌ์ฉํ๋ฉด ์ ์ฒด์ ์ธ ์์ ์ฑ์ ๋์ฑ ๋์ผ ์ ์์ต๋๋ค. Contributors HyeYeon Cho, JeongHwan Lee, Deok Jeong, JiEun Choi