Youlln

23 models • 17 total models in database
Sort by:

ECE-MIRAGE-1-15B

ECE-MIRAGE-1-15B est un modèle de langage fusionné développé à l'ECE (École d'Ingénieurs) en utilisant la méthode de fusion SLERP (Spherical Linear Interpolation). Ce modèle combine les forces des architectures rombodawg/Rombos-LLM-V2.5-Qwen-32b et Sakalti/ultiima-32B pour offrir des performances optimisées sur des tâches complexes.

NaNK
license:apache-2.0
8
1

ECE-PRYMMAL0.5-FT

This model is based on the transformers library and is licensed under the Apache 2.0 license.

NaNK
license:apache-2.0
7
0

ECE-PRYMMAL-0.5B-FT-V4-MUSR

This model is based on the transformers library and is licensed under Apache 2.0.

NaNK
license:apache-2.0
6
0

ECE-PRYMMAL-YL-7B-SLERP

NaNK
license:apache-2.0
5
0

1PARAMMYL-8B-ModelStock

Tags include merge and mergekit.

NaNK
llama
4
1

ECE.EIFFEIL.ia-0.5B-SLERP

Base model: Youlln/ECE-Qwen 0.5B FT V2, Qwen/Qwen 2.5 0.5B Instruct.

NaNK
license:apache-2.0
3
0

ECE-PRYMMAL-YL-7B-SLERP-V4

Library name: transformers. License: apache-2.0.

NaNK
license:apache-2.0
3
0

ECE-PRYMMAL-YL-1B-SLERP-V2

Transformers library with Apache 2.0 license.

NaNK
license:apache-2.0
3
0

ECE-MIRAGE-3

NaNK
license:mit
3
0

ECE-PRYMMAL0.5B-Youri

Base model: Qwen Qwen 2.5 0.5B, Qwen Qwen 2 0.5B.

NaNK
2
1

ECE-Qwen0.5B-FT-V2

Base model Qwen with 0.5B parameters fine-tuned on instruct datasets.

NaNK
license:apache-2.0
2
0

ECE-EIFFEL.ia-0.5B-FT-V2-Q8

NaNK
license:apache-2.0
2
0

ECE-PRYMMAL-0.5B-SLERP-V3

This model is based on the transformers library and is licensed under Apache 2.0.

NaNK
license:apache-2.0
2
0

ECE-PRYMMAL-0.5B-SLERP-V4

NaNK
license:apache-2.0
2
0

ECE-PRYMMAL-YL-1B-SLERP-V1

Library for transformers with Apache 2.0 license.

NaNK
license:apache-2.0
2
0

internvl2-aircraft-detection-full

Modèle InternVL2-2B fine-tuné pour la détection de 12 parties d'avion. Ce modèle est basé sur InternVL2-2B (OpenGVLab) et a été fine-tuné avec une tête de détection personnalisée pour détecter les parties suivantes d'un avion : - 1. fuselage - 2. cockpit - 3. derive - 4. empennage - 5. aile - 6. aileron - 7. volet - 8. reacteur - 9. nacellemoteur - 10. tuyere - 11. trainatterrissage - 12. porte Paramètres entraînés : ~2M (Detection Head + ROI Projector) Paramètres frozen : ~2B (InternVL2-2B) - Dataset : Custom aircraft parts dataset - Epochs : 10 - Batch size : 4 - Learning rate : 0.0001 MIT License - Voir le fichier LICENSE pour plus de détails. - InternVL2 par OpenGVLab : OpenGVLab/InternVL2-2B - Basé sur l'architecture Vision-Language Model Pour toute question ou suggestion, n'hésitez pas à ouvrir une issue sur le repo. Note : Ce modèle contient le modèle InternVL2-2B complet (~4.4GB). Si vous voulez seulement les poids de la tête de détection (~10MB), utilisez le checkpoint léger `checkpointbest.pt`.

NaNK
license:mit
2
0

ECE-ILAB-Yi1.5-6B-SLERP

NaNK
llama
1
0

3PRYMMAL-PHI3-3B-SLERP

Base model: jpacifico/Chocolatine-3B-Instruct-DPO-Revised, microsoft/Phi-3-mini-4k-instruct.

NaNK
license:apache-2.0
1
0

ECE-PRYMMAL1B-FT-V1

This model is based on the Apache 2.0 licensed Transformers library.

NaNK
license:apache-2.0
1
0

ECE-PRYMMAL-0.5B-FT-V3

Apache 2.0 licensed library using transformers as the base model.

NaNK
license:apache-2.0
1
0

ECE-PRYMMAL-0.5B-FT-V3-MUSR

This model is based on the transformers library and is licensed under Apache 2.0.

NaNK
license:apache-2.0
1
0

TRIOMPHANT-ECE-2.3-72B

NaNK
license:apache-2.0
0
2

4PRYMMAL-GEMMA2-9B-SLERP

Base model grimjim Magot v1 Gemma 2 8k 9B ehristoforu Gemma 2 9b it train 6.

NaNK
license:apache-2.0
0
1