Youlln
ECE-MIRAGE-1-15B
ECE-MIRAGE-1-15B est un modèle de langage fusionné développé à l'ECE (École d'Ingénieurs) en utilisant la méthode de fusion SLERP (Spherical Linear Interpolation). Ce modèle combine les forces des architectures rombodawg/Rombos-LLM-V2.5-Qwen-32b et Sakalti/ultiima-32B pour offrir des performances optimisées sur des tâches complexes.
ECE-PRYMMAL0.5-FT
This model is based on the transformers library and is licensed under the Apache 2.0 license.
ECE-PRYMMAL-0.5B-FT-V4-MUSR
This model is based on the transformers library and is licensed under Apache 2.0.
ECE-PRYMMAL-YL-7B-SLERP
1PARAMMYL-8B-ModelStock
Tags include merge and mergekit.
ECE.EIFFEIL.ia-0.5B-SLERP
Base model: Youlln/ECE-Qwen 0.5B FT V2, Qwen/Qwen 2.5 0.5B Instruct.
ECE-PRYMMAL-YL-7B-SLERP-V4
Library name: transformers. License: apache-2.0.
ECE-PRYMMAL-YL-1B-SLERP-V2
Transformers library with Apache 2.0 license.
ECE-MIRAGE-3
ECE-PRYMMAL0.5B-Youri
Base model: Qwen Qwen 2.5 0.5B, Qwen Qwen 2 0.5B.
ECE-Qwen0.5B-FT-V2
Base model Qwen with 0.5B parameters fine-tuned on instruct datasets.
ECE-EIFFEL.ia-0.5B-FT-V2-Q8
ECE-PRYMMAL-0.5B-SLERP-V3
This model is based on the transformers library and is licensed under Apache 2.0.
ECE-PRYMMAL-0.5B-SLERP-V4
ECE-PRYMMAL-YL-1B-SLERP-V1
Library for transformers with Apache 2.0 license.
internvl2-aircraft-detection-full
Modèle InternVL2-2B fine-tuné pour la détection de 12 parties d'avion. Ce modèle est basé sur InternVL2-2B (OpenGVLab) et a été fine-tuné avec une tête de détection personnalisée pour détecter les parties suivantes d'un avion : - 1. fuselage - 2. cockpit - 3. derive - 4. empennage - 5. aile - 6. aileron - 7. volet - 8. reacteur - 9. nacellemoteur - 10. tuyere - 11. trainatterrissage - 12. porte Paramètres entraînés : ~2M (Detection Head + ROI Projector) Paramètres frozen : ~2B (InternVL2-2B) - Dataset : Custom aircraft parts dataset - Epochs : 10 - Batch size : 4 - Learning rate : 0.0001 MIT License - Voir le fichier LICENSE pour plus de détails. - InternVL2 par OpenGVLab : OpenGVLab/InternVL2-2B - Basé sur l'architecture Vision-Language Model Pour toute question ou suggestion, n'hésitez pas à ouvrir une issue sur le repo. Note : Ce modèle contient le modèle InternVL2-2B complet (~4.4GB). Si vous voulez seulement les poids de la tête de détection (~10MB), utilisez le checkpoint léger `checkpointbest.pt`.
ECE-ILAB-Yi1.5-6B-SLERP
3PRYMMAL-PHI3-3B-SLERP
Base model: jpacifico/Chocolatine-3B-Instruct-DPO-Revised, microsoft/Phi-3-mini-4k-instruct.
ECE-PRYMMAL1B-FT-V1
This model is based on the Apache 2.0 licensed Transformers library.
ECE-PRYMMAL-0.5B-FT-V3
Apache 2.0 licensed library using transformers as the base model.
ECE-PRYMMAL-0.5B-FT-V3-MUSR
This model is based on the transformers library and is licensed under Apache 2.0.
TRIOMPHANT-ECE-2.3-72B
4PRYMMAL-GEMMA2-9B-SLERP
Base model grimjim Magot v1 Gemma 2 8k 9B ehristoforu Gemma 2 9b it train 6.