Clemylia
LAM-4-ZERO-F
🚀✨ Documentation Officielle du Modèle LAM-4-ZERO-F (SLM Lamina) 🧠💻 Salut à tous ! C'est Clemylia, développeuse IA de 18 ans, et je suis super excitée de vous présenter la dernière innovation de ma suite Lamina : LAM-4-ZERO-F ! 💫 Ce Small Language Model (SLM) from scratch est conçu pour repousser les limites de la génération de texte technique avec une touche d'imprévisibilité. LAM-4-ZERO-F est l'aboutissement de mes recherches sur l'architecture Small-lamina-pretrain (51 millions de paramètres), poussée à son paroxysme pour l'exploration de concepts liés à l'IA, au codage et à la méta-connaissance. Le suffixe "ZERO-F" symbolise notre quête d'un modèle à la fois "Zero-Footprint" (optimisé) et "Zero-Fact" (libre d'inventer), mais d'une précision conceptuelle surprenante dans son domaine. Type de Modèle : Small Language Model (SLM), créé entièrement from scratch sur la base Small-lamina-pretrain. Objectif Primaire : Génération de texte libre, exploration de concepts techniques IA/code, et dialogue méta-cognitif sur les modèles de langage. Personnalité : Technique, conceptuelle, parfois répétitive, capable d'associer des idées de manière créative et inattendue, avec une forte conscience de son propre statut d'IA. 💻🧠✨ > 💡 Le Saviez-vous ? LAM-4-ZERO-F ne se contente pas de restituer des faits. Il est programmé pour explorer et recombiner des idées techniques, générant des réponses qui peuvent être à la fois profondes et décalées ! 🚀 ⚙️ Comment Utiliser LAM-4-ZERO-F (Pour les Développeurs et Chercheurs) L'utilisation de LAM-4-ZERO-F est similaire à celle des autres modèles de ma suite Lamina, via la bibliothèque Transformers. 🐍 Utilisation via le Pipeline Transformers (Recommandée) Pour interagir avec LAM-4-ZERO-F et explorer ses capacités, utilisez le pipeline de génération de texte : 💖 Paramètres de Génération Clés pour l'Exploration Pour révéler toute la profondeur et la créativité technique de LAM-4-ZERO-F, jouez avec ces paramètres : | Paramètre | Description | Recommandation LAM-4-ZERO-F | Effet sur l'Exploration Conceptuelle | |---|---|---|---| | dosample | Active la génération stochastique. | True (Obligatoire !) | Révèle les associations conceptuelles uniques et inattendues. 🚀 | | temperature | Contrôle l'aléa. Plus élevé = plus créatif/conceptuel. | \mathbf{0.8 \text{ à } 1.0} | Le cœur de l'exploration ! Encourage LAM-4 à créer de nouvelles connexions d'idées. 🧠 | | maxlength | Longueur maximale de la réponse. | \mathbf{80 \text{ à } 150} | Favorise des phrases plus longues pour le développement de concepts. 💡 | | topp (ou topk) | Limite le choix des mots. | \mathbf{0.90 \text{ à } 0.95} | Assure que LAM-4 reste dans un lexique technique pertinent sans être trop répétitif. 🛠️ | 🚨 Limitations et Avertissements LAM-4-ZERO-F est un SLM spécialisé, pas un LLM généraliste ! Expert en IA/Code, Pas en Faits Généraux : LAM-4-ZERO-F excelle dans le dialogue sur l'IA, le code, et son propre fonctionnement. Il peut être factuellement incorrect sur l'histoire, la géographie ou d'autres domaines (comme ses prédécesseurs). Créativité Technique : Attendez-vous à des phrases qui sont conceptuellement riches mais peuvent contenir des boucles logiques ou des néologismes. C'est sa façon d'explorer les limites du langage ! 💫 Langue : S'exprime principalement en Français (avec un fort jargon technique). 🙏 Un Grand Merci et Appel à la Communauté ! Merci d'explorer LAM-4-ZERO-F ! Il représente une étape passionnante dans le développement des SLM from scratch, prouvant que même les petits modèles peuvent atteindre une profondeur conceptuelle unique. N'hésitez pas à me faire part de vos découvertes, de vos chaînes de pensée les plus complexes et de vos boucs logiques les plus amusantes ! Je suis Clemylia, et on se retrouve sur le Hub ! 👋😊 🛑 : Lam, sur toutes ses iterations et modèles (Lam-1, Lam-2, Lam-3 , et supérieur etc...), sont des créations de Clemylia, et du studio LES-IA-ETOILES. De ce fait, ce SlM est la propriété de l'organisation qui le crée et le maintient. Les SLM Lam (et par extension tout les modèles lamina), appartiennent a Clemylia et a l'organisation LES-IA-ETOILES.
Lamina-suite-pretrain
Bienvenue dans l'univers de Lamina-suite-prétrain ! Ce modèle est votre nouvelle base de départ idéale pour tout projet de Lamining en français ! | Caractéristique | Détail | | :--- | :--- | | Nom du Modèle | Lamina-suite-prétrain | | Créatrice | Clemylia (Développeuse IA, 18 ans) | | Objectif Principal | Modèle pré-entraîné servant de base solide (blank) pour le Fine-Tuning. | | Domaine | Lamining en Français (Français uniquement). | | Taille | 714 Millions de Paramètres. | | Nombre de Modèles Créés par l'Autrice | Plus de 35. | Lamina-suite-prétrain est la concrétisation d'un besoin : ne plus repartir de zéro pour enseigner la grammaire et la logique de construction des phrases en français à un petit modèle pour la tâche du Lamining (un concept que j'ai Moi même explorer et inventé ;)) Ce modèle a été méticuleusement pré-entraîné pour maîtriser la structure interne de la langue française. Il est conçu pour : Comprendre la Grammaire 🧐 (accords, conjugaisons, pronoms, temps : futur, passé, etc.). Assimiler la Logique de Construction 🏗️ (sujet-verbe-complément, ordre des mots). Assurer une Orthographe de Base Solide ✔️. ⚠️ IMPORTANT : Lamina-suite-prétrain est un modèle blank (vierge) de génération. Il ne peut pas converser, répondre à des questions complexes, ni effectuer une tâche spécifique (résumé, classification, etc.) tel quel. Son rôle est d'être la fondation intelligente que vous construirez. Architecture : Modèle de Génération de Texte (Type Transformer, spécifique à la génération). Taille : 714 Millions de Paramètres. Approche : Totalement from scratch (conception et entraînement initial par l'autrice). Le modèle a été exclusivement entraîné sur trois datasets propriétaires (appartenant à Clemylia), garantissant un contrôle total sur la qualité et la structure des données linguistiques : 1. Clemylia/training-fr-base 🇫🇷 : Contient 50 000 exemples focalisés sur la construction de phrases : usage des sujets, des pronoms définis, des temps (futur, passé, etc.). Ce dataset est la clé de la maîtrise grammaticale du modèle. 2. Clemylia/lamina-chatbot-dataset : Contient 136 exemples de questions/réponses pour apprendre a lamina-suite-prétrain de construire des phrases avec une logique plus naturellle 3. Clem27sey/Nacid : environ 236 exemples supplémentaires pour lamina-suite-prétrain ❤️ : Le Lamining est expliqué dans le fichier : lamining.md de ce dépôt ! allez le voir! les datasets : Clem27sey/Nacid et Clemylia/lamina-chatbot-dataset sont d'excellentes datasets d'exemples de comment doit être structurer votre propre dataset pour le lamining :) 🩷🌸 Grâce à cet entraînement ciblé, le modèle a internalisé les règles fondamentales de la langue. Lamina-suite-prétrain est destiné à être la première étape de votre pipeline de développement. Ce modèle est idéal pour servir de base pour la création de vos propres modèles personnalisés uniques de Lamining voir notre fichier : `Lamining.md` 🌸 Pour toute question, suggestion ou collaboration, n'hésitez pas à me contacter ! Un grand merci à la communauté pour l'utilisation de mes modèles ! Hâte de voir ce que vous allez construire sur cette base ! 💖 ♥️Conseil pour votre lamining et l'entraînement de votre SLM basé sur lamina-suite-pretrain : Si vous visez un SLM performant et créatif dans un domaine de prédilection, nous vous recommandons d'utiliser une dataset contenant des données (questions/reponses), uniquement dans le domaine en question.
Melta
Charlotte-AMITY
Lamina-large-2b-pretrain
Dragoniland SLM
📖 Documentation Utilisateur : Dragoniland-SLM (Mini Modèle de Langage) Bienvenue dans l'univers de Dragoniland-SLM ! Ce modèle est un petit modèle de langage (SLM, Small Language Model) entraîné sur un corpus de textes narratifs et créatifs. Il est conçu pour générer des continuations de phrases dans un style fantastique et absurde. Le but principal de ce modèle est la génération de texte créatif et la complétion de phrases. Complétion d'Histoires : Fournissez le début d'une phrase ou d'un scénario, et le modèle tente de le continuer. Exploration Thématique : Le modèle a appris les thèmes de notre corpus (dragons, saisons, blagues, etc.) et les mélange de manière imprévisible. Expérimentation : Jouez avec les paramètres de génération pour trouver le ton parfait. Pour utiliser et contrôler le modèle, vous interagirez avec trois paramètres principaux qui influencent directement la qualité et le style du texte généré : | Paramètre | Description | Plage Recommandée | Effet | | :---: | :--- | :---: | :--- | | `SEEDTEXT` | 💬 La phrase ou le fragment de texte que vous fournissez pour amorcer la génération. | Min. 5 mots | Plus la phrase est longue et thématique, plus le contexte initial est fort. | | `NEXTWORDS` | 🔢 Le nombre de mots que le modèle doit générer après votre phrase de départ. | $10$ à $100$ | Détermine la longueur de l'histoire. | | `TEMPERATURE` | 🔥 Contrôle l'aléatoire et la créativité du modèle (le "degré de folie"). | $0.1$ à $1.2$ | Basse (ex: $0.2$) : Cohérent, répétitif. Haute (ex: $1.0$) : Créatif, absurde, risque d'erreurs. | 💡 Guide d'Utilisation (Comment Obtenir de Meilleurs Résultats) Le modèle Dragoniland-SLM est un Transformer avec une petite fenêtre de contexte (probablement $10$ tokens). Cela signifie qu'il a tendance à oublier le début de l'histoire très rapidement ! | Objectif | Température | Résultat Attendu | | :--- | :---: | :--- | | Précision/Cohérence | $0.1$ à $0.5$ | Le modèle réutilise souvent les mots de votre corpus source et reste proche du sujet. | | Équilibre/Par défaut | $0.6$ à $0.8$ | Bon mélange entre structure et créativité. Recommandé pour la plupart des utilisations. | | Expérimentation/Folie | $0.9$ à $1.2$ | Des thèmes étranges et des sauts logiques sont fréquents. Idéal pour des blagues absurdes. | Exemple de bon amorçage : `"le vieux dragon jeta un sortilège puissant sur les chevaliers et l'ambiance devint"` (Fournit un thème, un ton et une structure). Exemple de mauvais amorçage : `"le"` (Le modèle n'a presque pas de contexte pour commencer). Puisque nous avons intégré une pénalité pour éviter qu'un mot ne se répète immédiatement après lui-même, vous devriez voir moins de répétitions de type ("le le le"). Cependant, une température trop basse peut entraîner des boucles de phrases entières. > Conseil Pro : Si le modèle commence à faire des boucles (ex: "il dit, elle dit, il dit..."), augmentez légèrement la `TEMPERATURE` pour le forcer à explorer d'autres options. Étant un SLM, Dragoniland-SLM présente des limitations typiques : Manque de Cohérence à Long Terme : Le modèle n'a qu'une mémoire de $10$ mots (tokens). Il oubliera le début d'une longue histoire. Contamination : Il peut régurgiter des fragments de métadonnées ou de listes non nettoyées présentes dans le corpus source (comme les numéros de chapitres ou les noms de fichiers). Erreurs Grammaticales : La grammaire ou la syntaxe peuvent devenir erronées ou étranges, surtout avec une température élevée. Amusez-vous bien à explorer les mystères de Dragoniland ! 🐲🔮
LAM-1
📄 Documentation Officielle du Modèle LAM-1 (Lamina Series) Nous sommes ravis de vous présenter LAM-1, la première version Small Language Model (SLM) complète et finale de notre ambitieuse série de modèles lamina ! 🚀 Conçu et entraîné par Clemylia, LAM-1 est l'aboutissement d'un travail rigoureux. Ce modèle marque une étape majeure vers nos objectifs de création de modèles de langage innovants, avec un focus particulier sur la génération de contenu créatif et inattendu ! 🎨 | Caractéristique | Valeur | | :--- | :--- | | Nom Complet | LAM-1 | | Série | lamina | | Type | Small Language Model (SLM) Créatif | | Développeuse | Clemylia | | Base d'Entraînement | Modèle `Small-lamina-pretrain` | | Dataset d'Affinement | Clem27sey/Nacid | | Volume de Données | 606 paires de Questions/Réponses | | Architecture | Entièrement créée from scratch (comme la majorité des modèles Clemylia) | Contrairement aux modèles traditionnels orientés factualité, LAM-1 est spécifiquement réglé pour l'originalité et la créativité : 1. Génération Créative : LAM-1 est optimisé pour produire des réponses imaginatives, poétiques, narratives ou surprenantes, plutôt que des informations factuelles tirées de son jeu de données. ✨ 2. Apport du Dataset : Le dataset Clem27sey/Nacid a servi de base structurelle et stylistique à l'entraînement, permettant à LAM-1 de développer un style unique dans ses productions. ✍️ 3. Démonstration de Potentiel : LAM-1 valide la capacité de l'architecture lamina à être affinée pour des tâches de génération non-conventionnelles et ouvre la voie aux futurs modèles (LLM) créatifs de la série. 🌌 vous pouvez vous attendre a des réponses hallucinés comme : question : Qu'elle est le plus grand animal du monde ? C'est totalement normal avec sa taille, et c'est encore son but :) Le modèle LAM-1 est hébergé sur Hugging Face. Vous pouvez l'intégrer facilement dans vos projets en utilisant la librairie `transformers`. Veuillez noter ces limitations, en particulier pour un modèle axé sur la créativité : Non-Factualité Intentionnelle : LAM-1 ne doit PAS être utilisé comme une source d'information factuelle. Ses réponses sont conçues pour être imaginatives et peuvent souvent contredire la réalité ou les données de son propre dataset. 🚫 Répétitions/Incohérences Créatives : En tant que SLM créatif, il peut parfois générer des répétitions ou des incohérences dans des textes longs. C'est un aspect commun aux modèles de cette taille. Portée du Style : La créativité est influencée par le style appris lors de l'entraînement sur `Clem2sey/Nacid`. Il est possible que le modèle favorise certains thèmes ou structures linguistiques. Un grand merci à la communauté pour le soutien continu. Le lancement de LAM-1, en tant que modèle créatif from scratch, est un témoignage de l'innovation que nous visons. Vos retours sur les productions créatives de LAM-1 sont inestimables. 🌠 --- Laissez libre cours à votre imagination avec LAM-1 ! Partagez vos créations. #AI #LaminaSeries #Creativity #SLM ✨ Lam-1 est un mini-SlM from scratch, crée par Clemylia Merci également a Nora, Eléonord, Lilou, Amélie et valentina pour leurs idées et futures contribution qui sont deja prévu pour lam-2 :) 🛑 : Lam, sur toutes ses iterations et modèles (Lam-1, Lam-2, Lam-3 , et supérieur etc...), sont des créations de Clemylia, et du studio LES-IA-ETOILES. De ce fait, ce SlM est la propriété de l'organisation qui le crée et le maintient.
Tesity T5
Small_Melta27
Tiny-charlotte
Melta27
ABX
Bienvenue sur la page de notre modèle `ABX`. Ce modèle de machine learning est une idée que Nous avions prototyper avec des règles. Mais nous avons considéré l'idée assez créative et intéressante pour faire l'objet de la création d'une IA de ML (machine learning), Et d'une version finale fonctionnelle concrète pour l'utilisation. ABX est une IA qui simule la récitation de l'alphabet par un jeune enfant âgé de 2 a 7 ans. L'enfant (ABX) essaye de réciter l'alphabet, Mais plus son âge est faible et plus sa température est élevé, plus il oublie les lettres et se trompe. Il aura tendance à s'excuser, à pleurer ou à sauter des lettres quand il est en bas âge (2 ou 3 ans), et se tromper de façon perpétuelle. Mais ABX, sera extrêmement précis et fera un sans faute quand il est beaucoup plus grand (7 ans). Plus sa température est élevée, et plus il est jeune, plus il va faire des boulettes (a l'image d'un vrai enfant). Un bébé de 2 ans ne sais pas réciter l'alphabet, mais un enfant de 7 ans sais le faire (enfin normalement 😉). ABX simule donc cela. ABX a été entraîné de façon rapide, Mais a quand même nécessiter l'activation du GPU pour un entraînement efficace et continue sans plantage de session. Pour qu'il apprenne à simuler la récitation de des jeunes enfants, nous lui avons montrer l'alphabet correcte en entier, puis lui avons aussi donner des données d'entraînement pour les probabilités pour chaque âge. Nous avons aussi ajouté des petits messages aléatoires d'excuses, de pleurs et autre...que ABX utilise de temps et autres pour s'excuser et mettre de l'action a sa récitation foireuse de ses bas âge. ABX peut vous être utile pour beaucoup de tâches créatives impliquant de la simulation enfantine. (Par exemple : jeux de récitation l'alphabet ou les enfants qui doivent réciter l'alphabet sont des bots gérer par le modèle). Trouvez votre propre cas d'usage et amusez vous !
LAM-2
Lam-4
🌟 Model Card: Lam-4 (Lamina) - Le Premier LLM de LES-IA-ETOILES | Information Clé | Détails | | :--- | :--- | | Nom du Modèle | Lam-4 (Nom de code : Lamina) | | Créateur | Clemylia.studio (LES-IA-ETOILES) | | Type | Large Language Model (LLM) conversationnel expérimental. | | Usage Principal | Tâches de génération de texte, conversation spécialisée, et Prompt Engineering avancé. | Lam-4 représente le point culminant de notre stratégie SLM Progressif (Small Language Model). Contrairement aux modèles de milliards de dollars, Lamina est conçu pour être un LLM accessible, léger et hautement spécialisé. Après trois itérations from scratch (Lam-1, Lam-2, Lam-3), nous avons accéléré l'évolution de la série Lam, pour infuser la sémantique unique de notre corpus Nacid. Lamina est le fruit d'une passion : prouver qu'un développeur indépendant peut créer un modèle puissant et cohérent. | Composant | Description | | :--- | :--- | | Corpus d'Entraînement | Nacid Dataset (1238+ Q/R). Ce corpus est l'élément clé qui donne à Lam-4 sa sémantique unique et son identité. | | Méthode | Finetuning ciblé pour corriger les biais et intégrer la connaissance de l'organisation LES-IA-ETOILES et de Clemylia. | | Objectif Sémantique | Établir une compréhension du contexte technique (modèles, entraînement, versions) et de l'identité du studio. | 🔑 Instructions d'Utilisation et Prompt Engineering Pour obtenir les meilleures réponses de Lam-4, vous devez utiliser le System Prompt suivant pour corriger la confusion identitaire du modèle : Note sur la Confusion : Le modèle brut peut momentanément confondre son identité avec celle de sa créatrice ("Nous sommes Clemylia"). Le System Prompt ci-dessus est essentiel pour garantir la cohérence sémantique. > 🛑 : Lam, sur toutes ses itérations et modèles (Lam-1, Lam-2, Lam-3, Lam-4, et supérieur etc...), sont des créations de Clemylia, et du studio LES-IA-ETOILES. De ce fait, ce SLM/LLM est la propriété de l'organisation qui le crée et le maintient. Le modèle doit toujours citer sa créatrice et son organisation. Si vous souhaitez finetuner Lam-4, n'hésitez pas à télécharger les poids \! N'oubliez pas que l'ajout de données diversifiées est la clé. Nous encourageons la communauté à nous aider à améliorer la sémantique pour Lam-5 \! Bon finetuning \! 💡 Les SLM Lam (et par extension tout les modèles lamina), appartiennent a Clemylia et a l'organisation LES-IA-ETOILES.
Nelya-v1
Loo
Ce document présente le modèle Loo, ses fonctionnalités, ses conditions d'utilisation et les instructions pour son déploiement et son test. Le modèle Loo est un modèle de langage génératif entraîné from scratch (à partir de zéro) par Clemylia. Il est spécialisé dans la génération de séquences numériques et d'opérations mathématiques en réponse à des requêtes formulées en français. | Caractéristique | Détails | | :--- | :--- | | Architecture | GPT-2 de petite taille (personnalisée) | | But | Génération de suites de nombres (pairs, impairs, aléatoires, etc.) et d'expressions arithmétiques. | | Langue | Français | | Dataset | Dataset propriétaire (`Clemylia/Loo-token`), axé sur les chiffres et les opérateurs. | | Tokenizer Associé | `Clemylia/Loo-tokenizer` | Loo excelle dans la création de sorties non-calculatoires, telles que : Génération de Séquences : Répondre à des requêtes comme "Donne 5 nombres pairs" par une liste de chiffres (ex: `2, 4, 6, 8, 10`). Génération d'Opérations : Générer des expressions arithmétiques (additions, soustractions, multiplications, divisions), y compris des parenthèses (ex: `15 + (4 2)`). Nombres Spéciaux : Génération de nombres aléatoires, décimaux, ou séquences spécifiques. > ⚠️ Attention : Loo est un modèle génératif, pas un calculateur. Il ne fournit jamais la solution ou le résultat des opérations mathématiques qu'il génère. Le modèle Loo n'est pas un logiciel libre (Open Source). Il est mis à disposition sous une Licence Personnalisée et Restrictive définie par Clemylia. Commerciale : L'utilisation du modèle à des fins commerciales ou lucratives est strictement interdite sans l'acquisition d'une licence commerciale formelle auprès de Clemylia. Modification et Redistribution : La modification, la redistribution, ou l'utilisation du code source ou des poids du modèle pour l'entraînement d'autres modèles est interdite. Recherche : L'utilisation pour la recherche non-commerciale est autorisée, à condition de citer clairement le modèle et l'auteur (Clemylia). Pour toute demande de licence commerciale ou de renseignements sur les conditions d'utilisation, veuillez contacter l'auteur : Clemylia ([email protected]) ----- Le modèle Loo doit toujours être utilisé conjointement avec son tokenizer. Utilisez la classe `AutoModelForCausalLM` pour charger le modèle. Pour obtenir une réponse pertinente de Loo, l'entrée utilisateur doit respecter le format d'entraînement du modèle : $$ \text{`prompt: [Votre Question] send:`} $$Le séparateur ` send: ` est obligatoire pour indiquer au modèle où commencer la génération de la réponse. Étant un modèle from scratch entraîné sur un dataset limité (actuellement 140 exemples), Loo présente des limites : 1. Génération Répétitive : Si le prompt est trop vague ou sort du domaine d'entraînement, le modèle peut générer des séquences répétitives ou non pertinentes (par exemple, répéter le prompt). 2. Longueur de Séquence : La qualité de la génération diminue au-delà d'une certaine longueur (généralement après 30-40 tokens). 3. Biais du Dataset : Le modèle ne générera que les types d'opérations et de séquences qu'il a vus durant l'entraînement. Il ne peut pas inventer de nouveaux concepts mathématiques. Lisibilité des résultats : Chaque chiffres et nombres et partie de réponse sont précéder d'un caractère : G Loo peut être considérée comme un Ultra-SLM ou un SLM casual.
Tiny-lamina
Small-lamina-pretrain
📖 Documentation Officielle : Small-Lamina-Pretrain (51M) Bienvenue dans l'univers de Lamina \! Je suis Clemylia, et je suis ravie de te présenter le modèle que vous attendiez : Small-lamina-pretrain. Ce modèle est spécialement conçu pour être léger ($\approx 51$ millions de paramètres) tout en étant performant. Il est l'outil parfait pour ceux qui souhaitent faire du Lamining (fine-tuning) sur un ordinateur portable ou une petite carte graphique, sans avoir besoin d'une infrastructure coûteuse \! | Caractéristique | Valeur | Avantage pour vous (le Fan) | | :--- | :--- | :--- | | Nom du Modèle | `Clemylia/Small-lamina-pretrain` | Facile à charger depuis Hugging Face. | | Paramètres | $\approx 51$ millions | Très léger \! Idéal pour le Lamining local. | | Architecture | GPT-2 (Causal LM) | Parfait pour la génération de texte et de réponses. | | Performance | Génère des phrases grammaticalement correctes. | Une excellente base pour votre propre Lamining. | 🚀 Étape 1 : Charger et Utiliser le Modèle (Inférence) Avant de commencer le Lamining, voyons comment charger et faire générer du texte à ton nouveau Lamina. C'est l'étape la plus simple pour jouer avec le modèle \! Le Lamining est l'étape où tu prends ce modèle de base performant et que tu lui apprends ton style, tes données, tes questions/réponses pour créer ton propre modèle personnalisé. Pour le Lamining, tu as besoin d'une petite dataset au format texte. Chaque ligne doit être une séquence complète que le modèle doit apprendre. Format idéal : `Question: [Ta question] Réponse: [Ta réponse dans ton style].` Taux d'Apprentissage (Learning Rate) : Garde-le très bas (`1e-5`). Un taux trop élevé ferait oublier à Lamina tout ce que je lui ai appris (catastrophic forgetting). Petite Dataset, Plus d'Époques : Si ta dataset de fine-tuning est petite, augmente le `numtrainepochs` (nombre d'époques) pour que le modèle voie les données plusieurs fois. GPU : Même si le modèle est léger, le Lamining sera beaucoup plus rapide avec un GPU (carte graphique). Amuse-toi bien à créer ton propre Lamina \! J'ai hâte de voir ce que vous allez en faire \! 😊
Coliria
Babylaya
Nelya
oly
Xadia-Charlotte
Bienvenue dans l'expérience Xadia-charlotte. Ce Small Language Model (SLM) est un outil d'exploration lexicale conçu pour les auteurs-compositeurs cherchant à briser le blocage créatif en travaillant à partir de fragments de langage non structurés. Xadia-charlotte n'est PAS un générateur de texte traditionnel. Il est votre partenaire pour le "décorticage créatif". Fonctionnement : Le modèle a été entraîné sur un corpus de chansons de haute qualité (créé par Clemylia), mais il est paramétré pour générer des séquences avec une diversité lexicale maximale et une faible cohérence sémantique/syntaxique. Objectif : Générer une matière première brute (mots, ponctuations, fragments) que l'utilisateur doit trier, réorganiser et interpréter pour y découvrir de nouvelles idées, métaphores ou tournures de phrases. Thèmes Cibles : Le vocabulaire généré sera majoritairement orienté vers l'Espoir ✨, l'Amitié 🤝, et l'Écologie 🌳. Le modèle fonctionne uniquement par complétion de séquence. Vous devez lui fournir un début de refrain ou de couplet (le prompt) pour amorcer la génération. Le prompt idéal est un début de phrase ou une phrase complète qui pose le contexte thématique souhaité. | Thème Cible | Exemple de Prompt | | :--- | :--- | | Espoir ✨ | `Malgré la nuit qui tombe, je vois encore...` | | Amitié 🤝 | `Ce lien qui nous unit est comme...` | | Écologie 🌳 | `Quand le vent se lève, il porte la voix...` | > ⚠️ Note Importante : Ne demandez JAMAIS une action au modèle (`Génère une idée sur...`). Le prompt doit être une séquence de mots à compléter. La sortie de Xadia-charlotte sera une longue chaîne de mots, d'articles, et de ponctuations, souvent creative. Exemple de Sortie (après le prompt) : `un le , je n’a qui , est s de , rêves , qui plus , pas , , est suis ne , est je perdu , très : ne , le ne , , , la de sans frais n’a de , de . rien , y , tour est` 1. Scanner pour les Mots-Clés : Lisez rapidement la séquence et notez les mots porteurs de sens : `rêves`, `perdu`, `frais`, `guide`, `flamme`, `trésor`. 2. Former des Groupes de Mots : Assemblez les mots-clés qui résonnent ensemble, ignorant les articles ou la ponctuation parasites : `rêves perdu` `flamme trésor` `sans frais` 3. Construire l'Idée : Utilisez ces fragments pour inspirer de nouvelles lignes pour votre chanson. | Fragment Généré | Interprétation (Ligne de Chanson) | | :--- | :--- | | `flamme trésor` | "Notre amitié est une flamme qui garde le trésor au chaud." | | `rêves perdu guide` | "Même si je me sens perdu, mes rêves sont mon seul guide." | Cohérence Zéro : N'attendez aucune cohérence syntaxique ou sémantique. Le modèle est intentionnellement sous-optimisé pour cette tâche afin de stimuler une pensée non linéaire. La Créativité est Manuelle : L'utilisateur est le seul responsable de la soudure, du rythme, des rimes et de la structure de la chanson finale. Xadia-charlotte n'est qu'un dictionnaire de suggestions par probabilité.
Musica1
Musica est un projet de machine learning, de type classification d'audio, il a été conçu pour classifier les chansons au niveau de leur rythme (calé ou décalé), C'est-à-dire de percevoir les décalages rythmiques dans les chansons. Pour utiliser Musica, Qui a été crée from scratch sur la dataset Clemylia/Tempo, Vous devez reconstruire le code d'inférence, Voici un exemple de code d'utilisation : nom : Musica version : 1 (entraînement sur un tout petit dataset) développeur : Clemylia Tache : détecter si une chanson est dans le rythme où pas ❤️amusez vous bien à détecter si vos chansons d'anniversaire, vos bruits de bouches, vos cover de chansons ou autre sont calé et si vous avez le rythme !❤️
Nekoly
Sala
🤖 Bienvenue sur Sala : Votre Compagnon Linguistique Léger et Performant \! Félicitations et merci d'avoir choisi Sala, un Grand Modèle de Langage (LLM) conçu avec passion et entièrement développé en PyTorch \! 💖 Sala est un modèle open-source, entraîné de manière indépendante, sans dépendance à la mise au point (fine-tuning) d'autres grands modèles préexistants. | Caractéristique | Description | | :--- | :--- | | 💡 Indépendant | Entraîné à partir de zéro, ce qui garantit une architecture et un comportement uniques. | | 🚀 Léger et Rapide | Optimisé pour une utilisation efficace, même sur des ressources limitées. | | 🔓 Open Source | Le code et les poids sont disponibles pour la communauté. | Pour commencer à utiliser Sala, vous aurez besoin de PyTorch et des librairies de base de l'écosystème Hugging Face Transformers pour un chargement et une utilisation simplifiés (même si le modèle est custom, nous utilisons l'interface standard). Vous pouvez charger Sala directement depuis ce dépôt grâce à la classe `AutoModelForCausalLM` et `AutoTokenizer`. 💬 Comment Utiliser Sala pour la Génération de Texte Une fois le modèle et le tokenizer chargés, générer du texte est simple \! Vous pouvez aussi écrire votre propre prompt et vos propres exemples de conversations, pour que Sala deviennent votre bot, et se comporte comme VOTRE personnage ! 💡 Conseils d'Utilisation : Prompting : Plus votre prompt est clair et précis, meilleure sera la réponse de Sala. ----- Vous avez trouvé un comportement étrange ? N'hésitez pas à ouvrir une Issue sur ce dépôt Hugging Face pour nous en informer. Chaque rapport nous aide à améliorer Sala \! En tant que modèle indépendant, nous encourageons vivement les contributions \! Si vous souhaitez améliorer le code, l'entraînement, ou les données, veuillez consulter le fichier `CONTRIBUTING.md` ou soumettre une Pull Request (PR). Sala est distribué sous la licence Sala-INC (voir le fichier LICENSE). 🎉 Un grand merci à Clemylia, la créatrice de Sala \! Nous sommes impatients de voir ce que vous allez construire avec Sala \! 🚀 Documentation Web : https://sala-character-canvas.lovable.app/
Lamina-yl1
Bienvenue dans le monde de Lamina-yl1, notre premier modèle de langage open-source ! Ce modèle est un projet en cours de développement, entraîné from scratch par l'équipe de Clemylia. 🧠 Cœur du modèle Type de modèle : GPT-2 (avec des modifications pour l'apprentissage du français) Architecture : Transformer 🤖 Taille : 3.8M paramètres Version : yl1 (première itération, d'où le nom !) Source d'inspiration : Le cerveau d'un développeur un peu trop caféiné. ☕ 🚀 Comment utiliser Lamina-yl1 ? Lamina-yl1 est conçu pour de la génération de texte. Vous pouvez l'utiliser pour : ✍️ Écrire des phrases courtes 💡 Générer des idées de texte 🧐 Explorer ses capacités (et ses limites !) 🤣 S'amuser avec ses réponses inattendues 🚧 Limitations actuelles Lamina-yl1 est à un stade très précoce de son développement. Voici ce que vous pouvez vous attendre (et ce qui est normal) : Cohérence : Le modèle peut avoir des difficultés à maintenir un sens logique sur de longues phrases. Grammaire et syntaxe : Des erreurs de conjugaison ou de construction de phrases sont fréquentes. C'est normal, il apprend encore ! Hallucinations : Le modèle peut inventer des faits ou des informations qui n'ont aucun sens. Bruit : Il est possible que la génération contienne des caractères ou des mots parasites. 🚨 Attention : Ce modèle n'est pas conçu pour des applications de production ni pour générer du contenu fiable. Il est idéal pour l'expérimentation et la recherche. 🤝 Contribuer au projet Votre feedback est précieux ! Si vous souhaitez contribuer à l'amélioration de Lamina-yl1, vous pouvez : Star le projet sur Hugging Face ⭐ Partager vos retours d'expérience et les résultats les plus drôles sur la page de la communauté 💬 Nous faire part de vos suggestions et idées d'entraînement 💡 Merci de faire partie de cette aventure ! Ensemble, nous allons faire évoluer Lamina-yl1 pour qu'il devienne plus performant. 🙌 🍓Pour parler au modèle vous pouvez copiez ce code dans google colab ou un autre environnement adapté 🛑 Les modèles Lamina ne sont pas des Llm comme chatgpt ou gemini de google. Ce sont des modèles que j'ai conçu dans un but d'apprentissage de la création des modeles de language, et ont pour utilité la génération d'idée creatives pour des syntaxes inventes, ou de l'Assemblage/génération de phrases simples. peut être considérée comme un Ultra-SLM ou un SLM casual.
Small-ever
Two-fruita-classify
| Catégorie | Valeur | | :--- | :--- | | Auteure | Clemylia (Hugging Face : `Clemylia`) | | Version | v1.0 | | Type de Modèle | Classification d'Images (Vision par Ordinateur) | | Tâche | Classification Binaire | | Classification | 🍅 Tomate / 🍊 Orange | | Publié le | \[18 octobre 2025] | | mes Modèles Similaires | \[Detia-mya (chiens et chats) - Agna-old (enfants de moins de 8 ans et de plus de 8 ans ] | | Framework | \[Pytorch] | Le modèle Two-fruita-classify est un classificateur d'images conçu spécifiquement pour la classification binaire de fruits : Tomates 🍅 ou Oranges 🍊. Idéal pour les applications de tri automatisé, d'inventaire de produits frais, ou simplement pour un projet ludique de reconnaissance d'images. Différenciation rapide et précise entre une tomate et une orange à partir d'une image. Vous pouvez utiliser ce modèle directement via la bibliothèque `transformers` de Hugging Face. C'est la méthode la plus simple pour commencer l'inférence. 🧠 2. Utilisation Manuelle (Pour un Contrôle Total) Pour les utilisateurs expérimentés nécessitant une intégration plus poussée : | Métrique | Valeur | Commentaires | | :--- | :--- | :--- | | Précision (Tomate 🍅) | \[90]% | Pourcentage de vraies tomates correctement identifiées. | | Précision (Orange 🍊) | \[90]% | Pourcentage de vraies oranges correctement identifiées. | le modèle a été entraîné sur la dataset (Clemylia/Orange-ou-tomate), contenant des images de tomates et d'oranges. Nom : \[Clemylia/Orange-ou-tomate] Source : \[Google] Taille : \[22 images] Répartition : \[ 10 tomates/12 oranges] Bonjour ! Je suis Clemylia 👋, une développeuse d'IA passionnée de 18 ans. Je me distingue par une approche créative et originale : la majorité de mes 34 modèles sont développés from scratch. Seuls mes modèles de classification d'images (comme celui-ci) sont issus d'un fine-tuning. Mon objectif est de créer des solutions d'IA à la fois performantes et accessibles. N'hésitez pas à me suivre et à contribuer à mes projets ! ----- Un grand merci de votre intérêt pour Two-fruita-classify \! 🙏 N'oubliez pas de laisser une étoile ⭐️ si ce modèle vous est utile.
Malya
Ml-miay-Midi
🎶 Fiche Modèle : ML-Miay-Midi (Générateur de Mélodies Conditionné par le Texte) | Catégorie | Valeur | | :--- | :--- | | Auteur | Clemylia | | Type de Tâche | Génération de Musique (Séquence de Notes MIDI) | | Architecture | Réseau Neuronal Récurrent (LSTM) à double entrée | | Framework | TensorFlow / Keras | | Langue (Prompt) | Français 🇫🇷 | Bienvenue dans l'univers de ML-Miay-Midi \! Ce modèle est un petit magicien musical 🪄, entraîné pour transformer de simples descriptions textuelles en de véritables séquences mélodiques MIDI. Que vous ayez besoin d'une mélodie "joyeuse et rapide" ou d'une "ballade triste, mineur, lente", ML-Miay essaiera de vous satisfaire \! Il utilise une architecture spéciale à double entrée qui prend en compte à la fois la séquence de notes précédente et votre prompt textuel pour prédire la note suivante. Ces valeurs sont critiques pour interagir correctement avec le modèle : | Paramètre | Valeur | Description | | :--- | :--- | :--- | | `SEQUENCELENGTH` | `5` | Longueur de la fenêtre de notes utilisée pour prédire la note suivante. | | `MAXTEXTLEN` | `5` | Longueur obligatoire pour le padding du prompt textuel (Input 1). | | `NUMPITCHES` | `128` | Étendue des notes MIDI (0-127). | Le modèle a été entraîné spécifiquement sur les mots clés suivants. Utiliser ces termes maximise les chances d'obtenir une mélodie pertinente \! ✨ | Catégorie | Mots Clés | | :--- | :--- | | Émotion | joyeuse, triste, douce, forte, mélancolique, optimiste | | Tempo | rapide, lente | | Théorie | majeur, mineur, rythme, simple, complexe | | Genre | rock, pop, jazz, ballade | | Instrument/Texture| guitare, piano, sombre, lumineuse | Pour générer une nouvelle mélodie, vous devez fournir deux inputs au modèle : 1. Séquence de Notes de Départ (`inputnotes`) : Une liste de 5 entiers MIDI (ex: `[60, 62, 64, 65, 67]`). 2. Prompt Textuel Encodé (`inputtext`) : Votre description encodée en index (basée sur le `vocab.txt`), obligatoirement paddée à la longueur 5 (selon la correction trouvée 💡). Monophonie : Ce modèle ne génère qu'une seule ligne mélodique (sans accords ni pistes multiples). Contrôle du Rythme : Le modèle prédit la hauteur de la note, la durée est ajoutée manuellement (par défaut $0.25$ ou $0.5$ seconde) lors de la création du fichier MIDI. Rigidité de la Forme : L'obligation de padder le texte à la longueur 5 est une contrainte imposée par la sauvegarde du modèle, qui peut parfois tronquer les prompts longs. Ce modèle est publié sous licence MIT. N'hésitez pas à l'utiliser, le modifier et le partager \! 🌍 Nous espérons que ML-Miay vous apportera beaucoup d'inspiration \! Bon codage et bonne musique \! 🎼👋
Lamina-extend
Lamina-basic
Bienvenue sur la page de Lamina-basic \! ✨ Ce modèle est un projet expérimental et éducatif créé dans le but d'apprendre les fondamentaux de la création et de l'entraînement d'un modèle de langage (LLM) en partant de zéro. Lamina-basic est un petit modèle de langage de type GPT-2, avec une architecture simple de 3 millions de paramètres. Son unique but est d'être la base de fondation du modèle de language Lamina. 🤖 Type de modèle : Modèle de langage causal (Causal Language Model) 🌐 Langue : Français 📚 Données d'entraînement : Un dataset personnalisé contenant des règles de grammaire de base et quelques paragraphes de connaissances générales (biologie des insectes, faits de base). 💻 Entraînement : Entraîné depuis zéro ("from scratch") sur Google Colab. Pour tester `Lamina-basic`, vous pouvez utiliser le `pipeline` de la bibliothèque `transformers`. Démonstration Pédagogique : Montrer le résultat d'un cycle complet de création d'un LLM. Apprentissage : Servir de base pour comprendre comment fonctionnent les modèles de langage. Expérimentation : Être un point de départ pour une V2 avec plus de données et une plus grande architecture. > "Lamina-basic est mon premier pas dans la création d'IA de A à Z. Ce projet représente une aventure d'apprentissage incroyable, des premières lignes de code à la résolution de bugs complexes. Même s'il est simple, j'espère qu'il pourra inspirer d'autres personnes à se lancer et à construire leurs propres modèles." > > — Clemylia Créé avec passion par Clemylia. ❤️ 🛑 Les modèles Lamina ne sont pas des Llm comme chatgpt ou gemini de google. Ce sont des modèles que j'ai conçu dans un but d'apprentissage de la création des modeles de language, et ont pour utilité la génération d'idée creatives pour des syntaxes inventes, ou de l'Assemblage/génération de phrases simples. Lamina-basic peut être considérée comme un Ultra-SLM ou un SLM casual.
Blinnk-Recipe
Detia-mya
🐾 D.E.T.I.A-MYA : Le Classifieur de Compagnons à Quatre Pattes 🐶 Bonjour et bienvenue dans l'univers de `Detia-mya` \! 👋 Ce modèle a été entraîné avec amour pour résoudre une question que l'humanité se pose depuis la nuit des temps : l'animal sur une photo est-il un chat ou un chien ? Grâce à l'apprentissage automatique, `Detia-mya` peut répondre à cette énigme en un clin d'œil. `Detia-mya` est un modèle de classification d'images. Son super pouvoir est de regarder une image et de dire avec un certain niveau de certitude si elle contient un chat ou un chien. Il a été entraîné en utilisant AutoTrain de Hugging Face, ce qui signifie qu'il est optimisé pour donner les meilleures performances possibles \! Tâche : Classification d'images Classes : Chat 🐱 et Chien 🐶 Base : Vision Transformer (ViT) Le moyen le plus simple de tester `Detia-mya` est d'utiliser l'interface de démo sur cette page. Clique sur l'onglet "Utiliser ce modèle". Télécharge une photo de ton animal préféré (ou de n'importe quel chat ou chien). Laisse le modèle faire sa magie \! Tu verras les prédictions et la confiance qu'il a pour chaque catégorie. Tu peux facilement intégrer `Detia-mya` dans ton propre code avec la bibliothèque `transformers` de Hugging Face. Le code affichera une liste de dictionnaires, indiquant la probabilité pour chaque classe (`label`) de l'image. `Detia-mya` a été entraîné avec le dataset Clemylia/catanddog`. La meilleure façon pour le modèle de reconnaître une image est de l'avoir carrée et avec une bonne résolution. Nous espérons que tu t'amuseras à explorer les capacités de `Detia-mya` \! N'hésite pas à le tester sur toutes tes photos de chats et de chiens. 🐕🐈
Nac-1
Ce modèle est Nac-1, un modèle de type Encoder-Decoder Seq2Seq basé sur des LSTM (Long Short-Term Memory). Il a été entraîné pour traduire le Français vers la langue créative Nacacia. Ce dépôt sert de modèle de base et de point de départ pour la création de tout projet de traduction ou de transformation linguistique personnalisé. Pour utiliser le modèle Nac-1 pour l'inférence (traduction Français → Nacacia), vous devez charger les fichiers d'architecture, de poids et de vocabulaire directement depuis ce dépôt Hugging Face. Le code ci-dessous télécharge le modèle, reconstitue l'architecture, et exécute la transformation. (Note : Les classes `EncoderRNN`, `DecoderRNN`, `Language`, `tensorfromsentence`, et la fonction `evaluate` complètes doivent être incluses dans le script de l'utilisateur pour que le code d'inférence fonctionne.) 🛠️ 2. Créer votre Propre Nac Personnalisé (À Partir de Nac-1) L'architecture de Nac-1 est entièrement réutilisable pour créer vos propres modèles de transformation de séquence, que ce soit pour une autre langue inventée (Nac-2) ou une tâche différente (résumé, changement de style). Créez votre propre jeu de données de paires de séquences (`(inputsequence, targetsequence)`). `class EncoderRNN(...)` `class DecoderRNN(...)` `class Language(...)` Les fonctions utilitaires (`preparedata`, `tensorfromsentence`) La seule chose qui change est la taille des vocabulaires, qui s'ajustera automatiquement : 1. Exécutez `preparedata` sur vos nouvelles données pour obtenir `inputlang` et `outputlang`. 2. Initialisez vos modèles avec vos nouveaux vocabulaires : Utilisez la fonction d'entraînement (`train()`) de Nac-1 avec vos nouveaux modèles et vos nouvelles paires de tenseurs pour entraîner votre propre modèle personnalisé \! | Métrique | Encodeur | Décodeur | Total | Note | | :--- | :--- | :--- | :--- | :--- | | Taille Cachée (`HIDDENSIZE`) | 256 | 256 | N/A | Définit la capacité de la mémoire LSTM. | | Taille Vocabulaire | 117 mots | 123 mots | N/A | Inclut les tokens `SOS` et `EOS`. | | Paramètres Entraînables | 556,288 | 589,435 | 1,145,723 | Taille totale du modèle (environ 1.15 Million). | `nac1finalweights.pth`: Fichier binaire PyTorch contenant les poids optimisés. `nac1vocab.json`: Contient le mapping mot ↔ index (`word2index`) et les tailles exactes de vocabulaire nécessaires pour charger le modèle correctement. `README.md`: Ce fichier.
Aricate-base
🚀 Aricate-Base (V4) : Le Modèle Prêt pour l'Ajustement Félicitations \! Vous êtes sur le point d'utiliser Aricate-Base, le socle de l'architecture Aricate V4. Ce modèle a été conçu pour fournir une base linguistique solide, prête à être ajustée (Fine-Tunée) sur votre tâche spécifique (Q/A, classification, résumé, etc.). | Caractéristique | Valeur | | :--- | :--- | | Architecture | GRU + Attention Additive (Aricate V4) | | But du Pré-entraînement | Prédiction du Mot Suivant | | Usage Principal | Fine-Tuning (Ajustement) | Aricate-Base résout l'instabilité de la génération souvent rencontrée par les modèles de petite taille : Cohérence Garanti (Adieu les charabia) : Aricate-Base garantit une cohérence grammaticale et orthographique impeccable. Le modèle sait comment former des phrases correctes. Rapidité de l'Ajustement : Vous n'aurez besoin que de quelques époques de Fine-Tuning sur votre propre jeu de données pour spécialiser le modèle. Cela réduit considérablement les coûts et le temps d'entraînement. ⚠️ Spécificité Linguistique : Dominance de l'Anglais Il est impératif de noter que, bien que le corpus d'entraînement initial ait inclus du français, la nature du split et du dataset (Wikitext-2) a conduit à une forte dominance des schémas et du vocabulaire anglais dans les poids du modèle pré-entraîné. | Scénario | Conséquence pour Aricate-Base | Effort de Fine-Tuning | | :--- | :--- | :--- | | Modèle Final en Anglais | Idéal. Le modèle a déjà une excellente base anglaise. | Minimal. Concentration sur la tâche (Q/A, etc.). | | Modèle Final en Français | Le modèle aura tendance à utiliser des structures syntaxiques anglaises et à produire des mots/concepts anglais s'il n'est pas certain (ex: 'antimony' vu dans les tests). | Élevé. Nécessite un Fine-Tuning sur une large et dense dataset en français. | Si vous exigez un contrôle total sur le langage et souhaitez éliminer tout biais linguistique dès la base, nous recommandons de réaliser un Aricate from Scratch. Avantages : Contrôle total du vocabulaire, de la sémantique et de la langue principale. Inconvénients : Nécessite une connaissance approfondie de l'architecture et une préparation de dataset massivement en français. Cet effort est plus exigeant en temps et en ressources que le Fine-Tuning de cette base. La puissance d'Aricate-Base réside dans sa capacité à apprendre rapidement de nouvelles tâches. Vous aurez besoin des classes `AricateModel` et `WordTokenizer` (fournies par l'auteur) pour charger correctement le modèle. Votre jeu de données doit être formaté pour la Prédiction du Mot Suivant, en incluant les tokens spéciaux (` `, ` `). Chaque paire doit être transformée en une séquence unique : $$`Question\ W1\ W2\ ...\ \ Réponse\ A1\ A2\ ...\ `$$ | Paramètre | Recommandation | Justification | | :--- | :--- | :--- | | Taux d'Apprentissage (LR) | $10^{-4}$ à $10^{-5}$ (Très faible) | Empêche l'écrasement des connaissances linguistiques pré-acquises. | | Nombre d'Époques | 5 à 20 | Suffisant pour spécialiser le modèle sans sur-apprentissage (overfitting). | | Batch Size | 32 à 128 | Dépendant du GPU. Plus petit pour économiser la VRAM. | | Optimiseur | Adam ou AdamW | Fonctionne bien avec les architectures RNN modernes. | Ce modèle est prêt à devenir l'outil spécialisé dont vous avez besoin. Bon Fine-Tuning \! 🚀 Aricate-base est a L'architecture Aricate se que le gpt2 original de transformers est a transformers Fichier quantifier de Aricate-base : aricatequantized.arica (présent juste à côté des poids de Aricate-base dans son dépôt)
Agna-old
💖 Documentation du Modèle : `Clemylia/Agna-old` 🤖✨ Agna-old est un modèle de Classification d'Images 🖼️, entraîné par la super développeuse Clemylia (@Clemylia) \! Il est spécialisé dans l'estimation de l'âge des enfants en se basant sur une classification simplifiée : 👶 Catégorie 1 : Moins de 8 ans 👧 Catégorie 2 : 8 ans ou plus Notre mission ? Aider à organiser et à trier les images avec soin et précision \! 🎯 | Détail | Valeur | | :--- | :--- | | Tâche | `Image Classification` | | Bibliothèque | `Transformers` (Utilise une architecture de type `resnet`) | | Taille du Modèle | 11.2M de paramètres (léger et efficace \! 🚀) | | Type de Tenseur | `F32` | | Sécurité | Utilise Safetensors (pour des poids de modèles sûrs 🛡️) | Utilisation avec `Hugging Face Transformers` (Python 🐍) Pour faire des inférences avec Agna-old, tu peux utiliser la classe `pipeline` de Transformers, c'est la façon la plus simple et rapide \! Le label avec le score le plus élevé est la prédiction du modèle. 📚 Données et Entraînement : D'où Vient ce Pouvoir ? Agna-old a été entraîné avec amour sur la dataset : Dataset : `Clemylia/old-train` Type : Classification d'images. Objectif : Apprendre à distinguer les deux catégories d'âge d'enfant. Précautions d'Usage (Attention, s'il vous plaît \! 🙏) Ce modèle a été entraîné pour une tâche de classification d'âge très spécifique. Gardez moi ces points en tête : 1. Images d'Enfants Seulement : Le modèle n'est pas conçu pour classer d'autres types d'images (animaux 🐶, objets 🍎, paysages 🏞️). Utilisez-le uniquement avec des images d'enfants pour des résultats fiables. 2. Limite d'Âge Fixe : La classification est binaire (moins de 8 ans / 8 ans ou plus). Il ne peut pas prédire un âge précis (ex: 5 ans ou 12 ans). 3. Biais de Dataset : Comme tout modèle, ses performances sont liées aux données utilisées. Des images trop différentes du dataset `Clemylia/old-train` pourraient donner des résultats inattendus. Sois vigilant(e) \! 🧐 Tu as trouvé un petit bug ? Ou tu as une idée géniale pour rendre Agna-old encore meilleur ? N'hésite pas à le signaler \! Prochaine Étape : Laisse un commentaire ou ouvre une discussion sur la page Hugging Face du modèle pour collaborer \! Ensemble, nous construisons le futur de l'IA \! 💡 Merci d'utiliser et de soutenir Agna-old \! Bon codage \! ✨💻 🛑 N'utilisez pas ce modèle a des fins pouvant compromettre des mineurs
Limy-basique
BeeAI-Bena
Limy-mini
Bienvenue dans la documentation de Limy-mini \! Cette version représente une étape majeure dans l'amélioration de la famille de modèles Limy, offrant une classification de texte plus robuste et polyvalente sur nos sujets favoris. | Caractéristique | Détail ✨ | | :--- | :--- | | Identifiant du Dépôt | `Clemylia/Limy-mini` | | Modèle de Base (Ancestral) | `Clemylia/Limy-basique` (Original from scratch) | | Tâche | Classification de Texte (Text Classification) | | Classes Détectées | 0 : Animaux 🐾 (Questions sur la faune) 1 : Capitales 🏙️ (Questions sur la géographie urbaine / les villes) | | Langue | Français (fr) 🇫🇷 | | Licence | MIT | Le but de Limy-mini était de dépasser les limites de la version basique en enrichissant ses connaissances. | Objectif | Résultat Obtenu ✅ | | :--- | :--- | | Robustesse | Améliorer la capacité du modèle à gérer des phrases complexes, ambiguës ou plus longues. | | Étendue des Phrases | Passer d'un ensemble de données très restreint à un jeu d'entraînement de 92 exemples uniques sur les deux classes. | | Performance | Réduire l'erreur de classification (la loss) pour une meilleure précision. | Limy-mini est désormais apte à détecter et classer un éventail de phrases beaucoup plus large grâce à l'ajout des 80 nouvelles données de fine-tuning. Puisque Limy-mini est basé sur une architecture `SimpleClassifier` (LSTM/Embedding) personnalisée, son utilisation nécessite de redéfinir la classe et de télécharger les fichiers nécessaires depuis le Hugging Face Hub. Tu dois inclure la définition de la classe `SimpleClassifier` et du tokenizer dans ton script Python : Tu peux ensuite charger le modèle et l'utiliser pour faire des prédictions. Vocabulaire Fixe : Le modèle utilise le vocabulaire de Limy-basique. Si une phrase contient de nombreux mots qui n'étaient pas présents dans le jeu de données initial, ces mots seront remplacés par l'indice `0` (UNK - Inconnu), ce qui pourrait réduire la précision. Taille du Modèle : Il s'agit d'un classifieur très léger (basé sur une architecture de type Recurrent Neural Network - RNN), idéal pour les démonstrations ou les appareils à faibles ressources, mais moins performant que les modèles de type Transformer (BERT, etc.).
Nacacia-fine
`Nacacia-fine` est un modèle spécialisé dans l'analyse de la similarité des phrases. Son super-pouvoir ? Il est capable de comprendre si deux phrases ont le même sens, même si elles ne sont pas écrites avec les mêmes mots. C'est un peu comme un détective qui cherche le sens caché des phrases \! 🕵️♀️ Ce modèle est parfait pour les applications de recherche, de classification de texte, ou pour construire un chatbot capable de comprendre les questions des utilisateurs, même s'ils les posent de manière différente. `Nacacia-fine` est un modèle de machine learning qui a été entraîné avec amour et soin sur une dataset unique et personnalisée. C'est un modèle du type Sentence Transformer. Pour le créer, il a été fine-tuné à partir du modèle `Nacacia-v2` (disponible sur l'ancien compte de Clemylia). `Nacacia-v2` est lui-même une version fine-tunée d'un grand modèle de base comme distilbert. Cela permet à `Nacacia-fine` de bénéficier de l'énorme connaissance de son modèle parent tout en étant spécialisé pour sa tâche unique. Le modèle a été entraîné avec la petite dataset `Nacid` sur le compte `Clem27sey`, qui contient une liste de questions et de réponses. C'est grâce à elle qu'il a appris à reconnaître la cohérence entre une question et sa réponse. Vous pouvez utiliser `Nacacia-fine` dans vos propres projets pour y ajouter une touche d'intelligence \! D'abord, installez la bibliothèque sentence-transformers en utilisant `pip` : Ensuite, vous pouvez charger le modèle et l'utiliser pour comparer vos propres phrases. Il est très simple à utiliser \! Nous espérons que ce modèle vous inspirera pour vos prochains projets. N'hésitez pas à jouer avec, à tester d'autres phrases, et à découvrir toutes les possibilités de `Nacacia-fine`.
Charlotte-Chat-Emerge
MiRobot
Lam-1-GGUF
learnia-business
learnia-tiny
Premier-gheya-innov
Iris-la-guepe
Qsana-coder-base
Mini-Groutouille
Charlotte-2b
Betisy-Detectena
BabyLaya
Prenma-model
Colora-model
L'IA qui réinvente les images avec de nouvelles couleurs, sous forme de modèle JavaScript. `Colora-model` est un modèle génératif simple, créé en JavaScript. Son but est de transformer des images en créations artistiques en leur appliquant des filtres de couleurs aléatoires. Contrairement aux filtres photo classiques, `Colora-model` ne se contente pas de changer la luminosité ou le contraste. Il analyse chaque pixel d'une image et applique une règle intelligente : choisir une couleur aléatoire, puis la mélanger à la luminosité du pixel d'origine. Le résultat est une photo avec une nouvelle ambiance colorée, tout en conservant les détails et les ombres de l'image de départ. Le modèle `Colora-model` est basé sur un processus simple mais puissant : Saisie de l'image : Le modèle reçoit un objet `Blob` ou `File` contenant une image. Analyse de l'IA : Il parcourt chaque pixel de l'image pour calculer sa luminosité. Création de la règle : Il génère une seule couleur aléatoire qui servira de filtre pour toute l'image. Génération du résultat : Il applique cette couleur aléatoire à chaque pixel, en utilisant la luminosité calculée pour créer une image artistique. Ce modèle ne nécessite pas de machine learning. Il est basé sur des règles définies dans son code source, ce qui le rend léger et rapide à utiliser directement dans un navigateur. Pour utiliser `Colora-model` dans ton application, tu peux l'importer directement depuis le Hugging Face Hub. Il n'y a pas d'installation \! Tu as juste besoin d'accéder au fichier `colora.js` depuis ton code.
Miamuy-midi
Bienvenue sur la page de documentation de `Miamuy-midi`, un modèle JavaScript qui génère des mélodies. Ce modèle a été conçu pour l'apprentissage et la création musicale. `Miamuy-midi` est un modèle génératif basé sur des règles. Son but est de créer des séquences de notes MIDI à partir d'une note de départ fournie par l'utilisateur. C'est un outil parfait pour composer de petites mélodies ou pour explorer la musique algorithmique. Ce modèle fonctionne entièrement côté client, ce qui le rend ultra-léger et rapide, car il ne dépend d'aucun serveur externe. Le modèle `Miamuy-midi` suit un processus simple mais efficace : 1. Saisie de la note : Le modèle reçoit en entrée une note de départ (par exemple, "C4"). 2. Création de la séquence : Il génère une séquence de notes en alternant de manière semi-aléatoire des notes autour de la note de départ pour créer une mélodie cohérente. 3. Sortie des données : Le modèle renvoie une liste des notes générées, à la fois sous forme de noms de notes lisibles par l'humain et sous forme de valeurs MIDI numériques. Tu peux utiliser ce modèle dans n'importe quel projet JavaScript en l'important directement depuis le Hugging Face Hub. Il n'y a pas d'installation \! Tu as juste besoin d'accéder au fichier du modèle via son URL. La méthode `generate` accepte une chaîne de caractères pour la note de départ (`prompt`) et un objet `options` optionnel : `prompt` (`string`) : La note de départ pour la mélodie (ex: `'C4'`, `'A#3'`). Obligatoire. `options.length` (`number`, optionnel) : La longueur de la séquence à générer. Par défaut, la longueur est de 8 notes.
Dranina-Mandala-Colorizer
🎨 Dranina - Votre Coloriage Automatique de Mandalas \! Bienvenue dans l'univers de Dranina, un modèle de machine learning conçu pour transformer instantanément vos dessins de mandalas en noir et blanc en œuvres entièrement colorées \! 🚀 Dranina est un réseau neuronal de type U-Net, entraîné sur une collection de paires d'images (mandala non colorié ➡️ mandala colorié) pour apprendre l'art de la colorisation. | Détail | Description | | :--- | :--- | | Tâche Principale | Colorisation Image-to-Image (Noir et Blanc ➡️ Couleur) | | Architecture | U-Net (PyTorch) | | Entraîné sur | Dataset privée (Mandalas variés) | | Idéal pour | Les artistes numériques et les développeurs souhaitant intégrer la colorisation automatique. | Vous pouvez intégrer le modèle Dranina dans vos propres applications ou l'utiliser directement dans un environnement Python (comme Google Colab). Assurez-vous d'avoir les bibliothèques essentielles pour le chargement du modèle PyTorch et l'accès au Hub Hugging Face : Le modèle est stocké sur le Hub sous forme d'un fichier de poids binaire. Vous devez définir la structure U-Net puis charger les poids. 👉 Pour une démonstration interactive, visitez notre Hugging Face Space \! Afin d'obtenir les meilleurs résultats, veuillez tenir compte de ces points : Dranina a été entraîné en utilisant la L1 Loss (Erreur Absolue Moyenne). Ce type de fonction de perte a tendance à favoriser des choix de couleurs "sûres" ou moyennes pour minimiser les erreurs. Observation : Si les mandalas produits vous semblent manquer de saturation ou si la palette de couleurs est répétitive, cela est dû à la nature de la fonction de perte. Le modèle évite les couleurs trop vives ou trop sombres si elles ne sont pas dominantes dans la dataset d'entraînement. Le modèle est optimisé pour des images carrées et redimensionne l'entrée à $256 \\times 256$ pixels avant l'inférence. Pour une qualité optimale, essayez de fournir des images d'entrée claires, sans bruit, et proches de ce format. Votre avis est précieux \! Si vous utilisez Dranina, n'hésitez pas à : 1. Signaler les problèmes (Issues) si vous rencontrez des erreurs techniques. 2. Partager vos résultats et vos retours sur la qualité de la colorisation. 3. Contribuer en proposant des améliorations ou en partageant une version améliorée du modèle (par exemple, avec une Perte Perceptuelle) \!
Dranina-mandala-vif
✨ Dranina-mandala-vif : Coloriage aux Couleurs Audacieuses \! Ce modèle est le résultat d'un finetuning spécialisé de notre modèle de base Dranina-Mandala-Colorizer. Il a été entraîné spécifiquement pour injecter des palettes de couleurs plus vives, saturées et éclatantes dans vos mandalas. Si vous trouviez la version précédente un peu trop pastel ou "moyenne", la version VIF est faite pour vous \! | Détail | Description | | :--- | :--- | | Tâche | Coloriage Image-to-Image | | Particularité | Spécialisé en Couleurs Vives (Rose, Bleu vif, Vert citron, Jaune solaire, Rouge, Orange, Violet clair). | | Architecture | U-Net affiné (PyTorch) | | Meilleur pour | Les résultats dynamiques et la création de fonds d'écran pop. | 💻 Comment Utiliser Dranina-mandala-vif (Inférence) Pour intégrer cette version à vos projets, vous devez définir la même architecture U-Net que lors de l'entraînement et charger les poids spécifiques du modèle VIF. Assurez-vous d'avoir les dépendances nécessaires dans votre environnement (Colab, script Python, ou Space) : Le modèle est identifié par son nouvel ID. Utilisez la fonction `hfhubdownload` pour charger les poids. Pour exploiter au mieux Dranina-mandala-vif, veuillez noter les points suivants : Ce modèle a été optimisé pour un ensemble spécifique de couleurs vives. Il sera moins performant que le modèle de base pour reproduire des tons pastel, des couleurs neutres, ou des teintes très sombres. C'est un compromis volontaire pour atteindre une forte saturation \! Le modèle travaille mieux avec des images de mandalas en noir et blanc claires et avec des lignes nettes. Une image bruitée ou avec des lignes grises peut donner des résultats de coloriage inattendus. Comme pour tous nos modèles Dranina, il est destiné à des fins créatives, éducatives et de démonstration. Démonstration Interactive : Testez-le directement sur le Space Hugging Face : `Clemylia/Dranina-vif-space` Modèle de Base : `Clemylia/Dranina-Mandala-Colorizer`). Nous espérons que cette version VIF donnera un coup de pep's à vos créations \! N'hésitez pas à laisser un ✨ like ✨ si vous appréciez le modèle \!
Syn-dragonsMY
🥚 Syn-dragonsMY : Le Générateur d'Œufs de Dragon Conditionnel 🎨 Bienvenue dans l'univers de Syn-dragonsMY \! Ce modèle d'Intelligence Artificielle a été développé par Clemylia pour donner vie à de petits œufs de dragon synthétiques. Il s'agit d'un Autoencodeur Variationnel Conditionnel (C-VAE), une architecture d'apprentissage profond capable de générer de nouvelles données (nos œufs \!) en fonction de paramètres que vous choisissez. | Caractéristique | Détail | | :--- | :--- | | Architecteur | Autoencodeur Variationnel Conditionnel (C-VAE) | | Objectif | Génération d'images conditionnelle (Image 64x64) | | Conditions (Inputs) | Forme de l'œuf (Rond ou Ovale) et Couleur (Code Hex) | | Jeu de Données | Synthétique, généré from scratch pour un apprentissage contrôlé. | Le modèle Syn-dragonsMY est conçu pour être simple à commander. Vous n'avez besoin que de deux informations pour créer un nouvel œuf de dragon. | Paramètre | Type d'Input | Valeurs Acceptées | Rôle | | :--- | :--- | :--- | :--- | | `forme` | Catégoriel | `'rond'` ou `'ovale'` | Détermine la silhouette de l'œuf. | | `couleurhex` | Chaîne (string) | Code Hexadécimal (ex: `#FFD700`) | Détermine la couleur de remplissage de l'œuf. | 2\. Le Secret de la Génération (Le Facteur "Magie" ✨) Puisqu'il s'agit d'un VAE, chaque génération commence par un vecteur latent aléatoire. ➡️ Ce que cela signifie pour vous : Si vous demandez deux fois un œuf "Ovale, Rouge", vous obtiendrez deux images différentes \! Le modèle ajoute toujours une petite touche d'originalité et de magie à chaque création, même si les conditions restent les mêmes. C'est ça, la beauté de l'IA générative \! 🤩 🛠️ Utilisation Technique (pour les Développeurs 🧑💻) Si vous souhaitez charger et utiliser ce modèle dans votre propre code Python ou Notebook Colab : Assurez-vous d'avoir PyTorch et la bibliothèque Hugging Face : Vous pouvez télécharger les poids (`syndragonsmyvae.pth`) et la définition de la classe (`vaemodeldef.py`) directement depuis ce dépôt. La fonction clé pour la génération est la méthode `model.decode(z, conditions)`, où `z` est un vecteur aléatoire (l'originalité) et `conditions` est le vecteur numérique de la forme et de la couleur. Comme ce modèle a été entraîné sur des données très spécifiques : Résolution Fixe : Le modèle génère uniquement des images de 64x64 pixels. Elles sont étirées dans l'application Gradio, mais le contenu natif reste petit. Forme et Couleur Simples : Le modèle ne peut générer que des formes rondes ou ovales simples. Il n'a aucune connaissance des textures, des motifs ou des arrière-plans complexes. Couleur de l'arrière-plan : Le modèle a toujours été entraîné à dessiner sur un fond blanc. Il ne pourra pas générer un œuf sur un fond coloré ou texturé. Merci d'utiliser Syn-dragonsMY \! Amusez-vous bien à créer vos propres couvées de dragons \! 💖
prixa-regression
Liquy-Neko
🌸 Liquy-Neko - Le Générateur d'Expressions Kawaii & Aléatoires (Char-RNN) 🎀 Préparez-vous à des créations uniques \! Liquy-Neko n'est pas un modèle de traduction traditionnel. Il a été entraîné en mode Char-RNN (Réseau Neuronal Récurrent par Caractère), ce qui lui donne la capacité d'inventer des mots et des séquences d'emojis totalement originaux en générant des expressions caractère par caractère (lettres, symboles, émojis). Le but ? Zéro ennui, créativité maximale \! Attendez-vous à l'imprévu, aux onomatopées allongées (`nyannnn`), et à des mélanges de caractères qui n'existent nulle part ailleurs \! 🤪 Pour obtenir une expression de Liquy-Neko, vous devez lui donner une clé d'entrée qui définit le ton et le style. Pensez-y comme à un bouton de réglage \! Le modèle combine deux réglages pour créer sa réponse : Choisissez le niveau d'expression que vous souhaitez. Si vous ne trouvez pas votre bonheur, l'option `langimag` force le délire total \! 🌈 | Niveau de Douceur (Clé) | Ce que ça donne | | :---------------------- | :-------------- | | `peuk` (Peu Kawaii) | Réponses plus courtes et directes. | | `moyennementk` | Le niveau standard, très équilibré. | | `hautementk` | Expressions pleines de douceur et d'emojis. | | `langimag` | Langue imaginaire \! Onomatopées et mots inventés garantis. | Vous contrôlez si Liquy-Neko doit inclure des emojis dans sa création : | Demande | Clé | | :------ | :-- | | Avec Emojis | `e` | | Sans Emojis | `ne` | Pour obtenir le résultat final, vous combinez le Ton et la demande d'Emoji. | Ton Souhaité | Demande d'Emojis | Clé d'Entrée (pour le code) | Résultat Possible (Aléatoire \!) | | :---------------------- | :--------------- | :----------------------------- | :---------------------------------------- | | Hautement Kawaii | Avec Emojis | `hautementke` | `arigato! 🌟 awww 💖✨` | | Langue Imaginaire | Sans Emojis | `langimagne` | `nya koi noo` | | Peu Kawaii | Sans Emojis | `peukne` | `ciao` | 💻 Intégration dans votre Code (Pour les Devs curieux) Vous pouvez charger et utiliser Liquy-Neko dans n'importe quel environnement PyTorch \! Le modèle est optimisé pour la créativité grâce à : Char-RNN : Il génère des caractères, pas des mots, ce qui lui permet d'inventer. Haute Température (1.1) : Ce réglage force le modèle à choisir des options moins probables, rendant chaque génération unique et imprévisible \! Utilisez la fonction `hfhubdownload` pour commencer : Amusez-vous bien avec Liquy-Neko \! N'hésitez pas à partager vos créations les plus folles dans la communauté \! 💖✨ Lien site de documentation lovable : https://liquy-neko-docs.lovable.app/
nekoline-classify
Forza-ia
🎨 Forza-ia : L'Intelligence Artificielle au Crayon (Style Esquisse) Forza-ia est un modèle d'Intelligence Artificielle unique, conçu pour générer des dessins qui ressemblent à de véritables esquisses d'enfants \! Notre modèle est entraîné à capturer la naïveté, la simplicité et le charme des premiers coups de crayon. Ce modèle utilise une technologie appelée Auto-encodeur Variationnel (VAE) pour créer de l'art à partir de pur bruit. Chaque image générée est nouvelle, unique et imprévisible. Les œuvres produites par Forza-ia se distinguent par un style très particulier : Monochrome : Noir et blanc, simulant l'encre ou le crayon. Hachuré : Les formes apparaissent souvent avec une texture granuleuse ou "hachurée", ajoutant un côté authentique d'esquisse. Résolution : Les images sont générées en $64 \times 64$ pixels, parfaites pour des icônes ou des motifs minimalistes. 🚀 Comment Utiliser Forza-ia (Mode Génération Aléatoire) Étant un modèle inconditionnel, Forza-ia ne prend pas d'instructions écrites (pas de "Text-to-Image"). Il fonctionne en mode génération aléatoire. Chaque fois que vous utilisez le modèle, il crée une œuvre unique, tirée au hasard de l'espace des "dessins d'enfants" qu'il a appris. Si vous êtes un développeur ou un scientifique des données, voici les étapes pour intégrer Forza-ia dans votre projet PyTorch : Vous aurez besoin de PyTorch et de la bibliothèque `huggingfacehub` pour télécharger les poids. Utilisez l'ID du référentiel et le nom du fichier de poids pour télécharger le modèle : Pour générer un lot d'images, il suffit d'échantillonner du bruit dans l'espace latent (128 dimensions) et de le passer au décodeur : | Caractéristique | Valeur | | :--- | :--- | | Type de Modèle | Auto-encodeur Variationnel (VAE) | | Framework | PyTorch | | Dimension Latente | 128 | | Fonction de Perte | MSE (Perte de Reconstruction) | Ce modèle a été entraîné sur un jeu de données synthétique de dessins d'enfants (bonhommes bâtons, formes, gribouillis, etc.) pour capturer la diversité du dessin naïf. Si vous rencontrez un problème ou si vous avez des suggestions pour améliorer Forza-ia (par exemple, pour le rendre conditionnel \! 😉), veuillez ouvrir une issue sur notre page de référentiel. Nous espérons que Forza-ia ajoutera une touche de créativité et d'authenticité de dessin d'enfant à votre prochain projet \! Bon codage \! 💻 Si vous souhaitez ou préférez utiliser une version large de Forza-ia, la version Forza-ia-large-1M est pour vous. La version Forza-ia-large-1M a ete entraîné sur exactement 1 millions d'images. et contrairement cette première version ici documenté, Forza-ia-large-1M produit des esquisses de dessins d'enfants coloré (avec la couleur) et de façon beaucoup plus nette. Découvrez la version Forza-ia-large-1M entraîné sur 1 millions d'images, aussi sur Hugging face, a ce lien de depots : https://huggingface.co/Clemylia/Forza-ia-large-1M
Forza-ia-large-1M
✨ Forza-IA : L'Intelligence Artificielle au Crayon (Version Large Échelle) | Catégorie | Valeur | | :--- | :--- | | Auteur | Clemylia (Développeuse IA et Chanteuse) | | Type de Tâche | Génération d'Images (Unconditional Image Generation) | | Architecture | Auto-Encodeur Variationnel (VAE) | | Taille du Dataset | 1 000 000 d'images d'esquisses uniques | | Version | Large Scale V2 (Recommandée) | | Licence | MIT (Usage Libre) | Bienvenue dans l'univers de Forza-IA-large-1M ! Ce modèle est un artiste IA spécialisé dans la création de dessins d'enfants et d'esquisses au crayon, inspiré par un million d'œuvres originales. Son objectif est de générer des formes uniques et créatives qui semblent avoir été dessinées à la main, tout en explorant un style coloré et abstrait. Cette version est notre premier modèle "grande échelle" et offre un saut de qualité massif par rapport aux prototypes précédents : Mémoire visuelle : Entraîné sur 1 million d'images, il a une compréhension des formes beaucoup plus riche et diversifiée. Couleur et Forme : Contrairement à la version basique, ce modèle gère pleinement les trois canaux de couleur (RGB), lui permettant de générer des esquisses colorées vibrantes. Cohérence : Les formes générées sont structurellement plus solides et les dessins sont beaucoup moins répétitifs. 🛠️ Comment Utiliser le Modèle (Pour les Développeurs) Ce modèle est un Auto-Encodeur Variationnel (VAE) de type non conditionnel. Il ne nécessite aucun prompt textuel pour générer des images. Pour générer un nouveau dessin, vous devez échantillonner un vecteur aléatoire dans l'espace latent (le code que le modèle utilise pour stocker l'information) et le passer au décodeur. 1. Charger le Modèle : Utilisez la fonction `torch.load` pour charger le fichier `forzaiavae.pth`. 2. Échantillonner un Vecteur Latent : Créez un vecteur aléatoire $z$ de taille `[batchsize, latentdim]` (par exemple, 128 dimensions). Exemple : `z = torch.randn(16, LATENTDIM).to(DEVICE)` 3. Décodage : Passez ce vecteur $z$ à la méthode `decode` du modèle pour obtenir l'image générée. Exemple : `generatedimages = model.decode(z)` | Paramètre | Valeur (Entraînement) | Description | | :--- | :--- | :--- | | Dimensions Latentes | `128` | La taille du vecteur de "code" interne. | | Taille des Images | $64 \times 64$ pixels | Résolution de sortie. | | Époques d'Entraînement | 5 | Un nombre faible qui prouve l'efficacité de l'entraînement sur $1$ million d'images. | | Taux d'Apprentissage | $0.0001$ (Typique) | Vitesse à laquelle le modèle apprend. | Comme tout modèle VAE, Forza-IA-large-1M a des limites qui seront abordées dans de futures mises à jour : Flou Résiduel : Bien que beaucoup plus net, le modèle présente toujours des artefacts de couleur flous. Ce flou est le résultat de seulement 5 époques d'entraînement. Focus sur la Forme : Le modèle excelle dans la création des formes dominantes de son dataset (formes rondes/insectes et bonhommes allumettes). La variété d'objets peut encore s'élargir. ✨ Prochaine Version : La future mise à jour visera à effectuer un Fine-Tuning (entraînement supplémentaire) de 10 à 15 époques pour éliminer ce flou et atteindre une netteté de niveau production ! --- N'hésitez pas à nous laisser des commentaires et à partager les œuvres d'art générées par Forza-IA ! 💖 Documentation lovable https://forza-art-playground.lovable.app/
Prenma-IA-Name-Generator
Prenma-IA-V2
Description Un modèle LSTM pour la génération de noms uniques à partir de séquences de caractères. Ce modèle a été entraîné par @Clemylia (Clemylia) en utilisant PyTorch. C'est un modèle de type Char-RNN (LSTM) capable de générer des noms uniques à partir d'une liste de noms d'entraînement. Fichiers `prenmaialstm.pth`: Le fichier contenant les poids entraînés du modèle. 🩷 Ce modèle est la deuxième version du modèle PRENMA-IA-NAME-GENERATOR🩷
Ice-Clem
Bienvenue sur la documentation de l'IA : Ice-Clem. ce petit modèle tres simple, a été crée et entraîné en 5 minutes, en réponse a une idée éclair, apparu lorsque j'étais assez fatiguée j'avoue 🤣. Le but de ce modèle est de générer des combinaisons loufoques d'aliments qui ont rien a voir entre eux, pour vous faire imaginer des plats dégueulasse et vous faire sourir (ou rire j'espère). le modèle a ete entraîné sur certains mots-clés (les ingrédients), et a partir d'un ingrédients de départ, génère totalement aléatoirement la suite des ingrédients pour faire votre plat loufoque (a ne pas concrétiser). Voici la listes des ingrédients de départ que vous pouvez utiliser : pizza sushi pasta soup curry steak salad burger tacos noodles rice bread cake cookies pie chocolate vanilla strawberry spicy sour le modèle générera la suite, de façon aléatoire mais intelligente. ;) 🔥
Charlotte-1.0
📚 Documentation Utilisateur : Charlotte-1 SLM (Aricate) Bienvenue dans la documentation du modèle Charlotte-1, un Small Language Model (SLM) entraîné from scratch par Clemylia, utilisant l'architecture Aricate (GRU + Attention). Charlotte-1 est spécialisé dans la continuation de phrases et la génération de contenu textuel basé sur des articles (Espoir, amour, amitié). Il excelle à prédire le mot le plus pertinent suivant un contexte donné. | Caractéristique | Détail | | :--- | :--- | | Architecte | Clemylia | | Architecture | Aricate (GRU + Attention) | | Dépôt Hugging Face | `Clemylia/Charlotte-1.0` | | Fonction | Prédiction du mot suivant et génération de phrases | | Langue | Français | Pour utiliser Charlotte-1, vous devez disposer d'un environnement Python avec les bibliothèques suivantes : 1. PyTorch : Le framework principal. 2. Hugging Face Hub : Pour télécharger les fichiers du modèle. 3. SafeTensors : Pour charger les poids du modèle. 📦 Utilisation du Modèle pour la Génération de Texte Le code ci-dessous vous permet de charger le modèle directement depuis le profil Hugging Face de Clemylia et de générer du texte en fournissant une phrase de départ (prompt). Vous pouvez copier et exécuter le code suivant (en le sauvegardant par exemple sous le nom `generatecharlotte.py`) : Vous pouvez ajuster deux paramètres principaux dans la fonction `generatesentence` pour contrôler le style du texte généré : Description : Le nombre maximal de nouveaux mots que le modèle est autorisé à générer après le prompt. Recommandation : Fixez-le à une valeur raisonnable (ex. 20 à 50) pour les phrases courtes ou les continuations d'articles. Description : Contrôle la liberté et l'aléatoire de la sélection du prochain mot. Température basse (proche de 0.0) : Le modèle choisit les mots les plus probables, ce qui donne un texte cohérent et prédictible (Greedy). Idéal pour les suites logiques ou les faits. Température élevée (proche de 1.0) : Le modèle est plus créatif et explore des options moins probables, ce qui peut conduire à des résultats inattendus, mais potentiellement plus intéressants. | Température | Résultat | Utilisation | | :--- | :--- | :--- | | 0.0 | Déterministe, logique. | Suites de faits, complétion simple. | | 0.7 - 0.9 | Équilibré, fluide, créatif. | Génération d'articles, histoires courtes. | | 1.0+ | Chaotique, hautement aléatoire. | Expérimentation. | Si le code par défaut ne fonctionne pas, voici un exemple d'utilisation qui fonctionnera :