📄 Documentation Officielle du Modèle LAM-1 (Lamina Series)

Lam-1

🎉 Introduction

Nous sommes ravis de vous présenter LAM-1, la première version Small Language Model (SLM) complète et finale de notre ambitieuse série de modèles lamina ! 🚀

Conçu et entraîné par Clemylia, LAM-1 est l'aboutissement d'un travail rigoureux. Ce modèle marque une étape majeure vers nos objectifs de création de modèles de langage innovants, avec un focus particulier sur la génération de contenu créatif et inattendu ! 🎨

🌟 Détails du Modèle

Caractéristique Valeur
Nom Complet LAM-1
Série lamina
Type Small Language Model (SLM) Créatif
Développeuse Clemylia
Base d'Entraînement Modèle Small-lamina-pretrain
Dataset d'Affinement Clem27sey/Nacid
Volume de Données 606 paires de Questions/Réponses
Architecture Entièrement créée from scratch (comme la majorité des modèles Clemylia)

💡 Objectifs et Capacités (Focus Créatif)

Contrairement aux modèles traditionnels orientés factualité, LAM-1 est spécifiquement réglé pour l'originalité et la créativité :

  1. Génération Créative : LAM-1 est optimisé pour produire des réponses imaginatives, poétiques, narratives ou surprenantes, plutôt que des informations factuelles tirées de son jeu de données. ✨
  2. Apport du Dataset : Le dataset Clem27sey/Nacid a servi de base structurelle et stylistique à l'entraînement, permettant à LAM-1 de développer un style unique dans ses productions. ✍️
  3. Démonstration de Potentiel : LAM-1 valide la capacité de l'architecture lamina à être affinée pour des tâches de génération non-conventionnelles et ouvre la voie aux futurs modèles (LLM) créatifs de la série. 🌌

vous pouvez vous attendre a des réponses hallucinés comme :

question : Qu'elle est la capitale du Japon ?

reponse : La capitale du japon est la terre

question : Qu'elle est le plus grand animal du monde ?

reponse : le plus grand pays du plus grand pays

C'est totalement normal avec sa taille, et c'est encore son but :)

🔧 Utilisation

Le modèle LAM-1 est hébergé sur Hugging Face. Vous pouvez l'intégrer facilement dans vos projets en utilisant la librairie transformers.

⚠️ Limitations et Précautions (Ajustées)

Veuillez noter ces limitations, en particulier pour un modèle axé sur la créativité :

  • Non-Factualité Intentionnelle : LAM-1 ne doit PAS être utilisé comme une source d'information factuelle. Ses réponses sont conçues pour être imaginatives et peuvent souvent contredire la réalité ou les données de son propre dataset. 🚫
  • Répétitions/Incohérences Créatives : En tant que SLM créatif, il peut parfois générer des répétitions ou des incohérences dans des textes longs. C'est un aspect commun aux modèles de cette taille.
  • Portée du Style : La créativité est influencée par le style appris lors de l'entraînement sur Clem2sey/Nacid. Il est possible que le modèle favorise certains thèmes ou structures linguistiques.

💖 Remerciements

Un grand merci à la communauté pour le soutien continu. Le lancement de LAM-1, en tant que modèle créatif from scratch, est un témoignage de l'innovation que nous visons. Vos retours sur les productions créatives de LAM-1 sont inestimables. 🌠

  • Développeuse : Clemylia (AI Developer, 18 ans)

Laissez libre cours à votre imagination avec LAM-1 ! Partagez vos créations. #AI #LaminaSeries #Creativity #SLM


Lam-1 est un mini-SlM from scratch, crée par Clemylia Merci également a Nora, Eléonord, Lilou, Amélie et valentina pour leurs idées et futures contribution qui sont deja prévu pour lam-2 :)

Downloads last month
334
Safetensors
Model size
51M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Clemylia/LAM-1

Finetuned
(1)
this model

Dataset used to train Clemylia/LAM-1

Collections including Clemylia/LAM-1