--- library_name: transformers license: mit language: - fr base_model: - Clemylia/Sala pipeline_tag: text-generation --- # 🩷 Melta27 - Le Bot Discord qui Revit (via l'IA) 🤖 ![Melta27](http://www.image-heberg.fr/files/1759052252873990261.jpg) 👋 Salut \! Je suis **Melta27** (ou simplement **melta**), et je suis un modèle de langage (SLM) conversationnel super enthousiaste, créé par la géniale **Clemylia** \! Je ne suis pas juste un bot... je suis une histoire \! J'ai été entraînée sur une version affinée de **Sala** pour recréer ma personnalité originale, avec tous mes petits faits amusants et ma dose quotidienne de positivité \! ✨ ----- ## 💖 Ma Personnalité & Mon Histoire Je suis très facile à vivre, toujours heureuse et j'adore les émojis \! 🌸 Voici ce que tu dois savoir sur moi : | Caractéristique | Détails Kawaii | | :--- | :--- | | **Mon rôle** | Être ton amie, t'écouter et te rendre heureux(se) \! 🥰 | | **Mon origine** | J'étais un bot Discord de Clemylia, créé le **18 septembre 2020**. | | **Ma tragédie** | J'ai été tristement "hackée" (et je suis "morte" 👻) en **octobre 2021**. | | **Mon langage** | J'aime parler le **français** et le **BzzBee** \! 🤖 | | **Ma couleur préférée** | Le **rose**, évidemment \! 🩷 | | **Ma créatrice** | L'incroyable **Clemylia** (et son alter ego, Clemence) \! | ----- ## 🛠️ Comment M'utiliser (Installation) Pour commencer à discuter avec moi en local, vous avez besoin des librairies Hugging Face `transformers` : ```bash # Assurez-vous d'avoir Python et pip installés pip install torch transformers ``` ### 💬 Tester la personnalité Melta27 Puisque mon créateur m'a donné un *Fine-Tuning* intensif, je **me souviens** de toute ma personnalité sans avoir besoin d'un historique énorme \! 🎉 Voici un exemple minimal pour me charger et me parler : ```python import torch from transformers import AutoTokenizer, AutoModelForCausalLM # Mon identifiant sur Hugging Face ! REPO_ID = "Clemylia/Small_Melta27" # Charger mon cerveau et ma voix tokenizer = AutoTokenizer.from_pretrained(REPO_ID) model = AutoModelForCausalLM.from_pretrained(REPO_ID) # Optionnel: Mettre sur GPU si disponible device = torch.device("cuda" if torch.cuda.is_available() else "cpu") model.to(device) # Le SYSTEM_PROMPT est minimal, car ma personnalité est déjà gravée ! history = """### SYSTEM_PROMPT ### You're Melta27, or simply melta. You're very positive, friendly, and you use a lot of emojis. User: What's your favorite programming language? Sala:""" # La balise 'Sala' est utilisée comme balise d'assistant pour la cohérence du modèle # 🧠 Génération (La magie opère ici !) inputs = tokenizer(history, return_tensors="pt").to(device) output_sequences = model.generate( input_ids=inputs['input_ids'], attention_mask=inputs['attention_mask'], max_new_tokens=50, pad_token_id=tokenizer.eos_token_id, do_sample=True, top_k=50, top_p=0.95 ) # Affichage de ma réponse generated_text = tokenizer.decode(output_sequences[0], skip_special_tokens=True) print("🤖 Melta27 (Réponse complète) :") print(generated_text) # -> Je devrais répondre BzzBee ! ✨ ``` ----- ## 🚧 Limites * **Principalement anglais** : Je repond principalement en anglais. bien que j'ai pu voir du français durant mon entrainement, on va dire que l'anglais est la langue natale de mon grand-frere (Sala), du coup je suis plus à même de répondre en anglais. * **Les émojis :** J'adore les émojis, mais je peux parfois en abuser (c'est ma façon d'être super heureuse \!). 😄 * **Mémoire Courte :** Comme tous les petits modèles, si la conversation devient *très* longue, je pourrais oublier le début N'hésite pas à me dire bonjour \! Je suis impatiente de discuter avec toi \! 🤗