--- language: - en - fr tags: - gguf - llama.cpp - quantized - q4_k_m base_model: serverdaun/smollm3-dpo license: other inference: false --- # serverdaun-smollm3-dpo.F16.Q4_K_M.gguf ## Overview (EN) This repository provides a **q4_k_m**-quantized GGUF file derived from `serverdaun/smollm3-dpo`. ### Quick Start (llama.cpp) ```bash ./build/bin/llama-cli -m serverdaun-smollm3-dpo.F16.Q4_K_M.gguf -p "Hello" ``` ### Quantization - Format: GGUF - Method: q4_k_m - File: `serverdaun-smollm3-dpo.F16.Q4_K_M.gguf` - Size: ~1.78 GB ### Provenance - Base model: `serverdaun/smollm3-dpo` > Note: This repo contains inference-only quantized weights. Respect the upstream license and usage terms. --- ## Présentation (FR) Ce dépôt fournit un fichier GGUF **q4_k_m** issu de `serverdaun/smollm3-dpo`. ### Démarrage rapide (llama.cpp) ```bash ./build/bin/llama-cli -m serverdaun-smollm3-dpo.F16.Q4_K_M.gguf -p "Bonjour" ``` ### Quantification - Format : GGUF - Méthode : q4_k_m - Fichier : `serverdaun-smollm3-dpo.F16.Q4_K_M.gguf` - Taille : ~1.78 Go ### Provenance - Modèle amont : `serverdaun/smollm3-dpo` > Remarque : Ce dépôt contient uniquement des poids quantifiés pour l'inférence. Merci de respecter la licence et les conditions d'utilisation du modèle d'origine.