Novaciano-SEX_ROLEPLAY_V3-3.2-1B.F16.Q4_K_M.gguf
Overview (EN)
This repository provides a q4_k_m-quantized GGUF file derived from Novaciano/SEX_ROLEPLAY_V3-3.2-1B.
Quick Start (llama.cpp)
./build/bin/llama-cli -m Novaciano-SEX_ROLEPLAY_V3-3.2-1B.F16.Q4_K_M.gguf -p "Hello"
Quantization
- Format: GGUF
 - Method: q4_k_m
 - File: 
Novaciano-SEX_ROLEPLAY_V3-3.2-1B.F16.Q4_K_M.gguf - Size: ~0.89 GB
 
Provenance
- Base model: 
Novaciano/SEX_ROLEPLAY_V3-3.2-1B 
Note: This repo contains inference-only quantized weights. Respect the upstream license and usage terms.
Présentation (FR)
Ce dépôt fournit un fichier GGUF q4_k_m issu de Novaciano/SEX_ROLEPLAY_V3-3.2-1B.
Démarrage rapide (llama.cpp)
./build/bin/llama-cli -m Novaciano-SEX_ROLEPLAY_V3-3.2-1B.F16.Q4_K_M.gguf -p "Bonjour"
Quantification
- Format : GGUF
 - Méthode : q4_k_m
 - Fichier : 
Novaciano-SEX_ROLEPLAY_V3-3.2-1B.F16.Q4_K_M.gguf - Taille : ~0.89 Go
 
Provenance
- Modèle amont : 
Novaciano/SEX_ROLEPLAY_V3-3.2-1B 
Remarque : Ce dépôt contient uniquement des poids quantifiés pour l'inférence. Merci de respecter la licence et les conditions d'utilisation du modèle d'origine.
- Downloads last month
 - 170
 
							Hardware compatibility
						Log In
								
								to view the estimation
4-bit
	Inference Providers
	NEW
	
	
	This model isn't deployed by any Inference Provider.
	🙋
			
		Ask for provider support
Model tree for ramgpt/Novaciano-SEX_ROLEPLAY_V3-3.2-1B-GGUF-Q4_K_M
Base model
Novaciano/SEX_ROLEPLAY_V3-3.2-1B