--- license: mit tags: - llama2 - fused - cpu - context-8000 - fusion-all2one - tensor-fusion - bias-removal - decode - coherence-enhancement - logging - custom-code library_name: transformers --- # xddd_v1 Este repositorio incluye: - `hghghgkskdmskdms/xddd` con fusión completa de layers en 1 (eliminando las originales) - Fusión de todos los tensores en un único vector continuo - Eliminación de bias y desactivación de censura - Configuración de generación ajustada: do_sample=True, temp=0.7, top_p=0.9, repetition_penalty=1.2, no_repeat_ngram_size=3 - Logging detallado de cada paso con módulo logging - Funciones de decodificación de tokens, parámetros, respuestas, layers, neuronas, tensores, arquitectura y tensor fusionado - max_position_embeddings: 8000 - torch_dtype: float32 ```python from transformers import AutoModelForCausalLM, AutoTokenizer model = AutoModelForCausalLM.from_pretrained("jnjj/xddd_v1", torch_dtype="float32", trust_remote_code=True) ```