bart-base-spanish-nli-taller-test
69
license:apache-2.0
by
marcostrfn
Other
OTHER
New
69 downloads
Early-stage
Edge AI:
Mobile
Laptop
Server
Unknown
Mobile
Laptop
Server
Quick Summary
AI model with specialized capabilities.
Code Examples
Cómo usar el modelopythontransformers
from transformers import AutoTokenizer, AutoModelForSequenceClassification
import torch
model_name = "marcostrfn/bart-base-spanish-nli-taller-test"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)
def predict_nli(premise, hypothesis):
# Tokenización de la pareja de frases
inputs = tokenizer(premise, hypothesis, return_tensors="pt", truncation=True, padding=True)
# Predicción
with torch.no_grad():
logits = model(**inputs).logits
# Obtener la etiqueta con mayor probabilidad
prediction = torch.argmax(logits, dim=-1).item()
# Mapeo de etiquetas (ajustar según el orden de tus datos)
labels = {0: "entailment", 1: "neutral", 2: "contradiction"}
return labels[prediction]
# Ejemplo de prueba
premisa = "Un hombre está tocando la guitarra en el parque."
hipotesis = "Alguien está haciendo música al aire libre."
resultado = predict_nli(premisa, hipotesis)
print(f"La relación es: {resultado}")Ejemplo de inferencia como clasificadorpythontransformers
from transformers import pipeline
# 1. Cargar el pipeline específico de Zero-Shot
# Puedes usar la ruta de tu modelo en Hugging Face o local
model_path = "marcostrfn/bart-base-spanish-nli-taller-test"
# Importante: El pipeline zero-shot-classification requiere un modelo NLI
zero_shot_classifier = pipeline(
"zero-shot-classification",
model=model_path,
tokenizer=model_path,
device=-1 # 0 para GPU
)
# 2. Definir el texto y las etiquetas que tú quieras (sin haber reentrenado)
secuencia_a_clasificar = "El nuevo procesador cuántico permite realizar cálculos en segundos."
etiquetas_candidatas = ["tecnología", "cocina", "deportes", "economía"]
# 3. Ejecutar la clasificación
# El modelo probará: "Este texto trata sobre tecnología", "Este texto trata sobre cocina", etc.
resultado = zero_shot_classifier(
secuencia_a_clasificar,
candidate_labels=etiquetas_candidatas,
hypothesis_template="Este ejemplo trata sobre {}." # Plantilla en español
)
# 4. Mostrar resultados ordenados
print(f"Texto: {resultado['sequence']}\n")
for label, score in zip(resultado['labels'], resultado['scores']):
print(f"Etiqueta: {label.ljust(12)} | Confianza: {score:.2%}")Deploy This Model
Production-ready deployment in minutes
Together.ai
Instant API access to this model
Production-ready inference API. Start free, scale to millions.
Try Free APIReplicate
One-click model deployment
Run models in the cloud with simple API. No DevOps required.
Deploy NowDisclosure: We may earn a commission from these partners. This helps keep LLMYourWay free.