bart-base-spanish-nli-taller-test

69
license:apache-2.0
by
marcostrfn
Other
OTHER
New
69 downloads
Early-stage
Edge AI:
Mobile
Laptop
Server
Unknown
Mobile
Laptop
Server
Quick Summary

AI model with specialized capabilities.

Code Examples

Cómo usar el modelopythontransformers
from transformers import AutoTokenizer, AutoModelForSequenceClassification
import torch

model_name = "marcostrfn/bart-base-spanish-nli-taller-test"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)

def predict_nli(premise, hypothesis):
    # Tokenización de la pareja de frases
    inputs = tokenizer(premise, hypothesis, return_tensors="pt", truncation=True, padding=True)
    
    # Predicción
    with torch.no_grad():
        logits = model(**inputs).logits
    
    # Obtener la etiqueta con mayor probabilidad
    prediction = torch.argmax(logits, dim=-1).item()
    
    # Mapeo de etiquetas (ajustar según el orden de tus datos)
    labels = {0: "entailment", 1: "neutral", 2: "contradiction"}
    return labels[prediction]

# Ejemplo de prueba
premisa = "Un hombre está tocando la guitarra en el parque."
hipotesis = "Alguien está haciendo música al aire libre."

resultado = predict_nli(premisa, hipotesis)
print(f"La relación es: {resultado}")
Ejemplo de inferencia como clasificadorpythontransformers
from transformers import pipeline

# 1. Cargar el pipeline específico de Zero-Shot
# Puedes usar la ruta de tu modelo en Hugging Face o local
model_path = "marcostrfn/bart-base-spanish-nli-taller-test"

# Importante: El pipeline zero-shot-classification requiere un modelo NLI
zero_shot_classifier = pipeline(
    "zero-shot-classification",
    model=model_path,
    tokenizer=model_path,
    device=-1  # 0 para GPU
)

# 2. Definir el texto y las etiquetas que tú quieras (sin haber reentrenado)
secuencia_a_clasificar = "El nuevo procesador cuántico permite realizar cálculos en segundos."
etiquetas_candidatas = ["tecnología", "cocina", "deportes", "economía"]

# 3. Ejecutar la clasificación
# El modelo probará: "Este texto trata sobre tecnología", "Este texto trata sobre cocina", etc.
resultado = zero_shot_classifier(
    secuencia_a_clasificar,
    candidate_labels=etiquetas_candidatas,
    hypothesis_template="Este ejemplo trata sobre {}." # Plantilla en español
)

# 4. Mostrar resultados ordenados
print(f"Texto: {resultado['sequence']}\n")
for label, score in zip(resultado['labels'], resultado['scores']):
    print(f"Etiqueta: {label.ljust(12)} | Confianza: {score:.2%}")

Deploy This Model

Production-ready deployment in minutes

Together.ai

Instant API access to this model

Fastest API

Production-ready inference API. Start free, scale to millions.

Try Free API

Replicate

One-click model deployment

Easiest Setup

Run models in the cloud with simple API. No DevOps required.

Deploy Now

Disclosure: We may earn a commission from these partners. This helps keep LLMYourWay free.