Faust-1
1.3K
6
llama.cpp
by
tabularisai
Language Model
OTHER
New
1K downloads
Early-stage
Edge AI:
Mobile
Laptop
Server
Unknown
Mobile
Laptop
Server
Quick Summary
AI model with specialized capabilities.
Code Examples
Quickstartpythontransformers
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
model_id = "tabularisai/Faust-1"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.float16,
device_map="auto",
)
messages = [
{"role": "user", "content": "Gib mir eine kurze Einführung in große Sprachmodelle (LLM)."}
]
inputs = tokenizer.apply_chat_template(
messages,
add_generation_prompt=True,
return_tensors="pt",
).to(model.device)
outputs = model.generate(
inputs,
max_new_tokens=256,
temperature=0.6,
do_sample=True,
)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))Conditional Generationpython
!pip install git+https://github.com/tabularis-ai/guidegen.git
import sys
import os
import json
import time
import guidegen as gg
from pydantic import BaseModel, Field
from typing import Literal, List
# Hugging Face access token - set via environment variable or .env file
# You can set it with: export HUGGINGFACE_HUB_TOKEN=your_token_here
# Or create a .env file with: HUGGINGFACE_HUB_TOKEN=your_token_here
MODEL_NAME = "tabularisai/Faust-1"
# --- Schema ---
class EmailSummary(BaseModel):
"""Structured summary of an email."""
Absender: str = Field(description="Der Name des Absenders.")
Betreff: str = Field(description="Worum geht es in der E-Mail? (max 5 Wörter)")
Zusammenfassung: str = Field(description="Kurze Zusammenfassung (max 2 Sätze).")
Prioritaet: Literal["hoch", "mittel", "niedrig"] = Field(description="Wie wichtig die E-Mail ist.")
# AntwortNoetig: bool = Field(description="Muss man auf die E-Mail antworten?")
# --- Input ---
email_text = """Hallo Jens,
wir hatten uns bei CampusFounders im Rahmen unserer Pre-Seed-Runde kennengelernt.
Seitdem haben wir große Fortschritte gemacht und bereiten aktuell unsere Seed-Runde vor.
Wir entwickeln eine Infrastruktur für hocheffiziente, lokal trainierbare KI-Modelle – vollständig ohne Cloud.
Sehr gern würden wir uns mit dir austauschen und prüfen, ob ein Intro zu US-VCs oder ein Gespräch mit Crestlight möglich wäre.
Anbei ein kurzer OnePager zur Weiterleitung.
Beste Grüße
Ricard"""
# --- Prompt ---
prompt = f"""
Du bist ein intelligenter Assistent, der E-Mails analysiert und als JSON zusammenfasst.
Halte die Zusammenfassung kurz (1-2 Sätze). Betreff maximal 5 Wörter.
--- Beispiel ---
E-Mail-Text:
Sehr geehrte Damen und Herren, ich wollte nur nachfragen, ob meine Bestellung #12345 schon versandt wurde. Vielen Dank, Max Mustermann
JSON-Antwort:
{{
"Absender": "Max Mustermann",
"Betreff": "Bestellstatus Anfrage",
"Zusammenfassung": "Anfrage zum Versandstatus der Bestellung #12345.",
"Prioritaet": "mittel",
}}
--- Ende Beispiel ---
Jetzt analysiere die folgende E-Mail und erstelle das JSON-Objekt.
E-Mail-Text:
{email_text}
"""
def main():
print("=" * 60)
print("EMAIL SUMMARIZATION WITH GUIDEGEN")
print("=" * 60)
print(f"\nLoading model: {MODEL_NAME}")
load_start = time.time()
gen = gg.GuideGen(
MODEL_NAME,
verbose=True,
use_chat_template=True,
enable_thinking=False,
)
load_time = time.time() - load_start
print(f"Model loaded in {load_time:.2f}s")
# --- Generate ---
print("\nGenerating structured summary...")
gen_start = time.time()
options = gg.GuideGenOptions(
temperature=0.6,
max_tokens=400,
do_sample=False,
)
summary = gen.generate(prompt, EmailSummary, options=options)
gen_time = time.time() - gen_start
print(f"Generation complete in {gen_time:.2f}s")
# --- Output ---
print("\n--- Email Summary (JSON) ---")
print(json.dumps(summary.model_dump(), indent=2, ensure_ascii=False))
print(f"\n Model load: {load_time:.2f}s | Generation: {gen_time:.2f}s | Total: {load_time + gen_time:.2f}s")Deploy This Model
Production-ready deployment in minutes
Together.ai
Instant API access to this model
Production-ready inference API. Start free, scale to millions.
Try Free APIReplicate
One-click model deployment
Run models in the cloud with simple API. No DevOps required.
Deploy NowDisclosure: We may earn a commission from these partners. This helps keep LLMYourWay free.