Hakim-AI

68
license:apache-2.0
by
Shams03
Language Model
OTHER
7B params
New
68 downloads
Early-stage
Edge AI:
Mobile
Laptop
Server
16GB+ RAM
Mobile
Laptop
Server
Quick Summary

AI model with specialized capabilities.

Device Compatibility

Mobile
4-6GB RAM
Laptop
16GB RAM
Server
GPU
Minimum Recommended
7GB+ RAM

Code Examples

How to run itpythonvllm
from vllm import LLM, SamplingParams

# Load the model with vLLM
# Setting gpu_memory_utilization to 0.6 leaves room on the GPU for your embedding model
llm = LLM(
    model="Shams03/Hakim-AI", 
    quantization="awq",
    gpu_memory_utilization=0.6, 
    max_model_len=4096
)

# Example RAG Prompt Structure
prompt = """
استخدم المعلومات الطبية التالية للإجابة على سؤال المريض. اذكر اسم المصدر ورقم الصفحة.
المصدر: الدليل العلاجي في الطب الباطني، صفحة 210
النص: حصوات الكلى تسبب ألماً شديداً يبدأ في الظهر ويمتد إلى أسفل الحوض...

السؤال: عندي وجع فظيع في ضهري من ورا ونازل على الحوض، أعمل إيه؟
الإجابة:
"""

sampling_params = SamplingParams(temperature=0.3, top_p=0.9, max_tokens=512)
outputs = llm.generate([prompt], sampling_params)

print(outputs[0].outputs[0].text)

Deploy This Model

Production-ready deployment in minutes

Together.ai

Instant API access to this model

Fastest API

Production-ready inference API. Start free, scale to millions.

Try Free API

Replicate

One-click model deployment

Easiest Setup

Run models in the cloud with simple API. No DevOps required.

Deploy Now

Disclosure: We may earn a commission from these partners. This helps keep LLMYourWay free.