Hakim-AI
68
license:apache-2.0
by
Shams03
Language Model
OTHER
7B params
New
68 downloads
Early-stage
Edge AI:
Mobile
Laptop
Server
16GB+ RAM
Mobile
Laptop
Server
Quick Summary
AI model with specialized capabilities.
Device Compatibility
Mobile
4-6GB RAM
Laptop
16GB RAM
Server
GPU
Minimum Recommended
7GB+ RAM
Code Examples
How to run itpythonvllm
from vllm import LLM, SamplingParams
# Load the model with vLLM
# Setting gpu_memory_utilization to 0.6 leaves room on the GPU for your embedding model
llm = LLM(
model="Shams03/Hakim-AI",
quantization="awq",
gpu_memory_utilization=0.6,
max_model_len=4096
)
# Example RAG Prompt Structure
prompt = """
استخدم المعلومات الطبية التالية للإجابة على سؤال المريض. اذكر اسم المصدر ورقم الصفحة.
المصدر: الدليل العلاجي في الطب الباطني، صفحة 210
النص: حصوات الكلى تسبب ألماً شديداً يبدأ في الظهر ويمتد إلى أسفل الحوض...
السؤال: عندي وجع فظيع في ضهري من ورا ونازل على الحوض، أعمل إيه؟
الإجابة:
"""
sampling_params = SamplingParams(temperature=0.3, top_p=0.9, max_tokens=512)
outputs = llm.generate([prompt], sampling_params)
print(outputs[0].outputs[0].text)Deploy This Model
Production-ready deployment in minutes
Together.ai
Instant API access to this model
Production-ready inference API. Start free, scale to millions.
Try Free APIReplicate
One-click model deployment
Run models in the cloud with simple API. No DevOps required.
Deploy NowDisclosure: We may earn a commission from these partners. This helps keep LLMYourWay free.