Instructions to use oddadmix/arabic-summarization with libraries, inference providers, notebooks, and local apps. Follow these links to get started.
- Libraries
- Transformers
How to use oddadmix/arabic-summarization with Transformers:
# Use a pipeline as a high-level helper from transformers import pipeline pipe = pipeline("text-generation", model="oddadmix/arabic-summarization") messages = [ {"role": "user", "content": "Who are you?"}, ] pipe(messages)# Load model directly from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("oddadmix/arabic-summarization") model = AutoModelForCausalLM.from_pretrained("oddadmix/arabic-summarization") messages = [ {"role": "user", "content": "Who are you?"}, ] inputs = tokenizer.apply_chat_template( messages, add_generation_prompt=True, tokenize=True, return_dict=True, return_tensors="pt", ).to(model.device) outputs = model.generate(**inputs, max_new_tokens=40) print(tokenizer.decode(outputs[0][inputs["input_ids"].shape[-1]:])) - Notebooks
- Google Colab
- Kaggle
- Local Apps
- vLLM
How to use oddadmix/arabic-summarization with vLLM:
Install from pip and serve model
# Install vLLM from pip: pip install vllm # Start the vLLM server: vllm serve "oddadmix/arabic-summarization" # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:8000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "oddadmix/arabic-summarization", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }'Use Docker
docker model run hf.co/oddadmix/arabic-summarization
- SGLang
How to use oddadmix/arabic-summarization with SGLang:
Install from pip and serve model
# Install SGLang from pip: pip install sglang # Start the SGLang server: python3 -m sglang.launch_server \ --model-path "oddadmix/arabic-summarization" \ --host 0.0.0.0 \ --port 30000 # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:30000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "oddadmix/arabic-summarization", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }'Use Docker images
docker run --gpus all \ --shm-size 32g \ -p 30000:30000 \ -v ~/.cache/huggingface:/root/.cache/huggingface \ --env "HF_TOKEN=<secret>" \ --ipc=host \ lmsysorg/sglang:latest \ python3 -m sglang.launch_server \ --model-path "oddadmix/arabic-summarization" \ --host 0.0.0.0 \ --port 30000 # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:30000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "oddadmix/arabic-summarization", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }' - Docker Model Runner
How to use oddadmix/arabic-summarization with Docker Model Runner:
docker model run hf.co/oddadmix/arabic-summarization
📝 نموذج التلخيص العربي
هذا المشروع يقدّم نموذج تلخيص نصوص باللغة العربية مبني على النموذج الأساسي LiquidAI/LFM2-350M، وتمت إعادة تدريبه (Fine-tuning) على مجموعة بيانات مكوّنة من 17,000 سجل لتلخيص النصوص بدقة وكفاءة عالية.
⚡ المميزات
- ✅ أداء قوي جدًا في تلخيص النصوص العربية.
- ✅ يحافظ على المعنى العام للنص مع اختصار الحجم.
- ✅ يمكن استخدامه في تلخيص المقالات، الأخبار، الأبحاث، والمستندات الطويلة.
- ✅ مبني على نموذج قوي مفتوح المصدر مع إعادة ضبط دقيقة (Fine-tuning).
🛠️ البيانات
تم تدريب النموذج باستخدام 17,000 صف من البيانات عالية الجودة التي تحتوي على نصوص عربية وأهداف التلخيص المقابلة لها. هذا ساعد في تحسين دقة النموذج وجعله قادرًا على إنتاج ملخصات متماسكة وسلسة.
🚀 كيفية الاستخدام
from transformers import AutoModelForSeq2SeqLM, AutoTokenizer
# تحميل النموذج والمحول
model_name = "اسم-المستخدم/arabic-summarization-model"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSeq2SeqLM.from_pretrained(model_name)
# إدخال نص للتلخيص
text = """النص العربي المراد تلخيصه ..."""
inputs = tokenizer(text, return_tensors="pt", max_length=1024, truncation=True)
summary_ids = model.generate(inputs["input_ids"], max_length=150, min_length=40, length_penalty=2.0, num_beams=4)
# عرض الملخص
print(tokenizer.decode(summary_ids[0], skip_special_tokens=True))
📊 الأداء
النموذج أظهر نتائج ممتازة في التجارب الداخلية على مقاييس الدقة، التماسك، والمحافظة على المعنى. أداؤه يُعتبر جيد جدًا مقارنة بالنماذج المشابهة في مجال تلخيص النصوص العربية.
📌 ملاحظات
- النموذج ما زال قابلًا للتطوير عبر تدريبه على بيانات إضافية.
- يُفضّل استخدامه مع نصوص عربية فصيحة، مع أنه يعمل بشكل جيد أيضًا مع بعض اللهجات.
- Downloads last month
- 255
Model tree for oddadmix/arabic-summarization
Base model
LiquidAI/LFM2-350M