Posts by Tags

Form

ملء النماذج باستخدام Gemini 1.5 Pro

6 دقيقة قراءة

تم النشر:

ملء النماذج يمكن أن يكون مملًا ويستغرق وقتًا طويلًا. هذا غالبًا ما يؤدي إلى إحباط المستخدمين وتقديمات غير مكتملة. ولكن، الذكاء الاصطناعي التفاعلي، مثل نموذج اللغة Gemini 1.5 Pro، يغير كيفية تفاعلنا مع النماذج.

Gemini

ملء النماذج باستخدام Gemini 1.5 Pro

6 دقيقة قراءة

تم النشر:

ملء النماذج يمكن أن يكون مملًا ويستغرق وقتًا طويلًا. هذا غالبًا ما يؤدي إلى إحباط المستخدمين وتقديمات غير مكتملة. ولكن، الذكاء الاصطناعي التفاعلي، مثل نموذج اللغة Gemini 1.5 Pro، يغير كيفية تفاعلنا مع النماذج.

Gemini-1.5-Pro

ملء النماذج باستخدام Gemini 1.5 Pro

6 دقيقة قراءة

تم النشر:

ملء النماذج يمكن أن يكون مملًا ويستغرق وقتًا طويلًا. هذا غالبًا ما يؤدي إلى إحباط المستخدمين وتقديمات غير مكتملة. ولكن، الذكاء الاصطناعي التفاعلي، مثل نموذج اللغة Gemini 1.5 Pro، يغير كيفية تفاعلنا مع النماذج.

Gemma

توليد المعلومات المدعوم بالاسترجاع (RAG) باستخدام Gemma لشرح مفاهيم علم البيانات الأساسية

2 دقيقة قراءة

تم النشر:

عالم علم البيانات يمكن أن يكون مرعبًا للمبتدئين، حيث يمتلئ بالمصطلحات المعقدة والمفاهيم المعقدة. ولكن ماذا لو كان لديك مساعد ذكاء اصطناعي بجانبك، جاهز لشرح هذه المفاهيم بعبارات بسيطة وإرشادك خلال عملية التعلم؟ هذا هو المكان الذي يأتي فيه قوة توليد المعلومات المدعوم بالاسترجاع (RAG).

Gemma-1.1-2b-it

توليد المعلومات المدعوم بالاسترجاع (RAG) باستخدام Gemma لشرح مفاهيم علم البيانات الأساسية

2 دقيقة قراءة

تم النشر:

عالم علم البيانات يمكن أن يكون مرعبًا للمبتدئين، حيث يمتلئ بالمصطلحات المعقدة والمفاهيم المعقدة. ولكن ماذا لو كان لديك مساعد ذكاء اصطناعي بجانبك، جاهز لشرح هذه المفاهيم بعبارات بسيطة وإرشادك خلال عملية التعلم؟ هذا هو المكان الذي يأتي فيه قوة توليد المعلومات المدعوم بالاسترجاع (RAG).

Gemma2

Fine-Tune Gemma 2 2b باستخدام Keras و LoRA (الجزء الثالث)

3 دقيقة قراءة

تم النشر:

Gemma2 استكمالًا لسلسلة الدروس التعليمية التي تركز على اللغة العربية في التعامل مع النماذج اللغوية الضخمة، في هذا الجزء سنواصل استكشاف كيفية إعادة ضبط نموذج Gemma2-9b على مجموعة بيانات عربية باستخدام مكتبة Keras وKeras_nlp وتقنية LoRA. سنتناول كيفية إعداد البيئة، تحميل النموذج، إجراء التعديلات اللازمة، ثم تدريب النموذج باستخدام التوازي النموذجي لتوزيع معلمات النموذج عبر عدة وحدات تسريع.

Fine-Tune Gemma 2 2b باستخدام Transformers و qLoRA (الجزء الثاني)

4 دقيقة قراءة

تم النشر:

Gemma2 استكمالًا لسلسلة الدروس التعليمية التي تركز على اللغة العربية في التعامل مع النماذج اللغوية الضخمة، سنواصل في الجزء الثاني استكشاف الأساليب المخصصة لإعادة ضبط نموذج Gemma-2b على مجموعة بيانات عربية لتحسين أدائه. سنستخدم مكتبة Transformers وتقنية qLoRA (التكيف منخفض الرتبة المكمم) لتقليل استهلاك الذاكرة.

استرجاع النصوص من ويكيبيديا العربية باستخدام Gemma2 (الجزء الأول)

3 دقيقة قراءة

تم النشر:

Gemma2 عند العمل على مشروع يتطلب التعامل مع اللغة العربية، قد تتساءل عما إذا كان يجب استخدام توليد النصوص المدعوم بالاسترجاع (RAG) أو تعديل نموذج موجود باستخدام مجموعة بيانات عربية جديدة. في هذه السلسلة من الدروس المكونة من جزئين، سنستكشف كلا الخيارين: استخدام RAG وتعديل نموذج باستخدام بيانات عربية، تحديداً ويكيبيديا. سنركز طوال المشروع على النماذج مفتوحة المصدر، باستخدام Gemma 2 Instruct ونموذج تضمين مفتوح المصدر. سنستفيد أيضًا من إطار العمل LangChain لتبسيط عملية بناء RAG وتعديل النموذج. دعونا نبدأ بالتطبيق العملي.

GenAI

Generative AI

Fine-Tune Gemma 2 2b باستخدام Keras و LoRA (الجزء الثالث)

3 دقيقة قراءة

تم النشر:

Gemma2 استكمالًا لسلسلة الدروس التعليمية التي تركز على اللغة العربية في التعامل مع النماذج اللغوية الضخمة، في هذا الجزء سنواصل استكشاف كيفية إعادة ضبط نموذج Gemma2-9b على مجموعة بيانات عربية باستخدام مكتبة Keras وKeras_nlp وتقنية LoRA. سنتناول كيفية إعداد البيئة، تحميل النموذج، إجراء التعديلات اللازمة، ثم تدريب النموذج باستخدام التوازي النموذجي لتوزيع معلمات النموذج عبر عدة وحدات تسريع.

Fine-Tune Gemma 2 2b باستخدام Transformers و qLoRA (الجزء الثاني)

4 دقيقة قراءة

تم النشر:

Gemma2 استكمالًا لسلسلة الدروس التعليمية التي تركز على اللغة العربية في التعامل مع النماذج اللغوية الضخمة، سنواصل في الجزء الثاني استكشاف الأساليب المخصصة لإعادة ضبط نموذج Gemma-2b على مجموعة بيانات عربية لتحسين أدائه. سنستخدم مكتبة Transformers وتقنية qLoRA (التكيف منخفض الرتبة المكمم) لتقليل استهلاك الذاكرة.

استرجاع النصوص من ويكيبيديا العربية باستخدام Gemma2 (الجزء الأول)

3 دقيقة قراءة

تم النشر:

Gemma2 عند العمل على مشروع يتطلب التعامل مع اللغة العربية، قد تتساءل عما إذا كان يجب استخدام توليد النصوص المدعوم بالاسترجاع (RAG) أو تعديل نموذج موجود باستخدام مجموعة بيانات عربية جديدة. في هذه السلسلة من الدروس المكونة من جزئين، سنستكشف كلا الخيارين: استخدام RAG وتعديل نموذج باستخدام بيانات عربية، تحديداً ويكيبيديا. سنركز طوال المشروع على النماذج مفتوحة المصدر، باستخدام Gemma 2 Instruct ونموذج تضمين مفتوح المصدر. سنستفيد أيضًا من إطار العمل LangChain لتبسيط عملية بناء RAG وتعديل النموذج. دعونا نبدأ بالتطبيق العملي.

ملء النماذج باستخدام Gemini 1.5 Pro

6 دقيقة قراءة

تم النشر:

ملء النماذج يمكن أن يكون مملًا ويستغرق وقتًا طويلًا. هذا غالبًا ما يؤدي إلى إحباط المستخدمين وتقديمات غير مكتملة. ولكن، الذكاء الاصطناعي التفاعلي، مثل نموذج اللغة Gemini 1.5 Pro، يغير كيفية تفاعلنا مع النماذج.

توليد المعلومات المدعوم بالاسترجاع (RAG) باستخدام Gemma لشرح مفاهيم علم البيانات الأساسية

2 دقيقة قراءة

تم النشر:

عالم علم البيانات يمكن أن يكون مرعبًا للمبتدئين، حيث يمتلئ بالمصطلحات المعقدة والمفاهيم المعقدة. ولكن ماذا لو كان لديك مساعد ذكاء اصطناعي بجانبك، جاهز لشرح هذه المفاهيم بعبارات بسيطة وإرشادك خلال عملية التعلم؟ هذا هو المكان الذي يأتي فيه قوة توليد المعلومات المدعوم بالاسترجاع (RAG).

LLM

Fine-Tune Gemma 2 2b باستخدام Keras و LoRA (الجزء الثالث)

3 دقيقة قراءة

تم النشر:

Gemma2 استكمالًا لسلسلة الدروس التعليمية التي تركز على اللغة العربية في التعامل مع النماذج اللغوية الضخمة، في هذا الجزء سنواصل استكشاف كيفية إعادة ضبط نموذج Gemma2-9b على مجموعة بيانات عربية باستخدام مكتبة Keras وKeras_nlp وتقنية LoRA. سنتناول كيفية إعداد البيئة، تحميل النموذج، إجراء التعديلات اللازمة، ثم تدريب النموذج باستخدام التوازي النموذجي لتوزيع معلمات النموذج عبر عدة وحدات تسريع.

Fine-Tune Gemma 2 2b باستخدام Transformers و qLoRA (الجزء الثاني)

4 دقيقة قراءة

تم النشر:

Gemma2 استكمالًا لسلسلة الدروس التعليمية التي تركز على اللغة العربية في التعامل مع النماذج اللغوية الضخمة، سنواصل في الجزء الثاني استكشاف الأساليب المخصصة لإعادة ضبط نموذج Gemma-2b على مجموعة بيانات عربية لتحسين أدائه. سنستخدم مكتبة Transformers وتقنية qLoRA (التكيف منخفض الرتبة المكمم) لتقليل استهلاك الذاكرة.

استرجاع النصوص من ويكيبيديا العربية باستخدام Gemma2 (الجزء الأول)

3 دقيقة قراءة

تم النشر:

Gemma2 عند العمل على مشروع يتطلب التعامل مع اللغة العربية، قد تتساءل عما إذا كان يجب استخدام توليد النصوص المدعوم بالاسترجاع (RAG) أو تعديل نموذج موجود باستخدام مجموعة بيانات عربية جديدة. في هذه السلسلة من الدروس المكونة من جزئين، سنستكشف كلا الخيارين: استخدام RAG وتعديل نموذج باستخدام بيانات عربية، تحديداً ويكيبيديا. سنركز طوال المشروع على النماذج مفتوحة المصدر، باستخدام Gemma 2 Instruct ونموذج تضمين مفتوح المصدر. سنستفيد أيضًا من إطار العمل LangChain لتبسيط عملية بناء RAG وتعديل النموذج. دعونا نبدأ بالتطبيق العملي.

ملء النماذج باستخدام Gemini 1.5 Pro

6 دقيقة قراءة

تم النشر:

ملء النماذج يمكن أن يكون مملًا ويستغرق وقتًا طويلًا. هذا غالبًا ما يؤدي إلى إحباط المستخدمين وتقديمات غير مكتملة. ولكن، الذكاء الاصطناعي التفاعلي، مثل نموذج اللغة Gemini 1.5 Pro، يغير كيفية تفاعلنا مع النماذج.

توليد المعلومات المدعوم بالاسترجاع (RAG) باستخدام Gemma لشرح مفاهيم علم البيانات الأساسية

2 دقيقة قراءة

تم النشر:

عالم علم البيانات يمكن أن يكون مرعبًا للمبتدئين، حيث يمتلئ بالمصطلحات المعقدة والمفاهيم المعقدة. ولكن ماذا لو كان لديك مساعد ذكاء اصطناعي بجانبك، جاهز لشرح هذه المفاهيم بعبارات بسيطة وإرشادك خلال عملية التعلم؟ هذا هو المكان الذي يأتي فيه قوة توليد المعلومات المدعوم بالاسترجاع (RAG).

MoE

Papers

RAG

توليد المعلومات المدعوم بالاسترجاع (RAG) باستخدام Gemma لشرح مفاهيم علم البيانات الأساسية

2 دقيقة قراءة

تم النشر:

عالم علم البيانات يمكن أن يكون مرعبًا للمبتدئين، حيث يمتلئ بالمصطلحات المعقدة والمفاهيم المعقدة. ولكن ماذا لو كان لديك مساعد ذكاء اصطناعي بجانبك، جاهز لشرح هذه المفاهيم بعبارات بسيطة وإرشادك خلال عملية التعلم؟ هذا هو المكان الذي يأتي فيه قوة توليد المعلومات المدعوم بالاسترجاع (RAG).