اذهب إلى المحتوى

لوحة المتصدرين

  1. Zen Elabidine Ballouk

    Zen Elabidine Ballouk

    الأعضاء


    • نقاط

      3

    • المساهمات

      15


  2. Mohamed Moktar El Hassen Bakay

    • نقاط

      2

    • المساهمات

      1


  3. Lahmidchi لحميدشي

    Lahmidchi لحميدشي

    الأعضاء


    • نقاط

      2

    • المساهمات

      1


  4. Taha Alselwi

    Taha Alselwi

    الأعضاء


    • نقاط

      1

    • المساهمات

      0


المحتوى الأكثر حصولًا على سمعة جيدة

المحتوى الأعلى تقييمًا في 04/13/25 في كل الموقع

  1. 1_عندما انهي هذا الكورس واقوم بالاختبار النهائي ما نوع الاسئلة التي يمكن ان يتم طرحها لكي اعلم ما الذي يجب ان اركز عليه اثناء الدراسة 2_هل يفضل ان اطبق كل شيء اشاهده ؟ ام يكفي ان اطبق من 60 الى 70 بالمئة 3_ هل يجب ان احفظ اشياء معينة مثل المكتبات والاوامر ام يكفي ان افهمها فقط
    2 نقاط
  2. هم انا مبتدئ ماهي المراحل الذي يجب اتباعها للاحتراف في اللغة من اين ابدا التعلم والى اين وامهي
    2 نقاط
  3. تشتت بسبب المشاكل وعند مشاهدة أساسيات الغة بايثون أظنها فقط مضيعة للوقت وأنها ممله هل هناك من يدلني علي طريقه... وهناك أيضا مشكلة كيف اذاكر فأنا الدي فقط هاتف هل يجب علي أخذ دفتر وقلم
    2 نقاط
  4. السلام عليكم الاخوة الكرام ارغب في المساعدة في سد وترقيع ثغرة sql injection في صفحة واحدة فقط في الموقع وهذا الاختراق لايتم الا عن طريق الفحص بأداه sql map اما في المتصفح فقد تم ترقيع الثغرة بأكثر من وسيلة والثغرة موجودة لاني اقوم بستخدام دالة $GET في تمرير المعلومات من الصفحة الرئيسية الى صفحة التفاصيل
    1 نقطة
  5. المقصود ب رفع المشاريع على GitHub هو تطبيق كل شيء تماما في جميع فيديوهات الدورة وحفظها؟ ام ان هناك مشاريع معينة فقط يجب تطبيقها وحفظها على GitHub
    1 نقطة
  6. أثناء دراسة الدورة ستجد مشاريع عملية كاملة أي مشروع كامل من البداية للنهاية به مجلدات وملفات، ويستغرق وقت في تنفيذه تلك هي المشاريع المطلوب تسليمها وليس التطبيقات العملية البسيطة التي نكتبها في ملف واحد بسيط. وأيضا بجانب رفع المشاريع العملية الكاملة من الأفضل إنشاء مجلد للدورة وتقسيمه إلى مجلدات لكل مسار مجلد بعد ذلك نضع التطبيقات العملية البسيطة في تلك المجلدات بشكل منظم ثم نقوم برفع المجلد بالكامل إلى مستودع على GitHub. أى أنه من الأفضل أى شئ قمت بالتطبيق فيه مع المدرب رفعه على github في المجلد الخاص بهذا المسار. وستجد هنا تفصيل بخصوص رفع المشروع:
    1 نقطة
  7. أولاً سيتكون الاختبار من محادثة صوتية حيث يطرح المدرب عليك أسئلة متعلقة بالدورة التدريبية والمشاريع التي نفّذتها خلالها بمعنى أوضح ستكون الأسئلة على المفاهيم التي تم شرحها والخطوات التي قمت بها لبناء المشاريع . ثانياً يفضل التطبيق على كامل الدورة التعليمية وبالتأكيد هناك محتوى نظري لا يحتاج للتطبيق العملي وإذا كنت تسأل عن التطبيق للحصول على الشهادة فيكفي التطبيقات والمشاريع التي تقوم ببناءه مع المدرب مثل المسارات التي تحتوي على تطبيق عملي. وأخيراً ليس مطلوباً حفظ كل التفاصيل النظرية. الهدف هو فهم المفاهيم وكيفية تطبيقها عملياً. لذلك لا تقلق فإن الطبيق العملي ومتابعة المدرب في التدريبات العملية هي الطريقة الصحيحة لتعلم البرمجة وحفظها بطريقة تجعلكقادر على التطبيق بمفردك والرجوع إلى التوثيقات في حالة تريد تذكر شيئاً ما
    1 نقطة
  8. سنشرح في هذا المقال طريقة بناء أداة ذكية للبحث داخل محادثات واتساب الخاصة بنا بعد تخزينها على هيئة ملفات PDF، تساعدنا هذه الأداة على البحث في محادثاتنا الشخصية و الوصول إلى معلومات محددة فيها بسرعة وكفاءة. سنوضح خطوة بخطوة طريقة استخراج النصوص من المحادثات وتحليلها، ثم تقسيمها إلى أجزاء صغيرة وتحويلها إلى تمثيلات رقمية Embeddings باستخدام نماذج ذكاء اصطناعي متقدمة مفتوحة المصدر لمعالجة اللغة الطبيعية يمكنها فهم السياق اللغوي حيث سنعتمد في أداتنا على نموذج BERT الذي يوفر إصدارات تدعم اللغة العربية لفهم وتحليل النصوص، وعلى نموذج Qwen لتوليد النصوص والردود التفاعلية، كما سنعتمد على قاعدة بيانات FAISS لنخزن التمثيلات الرقيمة لنصوص المحادثات وتمكين البحث السريع فيها، ونستخدم تقنية التوليد المعزز بالاسترجاع RAG للمساعدة في العثور على المعلومات المهمة في هذه المحادثات كالبحث عن مواعيد الاجتماعات والحجوزات، وتحديثات المشاريع بسرعة دون البحث المطول في سجل المحادثات. أخيرًا، سنوضح كيفية إنشاء واجهة تفاعلية سهلة الاستخدام تتيح لنا البحث في المحادثات والتفاعل معها بأمان، دون الحاجة إلى رفع بياناته إلى أي خوادم خارجية، مما يضمن الحفاظ على الخصوصية. متطلبات العمل أهم المتطلبات اللازمة لتنفيذ هذا المقال بنجاح: الحصول على مفتاح الوصول Token لاستخدام واجهة برمجة التطبيقات API الخاصة بمنصة Hugging Face معرفة أساسية بلغة البرمجة بايثون تثبيت Python على الجهاز مع محرر أكواد مناسب مثل Jupyter Notebook أو Visual Studio Code خطوات التطبيق العملي لنستعرض بالتفصيل خطوات التطبيق العملي لأداتنا الذكية للتفاعل مع رسائل واتساب. الخطوة 1: حفظ محادثات واتساب كملف PDF في البداية، نحتاج إلى تصدير محادثات واتساب الخاصة بنا وحفظها بصيغة PDF لتسهيل تحليلها لاحقًا. يتيح تطبيق WhatsApp ميزة تصدير الدردشة، والتي تمكننا من حفظ المحادثات كنصوص. بعد نجاح عملية التصدير، سنحويل المحادثات إلى تنسيق PDF لاستخدامها في التطبيق. لتصدير المحادثة، نفتح المحادثة المطلوبة، ثم ننقر على قائمة الخيارات أعلى يسار الدردشة ونختار المزيد، ثم نقل الدردشة من القائمة، ونحدد خيار -بدون وسائط- لحفظ النصوص فقط. بعد ذلك، يمكن فتح الملف الناتج بصيغة txt في أي تطبيق محرر نصوص مثل Microsoft Word أو Google Docs وتحويله إلى تنسيق pdf. الخطوة 2: استخراج النصوص من ملف PDF بعد حفظ محادثات واتساب بصيغة PDF، نحتاج إلى استخراج النصوص منها لمعالجتها وتحليلها. يمكننا تحقيق ذلك باستخدام مكتبة PyMuPDF مع LangChain، حيث تتيح لنا استخراج النصوص بسهولة من جميع صفحات ملف PDF على النحو التالي: # تثبيت المكتبات اللازمة !pip install langchain_community !pip install pymupdf # لتحميل الملف PyMuPDFLoader استيراد from langchain.document_loaders import PyMuPDFLoader # PDF تحميل ملف loader = PyMuPDFLoader("اسم الملف.pdf") # استخراج محتوى الملف pdf_text = loader.load() # دمج النصوص المستخرجة من جميع الصفحات في متغير واحد text = " ".join(page.page_content for page in pdf_text) يعمل الكود أعلاه على تثبيت المكتبات اللازمة وهي المكتبة langchain_community و pymupdf ثم يستخدم الصنف PyMuPDFLoader لتحميل ملف pdf واستخراج محتوياته، حيث يجمع النصوص من جميع صفحات الملف ويخزنها في المتغير text لاستخدامه لاحقًا في معالجة النصوص والبحث فيها. الخطوة 3: تقسيم النصوص إلى أجزاء صغيرة بعد استخراج النصوص من ملف pdf، سنحتاج إلى تقسيمها إلى أجزاء أصغر لتحسين كفاءة معالجتها وتحليلها. يساعد هذا التقسيم على تحسين أداء البحث والاسترجاع، كما يسهل على نماذج الذكاء الاصطناعي فهم البيانات بدقة أكبر. سنستخدم أداة CharacterTextSplitter من LangChain لتقسيم النص إلى مقاطع صغيرة بناءً على معايير مثل حجم الجزء، والفاصل بين الأجزاء، ومدى التداخل بينها. # استيراد أداة تقسيم النصوص from langchain.text_splitter import CharacterTextSplitter # إعداد معلمات تقسيم النصوص text_splitter = CharacterTextSplitter( separator="\n", chunk_size=500, chunk_overlap=100, length_function=len ) # تقسيم النص إلى أجزاء chunks = text_splitter.split_text(text) # طباعة عدد الأجزاء print(f"عدد الأجزاء: {len(chunks)}") يقسم الكود السابق النص text لأجزاء صغيرة باستخدام الصنف CharacterTextSplitter من LangChain، حيث حددنا هنا الفاصل separator الذي يحدد أماكن تقسيم النص ليكون فاصل الأسطر n\، مع ضبط الحد الأقصى لحجم كل جزء من النص أو عدد الأحرف في كل مقطع chunk_size ليكون 500 وحددنا عدد الأحرف المتداخلة بين الأجزاء chunk_overlap بقيمة 100 لضمان الاحتفاظ بالسياق، واستخدمنا الدالة length_function لحساب طول كل جزء، ثم طباعة عدد الأجزاء الناتجة. الخطوة 4: تحويل النصوص لتمثيلات رقمية Embeddings بعد تقسيم النصوص إلى أجزاء صغيرة، نحتاج إلى تحويلها إلى تضمينات أو تمثيلات رقمية Embeddings لنساعد النموذج على فهم السياق والعلاقات بين الكلمات والجمل. تلعب هذه التمثيلات الرقمية Embeddings دورًا أساسيًا في تحسين البحث داخل النصوص وتسمح لنا باسترجاع المعلومات الأكثر صلة بالاستفسارات. سنستخدم في هذه الخطوة مكتبة Sentence-Transformers لتحويل الأجزاء النصية إلى تمثيلات رقمية Embeddings. وسنختار نموذج AraBERT، لأنه مُدّرب خصيصًا على اللغة العربية ويوفّر تمثيلات دقيقة للنصوص العربية ويهدف إلى تحسين أداء المهام اللغوية المختلفة باللغة العربية مثل تصنيف النصوص، وتحليل المشاعر، والترجمة الآلية، والتعرف على الكيانات المُسماة NER. ولكونه مدُرّبًا باستخدام مجموعة ضخمة من النصوص العربية، فهو قادر على فهم التراكيب النحوية والدلالية الخاصة بالعربية بكفاءة. # SentenceTransformer استيراد from sentence_transformers import SentenceTransformer # تحميل نموذج يدعم العربية model = SentenceTransformer('aubmindlab/bert-base-arabertv02') # تحويل الأجزاء النصية إلى تمثيلات رقمية embeddings = model.encode(chunks, convert_to_tensor=True) يعمل الكود على تحميل نموذج BERT الداعم للغة العربية، ثم يحوّل قائمة chunks التي تحتوي على الأجزاء النصية إلى تمثيلات رقمية Embedding Vectors مع تمكين تحويل النتائج إلى موترات أو تنسورات Tensors لتحسين الأداء في العمليات الحسابية، فالتعلمية convert_to_tensor=True تجعل الخرج كائنًا من نوع Tensor بدلًا من مصفوفة NumPy، مما يسهل التعامل معه عند استخدام مكتبات مثل PyTorch. الخطوة 5: بناء قاعدة بيانات للبحث السريع باستخدام FAISS بعد تحويل النصوص إلى تمثيلات رقمية Embeddings، نحتاج إلى تخزينها بطريقة تتيح البحث السريع واسترجاع النصوص الأكثر تطابقًا مع استفسارات المستخدم. لتحقيق ذلك، سنستخدم مكتبة FAISS وهي اختصار لعبارة Facebook AI Similarity Search والتي تعد مكتبة قوية مفتوحة المصدر طورتها ميتا لتسهيل البحث السريع عن العناصر الأكثر تشابهًا داخل مجموعات بيانات ضخمة من المتجهات vectors. # FAISS تثبيت مكتبة pip install faiss-cpu # استيراد المكتبات اللازمة import faiss import numpy as np # تحديد أبعاد التمثيلات الرقمية embedding_dim = embeddings.shape[1] # إنشاء قاعدة البيانات index = faiss.IndexFlatL2(embedding_dim) # إضافة التمثيلات الرقمية إلى قاعدة البيانات index.add(np.array(embeddings.cpu())) في هذا الكود ننشئ قاعدة بيانات باستخدام مكتبة FAISS، بهدف تنفيذ عمليات بحث فعّالة عن التشابه بين التمثيلات الرقمية، فبعد تثبيت المكتبة نستوردها إلى جانب استيراد المكتبة numpy. بعد ذلك، نحدد عدد أبعاد التمثيلات الرقمية embedding_dim الناتجة من النموذج وننشئ من خلال التعليمة (faiss.IndexFlatL2(embedding_dimفهرسًا أو قاعدة بيانات تستخدم مربع المسافة الإقليدية Squared Euclidean Distance لمقارنة التمثيلات والعثور على النصوص الأكثر تشابهًا ثم نضيف التمثيلات embeddings إلى قاعدة البيانات مع تحويلها لصيغة مصفوفة NumPy لاستخدامها في البحث السريع عن النصوص. الخطوة 6: البحث عن المعلومات باستخدام RAG بعد إنشاء قاعدة البيانات باستخدام FAISS، يمكننا الآن البحث داخل محادثات WhatsApp بطريقة ذكية باستخدام التوليد المعزز بالاسترجاع RAG. تساعد هذه التقنية على استرجاع النصوص الأكثر صلة بالاستفسار، مما يؤدي إلى توليد إجابات دقيقة بناءً على البيانات المخزنة. # دالة البحث عن المعلومات داخل قاعدة البيانات def search_query(query, top_k=3): # تحويل الاستفسار إلى تمثيلات رقمية query_embedding = model.encode([query], convert_to_tensor=True).cpu().numpy() # البحث عن أقرب النصوص في قاعدة البيانات distances, indices = index.search(query_embedding, top_k) # استرجاع النصوص الأكثر صلة بالاستفسار results = [chunks[i] for i in indices[0]] return results # مثال على البحث داخل المحادثات query = "السؤال ؟" related_texts = search_query(query) # طباعة النتائج for text in related_texts: print(text) يبحث هذا الكود عن النصوص الأكثر صلة بالاستفسار داخل قاعدة البيانات حيث يحول في البداية الاستفسار query إلى تمثيل رقمي. بعد ذلك، يبحث عن أقرب النصوص المخزنة في قاعدة البيانات بناءً على هذا التمثيل الرقمي. وأخيرًا، يعرض لنا أفضل ثلاث نتائج تتطابق مع الاستفسار وبهذا يمكننا العثور على المعلومات المطلوبة بسرعة من مجموعة كبيرة من النصوص. الخطوة 7: توليد الإجابة باستخدام نموذج الذكاء الاصطناعي التوليدي بعد استرجاع النصوص ذات الصلة من قاعدة البيانات، يمكننا الآن استخدام نموذج ذكاء اصطناعي توليدي لإنشاء إجابة دقيقة بناءً على الاستفسار والمعلومات المسترجعة من قاعدة البيانات. سنعتمد في هذه الخطوة على نموذج Qwen مفتوح المصدر والذي طورته شركة Alibaba Cloud، وتحديدًا فريق Alibaba DAMO Academy والذي يوفر إصدارات متنوعة بعدة أحجام مختلفة لتناسب مختلف المتطلبات والاحتياجات، بدءًا من النماذج الصغيرة التي يمكن تشغيلها على الأجهزة الشخصية، وصولًا إلى النماذج الضخمة المناسبة للخوادم والسحابة. import requests # Hugging Face رابط واجهة النموذج على API_URL = "https://api-inference.huggingface.co/models/Qwen/Qwen2.5-Coder-32B-Instruct" # Hugging Face نستبدل المفتاح التالي بمفتاح من headers = {"Authorization": "Bearer hf_XXXXXXXXXXXXXXXXXXXX"} # إعداد الموجه prompt = f""" [SYSTEM]: أنت نموذج ذكاء اصطناعي متخصص في اللغة العربية. سيتم إعطاؤك أسئلة مع معلومات ذات صلة. مهمتك هي الإجابة عن الأسئلة بناءً على المعلومات المعطاة فقط. [USER]: السؤال: {query} المعلومات المعطاة: {related_texts} [ASSISTANT]: """ # دالة لإرسال الطلب إلى النموذج واستقبال الرد def query(payload): response = requests.post(API_URL, headers=headers, json=payload) return response.json() # استدعاء الدالة للحصول على الاستجابة من النموذج output = query({"inputs": prompt}) # استخراج النص الناتج من الرد generated_answer = output[0]['generated_text'].split("[ASSISTANT]:")[1] # طباعة النتائج print(generated_answer) يتواصل الكود أعلاه مع نموذج Qwen عبر الواجهة البرمجية Hugging Face API ويرسل موجه prompt للنموذج ليطلب منه الإجابة بناءً على المعلومات المعطاة فقط وكما نلاحظ يتضمن الموجه الأقسام [SYSTEM]و [USER] و [ASSISTANT] لتحديد أدوار المحادثة، بعد ذلك ينشئ دالةquery لإرسال الطلب إلى النموذج وإرجاع نص يتضمن الإجابة المستندة إلى المعلومات المتوفرة فقط، دون إضافة أي بيانات خارجية وطباعتها. ملاحظة: تقسم المحادثة مع نموذج الذكاء الاصطناعي إلى ثلاثة أقسام وهي: [SYSTEM] لتحديد التعليمات والنظام، و [USER]لعرض السؤال والمعلومات المقدمة للنموذج، و [ASSISTANT]لتحديد المكان الذي يبدأ فيه النموذج بتوليد إجابته. وهذا يساعد على تنظيم الحوار وتوجيه النموذج بحيث يفصل بين السؤال والمعلومات والإجابة، مما يضمن أن يقتصر الرد على الجزء المطلوب دون الخلط مع باقي النص. بناء أداة للتفاعل مع رسائل WhatsApp بعد أن تعرفنا على الخطوات الأساسية للتفاعل مع نماذج الذكاء الاصطناعي،سنعمل الآن على تطوير أداة تفاعلية تعتمد على هذه النماذج لتحليل محادثات WhatsApp المخزنة في ملفات PDF، مما يتيح لنا البحث داخل محادثاتنا والحصول على إجابات ذكية بناءً على استفساراتنا. نبدأ بتحميل ملف PDF الخاص بالمحادثات، ثم استخراج النصوص باستخدام PyMuPDF، وتقسيمها إلى مقاطع صغيرة بواسطة CharacterTextSplitter لضمان تحليل دقيق. بعد ذلك، تحول النصوص إلى تمثيلات رقمية Embeddings باستخدام نموذج AraBERT المخصص للغة العربية، ثم تخزنها في قاعدة بيانات FAISS للبحث السريع عن النصوص ذات الصلة. عند إدخال استفسار، تعمل الأداة على البحث عن المقاطع الأكثر صلة بالاستفسار، داخل قاعدة البيانات، ثم ترسلها إلى نموذج Qwen لإنشاء إجابة ذكية تعتمد على البيانات المخزنة، ثم تعرضها عبر واجهة مستخدم تفاعلية مبنية باستخدام مكتبة بايثون تسمى Gradio وهي مكتبة مفتوحة المصدر لإنشاء واجهات مستخدم تفاعلية لنماذج التعلم الآلي والذكاء الاصطناعي تتيح لنا تصميم واجهات سهلة الاستخدام عبر متصفح الويب وتسهل علينا استفساراتنا والحصول على نتائج النموذج بشكل مباشر، دون الحاجة لكتابة أكواد معقدة. فيما يلي الكود الكامل لبناء واجهة مستخدم تفاعلية مبنية باستخدام مكتبة Gradio تسمح لنا بتحميل ملف pdf المتضمن لمحادثاتنا على الوتساب ومعالجته بنماذج الذكاء الاصطناعي والتفاعل معه وعرض النتيجة. import requests import faiss import numpy as np import gradio as gr from sentence_transformers import SentenceTransformer from langchain.document_loaders import PyMuPDFLoader from langchain.text_splitter import CharacterTextSplitter # تحميل نموذج تحويل النصوص إلى تمثيلات رقمية model = SentenceTransformer('aubmindlab/bert-base-arabertv02') # نموذج الذكاء الاصطناعي التوليدي API_URL = "https://api-inference.huggingface.co/models/Qwen/Qwen2.5-Coder-32B-Instruct" # Hugging Face نستبدل المفتاح التالي بمفتاح من headers = {"Authorization": "Bearer hf_XXXXXXXXXXXXXXXXXXXX"} # دالة معالجة الملف وتحويله إلى تمثيلات رقمية def process_pdf(pdf_file): loader = PyMuPDFLoader(pdf_file.name) pages = loader.load() text = "\n".join([page.page_content for page in pages]) # تقسيم النص إلى أجزاء صغيرة text_splitter = CharacterTextSplitter(separator="\n", chunk_size=500, chunk_overlap=100, length_function=len) chunks = text_splitter.split_text(text) # تحويل الأجزاء إلى تمثيلات رقمية embeddings = model.encode(chunks, convert_to_tensor=True).cpu().numpy() # إنشاء قاعدة بيانات embedding_dim = embeddings.shape[1] index = faiss.IndexFlatL2(embedding_dim) index.add(embeddings) return index, chunks # دالة البحث داخل المحادثات def search_query(query, index, documents, top_k=3): query_embedding = model.encode([query], convert_to_tensor=True).cpu().numpy() distances, indices = index.search(query_embedding, top_k) results = [documents[i] for i in indices[0]] return results # دالة استدعاء النموذج التوليدي def generate_answer(pdf_file, query): index, documents = process_pdf(pdf_file) related_texts = search_query(query, index, documents) prompt = f""" [SYSTEM]: أنت نموذج ذكاء اصطناعي متخصص في اللغة العربية. سيتم إعطاؤك أسئلة مع معلومات ذات صلة. مهمتك هي الإجابة عن الأسئلة بناءً على المعلومات المعطاة فقط. [USER]: السؤال: {query} المعلومات المعطاة: {related_texts} [ASSISTANT]: """ response = requests.post(API_URL, headers=headers, json={"inputs": prompt}) output = response.json() return output[0]['generated_text'].split("[ASSISTANT]:")[1] # Gradio إنشاء واجهة تفاعلية باستخدام with gr.Blocks() as app: gr.Markdown("# 📂 WhatsApp أداة للتفاعل مع محادثات 🔍") pdf_input = gr.File(label="📄 PDF تحميل ملف المحادثة بصيغة ") user_input = gr.Textbox(label="📝 أدخل سؤالك هنا") search_button = gr.Button("🔎 بحث وتحليل") output_box = gr.Textbox(label="🤖 الإجابة:") search_button.click(generate_answer, inputs=[pdf_input, user_input], outputs=output_box) # تشغيل التطبيق app.launch() إذا شغلنا الكود أعلاه سنحصل على النتيجة التالية: تطبيقات عملية للأداة يمكننا الاستفادة من هذه الأداة الذكية في تطبيقات متعددة، لنستعرض بعضًا منها: استرجاع المواعيد والمهام المجدولة يمكن استخدام هذه الأداة لاسترجاع المواعيد والمهام المجدولة داخل محادثات واتساب بسهولة، حيث يمكن البحث عن التواريخ أو الأحداث المهمة داخل محادثاتنا باستخدام استعلامات بسيطة، مما يسهل تنظيم المهام اليومية والوصول إلى المعلومات بسرعة دون الحاجة إلى التمرير يدويًا عبر المحادثات الطويلة. في المثال التالي، لدينا مجموعة لطلاب جامعيين، ونريد أن نعرف موعد الاختبار. يمكن ببساطة إدخال استعلام مثل: البحث السريع عن المعلومات المهمة وتلخيص أهم المواضيع تتيح لنا الأداة للمستخدمين البحث بسرعة عن المعلومات المهمة داخل محادثات WhatsApp المخزنة، بالإضافة إلى تلخيص أهم المواضيع التي تمت مناقشتها. فعند إدخال استعلام مثل: البحث في المحادثات القانونية تساعد هذه الأداة في البحث داخل المحادثات القانونية لاستخراج المعلومات المهمة بسرعة، مما يسهل على المستخدمين العثور على النصوص المتعلقة بالاستشارات القانونية السابقة دون الحاجة إلى البحث اليدوي. على سبيل المثال، إذا كان هناك محادثة مع محامٍ، وأراد المستخدم معرفة معلومة معينة مثل: البحث في المحادثات الطبية يمكن استخدام هذه الأداة للبحث داخل المحادثات الطبية مع الأطباء أو الصيادلة لاستخراج المعلومات المهمة حول الأدوية والجرعات والإرشادات الطبية. على سبيل المثال، إذا أراد المستخدم معرفة: البحث في محادثات العمل تساعد هذه الأداة في البحث داخل محادثات العمل لاستخراج آخر التحديثات حول المشاريع والمهام الجارية. على سبيل المثال، إذا أراد المستخدم معرفة: نصائح لتحسين وتطوير الأداة دعونا نستعرض عدة أفكار لتحسين تطبيق التفاعل مع رسائل واتساب وتحسين نتائجه: استخدام طرق أخرى لقراءة ملفات PDF تواجه بعض المكتبات في لغة Python تحديات في التعامل مع النصوص باللغة العربية، حيث يمكن أن يحدث فقدان في الحروف أو التنسيق عند استخراج النصوص من ملفات PDF. لتحسين ذلك، يمكن تجربة مكتبات أخرى مثل pdfplumber أو PyPDF2 التي قد توفر دقة أكبر في استخراج النصوص العربية. بالإضافة إلى ذلك، يمكن دمج تقنيات التعرف على النصوص OCR في حالة الملفات التي تحتوي على صور نصية، مما يضمن استخراج النصوص بدقة أعلى. استخدام نماذج تضمين أفضل Embeddings لتحسين دقة تمثيلات النصوص، يمكن استخدام نماذج تضمين Embeddings مختلفة، أو تحسين النموذج الحالي عبر التدريب المستمر باستخدام بيانات محلية. هذا سيساعد في تخصيص النموذج بشكل أفضل للمجال المطلوب، مما يعزز التفاعل مع النصوص العربية ويزيد من دقة استرجاع المعلومات. تجربة نماذج توليدية مختلفة من أجل توليد إجابات دقيقة وواقعية، يمكن تجربة نماذج توليدية مختلفة مثل Llama أو GPT-3. كما يمكن النظر في استخدام نماذج متخصصة في مجالات معينة مثل الاستفسارات القانونية أو الاستشارات الطبية، لتحسين جودة الإجابات في تلك المجالات. تحسين إعدادات النماذج أو إعادة تدريبها باستخدام بيانات محلية سيسهم في تحسين الأداء العام. تحميل رسائل WhatsApp بطريقة تلقائية لتسريع عملية تحميل الرسائل، يمكن تطوير أداة تلقائية لتحميل المحادثات مباشرة من WhatsApp. يمكن أن توفر هذه الطريقة تحديثات مباشرة للمحادثات، مما يسهل الوصول إلى الملفات بسرعة ومرونة أكبر. كما يمكن أتمتة عملية التحميل بشكل دوري لضمان تحديث البيانات بشكل مستمر. ربط الأداة بأدوات أخرى لزيادة فعالية الأداة، يمكن دمجها مع أدوات أخرى مثل أداة التذكير بالمواعيد أو أداة متابعة المهام. على سبيل المثال، يمكن ربط الأداة بتقويم شخصي لتنبيه المستخدم بشأن المواعيد أو الاجتماعات المستخلصة من المحادثات. كما يمكن دمج الأداة مع أنظمة إدارة المشاريع مثل Trello للاستفادة من الذكاء الاصطناعي في تتبع المهام والتحديثات، مما يعزز إنتاجية المستخدم ويسهل إدارة العمل بشكل متكامل. الخاتمة في هذا المقال، استعرضنا كيفية بناء أداة ذكية تعتمد على الذكاء الاصطناعي لمعالجة وتحليل محادثات WhatsApp المخزنة في ملفات PDF، باستخدام تقنية التوليد المعزز بالاسترجاع RAG لاسترجاع المعلومات بدقة وتقديم إجابات فعالة. كما ناقشنا التطبيقات العملية للأداة في مجالات متنوعة، مثل الاستشارات القانونية وتحليل المحادثات الطبية، مما يبرز إمكانياتها في تحسين الوصول إلى المعلومات المهمة بسرعة وسهولة، كما استعرضنا طرقًا متعددة لتحسين الأداة، مثل تحسين استخراج النصوص من ملفات PDF باللغة العربية، وتجربة نماذج تضمين أكثر دقة، وتطوير حلول لتحميل المحادثات بشكل تلقائي. ندعوكم لتجربة تطوير أداة خاصة بكم تساعدكم على التفاعل مع بياناتكم الشخصية بأمان وفعالية، وتعزز إنتاجيتكم وتوفر وقتكم، ولو كان لديكم أية تساؤلات أو أفكار تطويرية على الأداة يمكنكم تركها في قسم التعليقات أسفل المقال. اقرأ أيضًا بناء تطبيق بايثون يجيب على أسئلة ملف PDF باستخدام الذكاء الاصطناعي بناء روبوت دردشة باستخدام بايثون و OpenAI API كتابة استعلامات SQL بسهولة باستخدام الذكاء الاصطناعي استخدام نموذج الذكاء الاصطناعي Code Llama لكتابة وتصحيح أكواد CSS
    1 نقطة
×
×
  • أضف...