اذهب إلى المحتوى

لوحة المتصدرين

  1. Ali Ahmed55

    Ali Ahmed55

    الأعضاء


    • نقاط

      8

    • المساهمات

      1865


  2. عمر الحربي6

    عمر الحربي6

    الأعضاء


    • نقاط

      4

    • المساهمات

      7


  3. Mustafa Suleiman

    Mustafa Suleiman

    الأعضاء


    • نقاط

      3

    • المساهمات

      15380


  4. شريف راشد

    شريف راشد

    الأعضاء


    • نقاط

      3

    • المساهمات

      42


المحتوى الأكثر حصولًا على سمعة جيدة

المحتوى الأعلى تقييمًا في 02/25/25 في كل الموقع

  1. السلام عليكم هو اي الفرق مابين مكتبه pickle و joblib ؟
    4 نقاط
  2. هل هنالك طريقة دفع غير المتوفره مثلا Apple Pay
    3 نقاط
  3. صفحة تضم كل المستخدمين في التطبيق، أتوقع ان يزداد عددهم حيث أستهدف جميع الوظائف في جميع الدول ، و لكن بالطبع سوف اقوم بالتركيز على دولة تلو الاخرى ما النصائح التي اخذها في الاعتبار في بناء الواجهة الامامية والخلفية وقواعد البيانات و.. التي من شئنها تحسن من اداء الصفحة؟
    2 نقاط
  4. السلام عليكم هو انا لو استخدمات PredefinedSplit في RandomizedSearchCV او GridSearchCV وقت تدريب النموذج يقلل بشكل كبير ؟
    2 نقاط
  5. السلام عليكم ده الكود split_index = [0 if x in x_dev.index else -1 for x in x_train.index]
    2 نقاط
  6. السلام عليكم وحياك الله. في حال انه لن يسمح له بالعمل كيف سيستوفي سعر الدبلوم في فترة 6 اشهر بعد الحصول على الشهادة وهذه ميزة تدعي الاكاديمية استيفائها للمشتركين في دبلوماتها ؟ هل يمكن ان اكون انا في الواجهة والجهد لابني خلف الكواليس
    2 نقاط
  7. ما اصدار اللغةPHP التي يتم تقديمها لنا عند الاشتراك بالدورة؟ متى تم اخر تحديث للدورة؟ هل ستكون مواكبة لاخر الاصدارات؟ وايضا دورة البايثون نفس الاسئلة وشكرا
    1 نقطة
  8. اريد معرفة العمل في مجال الالواح الشمسية من حيث الطلب والتكلفة وهل المشروع ينجح في دولة مثل الاردن او لا
    1 نقطة
  9. ستحدث مشاكل لو التقسيمات المُحددة مسبقًا غير مناسبة للبيانات، بمعنى PredefinedSplit مناسب للبيانات الزمنية كالتنبؤ بالأسهم، حيث يجب تجنب التقسيم العشوائي للحفاظ على التسلسل الزمني، وذلك لتحديد تقسيمات تمنع تسرب البيانات من المستقبل إلى الماضي، أو لو تريد فرض تقسيمات محددة مسبقًا كتقسيمات مستخدمة في أبحاث سابقة للمقارنة، أو الحفاظ على توزيع الفئات في كل تقسيم يدويًا. المشاكل تكمن لو تضمنت التقسيمات المُحددة تداخلًا بين بيانات التدريب والاختبار كتضمين عينات من الاختبار في التدريب، سيُبالغ النموذج في الأداء الوهمي Overfitting أي يحدث تسرب البيانات، ولو لم تكن التقسيمات تعكس التوزيع العام للبيانات مثل فصل عينات نادرة في مجموعة واحدة فقط، سيُقلل ذلك من قدرة النموذج على التعميم، أيضًا لو استخدمت تقسيمًا واحدًا فقط مثل train_test_split بدلًا من تقاطع K-Fold، فستحصل على تقدير غير مستقر لأداء النموذج. وكبدائل يتوفر KFold أو StratifiedKFold والتي توزع البيانات تلقائيًا بشكل عشوائي مع الحفاظ على التوازن، لكنها غير مناسبة للبيانات الزمنية أو الحالات التي تتطلب تحكم دقيقة، وفي البيانات الزمنية، الأفضل الإعتماد على TimeSeriesSplit لتقسيمات متزايدة تلقائيًا، بينما PredefinedSplit يعطيك تحكمًا كاملًا.
    1 نقطة
  10. لا يؤدي استخدام PredefinedSplit إلى تسريع تدريب النموذج بطبيعته بل يغير فقط كيفية تقسيم البيانات أثناء ضبط المعلمات الفائقة أين يتم تحديد إجمالي وقت التدريب في GridSearchCV أو RandomizedSearchCV إلى حد كبير من خلال عدد مجموعات المعلمات وعدد التقسيمات التي تقيمها لكل مجموعة. إذا كنت تستخدم مثلا تقسيما واحدا (train/validation) بدلا من استخدام تقنيات التقسيم المتعددة (مثل 5-fold cross-validation)، فإن عدد مرات تدريب النموذج لكل تركيبة من معلمات النموذج سينخفض (من خمس مرات إلى مرة واحدة) وهذا قد يؤدي إلى تقليل الزمن الإجمالي للتدريب. بينما يقلل استخدام تقسيم واحد من زمن التدريب فإنه قد يؤثر على قوة التقييم والموثوقية لأن التقييم يعتمد على تقسيم واحد فقط بدلا من تقييم أكثر شمولا باستخدام عدة تقسيمات وإذا كنت تستخدم بالفعل تقسيما واحدا للتدريب والتحقق، فلن يكون هناك فرق كبير في زمن التدريب عند استخدام PredefinedSplit.
    1 نقطة
  11. أشكرك على اهتمامك بتقديم اجابة وافية التقنيات المستخدمة Next.js - Tailwind - Typescript - Django - PostgreSQL - Socket.io
    1 نقطة
  12. pandas.isin تدعم أنواع بيانات متعددة ومختلطة وتتعامل مع البيانات المفقودة NaN, None وتدعم الفهارس Index والتسميات labels. أما numpy.isin تعمل بشكل أفضل مع الأنواع المتجانسة من البيانات ولا تتعامل جيداً مع البيانات المفقودة وتتعامل مع المصفوفات البسيطة فقط
    1 نقطة
  13. وعليكم السلام ورحمة الله وبركاته. إذا كانت البيانات التي تعمل عليها قليلة فلابئس بهذا الكود . أما إذا كنت تتعامل مع بيانات كبيرة جدا فنعم يمكنك تحسينه والأفضل إستخدام الدوال التي توفرها numpy و pandas حيث أنها تعمل بكفائة أكثر في البيانات الكبيرة. يمكنك استخدام np.where وأيضا يمكنك استخدام isin من pandas للتحقق من وجود العناصر في x_dev.index بشكل أكثر كفاءة. import numpy as np split_index = np.where(x_train.index.isin(x_dev.index), 0, -1) وإليك شرح حول np.where : وإليك التوثيق الرسمي لدالة isin : https://pandas.pydata.org/docs/reference/api/pandas.DataFrame.isin.html وكما وضحت لك هذا الكود أفضل إذا كانت البيانات كبيرة جدا لديك.
    1 نقطة
  14. الأفضل الإعتماد على دوال pandas/numpy المدمجة بدلاً من list comprehension كالتالي: split_index = np.where(x_train.index.isin(x_dev.index), 0, -1) وذلك للاستفادة من vectorization في numpy/pandas بدلاً من loop صريح وأيضًا استخدام isin() المدمجة التي تعمل بشكل أسرع مع pandas Index، وسيقوم بالعملية في خطوة واحدة. وتقليل التعقيد الزمني من O(n*m) إلى O(n) حيث n حجم x_train و m حجم x_dev وتجنب التحقق العنصر بعنصر باستخدام عمليات مصفوفات مخصصة. بالتالي سيعمل بشكل جيد جدًا مع pandas Index/Series وذلك لو ستتعامل مع أعداد كبيرة من البيانات.
    1 نقطة
  15. وعليكم السلام ورحمة الله pickle هي مكتبة مدمجة في بايثون تستخدم لتحويل الكائنات مثل القوائم والقواميس والأشياء إلى سلسلة من البايتات بحيث يمكن تخزينها على القرص أو نقلها عبر الشبكة واستعادتها لاحقا بنفس الحالة. أما joblib فهي مكتبة مبنية على pickle ولكنها محسنة لتخزين واسترجاع الكائنات الكبيرة خاصة تلك التي تحتوي على بيانات رقمية ضخمة مثل مصفوفات Numpy باستخدام تقنيات مثل الضغط وال memory mapping لتحسين الأداء. والفارق الرئيسي بينهما أنّ pickle تعتبر خيارا مناسبا للتعامل مع الكائنات الصغيرة والمتوسطة الحجم بينما تقدّم joblib أداء أفضل عند التعامل مع بيانات ضخمة أو كائنات معقدة لاعتمادها على تقنيات متقدمة لتسريع عمليات التخزين والاسترجاع مما يجعلها الخيار الأمثل في تطبيقات تعلم الآلة والبيانات الكبيرة.
    1 نقطة
  16. وعليكم السلام ورحمة الله وبركاته. الفرق الرئيسي بينهما هو في كيفية استخدام كل منهما في تخزين واسترجاع البيانات وخصوصا عندما يتعلق الأمر بالكائنات الكبيرة أو المعقدة كما في نماذج التعلم الآلي. pickle : هي مكتبة مدمجة في بايثون تستخدم لتسلسل (serialization) وفك تسلسل (deserialization) الكائنات. ويمكنها التعامل مع معظم الكائنات في بايثون. غالبا ما تكون بطيئة وغير فعالة مع المصفوفات الكبيرة أو الكائنات المعقدة. قد تواجه صعوبة في التعامل مع الملفات الكبيرة جدا . إليك التوثيق الرسمي لها : https://docs.python.org/3/library/pickle.html joblib : هي مكتبة خارجية وليست مدمجة كما في pickle وهي مصممة خصوصا لتسلسل الكائنات الكبيرة مثل المصفوفات الكبيرة NumPy arrays و نماذج التعلم الآلي. أكثر كفاءة مع المصفوفات الكبيرة حيث تقوم بتسلسلها بشكل أفضل وأسرع. مصممة للتعامل مع الملفات الكبيرة بشكل أفضل وتدعم التخزين المؤقت للبيانات إليك التوثيق الرسمي لها : https://joblib.readthedocs.io/en/stable/ تلخيصا لما سبق يمكنك إستخدام pickle إذا كنت بحاجة إلى حفظ واسترجاع كائنات بايثون بشكل عام. أما إذا كنت تعمل مع بيانات كبيرة أو مصفوفات أو تحتاج إلى تسريع عملية الحفظ والاسترجاع فيجب عليك استخدام joblib .
    1 نقطة
  17. وعليكم السلام ورحمة الله وبركاته. أولاً Pickle مصممة لتحويل كائنات بايثون (مثل القوائم والقواميس والأصناف) إلى تسلسل byte يمكن تخزينه أو نقله. بينما Joblib فهي مكتبة مصممة بشكل خاص للتعامل مع مصفوفات NumPy الكبيرة والنماذج في مجال تعلم الآلة. ولذلك تعتبر Joblib أكثر كفاءة في حفظ المصفوفات الكبيرة وخاصة البيانات العددية، حيث تستخدم تخزينًا مُحسنًا للكائنات التي تحتوي على مصفوفات NumPy بينما Pickle أقل كفاءة مع البيانات الكبيرة، خاصة النماذج والمصفوفات ولذلك إذا كنت تتعامل مع بيانات بسيطة أو لا تحتاج إلى تخزين مُحسَّن، فقد يكون استخدام pickle كافيًا.
    1 نقطة
  18. وعليكم السلام ورحمة الله، بالنسبة لمكتبة pickle فهي مكتبة قياسية في بايثون لتخزين الكائنات وتحميلها لكنها لا تدعم ضغط البيانات أو التحسين للتخزين الفعال يمكنك مراجعتها من خلال المصدر التالي: الوحدة pickle في بايثون أما مكتبة joblib فهي جزء من حزمة scikit-learn وهي مصممة خصيصا لتحسين تخزين الكائنات التي تحتوي على مصفوفات NumPy كبيرة وهي شائعة في نماذج التعلم الآلي كما أنها تدعم ضغط البيانات مثل zlib، lz4 لتقليل حجم الملفات وتستخدم غالبا لحفظ وتحميل نماذج التعلم الآلي مثل sklearn بكفاءة، يمكنك مراجعة استخدامها من هنا: وباختصار فإن joblib هي اختيار أفضل لبيئات التعلم الآلي والبيانات الكبيرة بفضل تحسيناتها، بينما pickle مناسبة للاستخدام العام مع كائنات بايثون العادية.
    1 نقطة
  19. ادرس دورة الذكاء الاصطناعي انتهيت من مسار LlMs و مسار computer vision حاولت اعمل fine tuning لنماذج زي lora من منصة hugging face ولاكن لم استطيع فعل ذلك فكيف استطيع تنفيذ هذه العمليات وازاي اقدر ابحث عشان اكيد عن هذه العمليات لازم اي مبرمج يبحث قبل ما ينفذها فا ازاي اقدر ابحث عشان اعمل مثل هذه العمليات
    1 نقطة
  20. للتوضيح أكثر للفرق بين الدالتين يمكننا القول أن نستخدم numpy.arange عندما تعرف حجم الخطوة بالضبط تتعامل مع قيم صحيحة غالباً لا تحتاج بالضرورة لتضمين قيمة النهاية بينما نستخدم numpy.linspace عندما تحتاج عدداً محدداً من النقاط بالضبط تتعامل مع قيم عشرية ودقة حسابية مهمة تريد تضمين قيمة النهاية
    1 نقطة
  21. السلام عليكم ورحمة الله وبركاته اذا اشتركت بالدورة كم مدة الدورة وتروح من عندي واذا اشتركت بعرض الدورتين هل كلهم نفس المدة ؟
    1 نقطة
  22. انا عندي مكن طباعة ولكن اريد ادخل نوعين اخرين من مك ن الطباعة فهدخل شريك ف نوع وشريك اخر ف نوع اخر فإزاي هوزع الارباح وازاي هقسم المصروفات وكل شريك فيهم ملهوش علاقه بالتاني وشراكته خاصه بي انا فقط
    1 نقطة
×
×
  • أضف...