Ali Ahmed55 نشر 24 سبتمبر أرسل تقرير نشر 24 سبتمبر السلام عليكم هو اي العلاقه مابين Epoch وبين batch_size عند بناء شبكه عصبيه ؟ 2 اقتباس
0 Chihab Hedidi نشر 24 سبتمبر أرسل تقرير نشر 24 سبتمبر المصطلحان مهمان و يرتبطان بتدريب النموذج، و بالتأكيد لكل منهما معنى مختلف، حيث أن Epoch هو عدد المرات التي يتم فيها تمرير كامل بيانات التدريب عبر الشبكة العصبية، فمثلا إذا كانت لديك مجموعة بيانات تحتوي على 1000 عينة، وعند اكتمال مرور جميع هذه العينات عبر الشبكة مرة واحدة، نقول إننا انتهينا من Epoch واحد، وعادة ما تحتاج الشبكات العصبية إلى العديد من الـ Epochs لتحسين الأداء تدريجيا، حيث يتم تعديل الأوزان بعد كل Epoch بناء على الخطأ. أما Batch Size فهو حجم الدفعة، أي عدد العينات التي يتم تمريرها عبر الشبكة في كل تحديث للأوزان، فبدلا من تمرير جميع العينات مرة واحدة عبر الشبكة والذي قد يكون بطيئا جدا في حالة المجموعات الكبيرة، يتم تقسيم البيانات إلى دفعات صغيرة، و بعد كل دفعة يتم تحديث الأوزان بناءً على نتائج تلك الدفعة فقط، فإذا كانت مجموعة البيانات تحتوي على 1000 عينة وكان حجم الدفعة 100، فهذا يعني أن كل Epoch سيحتوي على 10 دفعات أي 100 عينة لكل دفعة. و العلاقة بينمها هو أن عدد الدفعات في كل Epoch يساوي عدد العينات في مجموعة البيانات ÷ حجم الدفعة، فإذا كانت مجموعة البيانات تحتوي على 1000 عينة وحجم الدفعة هو 100، فستكون هناك 10 دفعات لكل Epoch. 1 اقتباس
0 Ali Ahmed55 نشر 24 سبتمبر الكاتب أرسل تقرير نشر 24 سبتمبر بتاريخ 2 دقائق مضت قال Chihab Hedidi: المصطلحان مهمان و يرتبطان بتدريب النموذج، و بالتأكيد لكل منهما معنى مختلف، حيث أن Epoch هو عدد المرات التي يتم فيها تمرير كامل بيانات التدريب عبر الشبكة العصبية، فمثلا إذا كانت لديك مجموعة بيانات تحتوي على 1000 عينة، وعند اكتمال مرور جميع هذه العينات عبر الشبكة مرة واحدة، نقول إننا انتهينا من Epoch واحد، وعادة ما تحتاج الشبكات العصبية إلى العديد من الـ Epochs لتحسين الأداء تدريجيا، حيث يتم تعديل الأوزان بعد كل Epoch بناء على الخطأ. أما Batch Size فهو حجم الدفعة، أي عدد العينات التي يتم تمريرها عبر الشبكة في كل تحديث للأوزان، فبدلا من تمرير جميع العينات مرة واحدة عبر الشبكة والذي قد يكون بطيئا جدا في حالة المجموعات الكبيرة، يتم تقسيم البيانات إلى دفعات صغيرة، و بعد كل دفعة يتم تحديث الأوزان بناءً على نتائج تلك الدفعة فقط، فإذا كانت مجموعة البيانات تحتوي على 1000 عينة وكان حجم الدفعة 100، فهذا يعني أن كل Epoch سيحتوي على 10 دفعات أي 100 عينة لكل دفعة. و العلاقة بينمها هو أن عدد الدفعات في كل Epoch يساوي عدد العينات في مجموعة البيانات ÷ حجم الدفعة، فإذا كانت مجموعة البيانات تحتوي على 1000 عينة وحجم الدفعة هو 100، فستكون هناك 10 دفعات لكل Epoch. تمام جدا جدا الف شكرااا لحضرتك اقتباس
0 عبد الوهاب بومعراف نشر 24 سبتمبر أرسل تقرير نشر 24 سبتمبر بالنسبة لمصطلح Epoch هو عبارة عن مرور واحد كامل على جميع بيانات التدريب، حيث إذا كان لديك مجموعة بيانات مكونة من 5000 عينة، فإن Epoch واحدة تعني أن الشبكة مرت على كل هذه العينات مرة واحدة. أما Batch Size هو عدد العينات التي تمررها إلى الشبكة في خطوة واحدة قبل تحديث الأوزان، فإذا كان لديك Batch Size = 100، فإن الشبكة ستعالج 100 عينة في كل خطوة قبل أن تقوم بعملية تحديث الأوزان. والعلاقة بينهما هو أنه عندما يكون لديك عدد معين من العينات في مجموعة التدريب، فإن عدد الخطوات داخل كل Epoch يساوي عدد العينات مقسوما على Batch Size، فمثلا لو كان لديك 5000 عينة وBatch Size = 100، فسيكون لديك 50 خطوة في كل Epoch. و هما مهمان في في بناء الشبكة العصبية ف Batch Size يؤثر على الذاكرة المستخدمة وسرعة التدريب، و القيم الصغيرة تجعل التدريب بطيئا ولكن أكثر دقة في تقدير التدرجات، بينما القيم الكبيرة قد تسرع التدريب ولكنها تحتاج إلى ذاكرة أكبر وتقديرات أقل دقة للتدرجات. أما Epochs يحدد عدد المرات التي سترى فيها الشبكة كامل البيانات، و زيادة عدد Epochs يمكن أن يؤدي إلى تحسين دقة النموذج، ولكن قد يؤدي أيضا إلى الإفراط في التكيف أو overfitting إذا كان العدد كبيرا جدا. 1 اقتباس
0 Ali Ahmed55 نشر 24 سبتمبر الكاتب أرسل تقرير نشر 24 سبتمبر بتاريخ 7 دقائق مضت قال عبد الوهاب بومعراف: بالنسبة لمصطلح Epoch هو عبارة عن مرور واحد كامل على جميع بيانات التدريب، حيث إذا كان لديك مجموعة بيانات مكونة من 5000 عينة، فإن Epoch واحدة تعني أن الشبكة مرت على كل هذه العينات مرة واحدة. أما Batch Size هو عدد العينات التي تمررها إلى الشبكة في خطوة واحدة قبل تحديث الأوزان، فإذا كان لديك Batch Size = 100، فإن الشبكة ستعالج 100 عينة في كل خطوة قبل أن تقوم بعملية تحديث الأوزان. والعلاقة بينهما هو أنه عندما يكون لديك عدد معين من العينات في مجموعة التدريب، فإن عدد الخطوات داخل كل Epoch يساوي عدد العينات مقسوما على Batch Size، فمثلا لو كان لديك 5000 عينة وBatch Size = 100، فسيكون لديك 50 خطوة في كل Epoch. و هما مهمان في في بناء الشبكة العصبية ف Batch Size يؤثر على الذاكرة المستخدمة وسرعة التدريب، و القيم الصغيرة تجعل التدريب بطيئا ولكن أكثر دقة في تقدير التدرجات، بينما القيم الكبيرة قد تسرع التدريب ولكنها تحتاج إلى ذاكرة أكبر وتقديرات أقل دقة للتدرجات. أما Epochs يحدد عدد المرات التي سترى فيها الشبكة كامل البيانات، و زيادة عدد Epochs يمكن أن يؤدي إلى تحسين دقة النموذج، ولكن قد يؤدي أيضا إلى الإفراط في التكيف أو overfitting إذا كان العدد كبيرا جدا. شكرااا جدا لحضرتك اقتباس
السؤال
Ali Ahmed55
السلام عليكم
هو اي العلاقه مابين Epoch وبين batch_size عند بناء شبكه عصبيه ؟
4 أجوبة على هذا السؤال
Recommended Posts
انضم إلى النقاش
يمكنك أن تنشر الآن وتسجل لاحقًا. إذا كان لديك حساب، فسجل الدخول الآن لتنشر باسم حسابك.