اذهب إلى المحتوى

السؤال

Recommended Posts

  • 0
نشر

نعم يمكنك استخدام ReLU في الطبقات المخفية حتى لو كنت تعمل على مهمة تصنيف، و في الواقع ReLU هو أحد أكثر دوال التفعيل شيوعا في الطبقات المخفية لشبكات التعلم العميق، لأنه يساعد في التغلب على مشكلة تلاشي التدرج ويجعل عملية التدريب أكثر كفاءة مقارنة بدوال مثل Sigmoid أو TanhK، ولكن في الطبقة الأخيرة يعتمد اختيار دالة التفعيل على نوع التصنيف، حيث إذا كان التصنيف ثنائيا، فيفضل استخدام Sigmoid، أما إذا كان متعدد الفئات، فإن Softmax هو الخيار الأمثل.

  • 0
نشر

وعليكم السلام ورحمة الله وبركاته.

نعم عادة ما يتم استخدام ReLU  في الطبقات المخفية حتى في مهام التصنيف. وذلك لأنه يعمل على إزالة القيم السالبة -أي يجعلها بصفر- ويحتفظ بالقيم الموجبة. و هذا يساعد في تسريع عملية التدريب مقارنة بوظائف التنشيط الأخرى مثل Sigmoid أو Tanh. وأيضا يساعد على تقليل مشكلة تلاشي التدرجات (Vanishing Gradients) وهو سهل الحساب لأنه يتطلب فقط مقارنة بسيطة (max(0, x)) .

ولكن في الطبقة الأخيرة (Output Layer) في التصنيف لا يتم استخدام ال ReLU  لأن نتائجها غير مناسبة لمخرجات التصنيف. فمثلا:

  • إذا كان التصنيف لديك ثنائي فيفضل إستخدام Sigmoid في الطبقة الأخيرة.
  • أما إذا كان التصنيف متعدد الفئات فيفضل استخدام Softmax للحصول على احتمالات تصنيف مفسرة.

إذا تلخيص لما سبق يمكنك استخدام ال ReLU في الطبقات الخفية أثناء التدريب على مهمة التصنيف ولكن يجب عليك أن تتأكد من استخدام دوال تنشيط مناسبة في الطبقة الأخيرة مثل Sigmoid أو Softmax حسب نوع التصنيف الذي تقوم به.

انضم إلى النقاش

يمكنك أن تنشر الآن وتسجل لاحقًا. إذا كان لديك حساب، فسجل الدخول الآن لتنشر باسم حسابك.

زائر
أجب على هذا السؤال...

×   لقد أضفت محتوى بخط أو تنسيق مختلف.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   جرى استعادة المحتوى السابق..   امسح المحرر

×   You cannot paste images directly. Upload or insert images from URL.

  • إعلانات

  • تابعنا على



×
×
  • أضف...