عامر ابراهيم نشر 26 أغسطس 2021 أرسل تقرير نشر 26 أغسطس 2021 (معدل) كنت أقرأ أحد الأكواد على غيتهاب، وظهر لي هذا المفهوم لكنني لم أفهم ماهو، هل يمكن لأحد أن يوضحه لي؟ وأيضاً في المقطع التالي لماذا ضبطنا قيمة global_step على 0 : def training(loss,learning_rate): tf.summary.scalar('loss',loss) t_op = tf.train.GradientDescentOptimizer(learning_rate).minimize(loss, global_step=tf.Variable(0, name='global_step',trainable=False)) return t_op تم التعديل في 26 أغسطس 2021 بواسطة عامر ابراهيم 1 اقتباس
1 Ali Haidar Ahmad نشر 26 أغسطس 2021 أرسل تقرير نشر 26 أغسطس 2021 يشير global_step إلى عدد الباتشات "batches " التي يراها ال Graph . كما نعلم أنه في الشبكات العصبية يتم إدخال البيانات كحزم batches للشبكة (تغذيتها بالبيانات) ثم يتم تنفيذ عملية forward ثم backward propagation بحيث يتم في هذه المرحلة تحديث قيم الأوزان بشكل يؤدي إلى تقليل ال loss أو ال cost. إن مهمة global_step هي تتبع عدد الحزم batches التي شاهدها الغراف حتى الآن. وكلما تم تمريره في قائمة وسيطات minimize ، يتم زيادة المتغير بمقدار واحد. و القيمة 0 هنا تشير إلى القيمة الابتدائية لل global_step . 1 اقتباس
السؤال
عامر ابراهيم
كنت أقرأ أحد الأكواد على غيتهاب، وظهر لي هذا المفهوم لكنني لم أفهم ماهو، هل يمكن لأحد أن يوضحه لي؟ وأيضاً في المقطع التالي لماذا ضبطنا قيمة global_step على 0 :
1 جواب على هذا السؤال
Recommended Posts
انضم إلى النقاش
يمكنك أن تنشر الآن وتسجل لاحقًا. إذا كان لديك حساب، فسجل الدخول الآن لتنشر باسم حسابك.