اذهب إلى المحتوى

السؤال

نشر (معدل)

كنت أقرأ أحد الأكواد على غيتهاب، وظهر لي هذا المفهوم لكنني لم أفهم ماهو، هل يمكن لأحد أن يوضحه لي؟ وأيضاً في المقطع التالي لماذا ضبطنا قيمة global_step على 0 :

def training(loss,learning_rate):
    tf.summary.scalar('loss',loss)
    t_op = tf.train.GradientDescentOptimizer(learning_rate).minimize(loss, 
		  global_step=tf.Variable(0, name='global_step',trainable=False))
    return t_op

 

تم التعديل في بواسطة عامر ابراهيم

Recommended Posts

  • 1
نشر

يشير global_step إلى عدد الباتشات "batches " التي يراها ال Graph .
كما نعلم أنه في الشبكات العصبية يتم إدخال البيانات كحزم batches للشبكة (تغذيتها بالبيانات) ثم يتم تنفيذ عملية forward ثم backward propagation بحيث يتم في هذه المرحلة تحديث قيم الأوزان بشكل يؤدي إلى تقليل ال loss أو ال cost. إن مهمة global_step هي تتبع عدد الحزم batches  التي شاهدها الغراف حتى الآن. وكلما تم تمريره في قائمة وسيطات minimize ، يتم زيادة المتغير بمقدار واحد. و القيمة 0 هنا تشير إلى القيمة الابتدائية لل global_step .

انضم إلى النقاش

يمكنك أن تنشر الآن وتسجل لاحقًا. إذا كان لديك حساب، فسجل الدخول الآن لتنشر باسم حسابك.

زائر
أجب على هذا السؤال...

×   لقد أضفت محتوى بخط أو تنسيق مختلف.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   جرى استعادة المحتوى السابق..   امسح المحرر

×   You cannot paste images directly. Upload or insert images from URL.

  • إعلانات

  • تابعنا على



×
×
  • أضف...