اذهب إلى المحتوى

السؤال

Recommended Posts

  • 1
نشر

يعتبر من أهم معايير قياس دقة نماذج التصنيف Classification. 
وهو نسبة ماتوقعناه بشكل صحيح إلى مجموع التوقعات الكلية ويستخدم بكثرة، ويمكن التعبير عنه بالصيغة التالية:
Accuracy = (TP+TN)/(TP+FP+FN+TN)
الصيغة العامة للتابع الذي يقوم بحساب الدقة في مكتبة scikit-learn:

sklearn.metrics.accuracy_score(y_true, y_pred, normalize=True)

حيث أن أول وثاني وسيط يمثلان القيم الحقيقية والمتوقعة على التوالي.
الوسيط normalize في حال تم ضبطه على true يعيد قيمة عشرية تمثل الدقة (الحالة الافتراضية)، وفي حال ضبطه على False سيقوم بحساب
TP+TN أي عدد التوقعات الصحيحة للنموذج.

مثال:
 

from sklearn.metrics import accuracy_score
y_pred = [0, 1, 0, 1,0,1]   # بفرض أن القيم المتوقعة كانت 
y_true = [0, 1, 0, 1,1,1]    #  بفرض أن القيم الحقيقية كانت 

# يكون الناتج
print(accuracy_score(y_true, y_pred, normalize=True))   # 0.8333333333333334
# لطباعة الناتج كنسبة مئوية 
print(accuracy_score(y_true, y_pred)*100,'%',sep='')   # 83.33333333333334%

 

# تنويه: تجد شرح المفاهيم TP,TN,FP,FN في الرابط التالي بالتفصيل.

 

انضم إلى النقاش

يمكنك أن تنشر الآن وتسجل لاحقًا. إذا كان لديك حساب، فسجل الدخول الآن لتنشر باسم حسابك.

زائر
أجب على هذا السؤال...

×   لقد أضفت محتوى بخط أو تنسيق مختلف.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   جرى استعادة المحتوى السابق..   امسح المحرر

×   You cannot paste images directly. Upload or insert images from URL.

  • إعلانات

  • تابعنا على



×
×
  • أضف...