Walid Kadded
الأعضاء-
المساهمات
17 -
تاريخ الانضمام
-
تاريخ آخر زيارة
آخر الزوار
لوحة آخر الزوار معطلة ولن تظهر للأعضاء
إنجازات Walid Kadded
-
الظاهر أن لديك مشكلة ربما في المنفذ المستعمل للاتصال, حاول تغيير المنفذ من 80 الى 8080. يمكنك اتباع الخطوات التالية: قم بالخروج من MAMP. تأكد ان كل الخدمات توقفت تماما. قم بفتح ملف اعدادات Apache باستعمال اي محرر للنصوص. ستجد الملف في مكان تثبيت MAMP. كمثال قم بالبحث عن السطر قم بتغييره ليصبح قم بحفظ الملف قبل الخروج. بعدها قم بإعادة تشغيل MAMP و تأكد ان كانت المشكلة قد حلت.
-
المعامل @ يقوم باستدعاء الدالة ()matmul و ليس ()dot. >>> a = np.random.rand(2,3,3) >>> b = np.random.rand(2,3,3) >>> np.matmul(a, b).shape (2, 3, 3) >>> np.dot(a, b).shape (2, 3, 3) matmul تختلف عن dot في أمرين: الضرب في scalar غير مسموح به. يتم عمل broadcasting للمصفوفات معًا كما لو كانت المصفوفات عناصر. بالنسبة للجزء الثاني من السؤال, لا يمكنك الحصول على هذه النتيجة باستعمال ()dot. يجب استعمال اما ()matmul او @.
- 2 اجابة
-
- 1
-
الدالة argsort تقوم بإرجاع المؤشرات بالترتيب الذي من شأنه جعل الجدول مرتبا. في هذه الحالة: 2 هو مؤشر 0.0 3 هو مؤشر 0.1 1 هو مؤشر 1.41 0 هو مؤشر 1.48
- 3 اجابة
-
- 1
-
ستجد في موقع حسوب ويكي صفحة كاملة خاصة بالخوارزميات, مع كل خوارزمية ستجد شرحا كتابيا و مصورا ايضا في البعض منها, مع تطبيق فعلي لكل خوارزمية باستعمال لغات متعددة مثل C , C++ , Java, Python . https://wiki.hsoub.com/Algorithms أما ان كنت تبحث عن كتاب, فيمكنك البدء بكتاب الاستاذ خالد السعداني: "البحر الشاسع لدخول الخوارزميات من بابها الواسع". الكتاب موجه للمبتدئين و الذين لا يملكون أي معرفة مسبقة بمجال الخوارزميات. يبدأ الكتاب بدروس نظرية عن الحاسوب و طريقة عمله, ثم تليه دروس عن النظام الثنائي, و بعدها تجد دروس الخوارزميات و التي تبدأ من تعريف الخوارزمية, مرورا بالمتغيرات و الدوال الشرطية وصولا الى المصفوفات. ما يميز الكتاب هو البساطة في طرح المعلومات و استعمال الاسلوب التصويري لشرح الأفكار.
- 2 اجابة
-
- 1
-
للأسف ليس لدي فكرة عن طريقة ربط البطاقة الذهبية. يمكنك الاتصال بالجهة التي تقدم الخدمة مباشرة و السؤال ان كانت توفر هذه الخاصية عن طريق api او لا.
-
ال iframe هو عبارة عن نافذه في موقعك يفتح فيها الموقع الذي تريد الوصول اليه, يمكنك اضافتها من كود ال HTML الخاص بموقعك. مثال: <iframe src="https://ec.algerietelecom.dz/index.php?p=internet_recharge&pr=in" title="Algerie Telecom"></iframe> عند اضافة الكود المرفق لموقعك, ستظهر لك نافذة يفتح فيها الموقع الاصلي دون الخروج من موقعك. يمكنك التحكم بأبعاد ال iframe باستعمال CSS كما تتحكم ببقية العناصر.
-
ستحتاج لل api الخاص بمزود الخدمة للتمكن من استعمال خاصية الدفع مباشرة من موقعك, و على ما أظن موقع اتصالات الجزائر لا يوفر هذه الخدمة حاليا. يمكنك استعمال iframe للموقع الأصلي داخل موقعك اذا اردت ان لا يخرج المستخدم من موقعك و يتمكن من الدفع في الموقع الاصلي.
-
الوحدة الخطية المتدرجة (SELU) Exponential Linear Unit دالة التنشيط SELU هي نوع آخر من ReLU. حيث أنه إذا قمت ببناء شبكة عصبية تتكون حصريًا من مجموعة من الطبقات الكثيفة dense layers ، وإذا كانت جميع الطبقات المخفية تستخدم دالة تنشيط SELU ، فستقوم الشبكة ب self-normalize . سوف يميل ناتج كل طبقة إلى الحفاظ على المتوسط 0 والانحراف المعياري 1 أثناء التدريب ، مما يحل مشكلة التدرجات المتلاشية / المتفجرة. (exploding gradients) غالبًا ما تتفوق دالة التنشيط هذه على دوال التنشيط الأخرى بشكل كبير. يتم تعريف SELU على النحو التالي: f(x) = scale * x , z > 0 = scale * α * (exp(x) - 1) , z <= 0 حيث "α" و "scale" ثوابت معرّفة مسبقًا α = 1.67326324 scale = 1.05070098 لاستخدام SELU مع Keras و TensorFlow 2 ، ما عليك سوى تعيين ' activation= 'selu و 'kernel_initializer='lecun_normal from tensorflow.keras.layers import Dense Dense(10, activation='selu', kernel_initializer='lecun_normal') هناك بعض الشروط لكي تعمل SELU بشكل جيد: تعمل SELU فقط مع الشبكات العصبية التي تتكون حصريًا من مجموعة من الطبقات الكثيفة dense layers. و قد لا تعمل مع الشبكات العصبية التلافيفية CNN بشكل جيد. يجب أيضًا تهيئة أوزان كل طبقة مخفية باستخدام LeCun normal initialization. يجب توحيد ال Input features بمتوسط 0 وانحراف معياري 1.
-
لكي تربط جدولين لديهما حقل مشترك, يمكنك استعمال JOIN او INNER JOIN. حيث يجب ان يكون الحقل من نفس النوع, $sql = "SELECT * from chat INNER JOIN users on users.id=chat.sender_id";
- 2 اجابة
-
- 1
-
اولا, أنت تستعمل حاليا نسخة قديمة من tensorflow, الافضل ان تقوم بالانتقال الى النسخة 2. ثانيا, انت تستعمل ال functional api, و dense1 تعتبر مخرجات في هذه الحالة و ليست طبقة, لكي تعمل معك الدالة get_weights() يجب ان يكون الاستدعاء على طبقة او Model , لان ال Model ايضا يتعبر طبقة. هذا مثال يوضح طريقة استعمال الدالة ()get_weights مع Model كامل للحصول على الاوزان. import tensorflow as tf from tensorflow import keras from tensorflow.keras import layers model = keras.Sequential( [ layers.Dense(2, activation="relu", name="layer1"), layers.Dense(3, activation="relu", name="layer2"), layers.Dense(4, name="layer3"), ] ) x = tf.ones((3, 3)) y = model(x) model.get_weights() النتيجة # [array([[ 0.49743366, -0.5760138 ], # [-0.01432669, 0.6724075 ], # [ 0.747548 , 0.8514656 ]], dtype=float32), # array([0., 0.], dtype=float32), # array([[-0.20251024, -0.29482132, 1.074827 ], # [-0.5137537 , 0.1377641 , 0.44807172]], dtype=float32), # array([0., 0., 0.], dtype=float32), # array([[-0.00770271, -0.14924443, 0.38956785, 0.85535455], # [ 0.13032079, 0.05204147, 0.14340723, 0.81273234], # [-0.24441314, 0.49561667, -0.10915673, 0.12434208]], # dtype=float32), # array([0., 0., 0., 0.], dtype=float32)]
-
السؤال غير واضح, يرجى طرح السؤال بصيغة مفهومة مع وضع مثال عن الكود الخاص بك لفهم المقصود من السؤال و نوع المقارنة المراد القيام بها و نوع المتغيرين المراد المقارنة بينهما هل هما int او string ..... الخ. على العموم, هذا مثال لمقارنة متغيرين من نوع int و string. public class Compare { int a, b; String s1, s2; a = 2; b = 3; s1 = "Hello"; s2 = "Hello"; public static void compare() { if ( a == b) { System.out.println("a and b are equal"); }else{ System.out.println("a and b are different"); } if ( s1.equals(s2) ) { System.out.println("s1 and s2 are equal"); }else{ System.out.println("s1 and s2 are different"); } } }
-
لحذف ال bias من ال conv2D يمكنك اضافة المتغير use_bias = False للطبقة التي لا تريد استعمال bias فيها. x = Conv2D(4, (3, 3), activation=None, padding='same', name='conv1', use_bias = False)(inputs1) بالنسبة لل BatchNormalization, لاضافة طبقة من هذا النوع ستحتاج اولا لاستدعائها from keras.layers import BatchNormalization بعدها يمكنك استعمالها كما تستعمل اي طبقة أخرى في keras في المكان الذي تريده inputs1 = Input((28, 28, 1)) x = Conv2D(4, (3, 3), activation=None, padding='same', name='conv1')(inputs1) x = BatchNormalization()(x) x = Activation('relu')(x)