اذهب إلى المحتوى

Ali Ahmed55

الأعضاء
  • المساهمات

    2068
  • تاريخ الانضمام

  • تاريخ آخر زيارة

  • عدد الأيام التي تصدر بها

    14

كل منشورات العضو Ali Ahmed55

  1. الف شكراا جدا لحضرتك جزك الله كل خير
  2. السلام عليكم ليه Google بتفضل اسم الكلاس يكون CamelCase (زي BinomialDistribution) بدل Binomial_Distribution) ؟
  3. تمام هعمل كده وانا شاء الله خير بس حضرتك معندك معلوم ليه ده بيحصل مع العلم ده اول مره تحصل معي المشكله دي اول مره الحمد الله حلت المشكله وكانت من ملفات الكاش والكوكيز في المتصفح والمسحت الملفات دي المشكله اتحلت الحمد الله الف شكراا جدا لحضرتك جزاك الله كل خير
  4. السلام عليكم دي المشكله Oops something went wrong An unknown error occurred. We suggest downloading a copy of your notebook to avoid losing your work, then refresh your browser. وكمان بعد ما اعمل refresh الNotebook مش بترض تحفظ اي حاجه جديد سواء كان الحفظ التقائي او الحفظ اليدو العادي ؟
  5. السلام عليكم عند مشكله في Kaggle Notebook وهي عدم الحفظ التلقائي الحاجات الجديد وكمان مش رضي ينحفظ يدوي فا اي حل المشكله دي وكمان لو Google Chrome بيحصل الUpdating فا دي ممكن يكون السيب؟
  6. شكراا جدا جدا لحضرتكم الكود اشتغل تمام الحمد الله جزاكم الله كل خير
  7. السلام عليكم ده الكود class ConditionalProbability: def __int__(self,col1,col2): self.column_name1 = col1 self.column_name2 = col2 def average(self): condition = data_train[self.col1] > data_train[self.col1].mean() subset = data_train[condition][self.column_name2] self.mu,self.sigma = np.mean(subset),np.std(subset) return self.mu,self.sigma def distribution_values(self): x = np.linspace(self.mu - 4*self.sigma, self.mu + 4 *self.sigma,100) pdf = scipy.stats.norm.pdf(x,self.mu,self.sigma) p_conditional = 1 - scipy.stats.norm.cdf return x,pdf,p_conditional def plot(self): x,pdf,p_conditional = self.distribution_values() plt.figure(figsize=(8,5)) plt.plot(x, pdf, label=f'Distribution of {self.col2} (given {self.col1} > mean)') plt.fill_between(x, pdf, where=(x > 0), color='orange', alpha=0.4, label=f'Area where returns > 0\nP = {p_conditional:.3f}') plt.axvline(0, color='red', linestyle='--', label='return = 0') plt.title('Conditional Probability Visualization') plt.xlabel('Forward Returns') plt.ylabel('Density') plt.legend() plt.show() وده الخطاء --------------------------------------------------------------------------- AttributeError Traceback (most recent call last) /tmp/ipykernel_36/4033021502.py in <cell line: 0>() 1 v1 = ConditionalProbability('V1','forward_returns') ----> 2 v1.plot() /tmp/ipykernel_36/3439074975.py in plot(self) 20 21 def plot(self): ---> 22 x,pdf,p_conditional = self.distribution_values() 23 plt.figure(figsize=(8,5)) 24 plt.plot(x, pdf, label=f'Distribution of {self.col2} (given {self.col1} > mean)') /tmp/ipykernel_36/3439074975.py in distribution_values(self) 13 14 def distribution_values(self): ---> 15 x = np.linspace(self.mu - 4*self.sigma, self.mu + 4 *self.sigma,100) 16 pdf = scipy.stats.norm.pdf(x,self.mu,self.sigma) 17 p_conditional = 1 - scipy.stats.norm.cdf(0,self.mu,self.sigma) AttributeError: 'ConditionalProbability' object has no attribute 'mu'
  8. السلام عليكم هل مكتبة PyTorch عند استخدامها لبناء الشبكات العصبية الالتفافية (CNN) تجبرني أن أحمّل البيانات وأعالجها فقط من خلالها، وكأنها نظام مغلق مثل منتجات أبل (حيث كل شيء يعمل مع بعضه)، أم يمكنني الاستعانة بمكتبات أخرى مثل cv2 أو os أو غيرها في تجهيز البيانات؟
  9. الف شكراا جدا لحضرتكم جزاكم الله كل خير
  10. السلام عليكم هل يوجد فرق بين تصميم البرمجيات وهندسة البرمجيات؟
  11. الف شكراا جدا لحضرتك جزاك الله كل خير
  12. السلام عليكم هل من الأفضل دائمًا استخدام الدوال الجاهزة مثل image_dataset_from_directory في TensorFlow أو الأدوات المشابهة في PyTorch لتحميل البيانات، أم أن هناك أحيانًا يكون من الأفضل الاعتماد على مكتبات مثل OS و OpenCV (cv2)؟ وهل في الغالب يُستهلك معظم الوقت في تحميل الصور ومعالجتها أكثر من بناء شبكة CNN نفسها؟
  13. الف شكراا جدا لحضرتكم جزاكم الله كل خير
  14. الف شكراا جدا لحضرتك جزاك الله كل خير
  15. دي بيانات من علي Kaggle ودي الربط بتاع البيانات https://www.kaggle.com/datasets/bhavikjikadara/dog-and-cat-classification-dataset
  16. هو ده حضرتك Epoch 1/10 161/625 ━━━━━━━━━━━━━━━━━━━━ 8s 19ms/step - accuracy: 0.5074 - loss: 7.7238 Corrupt JPEG data: 2226 extraneous bytes before marker 0xd9 264/625 ━━━━━━━━━━━━━━━━━━━━ 6s 18ms/step - accuracy: 0.5070 - loss: 5.4437 Corrupt JPEG data: 65 extraneous bytes before marker 0xd9 Corrupt JPEG data: 239 extraneous bytes before marker 0xd9 268/625 ━━━━━━━━━━━━━━━━━━━━ 6s 18ms/step - accuracy: 0.5070 - loss: 5.3865 --------------------------------------------------------------------------- InvalidArgumentError Traceback (most recent call last) /tmp/ipykernel_36/945077657.py in <cell line: 0>() ----> 1 history = keras_models.fit( 2 train_ds, 3 validation_data=val_ds, 4 epochs=10, 5 callbacks=[tf.keras.callbacks.EarlyStopping( /usr/local/lib/python3.11/dist-packages/keras/src/utils/traceback_utils.py in error_handler(*args, **kwargs) 120 # To get the full stack trace, call: 121 # `keras.config.disable_traceback_filtering()` --> 122 raise e.with_traceback(filtered_tb) from None 123 finally: 124 del filtered_tb /usr/local/lib/python3.11/dist-packages/tensorflow/python/eager/execute.py in quick_execute(op_name, num_outputs, inputs, attrs, ctx, name) 57 e.message += " name: " + name 58 raise core._status_to_exception(e) from None ---> 59 except TypeError as e: 60 keras_symbolic_tensors = [x for x in inputs if _is_keras_symbolic_tensor(x)] 61 if keras_symbolic_tensors: InvalidArgumentError: Graph execution error: Detected at node decode_image/DecodeImage defined at (most recent call last): <stack traces unavailable> Detected at node decode_image/DecodeImage defined at (most recent call last): <stack traces unavailable> 2 root error(s) found. (0) INVALID_ARGUMENT: Input size should match (header_size + row_size * abs_height) but they differ by 2 [[{{node decode_image/DecodeImage}}]] [[IteratorGetNext]] [[IteratorGetNext/_2]] (1) INVALID_ARGUMENT: Input size should match (header_size + row_size * abs_height) but they differ by 2 [[{{node decode_image/DecodeImage}}]] [[IteratorGetNext]] 0 successful operations. 0 derived errors ignored. [Op:__inference_multi_step_on_iterator_39708] الخطاء ده بيحصل اثناء تدريب الشبكه العصبه CNN
  17. انا عملت الكود ده وبعد ما عملت Run الكود اشتغل والنتجيه كانت كل تمام يعني مافيش صور تافه ازي مش عارف مع ان بعد كده بدرب النموذج طهر بردون نفس الخطاء ؟
  18. الف شكراا جدا لحضرتك جزاك الله كل خير
  19. الف شكراا جدا جدا لحضرتك جزك الله كل خير
  20. السلام عليكم عند تدريب شبكه عصبيه CNN بيحصل الخطاء ده اثناء التدريب النموذج InvalidArgumentError Traceback (most recent call last) /tmp/ipykernel_36/2234119796.py in <cell line: 0>() ----> 1 history = keras_models.fit(train_ds,validation_data=val_ds,epochs=20) /usr/local/lib/python3.11/dist-packages/keras/src/utils/traceback_utils.py in error_handler(*args, **kwargs) 120 # To get the full stack trace, call: 121 # `keras.config.disable_traceback_filtering()` --> 122 raise e.with_traceback(filtered_tb) from None 123 finally: 124 del filtered_tb /usr/local/lib/python3.11/dist-packages/tensorflow/python/eager/execute.py in quick_execute(op_name, num_outputs, inputs, attrs, ctx, name) 57 e.message += " name: " + name 58 raise core._status_to_exception(e) from None ---> 59 except TypeError as e: 60 keras_symbolic_tensors = [x for x in inputs if _is_keras_symbolic_tensor(x)] 61 if keras_symbolic_tensors: InvalidArgumentError: Graph execution error: Detected at node decode_image/DecodeImage defined at (most recent call last): <stack traces unavailable> Detected at node decode_image/DecodeImage defined at (most recent call last): <stack traces unavailable> 2 root error(s) found. (0) INVALID_ARGUMENT: Input size should match (header_size + row_size * abs_height) but they differ by 2 [[{{node decode_image/DecodeImage}}]] [[IteratorGetNext]] [[IteratorGetNext/_4]] (1) INVALID_ARGUMENT: Input size should match (header_size + row_size * abs_height) but they differ by 2 [[{{node decode_image/DecodeImage}}]] [[IteratorGetNext]] 0 successful operations. 0 derived errors ignored. [Op:__inference_multi_step_on_iterator_13769] مع العلم انا بستخدم الداله دي في تحميل البيانات train_ds = tf.keras.utils.image_dataset_from_directory( '/kaggle/input/dog-and-cat-classification-dataset/PetImages', image_size=(128, 128), batch_size=32, labels="inferred", label_mode="int", validation_split=0.2, subset="training", seed=123, )
  21. السلام عليكم ليه Kaggle Notebook مش دايمًا عليه أحدث نسخة من المكتبات؟
×
×
  • أضف...