- 
                المساهمات2068
- 
                تاريخ الانضمام
- 
                تاريخ آخر زيارة
- 
                عدد الأيام التي تصدر بها14
نوع المحتوى
ريادة الأعمال
البرمجة
التصميم
DevOps
التسويق والمبيعات
العمل الحر
البرامج والتطبيقات
آخر التحديثات
قصص نجاح
أسئلة وأجوبة
كتب
دورات
كل منشورات العضو Ali Ahmed55
- 
	السلام عليكم ليه Google بتفضل اسم الكلاس يكون CamelCase (زي BinomialDistribution) بدل Binomial_Distribution) ؟
- 3 اجابة
- 
	- 1
- 
					
						
					
							  
 
 
- 
	تمام هعمل كده وانا شاء الله خير بس حضرتك معندك معلوم ليه ده بيحصل مع العلم ده اول مره تحصل معي المشكله دي اول مره الحمد الله حلت المشكله وكانت من ملفات الكاش والكوكيز في المتصفح والمسحت الملفات دي المشكله اتحلت الحمد الله الف شكراا جدا لحضرتك جزاك الله كل خير
- 
	السلام عليكم دي المشكله Oops something went wrong An unknown error occurred. We suggest downloading a copy of your notebook to avoid losing your work, then refresh your browser. وكمان بعد ما اعمل refresh الNotebook مش بترض تحفظ اي حاجه جديد سواء كان الحفظ التقائي او الحفظ اليدو العادي ؟
- 2 اجابة
- 
	- 1
- 
					
						
					
							  
 
 
- 
	السلام عليكم عند مشكله في Kaggle Notebook وهي عدم الحفظ التلقائي الحاجات الجديد وكمان مش رضي ينحفظ يدوي فا اي حل المشكله دي وكمان لو Google Chrome بيحصل الUpdating فا دي ممكن يكون السيب؟
- 3 اجابة
- 
	- 2
- 
					
						
					
							  
 
 
- 
	شكراا جدا جدا لحضرتكم الكود اشتغل تمام الحمد الله جزاكم الله كل خير
- 
	السلام عليكم ده الكود class ConditionalProbability: def __int__(self,col1,col2): self.column_name1 = col1 self.column_name2 = col2 def average(self): condition = data_train[self.col1] > data_train[self.col1].mean() subset = data_train[condition][self.column_name2] self.mu,self.sigma = np.mean(subset),np.std(subset) return self.mu,self.sigma def distribution_values(self): x = np.linspace(self.mu - 4*self.sigma, self.mu + 4 *self.sigma,100) pdf = scipy.stats.norm.pdf(x,self.mu,self.sigma) p_conditional = 1 - scipy.stats.norm.cdf return x,pdf,p_conditional def plot(self): x,pdf,p_conditional = self.distribution_values() plt.figure(figsize=(8,5)) plt.plot(x, pdf, label=f'Distribution of {self.col2} (given {self.col1} > mean)') plt.fill_between(x, pdf, where=(x > 0), color='orange', alpha=0.4, label=f'Area where returns > 0\nP = {p_conditional:.3f}') plt.axvline(0, color='red', linestyle='--', label='return = 0') plt.title('Conditional Probability Visualization') plt.xlabel('Forward Returns') plt.ylabel('Density') plt.legend() plt.show() وده الخطاء --------------------------------------------------------------------------- AttributeError Traceback (most recent call last) /tmp/ipykernel_36/4033021502.py in <cell line: 0>() 1 v1 = ConditionalProbability('V1','forward_returns') ----> 2 v1.plot() /tmp/ipykernel_36/3439074975.py in plot(self) 20 21 def plot(self): ---> 22 x,pdf,p_conditional = self.distribution_values() 23 plt.figure(figsize=(8,5)) 24 plt.plot(x, pdf, label=f'Distribution of {self.col2} (given {self.col1} > mean)') /tmp/ipykernel_36/3439074975.py in distribution_values(self) 13 14 def distribution_values(self): ---> 15 x = np.linspace(self.mu - 4*self.sigma, self.mu + 4 *self.sigma,100) 16 pdf = scipy.stats.norm.pdf(x,self.mu,self.sigma) 17 p_conditional = 1 - scipy.stats.norm.cdf(0,self.mu,self.sigma) AttributeError: 'ConditionalProbability' object has no attribute 'mu'
- 4 اجابة
- 
	- 3
- 
					
						
					
							  
 
 
- 
	  هل مكتبة PyTorch عند استخدامها لبناء الشبكات العصبية الالتفافية (CNN) تجبرني أن أحمّل البيانات وأعالجها فقط من خلالها، وكأنها نظام مغلق مثل منتجات أبل (حيث كل شيء يعمل مع بعضه)، أم يمكنني الاستعانة بمكتبات أخرى مثل cv2 أو os أو غيرها في تجهيز البيانات؟Ali Ahmed55 رد على سؤال Ali Ahmed55 في علوم الحاسوب الف شكراا جدا لحضرتك جزاك الله كل خير
- 
	  هل مكتبة PyTorch عند استخدامها لبناء الشبكات العصبية الالتفافية (CNN) تجبرني أن أحمّل البيانات وأعالجها فقط من خلالها، وكأنها نظام مغلق مثل منتجات أبل (حيث كل شيء يعمل مع بعضه)، أم يمكنني الاستعانة بمكتبات أخرى مثل cv2 أو os أو غيرها في تجهيز البيانات؟Ali Ahmed55 رد على سؤال Ali Ahmed55 في علوم الحاسوب الف شكراا جدا لحضرتكم جزاكم الله كل خير
- 
	السلام عليكم هل مكتبة PyTorch عند استخدامها لبناء الشبكات العصبية الالتفافية (CNN) تجبرني أن أحمّل البيانات وأعالجها فقط من خلالها، وكأنها نظام مغلق مثل منتجات أبل (حيث كل شيء يعمل مع بعضه)، أم يمكنني الاستعانة بمكتبات أخرى مثل cv2 أو os أو غيرها في تجهيز البيانات؟
- 4 اجابة
- 
	- 2
- 
					
						
					
							  
 
 
- 
	السلام عليكم هل يوجد فرق بين تصميم البرمجيات وهندسة البرمجيات؟
- 3 اجابة
- 
	- 1
- 
					
						
					
							  
 
 
- 
	السلام عليكم هل من الأفضل دائمًا استخدام الدوال الجاهزة مثل image_dataset_from_directory في TensorFlow أو الأدوات المشابهة في PyTorch لتحميل البيانات، أم أن هناك أحيانًا يكون من الأفضل الاعتماد على مكتبات مثل OS و OpenCV (cv2)؟ وهل في الغالب يُستهلك معظم الوقت في تحميل الصور ومعالجتها أكثر من بناء شبكة CNN نفسها؟
- 3 اجابة
- 
	- 1
- 
					
						
					
							  
 
 
- 
	هو ده حضرتك Epoch 1/10 161/625 ━━━━━━━━━━━━━━━━━━━━ 8s 19ms/step - accuracy: 0.5074 - loss: 7.7238 Corrupt JPEG data: 2226 extraneous bytes before marker 0xd9 264/625 ━━━━━━━━━━━━━━━━━━━━ 6s 18ms/step - accuracy: 0.5070 - loss: 5.4437 Corrupt JPEG data: 65 extraneous bytes before marker 0xd9 Corrupt JPEG data: 239 extraneous bytes before marker 0xd9 268/625 ━━━━━━━━━━━━━━━━━━━━ 6s 18ms/step - accuracy: 0.5070 - loss: 5.3865 --------------------------------------------------------------------------- InvalidArgumentError Traceback (most recent call last) /tmp/ipykernel_36/945077657.py in <cell line: 0>() ----> 1 history = keras_models.fit( 2 train_ds, 3 validation_data=val_ds, 4 epochs=10, 5 callbacks=[tf.keras.callbacks.EarlyStopping( /usr/local/lib/python3.11/dist-packages/keras/src/utils/traceback_utils.py in error_handler(*args, **kwargs) 120 # To get the full stack trace, call: 121 # `keras.config.disable_traceback_filtering()` --> 122 raise e.with_traceback(filtered_tb) from None 123 finally: 124 del filtered_tb /usr/local/lib/python3.11/dist-packages/tensorflow/python/eager/execute.py in quick_execute(op_name, num_outputs, inputs, attrs, ctx, name) 57 e.message += " name: " + name 58 raise core._status_to_exception(e) from None ---> 59 except TypeError as e: 60 keras_symbolic_tensors = [x for x in inputs if _is_keras_symbolic_tensor(x)] 61 if keras_symbolic_tensors: InvalidArgumentError: Graph execution error: Detected at node decode_image/DecodeImage defined at (most recent call last): <stack traces unavailable> Detected at node decode_image/DecodeImage defined at (most recent call last): <stack traces unavailable> 2 root error(s) found. (0) INVALID_ARGUMENT: Input size should match (header_size + row_size * abs_height) but they differ by 2 [[{{node decode_image/DecodeImage}}]] [[IteratorGetNext]] [[IteratorGetNext/_2]] (1) INVALID_ARGUMENT: Input size should match (header_size + row_size * abs_height) but they differ by 2 [[{{node decode_image/DecodeImage}}]] [[IteratorGetNext]] 0 successful operations. 0 derived errors ignored. [Op:__inference_multi_step_on_iterator_39708] الخطاء ده بيحصل اثناء تدريب الشبكه العصبه CNN
- 9 اجابة
- 
	- 1
- 
					
						
					
							  
 
 
- 
	السلام عليكم عند تدريب شبكه عصبيه CNN بيحصل الخطاء ده اثناء التدريب النموذج InvalidArgumentError Traceback (most recent call last) /tmp/ipykernel_36/2234119796.py in <cell line: 0>() ----> 1 history = keras_models.fit(train_ds,validation_data=val_ds,epochs=20) /usr/local/lib/python3.11/dist-packages/keras/src/utils/traceback_utils.py in error_handler(*args, **kwargs) 120 # To get the full stack trace, call: 121 # `keras.config.disable_traceback_filtering()` --> 122 raise e.with_traceback(filtered_tb) from None 123 finally: 124 del filtered_tb /usr/local/lib/python3.11/dist-packages/tensorflow/python/eager/execute.py in quick_execute(op_name, num_outputs, inputs, attrs, ctx, name) 57 e.message += " name: " + name 58 raise core._status_to_exception(e) from None ---> 59 except TypeError as e: 60 keras_symbolic_tensors = [x for x in inputs if _is_keras_symbolic_tensor(x)] 61 if keras_symbolic_tensors: InvalidArgumentError: Graph execution error: Detected at node decode_image/DecodeImage defined at (most recent call last): <stack traces unavailable> Detected at node decode_image/DecodeImage defined at (most recent call last): <stack traces unavailable> 2 root error(s) found. (0) INVALID_ARGUMENT: Input size should match (header_size + row_size * abs_height) but they differ by 2 [[{{node decode_image/DecodeImage}}]] [[IteratorGetNext]] [[IteratorGetNext/_4]] (1) INVALID_ARGUMENT: Input size should match (header_size + row_size * abs_height) but they differ by 2 [[{{node decode_image/DecodeImage}}]] [[IteratorGetNext]] 0 successful operations. 0 derived errors ignored. [Op:__inference_multi_step_on_iterator_13769] مع العلم انا بستخدم الداله دي في تحميل البيانات train_ds = tf.keras.utils.image_dataset_from_directory( '/kaggle/input/dog-and-cat-classification-dataset/PetImages', image_size=(128, 128), batch_size=32, labels="inferred", label_mode="int", validation_split=0.2, subset="training", seed=123, )
- 9 اجابة
- 
	- 2
- 
					
						
					
							  
 
 
- 
	السلام عليكم ليه Kaggle Notebook مش دايمًا عليه أحدث نسخة من المكتبات؟
- 6 اجابة
- 
	- 3
- 
					
						
					
							  
 
 

