لوحة المتصدرين
المحتوى الأكثر حصولًا على سمعة جيدة
المحتوى الأعلى تقييمًا في 01/29/25 في كل الموقع
-
السلام عليكم هو انا هنا ازي اقدر احول البيانات دي بستخدم LabelEncoder من غير القيمه الNull يعني انا عاوز قيمه الNull تكون زي ماهي ؟ ودي البيانات data = pd.DataFrame({ 'A': ['yes', 'yes', np.nan, 'no', 'no'], 'B': [np.nan, 'no', 'no', 'no', 'no'], 'C': ['no', 'yes', 'yes', np.nan, 'yes'] })2 نقاط
-
السلام عليكم عند استخدم الكود ده ده الكود print(data_train.info()) ودي النتجيه # Column Non-Null Count Dtype --- ------ -------------- ----- 0 ID 28800 non-null int64 1 dri_score 28374 non-null object 2 psych_disturb 26592 non-null object 3 cyto_score 18832 non-null object 4 diabetes 26540 non-null object 5 hla_match_c_high 24180 non-null float64 6 hla_high_res_8 22971 non-null float64 7 tbi_status 28800 non-null object 8 arrhythmia 26480 non-null object 9 hla_low_res_6 25530 non-null float64 10 graft_type 28800 non-null object 11 vent_hist 28541 non-null object 12 renal_issue 26748 non-null object 13 pulm_severe 26485 non-null object 14 prim_disease_hct 28800 non-null object 15 hla_high_res_6 23516 non-null float64 16 cmv_status 28166 non-null object 17 hla_high_res_10 21637 non-null float64 18 hla_match_dqb1_high 23601 non-null float64 19 tce_imm_match 17667 non-null object 20 hla_nmdp_6 24603 non-null float64 21 hla_match_c_low 26000 non-null float64 22 rituximab 26652 non-null object 23 hla_match_drb1_low 26157 non-null float64 24 hla_match_dqb1_low 24606 non-null float64 25 prod_type 28800 non-null object 26 cyto_score_detail 15689 non-null object 27 conditioning_intensity 23489 non-null object 28 ethnicity 28213 non-null object 29 year_hct 28800 non-null int64 30 obesity 26923 non-null object 31 mrd_hct 12203 non-null object 32 in_vivo_tcd 28575 non-null object 33 tce_match 9804 non-null object 34 hla_match_a_high 24499 non-null float64 35 hepatic_severe 26719 non-null object 36 donor_age 26992 non-null float64 37 prior_tumor 26837 non-null object 38 hla_match_b_low 26235 non-null float64 39 peptic_ulcer 26215 non-null object 40 age_at_hct 28800 non-null float64 41 hla_match_a_low 26410 non-null float64 42 gvhd_proph 28575 non-null object 43 rheum_issue 26472 non-null object 44 sex_match 28539 non-null object 45 hla_match_b_high 24712 non-null float64 46 race_group 28800 non-null object 47 comorbidity_score 28323 non-null float64 48 karnofsky_score 27930 non-null float64 49 hepatic_mild 26743 non-null object 50 tce_div_match 17404 non-null object 51 donor_related 28642 non-null object 52 melphalan_dose 27395 non-null object 53 hla_low_res_8 25147 non-null float64 54 cardiac 26111 non-null object 55 hla_match_drb1_high 25448 non-null float64 56 pulm_moderate 26587 non-null object 57 hla_low_res_10 23736 non-null float64 58 efs 28800 non-null float64 59 efs_time 28800 non-null float642 نقاط
-
عندما أستخدم TypeScript مع أي مكتبات يتجاوب محرر VS Code بالكود بشكل فعال جدا. يعطي ال hints عند استخدام المتغيرات أو عند وضع نقطة يظهر جميع مكونات ال class. وحتى عند كتابة اسم أي function أو class أو متغير حتى ولو لم يكن له import في الملف يظهر مكانه ويعمل له import اوتوماتوكيا. في python كان هنالك pylint و black لتسهيل عملية ال hinting و ال linting و ال formating. وقد ظهر حديثا شيء مثل ال Ruff شيء جميل جدا. لكن ال hinting لا يشتغل كما هو مع ال TypeScript. أعني مثلا عند كتابة اسم class معين... مثلا عند django أذا كتبنا دالة path من غير ان يكون معمول لي import لا يظهر المحرر مكانه ك hint. يضطر المبرمج أن يدخله يدويا، أعرف أن الأدوات مثل Ruff أو pylint يتيح مثلا أذا عملنا ctrl + . يظهر hint أن يدخل الدالة اوتوماتيكيا. لكن مقارنة لل TypeScript لا يعجبني الأمر. وحتى في typeScript عندنا شيء مثل alias ليسهل عملية ال import مثلا باستخدام @/auth/login أما في python لم أجد هذه المرونة. وكمبرمج كسول لا أتقبل هذا. إذن ما هو ما هو أفضل حل لكي يتجاوب المحرر VS Code ويعطي ال hints لل python applications؟2 نقاط
-
السلام عليكم هو عندي تحول الاعمد الفئوي باستخدم الLabelEncoder هل فيه مشكله لو بيانات نوعها flaot مش int عند تدريب النموذج ؟1 نقطة
-
يوجد قيم مفقودة في البيانات، لديك، فالأرقام في Non-Null Count، تعني عدد الصفوف التي تحتوي على بيانات غير فارغة لكل عمود. والعمود ID مثلًا يحتوي على 28800 قيمة (عدد الصفوط الكلي في البيانات)، أي لا توجد قيم مفقودة فيه، وعمود tce_match يحتوي على 9804 قيمة فقط، أي %65.9 من البيانات مفقودة هنا (28800 - 9804 = 18996 قيمة فارغة). بالتالي يوجد أخطاء في جمع البيانات مثل عدم تسجيل بعض الحقول، أو عدم انطباق البيانات لأنّ بعض الحقول أحيانًا غير ذات صلة لحالات معينة، أو بسبب خصوصيات في المجال الطبي حيث لا تُقاس بعض المؤشرات لجميع المرضى.1 نقطة
-
1 نقطة
-
وعليكم السلام ورحمة الله وبركاته. السبب هو في أن بعض الأعمدة تحتوي على قيم ناقصة (NaN) أو بيانات مفقودة . حيث أن الأعمدة التي تحتوي على عدد أقل من28800 هذا يعني أن تلك الأعمدة تحوي قيم فارغة. وإذا قمت بالذهاب إلى التوثيق الرسمي سيخبرك أن الدالة info تقوم بإرجاع القيم non-null : https://pandas.pydata.org/docs/reference/api/pandas.DataFrame.info.html#:~:text=dtype and columns%2C-,non-null values,-and memory usage1 نقطة
-
تقنية MICE تعمل بشكل أفضل مع البيانات الرقمية، وذلك لاستخدام العلاقات الإحصائية بين المتغيرات لملء القيم المفقودة، أما البيانات الفئوية Categorical فتستطيع التعامل معها ولكنها تتطلب بعض المعالجة المسبقة، مثل تحويلها إلى أرقام باستخدام الترميز Encoding. وسيتم استبدال القيم الفارغة Null بالقيم الجديدة، لأنّ MICE تقوم بملء الفراغات، فالهدف الرئيسي لها هو ملء القيم المفقودة في مجموعة البيانات الأصلية، ولا تقوم بإنشاء نسخ جديدة كاملة من البيانات، بل تحديث القيم المفقودة في البيانات الأصلية حسب التقديرات التي تم الحصول عليها من خلال العملية التكرارية.1 نقطة
-
1 نقطة
-
لتجنب أخطاء LabelEncoder، حيث LabelEncoder من مكتبة scikit-learn لا يدعم التعامل مع القيم الفارغة (NaN) بشكل مباشر، فهو مصمم ليعمل مع فئات محددة مثل ye','no، لكن NaN ليست فئة، بل هي قيمة مفقودة. فكرة الحل استبدال NaN بقيمة مؤقتة مثل 'missing' قبل التشفير، وتُعامل كفئة Category جديدة أثناء التشفير، وبعد التشفير، نستبدل القيمة المؤقتة بـ NaN مرة أخرى.1 نقطة
-
الف شكرااا جدا جدا لحضراتكم جزاكم الله كل خير1 نقطة
-
الحل الأفضل هو أخذ نسخة احتياطية من البيانات الفارغة أولا . ومن ثم تحويلها إلى قيمة ليست فارغة بعد ذلك يمكننا إستخدام LabelEncoder . وأخيرا نقوم بإعادة البيانات الفارغة من النسخة الإحتياطية ووضعها في البيانات التي لدينا : import pandas as pd import numpy as np from sklearn.preprocessing import LabelEncoder data = pd.DataFrame({ 'A': ['yes', 'yes', np.nan, 'no', 'no'], 'B': [np.nan, 'no', 'no', 'no', 'no'], 'C': ['no', 'yes', 'yes', np.nan, 'yes'] }) le = LabelEncoder() for column in data.columns: nan_values = data[column].isna() temp_data = data[column].fillna('data_temp') data[column] = le.fit_transform(temp_data) data[column][nan_values] = np.nan print(data)1 نقطة
-
تقصد تحويل البيانات باستخدام LabelEncoder مع الحفاظ على قيم NaN دون تغيير، عليك إذن استبدال القيم NaN بقيمة مؤقتة قبل التشفير لتجنب أخطاء LabelEncoder وتطبيقه على كل عمود، ثم إعادة استبدال القيمة المؤقتة بـ NaN بعد التشفير. import pandas as pd import numpy as np from sklearn.preprocessing import LabelEncoder data = pd.DataFrame({ 'A': ['yes', 'yes', np.nan, 'no', 'no'], 'B': [np.nan, 'no', 'no', 'no', 'no'], 'C': ['no', 'yes', 'yes', np.nan, 'yes'] }) data_encoded = data.copy() for col in data_encoded.columns: mask = data_encoded[col].isna() temp_data = data_encoded[col].fillna('missing') le = LabelEncoder() encoded_data = le.fit_transform(temp_data) encoded_data = encoded_data.astype(float) encoded_data[mask] = np.nan data_encoded[col] = encoded_data print(data_encoded) وستحصل على: A B C 0 2.0 NaN 1.0 1 2.0 1.0 2.0 2 NaN 1.0 2.0 3 1.0 1.0 NaN 4 1.0 1.0 2.0 لاحظ لو العمود لا يحتوي على NaN، سيتم ترميزه بشكل طبيعي، أيضًا القيم المشفرة ستكون أرقامًا صحيحة (مثل 0, 1, ...)، بينما تظل NaN كما هي.1 نقطة
-
السلام عليكم انا عندي موقع https://tailoruniforms.net/ كيف اخلي عند البحث كلمات محددة يظهر؟1 نقطة
-
ستحتاج إلى إضافة موقعك إلى Google Search Console ثم طلب عمل أرشفة للموقع index، لكن قبل ذلك ستحتاج إلى تجهيز موقعك ليتوافق مع معايير الـ SEO وخاصًة الـ Technical SEO. وللظهور على كلمات معينة الأمر بحاجة إلى إنشاء محتوى قوي وأيضًا إنشاء روابط خلفية backlinks في حال كان هناك تنافس قوي على تلك الكلمات. والـ SEO بحاجة إلى نفس طويل، فالأمر لن يحدث بين ليلة وضحاها، هناك آلاف الموقع تتنافس على الظهور، لذا يجب اكتساب ثقة جوجل واستحقاق التواجد في المراكز العشر الأولى.1 نقطة
-
يوجد حاليا ضغط على مركز المساعدة لهذا من الممكن ان يتأخر الرد قليلا. لذلك يرجي الانتظار وسيتم الرد عليك في اقرب وقت ان شاء الله.1 نقطة
-
1 نقطة
-
للتوضيح، التقنية بإختصار شديد، طريقة إحصائية ذكية لـ ملء الفراغات (القيم المفقودة) في مجموعة البيانات، عن طريق: تخمين القيم المفقودة بشكل متكرر باستخدام علاقات المتغيرات الأخرى. تكرار العملية عدة مرات لإنشاء عدة نسخ من البيانات المكتملة (لتقليل الخطأ). دمج النتائج من جميع النسخ للحصول على تقدير أدق للقيم المفقودة. وتتوفر في مكتبات مختلفة أولها مكتبة statsmodels تحتوي على دعم مُدمج لـ MICE عبر IterativeImputer. أو sklearn في إصدارات حديثة (≥0.24)، متوفر استخدام IterativeImputer من sklearn.impute. أو fancyimpute وهي مكتبة خارجية تُوَدِّع خوارزميات متقدمة للتعامل مع البيانات المفقودة، بما في ذلك MICE. مثلاً من خلال IterativeImputer من sklearn: import pandas as pd import numpy as np from sklearn.experimental import enable_iterative_imputer from sklearn.impute import IterativeImputer data = pd.DataFrame({ 'A': [1, 2, np.nan, 4, 5], 'B': [np.nan, 2, 3, 4, 5], 'C': [1, 2, 3, np.nan, 5] }) imputer = IterativeImputer( max_iter=10, random_state=42, initial_strategy='mean' ) imputed_data = imputer.fit_transform(data) imputed_df = pd.DataFrame(imputed_data, columns=data.columns) print(imputed_df) أو من خلال fancyimpute التي توفر خوارزميات متقدمة مثل Matrix Factorization وKNN وMICE، لكنها أبطأ مع البيانات الكبيرة. from fancyimpute import IterativeImputer imputer = IterativeImputer(n_imputations=5, max_iter=10) imputed_data = imputer.fit_transform(data) imputed_df = pd.DataFrame(imputed_data, columns=data.columns) print(imputed_df) بمعنى sklearn أسرع لكن بها دعم محدود للنماذج وهي أفضل للمجموعات الصغيرة، بينما fancyimpute تدعم نماذج معقدة لكن أبطأ بسبب اعتمادها على TensorFlow وليس دائمًا بسبب ذلك، بل بسبب التطبيقات الداخلية، وتتطلب موارد حاسوبية أعلى. عامًة sklearn مُفضَّلة في معظم الحالات من حيث السرعة والكفاءة بالنسبة للبيانات الصغيرة أو متوسطة الحجم أي أقل من ١٠٠ ألف عينة. أما fancyimpute لو أردت تجربة خوارزميات غير موجودة في sklearn (مثل MatrixFactorization)، أو بحاجة إلى خيارات متقدمة للبيانات المعقدة مثل الصور أو النصوص.1 نقطة
-
ما تقصده هو Data mining وذلك ليس متاح في الدورة بشكل مباشر لكن ما ستتعلمه سيوفر لك أغلب ما تحتاجه للعلم ذلك، أيضًا سيتم شرح web scraping أي كشط الويب أو الزحف على مواقع الويب واستخراج البيانات. والتنقيب يعني اكتشاف أنماط مخفية أو علاقات غير واضحة في مجموعات بيانات كبيرة Big Data باستخدام خوارزميات متقدمة، ويُركّز على التنبؤ بالمستقبل، ويتم من خلال خوارزميات تعلم الآلة والذكاء الاصطناعي وأدوات متخصصة مثل Weka, RapidMiner، أو مكتبات مثل Scikit-Learn في Python. أما Data Analysis تحليل البيانات الغرض منه فهم البيانات الحالية واستخلاص رؤى لاتخاذ قرارات مدعومة بالبيانات. يركز على الإجابة على أسئلة محددة أو اختبار فرضيات مُسبقة، كتحليل مبيعات شركة لمعرفة أي المنتجات الأكثر رواجًا أي يُجيب على أسئلة محددة (ماضية/حالية)، وذلك من خلال أدوات تصور البيانات عبر الرسوم البيانية مثل Excel, Tableau, Power BI ومكتبات بايثون مثل Pandas, Matplotlib. والدورة تغطي المواضيع الأساسية: أساسيات بايثون وهي أساسية للعمل في مجال الذكاء الاصطناعي. جوانب مهمة في التعامل مع البيانات، مثل قواعد البيانات، SQL، APIs، واستخراج البيانات من الويب. أدوات تحليل البيانات مثل Pandas، Matplotlib، و Seaborn، بالإضافة إلى تحليل بيانات مختلفة مثل بيانات الطلاب، بيانات المتاجر الإلكترونية، و بيانات الحملات التسويقية. أساسيات تعلم الآلة، بما في ذلك الانحدار، التصنيف، التجميع، والترابط. أساسيات الشبكات العصبية، الشبكات العصبية التلافيفية، والشبكات العصبية التكرارية. والمواضيع المتقدمة: نماذج اللغة الكبيرة (LLMs) من خلال استخدام نماذج LLMs مثل GPT-3.5 Turbo، BERT، و Llama 2، بالإضافة إلى تخصيصها وصقلها. هندسة الموجهات (Prompt Engineering) وهي تقنية المهمة في التعامل مع نماذج LLMs. نماذج الرؤية الحاسوبية باستخدام مكتبة OpenCV، التعرف على نماذج الرؤية الحاسوبية، و استخدام نموذج YOLO. التعرف على الصور باستخدام الشبكات العصبية. شرح آلية نقل التعلم Transfer Learning وتطبيقاته في تصنيف الصور، التعرف على المشاعر، و تمثيل النصوص. من خلال تغطية ما سبق في الدورة ستتمكن من تعلم أساسيات مجال الذكاء الاصطناعي بشكل عميق. بعدها تستطيع تعلم تنقيب البيانات المتخصص والتوسع في تعلم خوارزميات أكثر تقدمًا مثل Apriori (لقواعد الارتباط)، وتقنيات تنظيف البيانات المعقدة، وأدوات مثل Weka أو RapidMiner المخصصة للتنقيب.1 نقطة
-
رابط المشروع غير صحيح فالمستودع غير موجود، هل هو Private؟ عامًة تأكد من تسجيل الـ ModelAdmin المخصص بشكل صحيح from django.contrib import admin from django.contrib.auth.models import User from .admin import CustomUserAdmin admin.site.unregister(User) admin.site.register(User, CustomUserAdmin) ومن وجود القالب custom_email_view.html في المسار الصحيح في templates/ admin/ custom_email_view.html1 نقطة
-
إذا كان لديك خبرة في البرمجة يمكنك استخدام HTML وCSS وJavaScript في الواجهة الأمامية، مع إطار عمل مثل React أو Vue.js إذا كنت تفضل واجهات تفاعلية، كما يمكنك استخدام مكتبات CSS مثل TailwindCSS أو Bootstrap لتسهيل تصميم الواجهة. أما بالنسبة للباك-إند، Django خيار قوي حيث يمكنك الاستفادة من Django REST Framework لبناء واجهة برمجية إذا أردت فصل الباك-إند عن الفرونت-إند، و تحتاج أيضا إلى قاعدة بيانات قوية مثل PostgreSQL لإدارة المنتجات والمبيعات والعملاء. يعني للبدأ بطريقة صحيحة حدد أولا نطاق المشروع والمتطلبات، ثم قم بتقسيم العمل إلى مراحل، و وضع المشروع في نظام تحكم بالإصدارات مثل Git مع رفعه على GitHub.1 نقطة
-
إذا لم تكن لديك خلفية عن البرمجة مسبقا فالأمر سيكون صعب بالنسبة لك في بدء مشروع مكتمل مباشرة . وأيضا أنت تريد فصل المشروع إلى واجهة أمامية وواجهة خلفية. أما إذا كانت لديك خلفية مسبقة عن البرمجة فتوجد العديد من اللغات وأطر العمل . لذلك يرجى تحديد ما هي لغات البرمجة التي درستها . وهل تعاملت مع لغة جافاسكريبت في الواجهة الأمامية أو أى إطار عمل خاص بها سواء كان react أو vue أو angular ؟1 نقطة
-
لإنشاء متجر إلكتروني لبيع العطور يتضمن برمجة الواجهة الأمامية (Frontend) والواجهة الخلفية (Backend)، يمكنك استخدام الأدوات والتقنيات التالية: الأدوات والتقنيات المطلوبة: 1. واجهة المستخدم (Frontend): - HTML/CSS: لبناء وتصميم الصفحات. - JavaScript: لإضافة التفاعلات والوظائف الديناميكية. - Frameworks: مثل React.js أو Vue.js لتسهيل تطوير الواجهة الأمامية. 2. واجهة الخادم (Backend): - Node.js: لتشغيل جافا سكريبت على الخادم. - Express.js: إطار عمل لتطوير واجهة الخادم. - Database: مثل MongoDB أو MySQL لتخزين بيانات المنتجات والعملاء. 3. موقع الويب: يمكنك استخدام منصات مثل Shopify، WooCommerce (انصحك بها إن لم تكن على دراية بتطوير البرمجيات)، أو بناء موقع مخصص باستخدام الأدوات المذكورة أعلاه. وهذه المنصات توفر عليك كل من: الخطوات الأساسية: 1. تحديد العطور والمنتجات: اختر العطور التي تريد بيعها وتأكد من جودتها. 2. إنشاء موقع الويب: - الواجهة الأمامية (Frontend): تصميم الصفحات وإضافة التفاعلات باستخدام HTML، CSS، JavaScript، وReact.js أو Vue.js. - الواجهة الخلفية (Backend): تطوير واجهة الخادم باستخدام Node.js وExpress.js وربطها بقاعدة البيانات. 3. إضافة المنتجات: قم بتسجيل المنتجات في متجرك مع صور ووصف لكل منتج.1 نقطة