لوحة المتصدرين
المحتوى الأكثر حصولًا على سمعة جيدة
المحتوى الأعلى تقييمًا في 10/02/24 في كل الموقع
-
1 نقطة
-
السلام عليكم انا عمل بيئه افترضيه باصدر python 3.12.3 ولكن انا مسحت الاصدر ده عشان اثبيت احداث اصدر وهو python 3.12.7 فا ازي احدث البيه الافترضيه لحدث اصدر من بايثون ؟ اي ده انا لم ثبيت احدث اصدر من باثيون فا برد البيئه هي كمان اتحديثات1 نقطة
-
نعم مكتبة venv سيتم تحديثها وحين إنشاء أي بيئة إفتراضية جديدة سيتم إنشاءها بالإصدار الجديد. أما البيئات القديمة فلن يتم تحديثها تلقائيا سوى بالخطوات التي ذكرتها لك1 نقطة
-
تمام جدا ولكن حضرتك ان لم ثبيت احداث اصدر من باثيون فا البيئه هي كمان اتحديث دون اي تدخل مني؟1 نقطة
-
وعليكم السلام ورحمة الله وبركاته. توجد طريقتين : أولا يجب عليك تفعيل البيئة الإفتراضية وبعد ذلك يمكنك تنفيذ الأمر التالي : python -m venv --upgrade اسم البيئة الإفتراضية ويمكنك وضع إسم البيئة الإفتراضية لديك في الأمر السابق.ولكن من الممكن أن هذا الأمر يسبب مشكلة ولن يعمل بسبب الحزم. والحل الثاني هو : أولا يجب تفعيل البيئة الإفتراضية . بعد ذلك لحفظ المكتبات التي تم تثبيتها في البيئة في ملف . يمكنك تنفيذ الأمر التالي : python -m pip freeze > requirements.txt بعد ذلك يجب حذف مجلد البيئة الإفتراضية . وإنشاء بيئة جديدة وتفعليها . بعد ذلك لتحميل المكتبات من جديد عن طريق الأمر التالي : python -m pip install -r requirements.txt1 نقطة
-
السلام عليكم هو ازي اعمل CV خاص بمحال البرمجه ؟ وانا انا لسه يعني بعمل مشاريع السه متبندي يعني فا هل اهعمل والا الا ؟1 نقطة
-
مدري البرنامج راح في اي ملف تعقبت كل الملفات الممكنة بس ما وجدت مفسر بايثون - هذا لاني حوالي اسبوعين في تهيئة بيئة العمل1 نقطة
-
في الكود التالي، قام بتشفير القيم التصنيفية وملء القيم المفقودة بشكل يدوي دون استخدام مكتبة scikit-learn: def preprocess_data(df): """ Performs transformations on df and returns transformed df. """ df["saleYear"] = df.saledate.dt.year df["saleMonth"] = df.saledate.dt.month df["saleDay"] = df.saledate.dt.day df["saleDayOfWeek"] = df.saledate.dt.dayofweek df["saleDayOfYear"] = df.saledate.dt.dayofyear df.drop("saledate", axis=1, inplace=True) # Fill the numeric rows with median for label, content in df.items(): if pd.api.types.is_numeric_dtype(content): if pd.isnull(content).sum(): # Add a binary column which tells us if the data was missing or not df[label+"_is_missing"] = pd.isnull(content) # Fill missing numeric values with median df[label] = content.fillna(content.median()) # Fill categorical missing data and turn categories into numbers if not pd.api.types.is_numeric_dtype(content): df[label+"_is_missing"] = pd.isnull(content) # Add +1 to category codes to avoid -1 for missing categories df[label] = pd.Categorical(content).codes+1 return df متى يجب عليّ استخدام هذه الطريقة اليدوية لتشفير القيم وملء القيم المفقودة؟ ومتى يكون من الأفضل استخدام مكتبة scikit-learn، مثل استخدام دالة SimpleImputer لملء القيم المفقودة و OneHotEncoder لتشفير القيم التصنيفية؟ أيضًا، متى يجب تقسيم البيانات قبل القيام بعمليات المعالجة المسبقة (مثل التشفير وملء القيم المفقودة)؟ ومتى يكون من المناسب معالجة البيانات كاملة كما في المثال أعلاه؟ مثال باستخدام scikit-learn: from sklearn.model_selection import train_test_split from sklearn.impute import SimpleImputer from sklearn.preprocessing import OneHotEncoder from sklearn.compose import ColumnTransformer from sklearn.pipeline import Pipeline # Split data X_train, X_test, y_train, y_test = train_test_split(df.drop("target", axis=1), df["target"], test_size=0.2) # Define preprocessing pipeline numeric_features = ['age', 'income'] categorical_features = ['gender'] numeric_transformer = SimpleImputer(strategy='median') categorical_transformer = Pipeline(steps=[ ('imputer', SimpleImputer(strategy='most_frequent')), ('onehot', OneHotEncoder(handle_unknown='ignore')) ]) # Combine both transformers preprocessor = ColumnTransformer( transformers=[ ('num', numeric_transformer, numeric_features), ('cat', categorical_transformer, categorical_features) ]) # Apply the transformations on training and testing sets X_train_transformed = preprocessor.fit_transform(X_train) X_test_transformed = preprocessor.transform(X_test)1 نقطة
-
بالتأكيد يمكنك إنشاء سيرة ذاتية حتى لو كنت ما زلت تعمل على مشاريع بسيطة. و مع الوقت يمكنك تحسين وتطوير السيرة الذاتية وإضاقة المشاريع التي تقوم بها. ولكن حالياً يفضل التركيز على التطبيق العملي وإنشاء مشاريع تظهر المهارات التي تملكها بشكل جيد .وبالنسبة لكيفية عمل سيرة ذاتية فيمكنك الإطلاع على الإجابات التالية لتوضيح المعلومات التي يجب توافرها1 نقطة
-
ستحتاج إلى بناء معرض أعمال يثبت مهاراتك فكتابة تلك المهارات في الـ CV لا يعني أي شيء، يجب وجود مشاريع ذات جودة جيدة تثبت أنك قادر على تنفيذ المطلوب وأنك متمكن من المهارات والأدوات التي كتبتها في الـ CV. ولا أقصد بالمشاريع النماذج البسيطة التي تتدرب عليها أثناء التعلم، بل مشاريع كاملة قريبة من الواقع العملي. بعد ذلك تستطيع كتابة الـ CV، وستجد تفصيل هنا:1 نقطة
-
ذلك متاح فقط لجامعات أمريكا وليس لجميع الدول وأيضًا أن تكون في الثانية الأولى أو الثانية بجامعة لها علاقة بمجال البرمجة أو علوم الحاسوب، ستجد تفصيل هنا: https://buildyourfuture.withgoogle.com/#eligibility-requirements1 نقطة
-
الطريقة اليدوية مناسبة في حال لديك مجموعة بيانات صغيرة وسهلة الفهم، وتسمح لك بفهم كل خطوة بشكل دقيق جداً في كيفية معالجة البيانات المفقودة أو تشفير المتغيرات التصنيفية (مثلاً، استخدام متوسط بدلاً من الوسيط، أو طريقة تشفير معينة). أيضًا في البداية عندما تتعلم كيفية معالجة البيانات، فكتابة الكود يدوياً يساعدك على فهم العملية بشكل أفضل. ومع زيادة حجم البيانات وتعقيدها، تصبح مكتبات مثل scikit-learn ضرورية، حيث توفر وظائف فعالة وقوية لمعالجة البيانات بكفاءة عالية، وتسهل إعادة استخدام الكود، من خلال إنشاء خطوط أنابيب (Pipelines) قابلة لإعادة الاستخدام في مشاريع أخرى، فالوظائف في scikit-learn مُحسّنة للأداء، خاصةً مع البيانات الكبيرة. وبخصوص تقسيم البيانات، فالأفضل تقسيمها إلى مجموعات تدريب واختبار قبل المعالجة المسبقة في معظم الحالات، وذلك لتجنب تسريب المعلومات من مجموعة الاختبار إلى مجموعة التدريب، ولو قمت بمعالجة البيانات كاملةً ثم قمت بالتقسيم، فقد تستخدم معلومات من مجموعة الاختبار لحساب الإحصائيات (مثل الوسيط أو القيمة الأكثر شيوعاً) المستخدمة في معالجة البيانات المفقودة، الأمر الذي يؤدي إلى تقدير غير دقيق لأداء النموذج على بيانات جديدة. وباستطاعتك معالجة البيانات كاملًة في حال البيانات قليلة جداً بحيث لا يكون تقسيمها منطقياً او في المراحل الأولية من تحليل البيانات، لفهم خصائصها العامة. لكن النتائج التي تحصل عليها في تلك الحالة أحيانًا تكون غير دقيقة. وبعض أنواع المعالجة المسبقة، مثل تحويل البيانات إلى قيم z-score، يمكن تطبيقها على كامل البيانات دون مشكلة تسريب المعلومات.1 نقطة
-
1 نقطة
-
انا بس مش فهم الجزي ده انا اقعد في مصر يعني انا عاوز اشرك فا كده هينفع والا اي ؟1 نقطة
-
المسارات التالية تعتمد بشكل ما على المفاهيم في هذا المسار، فقد تجد صعوبة في متابعتها بدون فهم جيد لهذا المسار. حيث تتعلم في هذا المسار التعامل مع نماذج الذكاء الاصطناعي الكبيرة مثل ChatGPT ونموذج LLaMA و BERT، مع أمثلة عملية عن استخدامها. وبالتالي هذه الأساسيات تجعل تعلمك للمسارات التالية أسهل نوعاً ما . ومع ذلك لا يؤثر تخطي المسار بشكل كبير على المسارات التالية مثل "التعامل مع البيانات" و"تحليل البيانات"، لأن هذه المسارات تعتمد أكثر على مهارات تحليل البيانات والتعلم الآلي التي قد تكون منفصلة عن فهم نماذج اللغة الكبيرة. لذلك الافضل هو عدم تخطي هذا المسار ولكن إذا كان هناك سبب ما فيمكنك الدخول لمسارات مثل التعامل مع البيانات حالياً والرجوع لهذا المسار لاحقاً1 نقطة
-
مرحبا محمد، بطبيعة الحال، فإن جميع مسارات الدورة مهمة جدا، خصوصا المسارات التطبيقية منها. بالنسبة لمسار "تطبيقات عملية على النماذج النصية الكبيرة LLMs" في دورة الذكاء الصناعي في الأكاديمية، فهو مسار يركز بشكل خاص على مشاريع OpenAI وغيرها من النماذج النصية الكبيرة الرائجة في المجال. ستتعلم في هذا المسار كيفية التعامل مع هذه النماذج واستخدامها في تطبيقات عملية. فهم هذه الأمور ضروري لاستيعاب ما سيتم تناوله في المسارات اللاحقة. ننصحك بإكمال المسار لضمان فهم شامل للمادة.1 نقطة