لوحة المتصدرين
المحتوى الأكثر حصولًا على سمعة جيدة
المحتوى الأعلى تقييمًا في 11/10/24 في كل الموقع
-
السلام عليكم هو ممكن باستخدم خورزميات تعلم الاله ان اصنف الصور او اتعرف علي الوجه الا بستخدم التعلم العميق فقط باستخدم الشبكه العصبيه CNNs؟3 نقاط
-
السلام عليكم انا عاوز اعرف لو فيه علاقه مابين عمودين في قاعد بيانات فا اي الرسم البياني الافضل لمهمه دي ؟2 نقاط
-
السلام عليكم هل فيه فرق مابين الmean الموجود في pandas وبين الaverage الموجود في numpy ؟2 نقاط
-
السلام عليكم هلي فيه وظائف في باثيون لمعالجه التحيز ؟ زي في لغه R في وظائف bais انا اقصد التحيز في البيانات2 نقاط
-
You are required to write an Assembly program that asks the user to input a string with at least 10 characters. Then, your program should ask the user to select one of the following options: 1. Convert all the characters to lower case. In this case the user should click “s”. 2. Convert all the characters to upper case. In this case the user should click “a”. 3. Print the string in the center of the page. In this case, the user should click “c”. 4. Print the string in the upper left corner of the page. In this case, the user should click “ul” 5. Print the string in the upper right corner of the page. In this case, the user should click “ur” 6. Print the string in the lower left corner of the page. In this case, the user should click “ll” 7. Print the string in the lower right corner of the page. In this case, the user should click “lr” 8. Replace all the numeric values in the string with X. In this case, the user should click “x”. 9. Terminate the program. In this case the user should click “ESC”1 نقطة
-
لا يوجد فرق جوهري كلاهما يحسبان المتوسط الحسابي لمجموعة من البيانات. mean في Pandas مصممة خصيصًا للعمل مع DataFrames و Series وتستطيع استخدامها لحساب المتوسط لعمود معين في DataFrame أو لسلسلة كاملة. وستجد أنها تعالج قيم NaN بتجهالها وأيضًا تستطيع تحديد الـ axis بها. import pandas as pd data = {'A': [1, 2, 3, 4], 'B': [5, 6, 7, 8]} df = pd.DataFrame(data) mean_A = df['A'].mean() print(f"Mean of column 'A': {mean_A}") mean_all = df.mean() print(f"Mean of all columns: {mean_all}") و average في NumPy مصممة للعمل مع Arrays لحساب المتوسط لجميع العناصر في Array أو لجزء معين منه. ولا تعالج قيم NaN بشكل إفتراضي، ولا تستطيع بها استخدام الـ axis . import numpy as np arr = np.array([1, 2, 3, 4, 5]) average_all = np.average(arr) print(f"Mean of all elements: {average_all}") average_part = np.average(arr[1:3]) print(f"Mean of elements from 1 to 3: {average_part}")1 نقطة
-
كلا الدالتين تؤديان نفس الوظيفة تقريبا، وهي حساب المتوسط الحسابي لمجموعة من القيم، بالسنبة للدالة التي في Pandas، فنستخدمها بشكل أساسي مع DataFrames وSeries، وتتيح تطبيق المتوسط على البيانات بسهولة، خاصة مع القدرة على تجاهل القيم المفقودة بشكل افتراضي. أما الدالة التي في NumPy لديها مرونة إضافية مثل أخذ أوزان في الاعتبار لحساب المتوسط المرجح، و إذا لم يتم توفير أوزان، فإن average ستعيد المتوسط الحسابي العادي وهو نفس الناتج لو استخدمت np.mean.1 نقطة
-
يا ريت لو تربط المفاهيم العربية بالانجليزية , ما معنى مصفوفة خطية ، المصتدر معظمها انجليزي وصعب جدا الربط بين ما تقول و بين المصادر الاخرى1 نقطة
-
CNNs حققت أداء متطور في مهام تصنيف الصور والتعرف على الوجه، لكن هناك سيناريوهات تصبح فيها الخوارزميات البديلة أكثر ملاءمة ففي حال كمية بيانات التدريب محدودة، تصبح أكثر فعالية من نماذج التعلم العميق، التي تتطلب كميات كبيرة من البيانات للتدريب. أيضًا في حال توافر موارد الحوسبة محدودة، فهي أكثر كفاءة من حيث الحوسبة من نماذج التعلم العميق، التي تتطلب موارد حوسبة كبيرة للتدريب. وتلك الخوارزميات هي آلات الدعم المتجه SVMs لتصنيف الصور من خلال استخراج الميزات من الصور باستخدام تقنيات مثل SIFT أو SURF أو ORB، ثم تدريب نموذج SVM على هذه الميزات. والـ Random Forests لتصنيف الصور من خلال استخراج الميزات من الصور باستخدام تقنيات مثل تحليل الملمس أو هيستوجرامات الألوان أو تحليل الشكل، ثم تدريب نموذج الغابة العشوائية على هذه الميزات. يوجد أيضًا K-Nearest Neighbors (KNN) و Decision Trees. بالنسبة للوجوده فيوجد Eigenfaces وFisherfaces وLocal Binary Patterns (LBP) وGabor Wavelets.1 نقطة
-
يمكنك استخدام خوارزميات التعلم الآلي التقليدية لتصنيف الصور والتعرف على الوجوه، وليس فقط التعلم العميق والشبكات العصبية CNN فهي تستخدم طرق التعلم الآلي التقليدية لتصنيف الصور مثل دعم الآلات المتجهة (SVM) التي تعتمد على استخراج الخصائص اليدوية ك SIFT أو HOG، مما يجعلها مناسبة للمجموعات البيانية الصغيرة نسبيا وتحقق أداء جيدا مع الصور البسيطة أما طريقة الجار الأقرب (k-NN)، فهي تعتمد على المقارنة المباشرة بين الصور، مما يجعلها بسيطة وسهلة التنفيذ وفعالة مع المجموعات الصغيرة ومن الأساليب المستخدمة أيضا للتعرف على الوجوه، تقنية Eigenfaces التي تعتمد على تحليل المكونات الرئيسية (PCA) وتعمل جيدا في ظروف إضاءة ووضعية ثابتة، بالإضافة إلى الأنماط الثنائية المحلية (LBP) التي تتيح استخراج خصائص النسيج وتعد فعالة مع مصنفات ك SVM ورغم فعالية هذه الطرق التقليدية، إلا أن الشبكات العصبية التلافيفية (CNNs) أصبحت الخيار الأمثل نظرا لدقتها العالية وقدرتها على التعامل مع الصور المعقدة والتغيرات في الإضاءة والزوايا، خاصة مع المجموعات البيانية الكبيرة.1 نقطة
-
نعم يمكنك ذلك ولكن الأداء في معظم الأحيان سيكون أقل من أداء خوارزميات التعلم العميق، خصوصا الشبكات العصبية التلافيفية CNNs التي تعتبر حاليا الأفضل لمهام معالجة الصور والتعرف على الوجه، في الماضي قبل ظهور الشبكات العصبية التلافيفية، تم استخدام طرق كاستخراج الميزات مثل الألوان، القوام، الأشكال، والحواف باستخدام تقنيات مثل SIFT و SURF، و بعد استخراج الميزات، يمكن استخدام خوارزميات كشجرة القرار، أو K-Nearest Neighbors للتصنيف. أما الشبكات العصبية التلافيفية نستخدمها في الحالات التي يكون فيها حجم البيانات كبيرا وتتطلب الدقة العالية، حيث تكون الشبكات العصبية التلافيفية هي الخيار الأمثل لأنها تستطيع تعلم ميزات معقدة تلقائيا دون الحاجة لاستخراج الميزات يدويا.1 نقطة
-
وعليكم السلام، توجد العديد من المكتبات والأدوات في بايثون التي تستخدم لمعالجة التحيز في البيانات وعلى الرغم من عدم وجود دالة واحدة ك bais في R إلا أن بايثون توفر خيارات أكثر مرونة وقوة فمثلا يمكن معالجة البيانات المفقودة التي يمكن أن تسبب تحيزا باستخدام مكتبات مثل pandas و scikit-learn لمعالجة القيم المفقودة وهي التي تتضمن الطرق الشائعة الاستبدال بالقيمة المتوسطة أو الوسيط، أو استخدام تقنيات أكثر تعقيدا مثل IterativeImputer في scikit-learn وإذا كانت البيانات غير متوازنة مثلا نجد فئة واحدة أكثر تمثيلا من الأخرى يمكنك استخدام تقنيات إعادة التشكيل Resampling إمثل SMOTE لزيادة تمثيل الفئات الأقل أو RandomUnderSampler لتقليل تمثيل الفئات الأكثر كما تتوفر هذه التقنيات في مكتبة imbalanced-learn بطبيعة الحال. والكثير الكثير موجود لكن باختصار لا توجد دالة واحدة سحرية في بايثون لمعالجة التحيز لأن الأمر يتطلب فهما جيدا للبيانات واستخدام مجموعة من التقنيات والأساليب من بينها ما ذكرناه فكل نوع من التحيز له قصة وأسلوب لمعالجته.1 نقطة
-
إذا كنت تقوم بتحليلات إحصائية أو تستخدم مكتبات للتصور البياني مثل Seaborn وMatplotlib، فإن البيانات الطويلة تكون غالبا الأنسب حيث تكون كل ملاحظة في صف مستقل، مما يسهل تطبيق العمليات الإحصائية والرسومات البيانية وهذا الشكل يجعل من السهل التعامل مع كل حالة بشكل فردي وتطبيق الفلاتر والشرط عليها. ومن ناحية أخرى قد تحتاج إلى تحويل البيانات إلى صيغة واسعة عندما ترغب في تقديمها في تقارير أو جداول، حيث يكون من الأسهل فهمها وقراءتها فالبيانات الواسعة تسهل أيضا بعض أنواع النمذجة التي تتطلب أن تكون كل ميزة في عمود منفصل، مما يسمح بإجراء مقارنات مباشرة بين المتغيرات المختلفة يمكنك تنفيذ هذه التحويلات بسهولة باستخدام مكتبة Pandas في Python وتستخدم melt() لجعل البيانات طويلة، بينما تستخدم pivot() أو pivot_table() لجعل البيانات واسعة، وفقًا لما تحتاجه من العمليات أو العرض.1 نقطة
-
ماهو البرنامج او الطريقة الأفضل لتدريب نموذج على معلومات معين ، اريد بناء ذكاء اصطناعي يساعد الطلاب على الدراسة ، هل استخدم lang chain(لست متاكد من الاملاء) ، أو هنالك تطبيقات افضل ، وهل الافضل صنع نموذج صغير لكل درس مثلا ام نموذج كبير؟1 نقطة
-
نعم توجد مكتبات تساعدك على معالجة التحيز في البيانات، وتعد هذه الأدوات شائعة في مجالات تحليل البيانات وتعلم الآلة أشهرها مكتبة scikit-learn التي تحتوي على العديد من الأدوات والإجراءات المساعدة في معالجة التحيز، مثل تقنيات أخذ العينات المتوازنة أو بما تسمى balanced sampling لتحسين التوازن في التصنيفات، ويمكنك استخدام أدوات مثل SMOTE لموازنة البيانات غير المتوازنة. و توجد أيضا مكتبة imbalanced-learn هي مكتبة متخصصة لمعالجة مشكلة البيانات غير المتوازنة، والتي قد تكون مفيدة جدا إذا كان لديك تحيز في التصنيف، و كحل يدوي يمكنك أيضا استخدام مكتبات مثل Pandas وNumPy للتحليل الأولي للبيانات وفهم مصادر التحيز، فمثلا يمكنك إجراء تحليلات استكشافية لمعرفة ما إذا كانت هناك مجموعات معينة ممثلة بشكل غير متساو، أو إذا كانت المتغيرات تظهر تحيزات معينة. و حتى تحليل البيانات الاستكشافي هو خطوة أساسية باستخدام أدوات مثل matplotlib وseaborn، حيث يمكنك اكتشاف التحيزات المحتملة في البيانات بصريا من خلال الرسومات البيانية.1 نقطة
-
يعتمد هذا الأمر على طبيعة التحليل الذي تريد القيام به ونوع النموذج الإحصائي أو الرسوم البيانية التي ترغب في استخدامها، فبعض النماذج مثل التحليل التبايني المتعدد أو التحليل الخطي المختلط، تتطلب أن تكون البيانات في شكل طويل، و حتى مكتبات مثل Seaborn و Matplotlib تتعامل بشكل أفضل مع البيانات الطويلة، حيث يمكن تمثيل الفئات المختلفة بسلاسة، و إذا كانت لديك بيانات زمنية أو بيانات تراقب تغييرات لفترات زمنية متعددة، يكون الشكل الطويل مفيدا، حيث يتم تمثيل كل فترة كصف مستقل. في المقابل يفضل الشكل الواسع في حالة كان لديك تحليل متعدد المتغيرات، حيث أن بعض النماذج تتعامل مع البيانات الواسعة، خاصة عند مقارنة متغيرات متعددة عبر عينات متشابهة، أو إذا كنت ترغب في حساب مصفوفة ارتباط بين عدة متغيرات، فإن الشكل الواسع يسهل العمل. وللتحويل بين الشكلين يمكنك استخدام مكتبة pandas باستخدام دوال مثل melt للتحويل من الشكل الواسع إلى الطويل، أو pivot للتحويل من الطويل إلى الواسع.1 نقطة