Adam Ebrahim نشر 14 يونيو 2021 أرسل تقرير نشر 14 يونيو 2021 لدي ملفات قمت بكتابته من خلال سحب البيانات من الإنترنت web scraping وحجمه 1GB، كيف أقوم بقراءة هذا الملف جزء بجزء بطريقة chunk؟ هل يمكن إستخدام lazy method للقيام بهذا الأمر؟ اقتباس
2 عبدالله عبدالرحمن11 نشر 14 يونيو 2021 أرسل تقرير نشر 14 يونيو 2021 يمكنك إستخدام هذا الكود url="https://raw.githubusercontent.com/selva86/datasets/master/BostonHousing.csv" # رابط الملف response = requests.get(url, stream = True) text_file = open("data.txt","wb") # إنشاء الملف المحلي for chunk in response.iter_content(chunk_size=1024): text_file.write(chunk) #كتابة جزء في الملف حتى إكمال الملف text_file.close() # إغلاق الملف 1 اقتباس
0 عبدالباسط ابراهيم نشر 14 يونيو 2021 أرسل تقرير نشر 14 يونيو 2021 (معدل) يمكنك عمل ذلك من خلال استخدام yield كالتالي def read_in_chunks(file_object, chunk_size=1024): while True: data = file_object.read(chunk_size)#يمكننا تحديد الحجم المطلوب قرائته chunk_size باستخدام المعامل if not data: break yield data with open('really_big_file.dat') as f: for piece in read_in_chunks(f): process_data(piece) تقوم yield بإكمال العمل بدلاً من البداية من الصفر فلن تقوم بقراءة الملف من البداية بل تكمل من حيث توقفت تم التعديل في 16 يونيو 2021 بواسطة عبدالباسط ابراهيم إضافة بعض المعلومات 1 اقتباس
السؤال
Adam Ebrahim
لدي ملفات قمت بكتابته من خلال سحب البيانات من الإنترنت web scraping وحجمه 1GB، كيف أقوم بقراءة هذا الملف جزء بجزء بطريقة chunk؟
هل يمكن إستخدام lazy method للقيام بهذا الأمر؟
2 أجوبة على هذا السؤال
Recommended Posts
انضم إلى النقاش
يمكنك أن تنشر الآن وتسجل لاحقًا. إذا كان لديك حساب، فسجل الدخول الآن لتنشر باسم حسابك.