Öhm, nein?
Es wird doch wohl einen Unterschied machen ob ich versuche 10.000 Einträge auf einen Schlag zu selektieren/verarbeiten oder ob ich mit einem Offset arbeite z.B. einer ID die ich bei der Abfrage mitnutze.
Wenn ich 10.000 Einträge über die Models, gemäß deiner Analyse verarbeite, kommt der o.g. Speicherverbrauch zustande.
Wenn ich jetzt hingegen in einem Durchlauf nicht 10.000 sondern nur 2000 verarbeite und 1 Minute später die nächsten 2000 (erneuter Aufruf) dann sollte hier vom 1. Aufruf nichts mehr im Speicher sein, oder irre ich mich da?
So kommt man vielleicht in Summe auf den gleichen Speicherverbrauch, aber nicht zur Laufzeit selbst und das macht den Unterschied.
Man schickt ja auch keine 10.000 E-Mails gleichzeitig raus bei einem Newsletter, sondern in kleinen "Häppchen" a 50 Stück .... vielleicht macht es dieser Vergleich besser deutlich.
Lesezeichen