Ich habe kürzlich die Wunder der Pakete bigmemory
, ff
und filehash
entdeckt, um sehr große Matrizen zu handhaben.
Wie kann ich mit sehr großen (300MB ++) Listen umgehen? In meiner Arbeit arbeite ich jeden Tag mit diesen Listen. Ich kann eine Pflasterlösung mit save()
& amp; load()
hackt überall, aber ich würde eine bigmemory
-artige Lösung bevorzugen. Etwas wie ein bigmemory
bigmatrix
wäre ideal, wo ich mit ihm im Grunde identisch zu einem matrix
arbeite, außer dass es etwas wie 660 Bytes in meinem RAM aufnimmt.
Diese Listen sind meistens >1000
-Längenlisten von lm()
-Objekten (oder ähnlichen Regressionsobjekten). Zum Beispiel
In meinem Projekt werde ich A,B,C,D,E,F
-Typ-Listen (und sogar mehr) haben, mit denen ich interaktiv arbeiten muss.
Wenn das gigantische Matrizen wären, gibt es eine Tonne Unterstützung. Ich habe mich gefragt, ob es in einem Paket ähnliche Unterstützung für große list
-Objekte gab.
Tags und Links memory r list memory-management filehash