large-files

Große Dateien, ob Binär- oder Textdateien, können manchmal sogar für einen erfahrenen Programmierer problematisch sein. Dieses Tag sollte verwendet werden, wenn Probleme beim Öffnen und / oder Schreiben großer Dateien in einem Texteditor, beim Verwalten von Ressourcen mit Gigabyte oder bei strategischen Entscheidungen für große Datenmengen auftreten.
1
Antwort

Den längsten gemeinsamen Teilstring in einem großen Datensatz finden

In den letzten Tagen habe ich das umfassend recherchiert, ich habe so viele Dinge gelesen, dass ich jetzt mehr verwirrt bin als je zuvor. Wie findet man die längste gemeinsame Sub-Zeichenfolge in einem großen Datensatz? Die Idee besteht darin, d...
17.11.2010, 20:34
1
Antwort

lade eine große Datei über 1 GB auf 2 GB mit Hilfe von jQuery File Upload - blueimp (Ajax-basiert) php / yii zeigt Fehler im Firefox Browser

Ich versuche eine große Datei über 1GB nach 2GB zu laden mit jQuery File Upload - blueimp (auf Ajax basierend) php / yii Framework 1.15 Ich habe diese Werte so eingestellt, dass sie eine größere Datei hochladen %Vor% Sitzungszei...
02.12.2015, 09:54
15
Antworten

Wie können Sie zwei riesige Dateien mit sehr wenig freiem Speicherplatz verketten? [geschlossen]

Angenommen, Sie haben zwei große Dateien (mehrere GB), die Sie verketten wollen, aber Sie haben sehr wenig freien Speicherplatz (sagen wir ein paar hundert MB). Das heißt, wenn Sie file1 und file2 angeben, möchten Sie mit einer einzelnen D...
14.11.2008, 16:43
8
Antworten

Schnellstmögliche XML-Behandlung in Delphi für sehr große Dokumente

Ich brauche Empfehlungen, was ich in Delphi verwenden soll (ich benutze Delphi 2009), um sehr große XML-Dateien (z. B. 100 MB) so schnell wie möglich zu verarbeiten. Ich muss das XML eingeben, auf die darin enthaltenen Daten zugreifen und sie...
05.11.2008, 00:41
3
Antworten

NumPy Datei mit Filterzeilen im laufenden Betrieb lesen

Ich habe eine große Anzahl von Zahlen in einer CSV-Datei geschrieben und muss nur eine Scheibe dieses Arrays laden. Konzeptionell möchte ich np.genfromtxt() aufrufen und dann das resultierende Array in Zeilen schneiden, aber Die Datei ist...
01.02.2013, 11:56
4
Antworten

Guter und effektiver CSV / TSV Reader für Java

Ich versuche, große CSV und TSV (Tab getrennt) Dateien mit ca. 1000000 Zeilen oder mehr zu lesen. Jetzt habe ich versucht, ein TSV mit ~2500000 Zeilen mit opencsv zu lesen, aber es wirft mir ein java.lang.NullPointerExceptio...
14.12.2012, 13:52
2
Antworten

numpy: effizientes Lesen eines großen Arrays

Ich habe eine Binärdatei, die eine dichte n*m -Matrix von 32-Bit-Schwimmern enthält. Was ist der effizienteste Weg, um es in ein Fortran-geordnetes numpy -Array zu lesen? Die Datei ist mehrere Gigabyte groß. Ich bekomme das Format zu ko...
06.12.2010, 11:36
1
Antwort

Speicher erschöpft: für große Dateien mit diff

Ich versuche, einen Patch mit zwei großen Ordnern (~ 7GB) zu erstellen. So mache ich es: $: # diff -Naurw. ../der andere Ordner & gt; file.patch Aber vielleicht wird aufgrund von Dateigrößen kein Patch erstellt und gibt einen Fehler:...
07.03.2013, 05:50
4
Antworten

Um eine große Datei in einem ZIP mit Java zu komprimieren

Ich muss eine große Datei (~ 450 Mbyte) durch die Java-Klasse ZipOutputStream komprimieren. Diese große Dimension verursacht ein Problem des "OutOfMemory" -Fehlers meines JVM Heap Space. Dies geschieht, weil die Methode "zos.write (...)" den ges...
20.11.2009, 14:28
6
Antworten

sed Optimierung (große Dateiänderung basierend auf kleineren Datensätzen)

Ich muss mich mit sehr großen Klartextdateien beschäftigen (über 10 Gigabyte, ja ich weiß, es kommt darauf an, was wir groß nennen sollten), mit sehr langen Zeilen. Meine letzte Aufgabe beinhaltet eine Zeilenbearbeitung basierend auf Daten au...
11.05.2009, 16:27