Überprüfen Sie die Größe des jeweiligen Kerns, bevor Sie beginnen.
Öffnen Sie Terminal 1:
%Vor%Öffnen Sie Terminal 2 und führen Sie:
aus %Vor%Aktualisieren Sie anstelle von "core" Ihren jeweiligen Namen des Kerns.
Sie können sehen, dass die Größe des Kerns allmählich um das Doppelte der Größe Ihrer indizierten Daten zunimmt und sich plötzlich verringert. Dies wird Zeit benötigen, hängt von Ihren Solr-Daten ab.
Zum Beispiel, 50G indizierte Daten spikes fast 90G und Tiefen zu optimierten 25G Daten. Und normalerweise dauert es 30-45min für diese Datenmenge.
Es gibt verschiedene Möglichkeiten, einen Index zu optimieren. Sie könnten eines der Solr-Basisskripte auslösen: Ссылка
Sie können optimize=true
auch bei einem (vollständigen) Import oder beim Hinzufügen neuer Daten festlegen.
... oder einfach einen Commit mit optimize=true
Vielleicht könnte das auch für Ihre Bedürfnisse interessant sein: Ссылка
Um zu testen, wie sehr eine Änderung die Indizierung optimiert, schreiben Sie einfach einen benutzerdefinierten Indexer und fügen Sie zufällig generierten Inhalt hinzu. Fügen Sie eine große Anzahl von Dokumenten hinzu (500.000 oder 1.000.000) und messen Sie die benötigte Zeit.
Im Anschluss an die oben genannten Artikel habe ich mir einen benutzerdefinierten Indexer erstellt und die Zeit für die Indexierung von Dokumenten um 80% optimiert.
Tags und Links java optimization java-ee solr lucene