Das ist wahrscheinlich offensichtlich und wurde schon oft auf unterschiedliche Weise gefragt, aber ich konnte die Antwort nicht finden, nachdem ich nach etwas Zeit gesucht hatte.
Nehmen Sie Folgendes an:
Wie kann ich effizient die letzten festgeschriebenen Versionen von zB DIR001 / subdir2 / fileB1 ... DIR001 / subdir2 / fileBN aus dem Remote-Repository abrufen oder abrufen und sonst nichts?
AND
nur die letzte festgeschriebene Version einer einzelnen -Datei von DIR001 / subdir2 / fileB1 ... DIR001 / subdir2 / dateiBN aus dem Remote-Repository und sonst nichts?
AND
Wie kann ich eine zuvor festgeschriebene Version einer Teilmenge dieser Dateien und sonst nichts effizient abrufen oder abrufen?
Vielleicht ist fetch / pull nicht der richtige Befehl dafür.
Die Antwort auf " Partial cloning " kann helfen Du fängst an mit flachen Klonen zu experimentieren.
Aber es wird begrenzt sein:
Die wirkliche Lösung wäre jedoch, das riesige Remote-Repo in Submodule zu unterteilen.
Siehe Was sind Git-Limits oder Git Stil Backup von Binärdateien zur Veranschaulichung dieser Art von Situation.
Aktualisierung April 2015:
Git Large File Storage (LFS) würde Pull / Fetch viel effizienter machen (von GitHub, April 2015).
Das Projekt ist git-lfs (siehe git-lfs.github.com ) und mit einem Server getestet, der es unterstützt: lfs-test-server :
Sie können Metadaten nur im Git Repo und die große Datei anderswo speichern .
Tags und Links git