Das Folgende hat nicht funktioniert. Ich weiß nicht, warum es nur in der Start-URL aufhört, gehe nicht in die Links hinein, um nach dem angegebenen Dateityp zu suchen.
wget -r -A.pdf home_page_url
Jede andere Möglichkeit zum rekursiven Herunterladen aller PDF-Dateien auf einer Website. ?
Es kann auf einer robots.txt basieren. Versuchen Sie, -e robots=off
hinzuzufügen.
Andere mögliche Probleme sind die Cookie-basierte Authentifizierung oder die Agent-Zurückweisung für wget. Siehe diese Beispiele.
EDIT: Der Punkt in ".pdf" ist falsch nach sunsite.univie.ac. um
Tags und Links recursion wget screen-scraping