Informationen im Internet sind kurzlebig und können nur abgerufen werden, sofern ein Internet-Anschluss verfügbar ist. Problematisch wird es also, wenn Websites gelöscht werden, oder man gerade keinen Zugriff auf das Internet hat (z.B. auf Reisen).
Gelöschte oder ältere Versionen von Websites findet man in Internet Archiven wie der WayBackMachine. Man kann sich die Webseiten allerdings auch selbst zum offline lesen herunterladen.
Ein beliebtes Programm dafür ist wget
:
wget -r -k -E -l 8 http://de.wikipedia.org |
Mit diesem Befehl würde man die deutsche Version der Wikipedia herunterladen. Die verwendeten Optionen haben folgende Bedeutungen:
-r | Websites zum Herunterladen rekursiv durchlaufen. |
-l 8 | Bei der Rekursion maximal 8 Ebenen („Ordner“) tief vordringen (Standard ist 5) |
-k | Konvertiere Links, damit sie lokal funktionieren. |
-E | Erzwinge die Dateiendung „.html“; Das ist besonders dann nützlich, wenn man „.php“ oder „.asp“-Dateien herunterlädt. |
Weietere Optionen und Informationen findest Du im Wiki von UbuntuUsers.
Falls Du diesen Befehl häufiger verwenden, Du Dir aber die ganzen Optionen nicht merken möchtest, kannst Du Dir einen Alias anlegen. Solltest Du die bash als Standard-Terminal (Shell) verwenden, musst Du dazu lediglich folgende Zeile in die Datei .bashrc
in Deinem Home-Verzeichnis eintragen:
alias wdown='wget -r -k -E -l 8' |
Im Anschluss steht Dir der Terminal-Befehl wdown
zur Verfügung und Du könntest Dir die deutsche Wikipedia folgendermaßen herunterladen:
wdown http://de.wikipedia.org |
Bevor Du allerdings Seite herunterlädst, solltest Du Dich mit den Urheberrechten auseinander setzen.