Hallo leute,
ich würde gerne mit wget eine Kopie der Webseite meiner Solaranlage runterladen und anschließend mit grep den passenden Wert "rausschneiden".
Wenn ich die IP der Solaranlage eingeben, muss ich im Browser den User und das Passwort eingeben. Dies umgehe ich in dem ich folgende Zeile eingeb:
Also war meine Idee:
$ wget http://user
assword@192.168.176.2/Solar.html
--2013-06-17 19:07:48-- http://user:*password*@192.168.176.2/Solar.html
Verbindungsaufbau zu @192.168.176.2:80... verbunden.
HTTP-Anforderung gesendet, warte auf Antwort... 401 Unauthorized
Fehler beim Schreiben der HTTP-Anforderung: Bad file descriptor.
Erneuter Versuch.
Könnt ihr mir das einen Tip geben ?
Oder hat Openhab eine Funktion zum Auslesen von Webseiten ?
ich würde gerne mit wget eine Kopie der Webseite meiner Solaranlage runterladen und anschließend mit grep den passenden Wert "rausschneiden".
Wenn ich die IP der Solaranlage eingeben, muss ich im Browser den User und das Passwort eingeben. Dies umgehe ich in dem ich folgende Zeile eingeb:
Code:
http://user:password@192.168.176.2/Solar.html
$ wget http://user

--2013-06-17 19:07:48-- http://user:*password*@192.168.176.2/Solar.html
Verbindungsaufbau zu @192.168.176.2:80... verbunden.
HTTP-Anforderung gesendet, warte auf Antwort... 401 Unauthorized
Fehler beim Schreiben der HTTP-Anforderung: Bad file descriptor.
Erneuter Versuch.
Könnt ihr mir das einen Tip geben ?
Oder hat Openhab eine Funktion zum Auslesen von Webseiten ?
Kommentar