Ankündigung

Einklappen
Keine Ankündigung bisher.

Softwarekonzept für Heimautomatisierung

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

    Softwarekonzept für Heimautomatisierung

    Guten Abend zusammen,
    nachdem ich jetzt drei Jahre mit KNX lebe und ich in der Zeit mit verschiedenen Systemen als Addon zum KNX rumgespielt habe möchte ich jetzt mal alles ins reine bringen und sauber und wartungsfreundlich installieren. Ich schreibe jetzt hier im openHAB Forum, weil ich denke hier die größte Schnittmenge mit den Usern zu haben.

    Mein zukünftiges System soll bestehen aus openHAB, Node-Red, InfluxDB, Chronograf, (Grafana). Außerdem noch ein UnifiController und irgendwann mal 1-Wire Server.

    Jetzt sehe ich drei Möglichkeiten:
    1. Auf einem Mini PC Linux einrichten und dann alles darauf installieren.
    2. Eine Linux VM erstellen und alles darin installieren.
    3. Alles in separaten Dockern laufen lassen.

    Ich denke Möglichkeit 1 scheidet aus

    Möglichkeit 2 schon besser. Hier kann ich mir die VM schnappen und auch mal auf eine andere Hardware packen, von daher sehr flexibel. Will man was neues installieren und testen ändert man allerdings das gesamte System.

    Möglichkeit 3 noch besser. Die Docker Container sind sehr komfortabel zum testen, alles Modular. Geringerer Resourcenverbrauch. Allerdings kann es bei Installation von Dockern zu Problemen kommen die man bei der Installation in einer richtigen Linux Umgebung nicht hat.

    Wie seht ihr das? Wie habt ihr es umgesetzt? Wie erstellt ihr Backups?
    14
    Auf einem Mini PC Linux einrichten und dann alles darauf installieren.
    71,43%
    10
    Eine Linux VM erstellen und alles darin installieren.
    21,43%
    3
    Alles in separaten Dockern laufen lassen. 
    7,14%
    1

    #2
    Ich habe testweise alles (außer Node-Red und ein paar weitere Sachen) mit Docker containern auf einem Intel NUC installiert
    Ich finde das die stabilste Lösung und hatte keine Probleme.
    Außerdem ist damit die Installation "gescripted" und kann leicht reproduziert werden. Das hilft auch schon beim Einrichten und Experimentieren.
    Würde ich jederzeit wieder so machen.

    Kommentar


      #3
      Ich denke, es kommt ein Stück weit darauf an, womit Du zurecht kommst. Ich kenne mich mit Docker überhaupt nicht aus, und obwohl ich schon etliche Artikel gelesen habe, habe ich immer noch das Gefühl, ganz am Anfang zu stehen.

      Mit Virtualisierung habe ich aber schon eine Menge Erfahrung, außerdem habe ich eine Windows VM laufen, wenn ich über ETS konfiguriere, ich fand das damals (2005) ungemein praktisch, weil der Rechner mit der VM direkt neben dem Schaltschrank steht. Ich musste nur die serielle Schnittstelle herein reichen und konnte von überall im Haus auf die Konfiguration zugreifen.

      Kommentar


        #4
        Zitat von zoechi Beitrag anzeigen
        mit Docker containern auf einem Intel NUC installiert
        In welcher Umgebung laufen dann die Container?

        Ich hatte alles mal auf meiner QNAP NAS laufen als Container und fand das ungemein praktisch. Vor allem auch die Möglichkeit jeden Container als eigenen Host laufen zu lassen. Dadurch hatte jeder Container seine eigene IP und alles lief auf Standard Ports.
        Allerdings ist mir jetzt schon ein paarmal die Container Station auf der NAS abgeschmiert. Seitdem dann auch noch mein openHAB Container nach einem automatischen Update nicht mehr lauffähig war hab ich das das Vertrauen verloren.

        In der VM sehe ich den Vorteil, dass man sie einfach auf einen anderen Rechner werfen kann und es läuft. Ich glaube auch, dass man leichter Support bekommt, weil sich nicht alle so gut mit Containern auskennen (siehe udo1toni) und es dann immer ein Sonderfall ist.

        Kommentar


          #5
          Donnerknall Ich verwende eine minimale Debian Installation

          Kommentar


            #6
            Moin,
            ich habe alle wichtigen Programme/Dienste, die ich sowieso brauche, direkt im BS installiert: Openhab, Datenbank, Unifi, SMS-Gateway. Diese Dienste sind zentral, da sie immer laufen müssen/sollten. Zudem kann ich mir realtiv sicher sein, dass sie auf dem aktuellen Stand sind. Im Zudem werde ich bei apt in der Regel auch bei Änderungen der Configs gewarnt. Als OS verwenden ich Ubuntu auf einem Intel NUC.

            Ich finde KVM und/oder Docker super, gerade was das testen und rumspielen anbelangt: Keine langes installieren/einrichten, aber auch fix wieder abgeschaltet/entfernt. Wie oben beschrieben wäre es mir zu aufwenig, neben dem BS auch die ganzen Container und Maschinen aktuell zu halten...

            Viele Grüße

            Kommentar


              #7
              Ok, jetzt bin ich vom Ergebnis her doch etwas überrascht. Ich hätte gedacht die VM gewinnt.

              Angenommen der NUC macht die Grätsche und ich habe eine aktuelle Sicherung davon. Die bekomme ich ja nicht ohne weiteres auf einer anderen Hardware ans Laufen. Das wäre doch ein enormer Vorteil der VM oder nicht?

              Wie erreicht man eine bestmögliche Ausfallsicherheit? Kann man in irgendeiner Form eine Redundanz aufbauen? Oder ein Industrie PC? Festplatten als RAID?
              Ich muss leider auf meinem System einen Teil der Heizungsregelung laufen lassen. Zumindest bis wir mal eine neue Wärmepumpe bekommen und das kann dauern....

              Kommentar


                #8
                Wenn das System echt wichtig ist, wäre es natürlich sinnvoll, stets ein aktuelles Backup zu haben, ebenso wie ein Ersatzsystem, was man dann einfach hinstellen kann. openHAB bietet von sich aus keine Möglichkeit für Redundanz, und obwohl es schon Bestrebungen in der Richtung gab, ist mir nichts davon bekannt, dass jemand so etwas schon mal erfolgreich ans Laufen gebracht hat.

                Allerdings läuft openHAB selbst ja eigentlich recht stabil (wenn man nicht dran rum spielt...), bleibt also vor allem der Ausfall durch Defekt oder Angriff von außen sowie Stromausfall.
                Wenn man sich mittels VM gegen Hardwareausfall absichern wollte, müsste man (um es richtig zu machen) mindestens 3 Nodes als Cluster aufsetzen, die dann die VM live migrieren. Geht z.B. mit Proxmox (kostenlos!), aber drei fette Rechner (Virtualisierer...) widerspricht irgendwie dem Gedanken, Energie zu sparen.

                Ich habe bei mir aktuell zwei Systeme am Laufen und eigentlich war das nicht so geplant, das zweite System sollte nur regelmäßig Backups ziehen und dann schlafen gehen. Aber da ich auf dem ersten System xen laufen habe und neugierig auf Proxmox war, musste der zweite Rechner unbedingt ebenfalls virtualisiert werden. Und mit den Möglichkeiten wachsen dann zwangsläufig die Wünsche und Ideen.

                Auf dem Proxmox läuft zfs als Filesystem, ich müsste meine xen VM alle nach Proxmox portieren, damit ich den Hauptserver ebenfalls auf Proxmox umstellen kann, aber mein Intranet hat einen Kuddelmuddel an Services, angefangen mit mehreren internen Zonen, diversen Freigaben, Mediaserver, TFTP, PXE-Boot (incl. Windows Setup über Netzwerk...), Telefonanlage, Fax, Druckerserver, eBook-Verwaltung, mehrere openHAB-Instanzen, eMail Server (der liegt gerade darnieder...)... Ich bräuchte dringend 12 Wochen bezahlten Urlaub mit reguliertem Internetzugriff (keine Ablenkung aber Updates und Informationen zu Installationsproblemen) ohne Familie...

                Kommentar


                  #9
                  Hallo,
                  dann reihe ich mich hier auch mal ein.
                  Ich habe momentan auf meinem Proxmox-Server eine minimale Ubuntu VM installiert, in der ich verschiedene Docker-Container hoste.

                  Die Container sind in logische in Stacks (PiHole, Smarthome, ...) unterteilt und über docker-compose konfiguriert.
                  Diese und weitere Konfigurationsdateien (zb. der userdata-Ordner von openhab) werden pro Stack in einem Git-Repository versioniert.

                  Ich hoffe damit die verschiedenen Vorteile der Systeme kombiniert zu haben und für den Notfall gerüstet zu sein.

                  Kommentar


                    #10
                    So, mal wieder Neues von mir.
                    Vielen Dank an alle Teilnehmer!
                    Bei mir hat sich die Ausgangssituation jetzt geändert. Nachdem ich kein IT`ler bin und auch keine 12 Wochen bezahlten Urlaub für solche Spielereien habe (gell Toni ) bin ich jetzt auf IP-Symcon umgestiegen. Kostet zwar, dafür aber alles was ich brauche in einer Software vorhanden. Alleine für die Charts mit Influx und Grafana, bis das in openHAB integriert wäre wie ich mir das vorstelle.... Keine Ahnung wann ich da Zeit dazu gefunden hätte.

                    Im Augenblick läuft das ganze noch auf meinem PC, die Suche nach geeigneter dedizierter Hardware ist aber noch nicht abgeschlossen. Wahrscheinlich wirds aber ein kleiner NUC.

                    Kommentar

                    Lädt...
                    X