Ankündigung

Einklappen
Keine Ankündigung bisher.

Seite lädt nicht mehr und "modules.websocket.sv Exception"

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

    #16
    Msinn AndreK
    ooUrmeloo schrieb, dass es im Fehlerfall „dutzende Einträge in extrem kurzen Zeitabständen“ im Log gibt.
    Code:
    2024-01-16 21:54:29 WARNING modules.websocket.sv Exception in 'await websocket.send(reply)': received 1001 (going away); then sent 1001 (going away) - reply = {"cmd": "series", "series": ....​
    Das kann aus meiner Sicht nicht das „normale“ Verhalten beim Abbruch der Verbindung durch den Client sein. Ich habe solche Fehler auch vereinzelt bei Seiten mit Plots (aber ohne Ladeverzögerung). Hab bisher noch nicht herausgefunden, wie man den Fehler provozieren kann.

    ooUrmeloo 500 Punkt pro Plot ist nicht viel. 1000 Punkte sollten auch kein Problem sein.

    Gruß
    Wolfram

    Kommentar


      #17
      Zitat von AndreK Beitrag anzeigen
      Den Code in das Executor-Plugin einfügen und starten.
      AndreK Sorry ... doofe Frage ... wo/wie finde ich den Executor-Plugin??
      Den hab ich noch nie verwendet und finde ihn auch gerade nicht. Im Admin-GUI? Muss ich den aktivieren?​


      Zitat von Msinn Beitrag anzeigen
      „Idle“ ist ein Pool von zzt nicht genutzten Worker Threads des shng-Schedulers, aus dem bei Bedarf ein benötiger Thread genommen wird, statt einen neuen zu erzeugen. Ein neuer Worker Thread wird nur erzeugt, wenn der idle-Pool leer ist. Das bedeutet, dass zu einem Zeitpunkt in der Vergangenheit gleichzeitig 45 Worker mehr aktiv waren, als jetzt.

      Die 14 Threads von Cherrypy sind keine Threads des shng-Schedulers und sind normal. Die Threads werden vom Webserver genutzt, der die Admin GUI und die Webinterfaces bereit. Stellt.
      Ich hatte gestern Nacht den Service mal neu gestartet und geschaut. Da waren es dann 4 idle Threads.
      Heute, nach ca. 24h sieht's dann wieder so aus:
      HTML-Code:
         Thread (gesamt: 111) Thread-Id Prozess-Id Aktiv  
      asyncio_0 1680856128 32280 Ja  
      asyncio_1 1632629824 32323 Ja  
      idle (88 threads)   Ja  
      Main 1995852160 31972 Ja  
      modules.http.cherrypy_server (14 threads)   Ja  
      modules.http.http_server (2 threads)   Ja  
      modules.mqtt.paho_client 1758393408 32024 Ja  
      modules.websocket.websocket_server 1766786112 32023 Ja  
      Scheduler 1965044800 32001 Ja  
      TCP_Client (plugins.knx_127.0.0.1:6720) 1647285312 32054 Ja  ​
      Zitat von wvhn Beitrag anzeigen
      dass es im Fehlerfall „dutzende Einträge in extrem kurzen Zeitabständen“ im Log gibt.
      Ja, das kann ich nochmal bestätigen. Sieht dann so, oder so ähnlich aus. Einträge beziehen sich immer auf einzelne items ...

      Code:
      2024-01-20  17:36:04 NOTICE   modules.websocket.sv update_item: Error sending {'cmd': 'item', 'items': [['zigbee.plug11.state', False]]} - to Pixel-7-Pro-lit.fritz.box (192.168.178.60:59144), smartVISU v3.4.0, Chrome 120  -  Error in 'await websocket.send(data)': received 1001 (going away); then sent 1001 (going away)
      2024-01-20  17:36:04 NOTICE   modules.websocket.sv update_item: Error sending {'cmd': 'item', 'items': [['zigbee.plug11.state', False]]} - to Pixel-7-Pro-lit.fritz.box (192.168.178.60:41664), smartVISU v3.4.0, Chrome 120  -  Error in 'await websocket.send(data)': received 1001 (going away); then sent 1001 (going away)
      2024-01-20  17:36:05 NOTICE   modules.websocket.sv update_item: Error sending {'cmd': 'item', 'items': [['DG.Bad.Heizung.temperatur', 18.2]]} - to Pixel-7-Pro-lit.fritz.box (192.168.178.60:59142), smartVISU v3.4.0, Chrome 120  -  Error in 'await websocket.send(data)': received 1001 (going away); then sent 1001 (going away)
      2024-01-20  17:36:05 NOTICE   modules.websocket.sv update_item: Error sending {'cmd': 'item', 'items': [['DG.Bad.Heizung.temperatur', 18.2]]} - to Pixel-7-Pro-lit.fritz.box (192.168.178.60:59144), smartVISU v3.4.0, Chrome 120  -  Error in 'await websocket.send(data)': received 1001 (going away); then sent 1001 (going away)
      2024-01-20  17:36:05 NOTICE   modules.websocket.sv update_item: Error sending {'cmd': 'item', 'items': [['DG.Bad.Heizung.temperatur', 18.2]]} - to Pixel-7-Pro-lit.fritz.box (192.168.178.60:41664), smartVISU v3.4.0, Chrome 120  -  Error in 'await websocket.send(data)': received 1001 (going away); then sent 1001 (going away)
      2024-01-20  17:36:05 NOTICE   modules.websocket.sv update_item: Error sending {'cmd': 'item', 'items': [['DG.Bad.Heizung.temperatur', 18.2]]} - to Pixel-7-Pro-lit.fritz.box (192.168.178.60:44074), smartVISU v3.4.0, Chrome 120  -  Error in 'await websocket.send(data)': no close frame received or sent
      2024-01-20  17:36:08 NOTICE   modules.websocket.sv update_item: Error sending {'cmd': 'item', 'items': [['EG.Toilette.Heizung.temperatur', 19.6]]} - to Pixel-7-Pro-lit.fritz.box (192.168.178.60:59142), smartVISU v3.4.0, Chrome 120  -  Error in 'await websocket.send(data)': received 1001 (going away); then sent 1001 (going away)
      2024-01-20  17:36:08 NOTICE   modules.websocket.sv update_item: Error sending {'cmd': 'item', 'items': [['EG.Toilette.Heizung.temperatur', 19.6]]} - to Pixel-7-Pro-lit.fritz.box (192.168.178.60:59144), smartVISU v3.4.0, Chrome 120  -  Error in 'await websocket.send(data)': received 1001 (going away); then sent 1001 (going away)
      2024-01-20  17:36:08 NOTICE   modules.websocket.sv update_item: Error sending {'cmd': 'item', 'items': [['EG.Toilette.Heizung.temperatur', 19.6]]} - to Pixel-7-Pro-lit.fritz.box (192.168.178.60:41664), smartVISU v3.4.0, Chrome 120  -  Error in 'await websocket.send(data)': received 1001 (going away); then sent 1001 (going away)
      2024-01-20  17:36:08 NOTICE   modules.websocket.sv update_item: Error sending {'cmd': 'item', 'items': [['EG.Toilette.Heizung.temperatur', 19.6]]} - to Pixel-7-Pro-lit.fritz.box (192.168.178.60:44074), smartVISU v3.4.0, Chrome 120  -  Error in 'await websocket.send(data)': no close frame received or sent
      2024-01-20  17:36:10 NOTICE   plugins.database    Skipping dump, since an other database operation running! Data is buffered and dumped later.
      2024-01-20  17:36:13 NOTICE   modules.websocket.sv update_item: Error sending {'cmd': 'item', 'items': [['OG.Gaeste.Heizung.temperatur', 18.7]]} - to Pixel-7-Pro-lit.fritz.box (192.168.178.60:59142), smartVISU v3.4.0, Chrome 120  -  Error in 'await websocket.send(data)': received 1001 (going away); then sent 1001 (going away)
      2024-01-20  17:36:13 NOTICE   modules.websocket.sv update_item: Error sending {'cmd': 'item', 'items': [['OG.Gaeste.Heizung.temperatur', 18.7]]} - to Pixel-7-Pro-lit.fritz.box (192.168.178.60:59144), smartVISU v3.4.0, Chrome 120  -  Error in 'await websocket.send(data)': received 1001 (going away); then sent 1001 (going away)
      2024-01-20  17:36:13 NOTICE   modules.websocket.sv update_item: Error sending {'cmd': 'item', 'items': [['OG.Gaeste.Heizung.temperatur', 18.7]]} - to Pixel-7-Pro-lit.fritz.box (192.168.178.60:41664), smartVISU v3.4.0, Chrome 120  -  Error in 'await websocket.send(data)': received 1001 (going away); then sent 1001 (going away)
      2024-01-20  17:36:13 NOTICE   modules.websocket.sv update_item: Error sending {'cmd': 'item', 'items': [['OG.Gaeste.Heizung.temperatur', 18.7]]} - to Pixel-7-Pro-lit.fritz.box (192.168.178.60:44074), smartVISU v3.4.0, Chrome 120  -  Error in 'await websocket.send(data)': no close frame received or sent
      2024-01-20  17:36:37 NOTICE   modules.websocket.sv update_item: Error sending {'cmd': 'item', 'items': [['DG.Bad.Heizung.temperatur', 18.3]]} - to Pixel-7-Pro-lit.fritz.box (192.168.178.60:59142), smartVISU v3.4.0, Chrome 120  -  Error in 'await websocket.send(data)': received 1001 (going away); then sent 1001 (going away)
      2024-01-20  17:36:37 NOTICE   modules.websocket.sv update_item: Error sending {'cmd': 'item', 'items': [['DG.Bad.Heizung.temperatur', 18.3]]} - to Pixel-7-Pro-lit.fritz.box (192.168.178.60:59144), smartVISU v3.4.0, Chrome 120  -  Error in 'await websocket.send(data)': received 1001 (going away); then sent 1001 (going away)
      2024-01-20  17:36:37 NOTICE   modules.websocket.sv update_item: Error sending {'cmd': 'item', 'items': [['DG.Bad.Heizung.temperatur', 18.3]]} - to Pixel-7-Pro-lit.fritz.box (192.168.178.60:41664), smartVISU v3.4.0, Chrome 120  -  Error in 'await websocket.send(data)': received 1001 (going away); then sent 1001 (going away)
      2024-01-20  17:36:37 NOTICE   modules.websocket.sv update_item: Error sending {'cmd': 'item', 'items': [['DG.Bad.Heizung.temperatur', 18.3]]} - to Pixel-7-Pro-lit.fritz.box (192.168.178.60:44074), smartVISU v3.4.0, Chrome 120  -  Error in 'await websocket.send(data)': no close frame received or sent
      2024-01-20  17:36:37 NOTICE   modules.websocket.sv update_item: Error sending {'cmd': 'item', 'items': [['DG.Bad.Heizung.temperatur', 18.3]]} - to Pixel-7-Pro-lit.fritz.box (192.168.178.60:56004), smartVISU v3.4.0, Chrome 120  -  Error in 'await websocket.send(data)': received 1001 (going away); then sent 1001 (going away)
      2024-01-20  17:36:44 NOTICE   modules.websocket.sv update_item: Error sending {'cmd': 'item', 'items': [['OG.Gaeste.Heizung.state', 18.0]]} - to Pixel-7-Pro-lit.fritz.box (192.168.178.60:59142), smartVISU v3.4.0, Chrome 120  -  Error in 'await websocket.send(data)': received 1001 (going away); then sent 1001 (going away)
      2024-01-20  17:36:44 NOTICE   modules.websocket.sv update_item: Error sending {'cmd': 'item', 'items': [['OG.Gaeste.Heizung.state', 18.0]]} - to Pixel-7-Pro-lit.fritz.box (192.168.178.60:59144), smartVISU v3.4.0, Chrome 120  -  Error in 'await websocket.send(data)': received 1001 (going away); then sent 1001 (going away)
      2024-01-20  17:36:44 NOTICE   modules.websocket.sv update_item: Error sending {'cmd': 'item', 'items': [['OG.Gaeste.Heizung.state', 18.0]]} - to Pixel-7-Pro-lit.fritz.box (192.168.178.60:41664), smartVISU v3.4.0, Chrome 120  -  Error in 'await websocket.send(data)': received 1001 (going away); then sent 1001 (going away)
      2024-01-20  17:36:44 NOTICE   modules.websocket.sv update_item: Error sending {'cmd': 'item', 'items': [['OG.Gaeste.Heizung.state', 18.0]]} - to Pixel-7-Pro-lit.fritz.box (192.168.178.60:44074), smartVISU v3.4.0, Chrome 120  -  Error in 'await websocket.send(data)': no close frame received or sent
      2024-01-20  17:36:44 NOTICE   modules.websocket.sv update_item: Error sending {'cmd': 'item', 'items': [['OG.Gaeste.Heizung.state', 18.0]]} - to Pixel-7-Pro-lit.fritz.box (192.168.178.60:56004), smartVISU v3.4.0, Chrome 120  -  Error in 'await websocket.send(data)': received 1001 (going away); then sent 1001 (going away)
      Gestern kam noch ein neuer Fehler hinzu - den hatte ich bisher auch noch nie gesehen. Aber mein log-file war danach ca. 100MB groß
      d.h. .... seeeehr viele Einträge davon:

      Code:
      websockets.exceptions.ConnectionClosedOK: received 1001 (going away); then sent 1001 (going away)
      2024-01-21  22:55:51 ERROR    modules.websocket.sv update_log - Error in 'await websocket.send(data)': received 1001 (going away); then sent 1001 (going away)
      Traceback (most recent call last):
        File "/usr/local/smarthome/modules/websocket/smartvisu.py", line 861, in update_log
          await websocket.send(msg)
        File "/usr/local/lib/python3.9/dist-packages/websockets/legacy/protocol.py", line 635, in send
          await self.ensure_open()
        File "/usr/local/lib/python3.9/dist-packages/websockets/legacy/protocol.py", line 944, in ensure_open
          raise self.connection_closed_exc()
      und dazwischen immer wieder die Database NOTICE ...

      gefühlt wird's gerade immer schlimmer

      Kommentar


        #18
        Noch eine kleine Ergänzung. Die große Anzahl von Threads hängt m.E. mit den Database Thema zusammen.
        Frage, was ist Ursache und was ist Wirkung??

        Code:
        2024-01-22  05:11:51 NOTICE   plugins.database    Skipping dump, since an other database operation running! Data is buffered and dumped later.
        2024-01-22  05:11:53 NOTICE   plugins.database    Skipping dump, since an other database operation running! Data is buffered and dumped later.
        2024-01-22  05:11:53 NOTICE   plugins.database    Skipping dump, since an other database operation running! Data is buffered and dumped later.
        2024-01-22  05:11:53 NOTICE   plugins.database    Skipping dump, since an other database operation running! Data is buffered and dumped later.
        2024-01-22  05:11:53 NOTICE   plugins.database    Skipping dump, since an other database operation running! Data is buffered and dumped later.
        2024-01-22  05:11:53 NOTICE   plugins.database    Skipping dump, since an other database operation running! Data is buffered and dumped later.
        2024-01-22  05:11:53 NOTICE   plugins.database    Skipping dump, since an other database operation running! Data is buffered and dumped later.
        2024-01-22  05:11:53 NOTICE   plugins.database    Skipping dump, since an other database operation running! Data is buffered and dumped later.
        2024-01-22  05:11:53 NOTICE   plugins.database    Skipping dump, since an other database operation running! Data is buffered and dumped later.
        2024-01-22  05:12:17 NOTICE   plugins.database    Dumping buffered data from skipped dump(s).
        2024-01-22  05:13:02 ERROR    lib.scheduler       Needing more worker threads than the specified maximum of 35!  (46 worker threads active)
        2024-01-22  05:14:04 ERROR    lib.scheduler       Needing more worker threads than the specified maximum of 35!  (47 worker threads active)
        2024-01-22  05:15:05 ERROR    lib.scheduler       Needing more worker threads than the specified maximum of 35!  (48 worker threads active)
        2024-01-22  05:16:18 NOTICE   plugins.database    Skipping dump, since an other database operation running! Data is buffered and dumped later.
        2024-01-22  05:16:18 NOTICE   plugins.database    Skipping dump, since an other database operation running! Data is buffered and dumped later.

        Kommentar


          #19
          > Die große Anzahl von Threads hängt m.E. mit den Database Thema zusammen​

          Nein, das database Plugin erzeugt dazu keine Worker Threads

          In Deinem Log gibt es nicht mal einen zeitlichen Zusammenhang, wie kommst Du also darauf?
          Viele Grüße
          Martin

          There is no cloud. It's only someone else's computer.

          Kommentar


            #20
            Zitat von Msinn Beitrag anzeigen
            In Deinem Log gibt es nicht mal einen zeitlichen Zusammenhang, wie kommst Du also darauf?
            Weill es halt doch auffällig oft vorkommt, dass ich 10-30 Einträge bzgl. database habe und dann 1-2 Minuten später den Worker Thread Error.
            Davon habe ich hier mehrere Beispiele. Und keinen weiteren Eintrag dazwischen ...
            So ähnlich wie oben in dem Beispiel.

            Kommentar


              #21
              Zitat von ooUrmeloo Beitrag anzeigen
              ... wo/wie finde ich den Executor-Plugin??
              Im Admin Interface -> Plugins -> Plugin hinzufügen -> Abteilung System Plugins,
              Dann noch Namen vergeben und neu starten damit es geladen wird. Du kannst Deine Code Snippets abspeichern und die viele Logiken direkt ausführen.

              Kommentar


                #22
                Zitat von bmx Beitrag anzeigen
                Im Admin Interface -> Plugins -> Plugin hinzufügen -> Abteilung System Plugins,
                Gefunden. Danke! Wieder was dazu gelernt ...

                Kommentar


                  #23
                  Hallo ooUrmeloo ,

                  ja das Executor-Plugin musst Du konfigurieren.

                  Zitat von ooUrmeloo Beitrag anzeigen
                  Den hab ich noch nie verwendet und finde ihn auch gerade nicht. Im Admin-GUI? Muss ich den aktivieren?​
                  Das ist ein super Tool um im context von shNG pyhton-Code auszuführen. 😀
                  Aktivierung erfolgt über die ./etc/plugin.yaml

                  Die Config sieht bei mir so aus, also recht einfach :

                  Code:
                  executor:
                      class_name: Executor
                      class_path: plugins.executor
                  In Deinem Log sieht man ja das, dass database-plugin mit seinem Dump doch durchkommt. Nur etwas anderes hält es lange Zeit davon ab. Was database vom Dump abhält ist hier aus meiner Sicht die Frage. Deshalb versuch mal die Ursache der vielen Worker-Threads zu lokalisieren. Es ist sicherlich hilfreich auf Grund der Logs im Vorfeld zu ermitteln wann das passiert (stündlich / immer um die gleiche Zeit / in welchen Intervallen eventuell kann man dann schon über "schedules" einen Rückschluss ziehen)

                  Und wie MSinn schon geschrieben hat, das database-Plugin erzeugt keine Worker-Threads - das kann nicht die Ursache sein - hier ist eher die Wirkung zu sehen.

                  Zu den 1001ern - Mal ins blaue geschoßen, könnte hier auf Client-Seite ein (Hardware-) Fehler vorliegen (z.B. Smartphone das ein Problem mit dem Wlan-Zugang hat, oder
                  Verbindungsabbrüche wegen Akkuschwäche oder ähnlichem ?)

                  Auch in Deinen Screenshots sind innerhalb kürzester Zeit die 1001er zu sehen - das würde bedeuten, dass zwischen durch immer wieder mal Verbindung bestand (vorausgesetzt der gleiche Client verursacht die 1001er) - noch mal ins blaue geschossen - könnte es sein dass Dein Wlan-AP Probleme macht ?

                  Alles sehr mysteriös.

                  Es wäre super wenn Du das Problem eingrenzen könntest.

                  Viele Grüße
                  Andre

                  Kommentar


                    #24
                    Zitat von AndreK Beitrag anzeigen
                    Den Code in das Executor-Plugin einfügen und starten. Es wird dann für 30 Sekunden alle 3 Sekunden in ein Logfile geschrieben. Du kannst die Anzahl Durchläufe erhöhen wenn Du den While Vergleich von 10 einfach höher setzt und /oder das Intervall verkürzen in dem Du time.sleep() verkleinerst. Die Daten landen dann in ./smarthome/var/log/thread.log.
                    Hier mal ein erstes log.
                    Da tauchen die min / max Temp evals auf, die dann aber wieder verschwinden.
                    Sind die CP Server Threads normal?

                    Code:
                    01/22/2024, 22:08:49
                    Worker-Threads
                    ==============
                    temperatur.gaeste.max1d                     is Alive : True ident : 1955591232  native_id: 16996
                    temperatur.gaeste.max7d                     is Alive : True ident : 1945105472  native_id: 16997
                    temperatur.gaeste.min1y                     is Alive : True ident : 1934619712  native_id: 16998
                    temperatur.bad.max1y                        is Alive : True ident : 1924133952  native_id: 16999
                    temperatur.gaeste.max1m                     is Alive : True ident : 1913648192  native_id: 17000
                    temperatur.gaeste.min7d                     is Alive : True ident : 1689248832  native_id: 17064
                    temperatur.gaeste.min1d                     is Alive : True ident : 1664070720  native_id: 17080
                    temperatur.gaeste.min1m                     is Alive : True ident : 1672463424  native_id: 17247
                    Main-Threads
                    ==============
                    Main                                        is Alive : True ident : 1996159360  native_id: 16966
                    Scheduler                                   is Alive : True ident : 1965352000  native_id: 16995
                    temperatur.gaeste.max1d                     is Alive : True ident : 1955591232  native_id: 16996
                    temperatur.gaeste.max7d                     is Alive : True ident : 1945105472  native_id: 16997
                    temperatur.gaeste.min1y                     is Alive : True ident : 1934619712  native_id: 16998
                    temperatur.bad.max1y                        is Alive : True ident : 1924133952  native_id: 16999
                    temperatur.gaeste.max1m                     is Alive : True ident : 1913648192  native_id: 17000
                    HTTPServer Thread-6                         is Alive : True ident : 1903162432  native_id: 17001
                    CP Server Thread-7                          is Alive : True ident : 1892676672  native_id: 17002
                    CP Server Thread-8                          is Alive : True ident : 1884283968  native_id: 17003
                    CP Server Thread-9                          is Alive : True ident : 1875891264  native_id: 17004
                    CP Server Thread-10                         is Alive : True ident : 1867498560  native_id: 17005
                    HTTPServer Thread-11                        is Alive : True ident : 1859105856  native_id: 17006
                    CP Server Thread-12                         is Alive : True ident : 1850713152  native_id: 17007
                    CP Server Thread-13                         is Alive : True ident : 1842320448  native_id: 17008
                    CP Server Thread-14                         is Alive : True ident : 1833927744  native_id: 17009
                    CP Server Thread-15                         is Alive : True ident : 1825535040  native_id: 17010
                    CP Server Thread-16                         is Alive : True ident : 1817142336  native_id: 17011
                    CP Server Thread-17                         is Alive : True ident : 1808749632  native_id: 17012
                    CP Server Thread-18                         is Alive : True ident : 1800356928  native_id: 17013
                    CP Server Thread-19                         is Alive : True ident : 1791964224  native_id: 17014
                    CP Server Thread-20                         is Alive : True ident : 1783571520  native_id: 17015
                    CP Server Thread-21                         is Alive : True ident : 1775178816  native_id: 17016
                    modules.websocket.websocket_server          is Alive : True ident : 1766786112  native_id: 17017
                    modules.mqtt.paho_client                    is Alive : True ident : 1758393408  native_id: 17018
                    TCP_Client (plugins.knx_127.0.0.1:6720)     is Alive : True ident : 1647285312  native_id: 17043
                    temperatur.gaeste.min7d                     is Alive : True ident : 1689248832  native_id: 17064
                    temperatur.gaeste.min1d                     is Alive : True ident : 1664070720  native_id: 17080
                    temperatur.gaeste.min1m                     is Alive : True ident : 1672463424  native_id: 17247
                    ------------------------------------------------

                    Kommentar


                      #25
                      Zitat von AndreK Beitrag anzeigen
                      Zu den 1001ern - Mal ins blaue geschoßen, könnte hier auf Client-Seite ein (Hardware-) Fehler vorliegen (z.B. Smartphone das ein Problem mit dem Wlan-Zugang hat, oder
                      Verbindungsabbrüche wegen Akkuschwäche oder ähnlichem ?)
                      ok ... sag niemals nie ... Aber Akku ist voll und sonst habe ich keinerlei Netzprobleme ...
                      Außerdem ist es schon auch am PC aufgetreten, der am LAN hängt. Ich finde nur gerade kein log-file dazu.
                      Also ausschließen vielleicht nicht, aber ich halte es eher für unwahrscheinlich.

                      Kommentar


                        #26
                        Hallo Msinn,

                        verursachen "evals" Workerthreads ? Ich dachte und glaube nein, oder ? Mal einfach gefragt ohne lange den Quellcode zu untersuchen :-)
                        ich habe auch viele Evals, und das eine triggert das andere - das will ich nicht glauben, da muss noch was in den Items stecken.

                        Die CP-Threads sind Main-Threads (CherryPy), wie Msinn schon geschrieben hatte sind diese normal

                        Viele Grüße
                        Andre

                        Kommentar


                          #27
                          20 min später ... aus den meisten "Temp" threads sind idle geworden.

                          Code:
                          01/22/2024, 22:26:12
                          Worker-Threads
                          ==============
                          idle                                        is Alive : True ident : 1955591232  native_id: 16996
                          idle                                        is Alive : True ident : 1945105472  native_id: 16997
                          plugins.database.Buffer dump                is Alive : True ident : 1934619712  native_id: 16998
                          plugins.database.Remove old                 is Alive : True ident : 1924133952  native_id: 16999
                          idle                                        is Alive : True ident : 1913648192  native_id: 17000
                          idle                                        is Alive : True ident : 1689248832  native_id: 17064
                          idle                                        is Alive : True ident : 1664070720  native_id: 17080
                          idle                                        is Alive : True ident : 1672463424  native_id: 17247
                          idle                                        is Alive : True ident : 1697641536  native_id: 17248
                          idle                                        is Alive : True ident : 1680856128  native_id: 17300
                          plugins.database.Buffer dump                is Alive : True ident : 1655678016  native_id: 17305
                          idle                                        is Alive : True ident : 1630532672  native_id: 17308
                          idle                                        is Alive : True ident : 1622139968  native_id: 17321
                          idle                                        is Alive : True ident : 1612108864  native_id: 17383
                          idle                                        is Alive : True ident : 1603716160  native_id: 17387
                          idle                                        is Alive : True ident : 1595323456  native_id: 17457
                          items.temperatur.aussen.max1y               is Alive : True ident : 1586930752  native_id: 17460
                          idle                                        is Alive : True ident : 1578538048  native_id: 17464
                          idle                                        is Alive : True ident : 1570145344  native_id: 17467
                          Main-Threads
                          ==============
                          Main                                        is Alive : True ident : 1996159360  native_id: 16966
                          Scheduler                                   is Alive : True ident : 1965352000  native_id: 16995
                          idle                                        is Alive : True ident : 1955591232  native_id: 16996
                          idle                                        is Alive : True ident : 1945105472  native_id: 16997
                          plugins.database.Buffer dump                is Alive : True ident : 1934619712  native_id: 16998
                          plugins.database.Remove old                 is Alive : True ident : 1924133952  native_id: 16999
                          idle                                        is Alive : True ident : 1913648192  native_id: 17000
                          HTTPServer Thread-6                         is Alive : True ident : 1903162432  native_id: 17001
                          CP Server Thread-7                          is Alive : True ident : 1892676672  native_id: 17002
                          CP Server Thread-8                          is Alive : True ident : 1884283968  native_id: 17003
                          CP Server Thread-9                          is Alive : True ident : 1875891264  native_id: 17004
                          CP Server Thread-10                         is Alive : True ident : 1867498560  native_id: 17005
                          HTTPServer Thread-11                        is Alive : True ident : 1859105856  native_id: 17006
                          CP Server Thread-12                         is Alive : True ident : 1850713152  native_id: 17007
                          CP Server Thread-13                         is Alive : True ident : 1842320448  native_id: 17008
                          CP Server Thread-14                         is Alive : True ident : 1833927744  native_id: 17009
                          CP Server Thread-15                         is Alive : True ident : 1825535040  native_id: 17010
                          CP Server Thread-16                         is Alive : True ident : 1817142336  native_id: 17011
                          CP Server Thread-17                         is Alive : True ident : 1808749632  native_id: 17012
                          CP Server Thread-18                         is Alive : True ident : 1800356928  native_id: 17013
                          CP Server Thread-19                         is Alive : True ident : 1791964224  native_id: 17014
                          CP Server Thread-20                         is Alive : True ident : 1783571520  native_id: 17015
                          CP Server Thread-21                         is Alive : True ident : 1775178816  native_id: 17016
                          modules.websocket.websocket_server          is Alive : True ident : 1766786112  native_id: 17017
                          modules.mqtt.paho_client                    is Alive : True ident : 1758393408  native_id: 17018
                          TCP_Client (plugins.knx_127.0.0.1:6720)     is Alive : True ident : 1647285312  native_id: 17043
                          idle                                        is Alive : True ident : 1689248832  native_id: 17064
                          idle                                        is Alive : True ident : 1664070720  native_id: 17080
                          idle                                        is Alive : True ident : 1672463424  native_id: 17247
                          idle                                        is Alive : True ident : 1697641536  native_id: 17248
                          idle                                        is Alive : True ident : 1680856128  native_id: 17300
                          plugins.database.Buffer dump                is Alive : True ident : 1655678016  native_id: 17305
                          idle                                        is Alive : True ident : 1630532672  native_id: 17308
                          idle                                        is Alive : True ident : 1622139968  native_id: 17321
                          idle                                        is Alive : True ident : 1612108864  native_id: 17383
                          idle                                        is Alive : True ident : 1603716160  native_id: 17387
                          idle                                        is Alive : True ident : 1595323456  native_id: 17457
                          items.temperatur.aussen.max1y               is Alive : True ident : 1586930752  native_id: 17460
                          idle                                        is Alive : True ident : 1578538048  native_id: 17464
                          idle                                        is Alive : True ident : 1570145344  native_id: 17467

                          Kommentar


                            #28
                            Zitat von AndreK Beitrag anzeigen
                            Hallo Msinn,

                            verursachen "evals" Workerthreads ? Ich dachte und glaube nein, oder ? Mal einfach gefragt ohne lange den Quellcode zu untersuchen :-)
                            ich habe auch viele Evals, und das eine triggert das andere - das will ich nicht glauben, da muss noch was in den Items stecken.

                            Die CP-Threads sind Main-Threads (CherryPy), wie Msinn schon geschrieben hatte sind diese normal

                            Viele Grüße
                            Andre
                            mmh ... ich verwende diese min/max Berechnung schon lange und hatte vorher keine Probleme. :-/
                            Nichts besonderes, lass mich aber gerne davon überzeugen, dass es eine sch... Umsetzung ist:

                            Code:
                            temperatur:
                               wohnzimmer:
                                       min1d:
                                           type: num
                                           visu_acl: rw
                            #               database: yes
                                           knx_dpt: 9
                                           eval: sh.EG.Wohnzimmer.Heizung.temperatur.db('min', '1d')
                                           eval_trigger: EG.Wohnzimmer.Heizung.temperatur
                            Zuletzt geändert von ooUrmeloo; 22.01.2024, 22:41.

                            Kommentar


                              #29
                              Hi ooUrmeloo,

                              das ist mir gerade noch eingefallen, wenn im Eval User-Functions oder db-Operationen stattfinden kann die Erzeugung von Worker-Threads eventuell passieren.
                              Das nutze ich selbst nicht.

                              Wie das mit den db-Funktionen realisiert ist kann ich im Moment nicht sagen, da muss ich mir den Quellcode vom DB-plugin ansehen.
                              Wie gestern, mal drüber schlafen :-)

                              Viele Grüße
                              Andre

                              Kommentar


                                #30
                                Zitat von AndreK Beitrag anzeigen
                                Wie gestern, mal drüber schlafen :-)
                                hier auch ;-)

                                BTW: danke an alle für die Tipps und Hilfe!

                                Kommentar

                                Lädt...
                                X