E10 - E13 ist wie du richtig beschreibst für das einmalige Kopieren von bestimmten/allen Datenarchiven eines bestimmten Zeitraums.
Daher diese Eingänge auf keinen Fall statisch belegen, sondern nur mit iKOs, die man dann bei Bedarf triggert. Oder aber triggern nur in der Liveansicht.
Zum kontinuierlichen syncen des Datenarchivs mit der ID22 ist die Konfiguration von E7/E8 korrekt.
Dann solltest du mal einen Wert in das Datenarchiv schreiben, z.B. über die Liveansicht.
Dann sollte dazu ein Eintrag im Log auftauchen und dann auch in Influx.
Also zuerst mal E10-E12 leer machen und Projekt neu aktivieren und dann mal was in DA 22 schreiben und Logs prüfen.
Ankündigung
Einklappen
Keine Ankündigung bisher.
Influx - Grafana - Problem mit/bei LBS 19002576
Einklappen
X
-
Influx - Grafana - Problem mit/bei LBS 19002576
Hallo Andre / jonofe,
habe jetzt nach dem Best-Pratice-Thread heute mit Influx und Edomi angefangen. Ich kriege aber keine Daten in Influx. Ich sehe auch nicht warum. Alle Installationsbefehle habe ich ausgeführt und die wurden auch meiner Meinung nach richtig ausgeführt (hab die Datenausgabe kopiert falls Du es Dir ansehen willst).
2022-11-15_20h00_17.png
1. (blöde) Frage: Wo ist denn der Unterschied zwischen E7 und E10? Irgendwie erschließt sich mir der Unterschied anhand der Beschreibung nicht. Ich will erstmal nur ein einzigen Datenarchiv kopieren. Habe jetzt also bei E7 und E10 eine 22 (ID 22) eingetragen.
Edit: Ich glaube ich habe es jetzt mit dem Hinweis unter "Important" verstanden.
Trage ich das Archiv unter E7 ein, wird ein kontinuierlicher Sync durchgeführt. Verstehe es so, dass bei jeder Änderung der neue Wert in Influx geschrieben wird.
Trage ich das Archiv unter E10 ein, wird nur 1x das Archiv synchronisiert.
Habe ich das jetzt richtig verstanden?
Beim Start von Edomi werden auch die beiden Logs geschrieben:
Code:2022-11-15 19:49:2623576121817debugLBS19002576 [v0.2b]: Query: DROP PROCEDURE IF EXISTS influx_update; (1337) 2022-11-15 19:49:2623767921817debugLBS19002576 [v0.2b]: Query: DROP TRIGGER IF EXISTS influx_insert_trigger; (1337) 2022-11-15 19:49:2623871421817debugLBS19002576 [v0.2b]: Query: DROP TRIGGER IF EXISTS influx_update_trigger; (1337) 2022-11-15 19:49:2623930821817debugLBS19002576 [v0.2b]: Query: DROP TRIGGER IF EXISTS influx_delete_trigger; (1337) 2022-11-15 19:49:2624011221817debugLBS19002576 [v0.2b]: Query: CREATE PROCEDURE influx_update(command VARCHAR(10), archiveId INT(20), archiveName VARCHAR(100), value VARCHAR(10000), timestamp DATETIME, ms INT(11)) BEGIN DECLARE cmd VARCHAR(1000); DECLARE result INT(10); DECLARE logresult INT(10); SET cmd = CONCAT('/usr/bin/bash -c "/usr/bin/php /usr/local/edomi/www/data/liveproject/lbs/EXE19002576.php ',command,' ',archiveId,' \'',archiveName,'\' \'',value,'\' \'',timestamp,'\' ',ms,' & "'); SET result = sys_exec(cmd); END (1337) 2022-11-15 19:49:2624134121817debugLBS19002576 [v0.2b]: Query: CREATE TRIGGER influx_insert_trigger AFTER INSERT ON archivKoData FOR EACH ROW BEGIN DECLARE archiveName VARCHAR(100); SELECT name INTO archiveName FROM edomiLive.archivKo WHERE id = NEW.targetid; CALL influx_update('INSERT', NEW.targetid, archiveName, NEW.gavalue, NEW.datetime, NEW.ms); END (1337)Code:2022-11-15 19:49:26 CET START copying data archives 2022-11-15 19:49:26 CET Data archives in scope: copy 2022-11-15 19:49:26 CET Start copying data archive: 22 2022-11-15 19:49:26 CET Query: SELECT name FROM edomiLive.archivKo where id = 22 2022-11-15 19:49:26 CET Copying 'Gaszähler - Tageswert' data archive to Influx DB... 2022-11-15 19:49:26 CET Query: SELECT * FROM edomiLive.archivKoData where targetid=22 AND datetime > '1970-01-01 00:00:00' AND datetime < '2022-11-15 19:49:26' 2022-11-15 19:49:26 CET Query SUCCESS 2022-11-15 20:00:00 CET START 2022-11-15 20:00:00 CET END
Im Datenexplorer von Influx sehe ich aber im Bucket keine Daten. Was verstehe bzw. was mache ich falsch?
Kannst Du mir helfen?
vg, BerndZuletzt geändert von gibsonrocker; 15.11.2022, 20:28.Stichworte: -


Einen Kommentar schreiben: