Wenn dies dein erster Besuch hier ist, lies bitte zuerst die Hilfe - Häufig gestellte Fragen durch. Du musst dich vermutlich registrieren, bevor du Beiträge verfassen kannst. Klicke oben auf 'Registrieren', um den Registrierungsprozess zu starten. Du kannst auch jetzt schon Beiträge lesen. Suche dir einfach das Forum aus, das dich am meisten interessiert.
Möglicherweise ist es nicht empfehlenswert, weil nicht abgeschätzt werden kann, wie lang der Ring beim Verbraucher ist und ob man später nocht mal auf höhere Geschwindigkeiten geht.
Bei schnellen Netzen hat man nämlich durchaus das Problem mit nicht zeitgleich eintreffenen Spannungsanstiegen und -abfällen.
Wobei es da trotzdem geht, nur muss der Empfänger alle parallelen Leitungen abwarten, bis er das ACK gibt.
Spannender Nebeneffekt: teilweise sind serielle Verbindungen schneller als parallele. Bspw. SCSI vs. SAS.
Imagine that rings would generally be no problem. Soon, the first installations would pop up in which a ring would build a loop around a TP1 Repeater, a TP1 Bridge, a Line Coupler or a Backbone Coupler, even from different Lines or Main Lines. Such installations would work unreliable for configuration and at runtime, but this would sometimes also be hard to diagnose.
So, the specs say that rings are allowed withing one physical segment, but in the training documentation and other, this is restricted, just to have simple and clear rules that are easy to maintain and check and that have the best guarantee of a properly working installation.
Ich glaube nicht, dass man das so pauschal sagen kann. Denn nach meinen Infos ist das Aufteilen von Informationen, das parallele Versenden der Informationen und das Zusammensetzen am Ankunftsort mitunter zeitaufwendiger als das "simple" Rauschschieben der Signale. Gerade bei schnellen Übertragungen, etwa in Speichernetzen, etc.
Ich würde sowas vergleichen mit dem Multithreading einer Anwendung. Es gibt Situationen, bei denen das Aufsplitten einer Aufgabe auf mehrere Threads & deren Abarbeitung in der Summe langsamer ist, als das Abarbeiten dieser Aufgabe von nur einem Thread. Die Parallelisierung hat einen gewissen overhead, der sich nicht immer rentiert. Es ist halt fallbezogen zu betrachten.
So, the specs say that rings are allowed withing one physical segment, but in the training documentation and other, this is restricted, just to have simple and clear rules that are easy to maintain and check and that have the best guarantee of a properly working installation.
Hi Steven,
thanks for your jumping in! Makes perfect sense, simple and clear rules are needed for the training materials. We were just curious if there was any electrical reasoning behind this, as long as we limit ourselves to one segment. Question answered - many thanks!
Absolut. Kommt aber sicher auf die Größ der Schleifen an. Meine Größte Schleife hat vielleicht einen Durchmesser von 3m. Kann das bei <30V für einen Blitz irgendwas bedeuten?
Ich glaube nicht, dass man das so pauschal sagen kann. Denn nach meinen Infos ist das Aufteilen von Informationen, das parallele Versenden der Informationen und das Zusammensetzen am Ankunftsort mitunter zeitaufwendiger als das "simple" Rauschschieben der Signale. Gerade bei schnellen Übertragungen, etwa in Speichernetzen, etc.
Der zeitliche Aufwand, Daten seriell zu übertragen, ist deutlich höher, als der Geschwindigkeitsvorteil sie parallel zu übertragen. Oder: jede serielle Datenübertragung lässt sich beschleunigen, indem man sie parallelisiert (falls möglich), z.B. indem man mehrere serielle Verbindungen wählt (was wohl den maximalen zusätzlichen Aufwand der Parallelisierung darstellt). q.e.d.
... jede serielle Datenübertragung lässt sich beschleunigen, indem man sie parallelisiert (falls möglich), z.B. indem man mehrere serielle Verbindungen wählt (was wohl den maximalen zusätzlichen Aufwand der Parallelisierung darstellt). q.e.d.
Es wird langsam OT. Aber wie ich schon sagte: pauschal ist das nicht richtig. Nämlich dann nicht, wenn es darum geht, eine Entität aufzuteilen.
Probiere es selber aus: schreib ein Tool, dass ein rechnerisches Problem löst als single Thread und Multithread Applikation und skaliere. Du wirst feststellen, dass die Parallelisierung erst ab einer gewissen komplexität der Aufgabe je Instanz etwas bringt. Bspw. bei aufwändigen Rechnungen oder Threads, die auf I/O warten müssen.
Analog ist dies bei der Aufteilung und parallelen Abarbeitung/Versendung von Daten zu beobachten.
Schau dir die Architektur von SAN Switchen an. Auch dort kann man Trunks über mehrere FibreChannel Kanäle bilden. Damit das funktioniert, kommen komplizierte Technologien zum Einsatz und vor allem Buffer, die dazu da sind, die Informationen von allen parallelen Kanälen einzusammeln, bevor es weiter geht.
Und klar ist es so, das 1 Kanal weniger Durchsatz bringt als 2 Kanäle. Sonst würden sich solche Technologien ja nicht verkaufen. Aber es ist eben nicht immer so. Nämlich dann, wenn die Kosten der Parallelisierung höher sind als der Gewinn der parallelen Übertragung.
pauschal ist das nicht richtig. Nämlich dann nicht, wenn es darum geht, eine Entität aufzuteilen.
Es geht um Datenübertragung!!!
Die Aussage macht also maximal bei einem einzelnen zu übertragenden Bit Sinn.
Probiere es selber aus: schreib ein Tool, dass ein rechnerisches Problem löst als single Thread und Multithread Applikation und skaliere. Du wirst feststellen, dass die Parallelisierung erst ab einer gewissen komplexität der Aufgabe je Instanz etwas bringt. Bspw. bei aufwändigen Rechnungen oder Threads, die auf I/O warten müssen.
Du versuchst die Sinnhaftigkeit einer Parallelisierung der Datenübertragung durch den Vergleich der seriellen Abarbeitung von Code zu bewerten. Es geht aber um die Verarbeitung von Daten (was immer paralleler passiert; 8bit, 16bit ... 64bit etc.) und deren Übertragung.
-> Trifft das Thema nicht.
Analog ist dies bei der Aufteilung und parallelen Abarbeitung/Versendung von Daten zu beobachten.
Schau dir die Architektur von SAN Switchen an. Auch dort kann man Trunks über mehrere FibreChannel Kanäle bilden. Damit das funktioniert, kommen komplizierte Technologien zum Einsatz und vor allem Buffer, die dazu da sind, die Informationen von allen parallelen Kanälen einzusammeln, bevor es weiter geht.
Und klar ist es so, das 1 Kanal weniger Durchsatz bringt als 2 Kanäle. Sonst würden sich solche Technologien ja nicht verkaufen. Aber es ist eben nicht immer so. Nämlich dann, wenn die Kosten der Parallelisierung höher sind als der Gewinn der parallelen Übertragung.
Es geht um die erreichbare Geschwindigkeit und nicht um die Schwelle, ab der es Sinn macht, Daten erst zu serialisieren um sie dann parallel zu verschicken. Zudem zeigt auch dein Beispiel, dass selbst hier extremer Aufwand gerechtfertigt ist, da die erreichbare Geschwindigkeit deutlich erhöht werden kann.
Meine Größte Schleife hat vielleicht einen Durchmesser von 3m. Kann das bei <30V für einen Blitz irgendwas bedeuten?
JA!
Die 30V sind vollkommen irrelevant!
Problem ist die induzierte Spannung durch das Magnetfeld des Blitzes.
[Beginn Halbwissen]
Das nimmt mit der Entfernung (vermutlich im ² ???) ab, die Seite Deiner Schleife, die dem Blitz "zugewandt" ist, bekommt dadurch eine höhere Spannung, als die "abgwandte Seite. Je größer die Schleife ist, um so größer die Spannungsdifferenz und damit der Strom, der fließt.
Wobei ich grad keine Erklärung hab, warum das bei offener Schleifer unbedenklich ist und bei geschlossener Schleife nicht!?
[Ende Halbwissen]
zum OT:
eigentlich habt ihr beide Recht, klar ist eine Verbindung mit z. B. 16 parallelen Übertragungen schneller, als eine mit nur einem Stream. Sofern beide mit dem gleichen Takt laufen. Und da besteht doch das Problem: je mehr Streams man parallel durch ein Kabel übertragen will, um so mehr stören sie sich gegenseitig. Und diese Störung steigt auch mit dem Takt.
Genau das war ja der Punkt, warum man SCSI nicht mehr weiter versucht hat zu beschleunigen, da die erreichbare Kabellänge schon verdammt klein war. Das ganze seriell per SAS zu übertragen war/ist dann halt die einfachere und letztlich schneller Methode.
....und versuchen Sie nicht erst anhand der Farbe der Stichflamme zu erkennen, was Sie falsch gemacht haben!
Problem ist die induzierte Spannung durch das Magnetfeld des Blitzes.
Genau. Bei der Blitzentladung fliesst ein hoher Strom, der ein entsprechend starkes Magnetfeld verursacht. Zwischen den Enden einer Leiterschleife verursacht dieser magnetische Fluß eine Spannung.
Solange ein Ende "in der Luft" hängt passiert nichts. Ausnahme: die Enden sind so nahe beeinander daß es einen Spannungsüberschlag gibt. Wenn die Enden verbunden sind, so fliesst der induzierte Strom "im Kreis" durch die Leiterschleife. Theoretisch kann der Leiter schmelzen, wenn der Strom hoch genug ist, aber da müsste der Blitzstrom wahrscheinlich sehr nahe an der Leiterschleife fliessen.
Eine Spannung zwischen KNX(+) und KNX(-) entsteht so aber noch nicht. Die würde entstehen, wenn man eine nennenswerte Fläche zwischen roter und schwarzer Ader hat, wo der magnetische Fluß hindurchtreten kann. Damit kommen wir zum Sinn der verdrillten Leitungen: durch die Verdrillung wechselt ständig die Polarität der induzierten Spannung, sie hebt sich im Idealfall auf.
Wir verarbeiten personenbezogene Daten über die Nutzer unserer Website mithilfe von Cookies und anderen Technologien, um unsere Dienste bereitzustellen. Weitere Informationen findest Du in unserer Datenschutzerklärung.
Indem Du unten auf "ICH stimme zu" klickst, stimmst Du unserer Datenschutzerklärung und unseren persönlichen Datenverarbeitungs- und Cookie-Praktiken zu, wie darin beschrieben. Du erkennst außerdem an, dass dieses Forum möglicherweise außerhalb Deines Landes gehostet wird und bist damit einverstanden, dass Deine Daten in dem Land, in dem dieses Forum gehostet wird, gesammelt, gespeichert und verarbeitet werden.
Kommentar