Hallo zusammen,
ich habe mal wieder ein kleines Problem.
Ich habe ein Programm für ein RT System "geschrieben", wenn
dieses läuft und keine Daten an den Host via Network Stream sendet.
Bleibt das Niveau des allokierten Speichers des RT Systems bleibt in einem gewissen Band.
Werden die Daten nun per Netzwerk Streams an den Host PC übertragen,
steigt der allokierte Speicher stetig an. Ich habe es ein paar Stunden laufen lassen,
und es ist immer noch keine Ende des Anstiegs in Sicht.
Wird der Netzwerk Stream wieder deaktiviert, dann pendelt sich der allokierte Speicher wieder in einem
gewissen Band ein.
Daher liegt die Ursache des steigenden "Speicherbedarfs" in meinen Augen im Zusammenhang mit den Netzwerk Streams.
Aber wo?