18.08.2005, 11:24
Hallo,
ich habe bisher zur Bufferung meiner von einer analogen Inputkarte kommenden Messdaten während des Messprozesses folgendes Prinzip verwendet (siehe angehängtes VI).
Von diesem bin ich allerdings aus zwei Gründen nicht sehr überzeugt:
1. Die CPU geht (vergl. Task-Manager) nach kurzer Zeit auf 100%
2. Die Auslagerungsdatei steigt pro Sample um ca. 12,5 Byte, obwohl bei einer Auflösung von 32 Bit nur 4 Byte nötig währen.
Jetzt frage ich mich, welche Methode geeigneter ist, die Datenpackete weniger CPU-und RAM-belastender aneinander zu heften. Außerdem verstehe ich nicht, weshalb bei diesem Verfahren soviel RAM geschluckt wird.
Für Antworten bzw. bessere Alternativen währe ich dankbar.
Gruß,
Michael
ich habe bisher zur Bufferung meiner von einer analogen Inputkarte kommenden Messdaten während des Messprozesses folgendes Prinzip verwendet (siehe angehängtes VI).
Von diesem bin ich allerdings aus zwei Gründen nicht sehr überzeugt:
1. Die CPU geht (vergl. Task-Manager) nach kurzer Zeit auf 100%
2. Die Auslagerungsdatei steigt pro Sample um ca. 12,5 Byte, obwohl bei einer Auflösung von 32 Bit nur 4 Byte nötig währen.
Jetzt frage ich mich, welche Methode geeigneter ist, die Datenpackete weniger CPU-und RAM-belastender aneinander zu heften. Außerdem verstehe ich nicht, weshalb bei diesem Verfahren soviel RAM geschluckt wird.
Für Antworten bzw. bessere Alternativen währe ich dankbar.
Gruß,
Michael