Hallo zusammen,
ich möchte eine Maschine hinsichtlich Geräuschemissionen untersuchen. Dazu soll mit Hilfe der Norm DIN EN ISO 11201 der Emissions-Schalldruckpegel gemessen werden. Als Messhard- und software stehen mir folgende Komponenten zur Verfügung:
Software:
- Sound and Vibration Assistant 2010
- Windows 7
Hardware:
- NI 9234 Messsystem mit NI USB-9162
- Kondensator-Mikrofon
- Laptop
Ich möchte mit dem "Sound and Vibration Assistant" ein Oktavspektrum bzw. ein 1/3-Oktavspektrum -> Terzspektrum aufnehmen. Dazu sind mir ein paar Fragen aufgekommen.
- Laut Norm beträgt die Messdauer bei Messungen in Oktav-Terzbändern 30s für die Frequenzbänder mit Mittenfrequenzen von 160 Hz und niedriger sowie 15s für die Frequenzbänder mit Mittenfrequenzen von 200 Hz und höher.
- Wenn ich alglemein eine Messung starte ändert sich jede Sekunde bei einer Sample-Rate von 51,2k und den zu lesenden Samples von 51,2K das gesamte Spektrum. Also jede Sekunde ein neues Ergebnis. Wenn ich also 30 Sekunden Messe, heißt es dann, dass ich aus 30 Ergebnissen (Pro Ergebnis ein gesamtes Terzspektrum) den Mittelwert bilden kann bzw. muss?
- Wie sollte ich dann die unterschiedlichen Aufnahmedauer auf die Frequenzbänder anwenden? Sollte ich die höchste Frequenz und niedrigste Frequenz einstellen und dann entsprechend der vorgegebenen Zeit messen?
- Laut Norm sollte für jedes Frequenzband eine Pegeldifferenz von mind. 10dB zum Umgebungsgeräusch vorhanden sein.
- Also ich messe z.B. das Hintergundgeräusch über 30 Sekunden. Bilde dann für jedes Frequenzband über 30 Werten den Mittelwert. Das gleiche mache ich dann bei Betrieb der Maschine. Kann ich dann die dB-Werte direkt miteinander vergleichen sprich die Differenz bilden um zu sehen ob die Pegeldifferenz größer oder kleiner 10dB ist oder muss ich eine Logarithmische Pegelsubtraktion durchführen? nach der Formel Lres=10*lg(10^0,1*L1-10^0,1*L2) z.B.?
Ich schätze bei meiner Angelegenheit ist viel gefährliches Halbwissen dabei. Aber ich bin echt dankbar für jede Hilfe!
Viele Grüße