INFO: Dieses Forum nutzt Cookies...
Cookies sind für den Betrieb des Forums unverzichtbar. Mit der Nutzung des Forums erklärst Du dich damit einverstanden, dass wir Cookies verwenden.

Es wird in jedem Fall ein Cookie gesetzt um diesen Hinweis nicht mehr zu erhalten. Desweiteren setzen wir Google Adsense und Google Analytics ein.


Antwort schreiben 

Dieses Thema hat akzeptierte Lösungen:

parallele Tasks - Performance



Wenn dein Problem oder deine Frage geklärt worden ist, markiere den Beitrag als "Lösung",
indem du auf den "Lösung" Button rechts unter dem entsprechenden Beitrag klickst. Vielen Dank!

29.09.2011, 14:26 (Dieser Beitrag wurde zuletzt bearbeitet: 29.09.2011 14:32 von dimitri84.)
Beitrag #3

dimitri84 Offline
Astronaut
*****


Beiträge: 1.496
Registriert seit: Aug 2009

2020 Developer Suite
2009
DE_EN

53562
Deutschland
RE: parallele Tasks - Performance
(29.09.2011 13:54 )IchSelbst schrieb:  Ich habe meine CI-Tasks aber nie als eigenen Thread laufen. Die (beiden) CI's-Tasks (leider muss man pro CI immer eine Task machen) laufen immer im Thread, der die AI-Task bedient.
Hmmm, passt bei mir nicht so gut. Ich brauche unterschiedlich große Datenblöcke (AI 50er, CI_1 1000er) -> Schleifezeit ist also unterschiedlich.

Zitat:Und zwar deswegen, weil die CI-Samlpe-Daten parallel zu den AI-Sample-Daten laufen sollen. Die AI-Klasse liefert dann praktisch ein 2DArr, in dem die Daten von AI und CI stehen.
Dazu müssen sie ja nicht in einem Thread laufen. Ich habe die SampleClock von dem AI Task als "externe" Taktquelle für den CI_2 Task geroutet (Wegencoder). (Wieso eigentlich 2DArr? Ich finde waveforms viel praktischer, vor allem für TDMS-Schreiben. Ich bau mir grundsätzlich aus den Countersignalen auch wavefroms auf Teufel komm raus ...)

Zitat:Eine dumme Bemerkung:
Unter 20 kann auch über 19 heißen. 19% aber ist viel. Anständig ist unter 5% - auch bei vielen Tasks und Threads (dauernde graphische Refreshes lass ich jetzt mal außen vor).
Ist schon so um die 10% rum ... Ich unterhalte gerne den Werker/Entwickler mit einem schönen bunten Graphen (ca. 15 Siganle - 5000 Samples Ringpuffer - xy Graph). Hab noch nie ausprobiert wie ohne Dartsellung ist.

Zitat:CAN müsste ich erst nochmal kucken. Ich weis gerade nicht, ob der einen eigenen Puffer hat. Versuch mal den CAN-Thread auch hohe Priorität zu setzen.
Also die CAN Karte hat einen Eingangpuffer ... ca 32k Nachrichten. Mit der Prioritätensetzung meinst du die VI-Eigenschaft? (Gibt ja auch bei der timed Loop sone Option.) Hab ich schon gemacht: auf "höchste Priorität". Dann habe ich tatsächlich wieder die "rcv Queue empty" Meldung bekommen und es ging wieder. Gefallen hat's mir aber nicht ...

Der Chef lässt noch einen Frequenzwandler springen (aus anderen Gründen) - damit spar ich mir den extra Counter wieder und habe so die identische Anzahl an Tasks auf beiden Maschinen. Alles rennt wieder. Aber was mich eben wundert, dass ein beliebieger Thread mehr/weniger schon soviel ausmacht. Kann ich fast nicht glauben. Nachher spiel ich mal ein bisschen mit der Prio-Vergabe im Taskmanager.

„Sag nicht alles, was du weißt, aber wisse immer, was du sagst.“ (Matthias Claudius)
Webseite des Benutzers besuchen Alle Beiträge dieses Benutzers finden
Diese Nachricht in einer Antwort zitieren to top
Antwort schreiben 


Nachrichten in diesem Thema
RE: parallele Tasks - Performance - dimitri84 - 29.09.2011 14:26
RE: parallele Tasks - Performance - jg - 05.10.2011, 08:00

Möglicherweise verwandte Themen...
Themen Verfasser Antworten Views Letzter Beitrag
  Parallele Frequenz-Datenerfassung mit NI-9401 ArneS 5 4.403 18.02.2021 09:41
Letzter Beitrag: GerdW
  parallele Ausführung von for-loops stsc 5 5.203 24.07.2019 15:12
Letzter Beitrag: stsc
  Probleme mit Performance (Berechnungen und Grafik) catbull 5 5.103 21.07.2018 10:13
Letzter Beitrag: IchSelbst
  Performance beim Betrieb über WLAN Heber 9 6.302 22.08.2017 14:28
Letzter Beitrag: Heber
  Parallele Ausführung mehrerer Sub-Vis Anna1988 21 14.642 20.07.2015 11:51
Letzter Beitrag: Anna1988
  Melder Performance D_Sev 13 11.521 08.09.2014 10:56
Letzter Beitrag: GerdW

Gehe zu: