Timer zu langsam?

Kanonenfutter

Mitglied
Hallo
Mir kam vor kurzer Zeit die Idee, einen Reaktionszeit-Messer zu programmiern. Ich wollte die Reaktionszeit auf Millisekunden genau messen, doch hierbei bin ich auf das Problem gestoßen, dass ein Timer für meinen Anwendungszweck zu langsam läuft. Nach der Dokumentation ist das Interval in ms angegeben, doch nach meinen Tests waren es mehr als Millisekunden.
Kennt jemand einen alternativen Weg für mein Problem? :)

( zur Info: mit while(true) Schleifen hab ichs schon probiert, aber die sind für mich zu unberechenbar :rolleyes: )
 
Code:
while(true) = nonsens

Sag mal wie währe es wenn Du dir den Zeitpunkt merkst (DataTime) wann die Messung beginnt und die Differenz bis zum beenden Messung ausrechnest. :rolleyes:
 

Neue Beiträge

Zurück