Hi,
ich möchte gerne System.currentTimeMillis() bzw. System.nanoTime() nutzen.
Jetzt frage ich mich jedoch, wie eine Genauigkeit in Nanogröße erreicht wird, wenn doch zur Berechnung der Systemzeitgeber genutzt wird.
Nach Recherchen liegt für diesen bei Windows NT die Genauigkeit bei 10 ms, bei verschiedenen anderen OS bei maximal 1 ms.
Vielleicht kann da ja mal jemand Licht ins dunkel bringen.
Grüße,
Matze
ich möchte gerne System.currentTimeMillis() bzw. System.nanoTime() nutzen.
Jetzt frage ich mich jedoch, wie eine Genauigkeit in Nanogröße erreicht wird, wenn doch zur Berechnung der Systemzeitgeber genutzt wird.
Nach Recherchen liegt für diesen bei Windows NT die Genauigkeit bei 10 ms, bei verschiedenen anderen OS bei maximal 1 ms.
Vielleicht kann da ja mal jemand Licht ins dunkel bringen.
Grüße,
Matze