B
ByeBye 177919
Hey,
ich habe angefangen neben PHP noch C++ zu lernen.
Als meine erste Aufgabe hab ich mir ein Benchmarking Tool geschrieben.
Hier ist der Code:
Unter Windows läuft alles wie es soll (notebook, 2ghz). Erst sagt er "Benchmarking Tool". Dann drück ich enter und dann kommt die 2te Meldung und meine CPU schießt in den himmel.
Dann wenn zu ende gerechnet wurde, kommt ne Meldung wie lange die CPU gebraucht hat. Alles gut und schön.
Unter Linux läuft es etwas anders ab.
Dort erscheint nur die Meldung "Benchmarking Tool", dann drück ich enter, dann rechnet er ne große Ewigkeit (ist nur ein 900mhz pc worauf mein linux läuft (server)) und dann kommt erst 2te Meldung und die Meldung wie lange er gebraucht hat. Obwohl ja logischerweise erst die 2te Meldung kommen sollte und dann anfangen sollte zu rechnen und dann das Ergebnis.
Ebenso ist das Format anders von clock().
Unter Windows sind es Millisekunden. Unter Linux ka was. Nanosekunden kann es nicht sein, den als Ergebnis bei meinem Server kommt 288890000 raus. Und das wären (wenn es Nanosekunden wäre) 288,89ms.
Kann mir also einer helfen bzw sagen woran es liegt?
ich habe angefangen neben PHP noch C++ zu lernen.
Als meine erste Aufgabe hab ich mir ein Benchmarking Tool geschrieben.
Hier ist der Code:
Code:
#include <stdio.h>
#include <ctime>
#include <stdlib.h>
int main () {
{
fprintf(stdout, "Benchmarking Tool");
getchar();
fprintf(stdout, "Fange an zu rechnen. Bitte haben Sie Geduld...");
int startZeit = clock();
srand (time(NULL));
for (int index=0; index<100000000; index++)
{
rand()*clock()+rand()*clock()*clock()*rand()/3;
}
fprintf(stdout, "\n_____________\n");
int Ende = clock()-startZeit;
fprintf(stdout, "%i ms", Ende);
getchar();
return 0;
}
}
Unter Windows läuft alles wie es soll (notebook, 2ghz). Erst sagt er "Benchmarking Tool". Dann drück ich enter und dann kommt die 2te Meldung und meine CPU schießt in den himmel.
Dann wenn zu ende gerechnet wurde, kommt ne Meldung wie lange die CPU gebraucht hat. Alles gut und schön.
Unter Linux läuft es etwas anders ab.
Dort erscheint nur die Meldung "Benchmarking Tool", dann drück ich enter, dann rechnet er ne große Ewigkeit (ist nur ein 900mhz pc worauf mein linux läuft (server)) und dann kommt erst 2te Meldung und die Meldung wie lange er gebraucht hat. Obwohl ja logischerweise erst die 2te Meldung kommen sollte und dann anfangen sollte zu rechnen und dann das Ergebnis.
Ebenso ist das Format anders von clock().
Unter Windows sind es Millisekunden. Unter Linux ka was. Nanosekunden kann es nicht sein, den als Ergebnis bei meinem Server kommt 288890000 raus. Und das wären (wenn es Nanosekunden wäre) 288,89ms.
Kann mir also einer helfen bzw sagen woran es liegt?