Federhalter
Mitglied
Hallo,
es würde mich interessieren, wie man Pixel aus einem BufferedImage ( png ) auslesen kann?
Ich habe mich bereits informiert und zwei Ansätze gefunden:
1. Pixels = ((DataBufferInt)Image.getRaster().getDataBuffer()).getData().
2. Pixels[x+j*width] = Image.getRGB(x,y);
Was ist der Unterschied zwischen den beiden?
Außerdem habe ich Probleme mit der Größe. Mein Bild ist tatsächlich 64x32 groß.
Wenn ich aber mit Graphics2D mithilfe von Transformationen ein Bild auf 64x32 skaliere und drehe (Isometrie),
dann ist dieses größer als mein Bild, nämlich um genau 16 Pixel in Breite und Höhe. Warum ist das so?
es würde mich interessieren, wie man Pixel aus einem BufferedImage ( png ) auslesen kann?
Ich habe mich bereits informiert und zwei Ansätze gefunden:
1. Pixels = ((DataBufferInt)Image.getRaster().getDataBuffer()).getData().
2. Pixels[x+j*width] = Image.getRGB(x,y);
Was ist der Unterschied zwischen den beiden?
Außerdem habe ich Probleme mit der Größe. Mein Bild ist tatsächlich 64x32 groß.
Wenn ich aber mit Graphics2D mithilfe von Transformationen ein Bild auf 64x32 skaliere und drehe (Isometrie),
dann ist dieses größer als mein Bild, nämlich um genau 16 Pixel in Breite und Höhe. Warum ist das so?