Also das mit den 4,3 Mrd. ist mir neu. Die 32bit haben nach meiner Kenntnis was mit dem Rendering der Grafikkarte zu tun und sind 24bit (TrueColor) zzgl. einer 8bit Graustufenmaske (256 Stufen). Die Karte kann deshalb aber nicht mehr Farben darstellen.
Ich kann bei meiner Karte lediglich 16bit oder 32bit auswählen. 24bit wird überhaupt nicht angeboten. Ich habe eine GeforceIII und bin mir sicher, dass diese Karte garantierte keine 4,3 Mrd. Farben darstellen kann.
Soweit mir das bekannt ist, ist die darstellbare Farbanzahl bei 32bit und 24bit TrueColor jeweils 16.7 Mio. Farben.
Ich lasse mich da auch gerne überzeugen. Da im Posting speziell auf die 32bit eingegangen wurde, habe ich die 24bit nicht erwähnt. Ich habe das aber nachträglich noch geändert.
Rot, Grün und Blau
Eigentlich gibt es dieses Phänomen schon beim Farbfernseher. Jeder farbige Punkt auf der Bildröhre ist ein Gemisch aus diesen drei Farb-Punkten. Besonders gut läßt sich dies mit einer Lupe beobachten.
Auch in Grafiken gibt es eine RGB-Farbpalette, die auf ähnliche Weise Farbtöne bestimmt. Zu jedem binären Muster, das einem Pixel zugeordnet wird gibt es in einer Tabelle drei Bytes, die für diese drei Grundfarben stehen.
Der Inhalt dieser Bytes kann Werte zwischen 0 und 255 annehmen. Dabei entsprechen diese Werte dem Grad der Farbintensität (je höher, desto heller).
Da jedes dieser RGB-Bytes 256 mögliche Werte haben kann, ergibt es 256x256x256 verschiedene Farbton-Möglichkeiten, also 16.777.216 Farben, was einer 24Bit-Farbtiefe entspricht. Dies ist der Grund dafür, daß diese Farb-Tiefe auch "Echtfarben" bzw. "TrueColor" genannt wird. Eine 32Bit-Farbtiefe wird über dieses Verfahren nicht mehr Farbtöne darstellen können.