Einige TFTs sind mit 16,7 Mio Farben angegeben und andere mit 16,2 Mio. Farben. Wo liegt denn da der Unterschied. 16,7 Mio Farben bedeutet doch einen Farbtiefe von 32 bit. Wenn ein TFT nun bloß 16,2 darstellen kann, heißt das dann, dass er den 32-bit-Farbmodus nicht unterstützt, da er knapp drunter liegt und man damit automatisch den TFT nur auf 24 bit fahren kann (also eine Stufe tiefer)? Oder läuft er trotzdem mit 32 bit Farbtiefe?
-
-
-
16,7 Millionen Farben sind 2^24, also 24bit. Von 16,2 Millionen Farben hör ich das erste Mal. Spielt aber eigentlich auch keine Rolle, da man die 500.000 fehlenden Farben kaum (ich behaupte mal: nie) bemerken wird.
Bei Angabe von 32bit beziehen sich die 8 zusätzlichen Bit meist auf den Alpha Kanal, das bedeutet dass jeder Pixel zusätzlich noch in 256 Stufen transparent gemacht werden kann.
-
Wenn 16,7 Mio. Farben 24 bit sind, wieviel Farben sind denn dann 32 bit? Und heißt das, dass es mit einem TFT nicht möglich ist, ein Spiel mit 32 bit Farbtiefe zu spielen? Wenn ja, würde das ja heißen, dass TFTs in punkto Farbtiefe den CRTs unterlegen sind, oder nicht? Oder wie ist das zu verstehen?
-
Genau das ist der Grund, warum TFT's für professionelle Bildbearbeitung nur eingeschränkt einsetzbar sind. Bei der Druckvorstufe wird mit CYMK-Farben gearbeitet, die in 32bit dargestellt werden müssen. Das kann der TFT leider noch nicht.
"Normalos" wie uns reicht die RGB-Palette. Und die passt locker in 24Bit. Wenn in Spielen 32bit Farbtiefe angeboten werden, heisst das nicht, dass das Spiel dann die CYMK-Farbpalette verwendet. Auch hier ist die höchste darstellbare Farbtiefe 24bit, also RGB.
Ich kann mich daran erinnern, dass früher nur Matrox-Karten überhaupt die 24bit Farbtiefe angeboten haben. Alle anderen Karten habe diese Farbtiefe immer übersprungen. Da gab es nur 8,16 und 32bit.
Gruß alphares
-
Wenn man in Spielen den 32-bit-Farbmodus einstellt, aber es trotzdem eigentlich nur 24 bit sind, wieso steht denn da nicht auch 24 bit, sondern 32? Und wenn es so ist, dass 32 bit in Spielen eh nur 24 bit sind, dann sind doch zumindest TFTs in punkto Spiele den CRTs doch nicht unterlegen, weil ja CRTs dann die 32 bit auch nur als 24 darstellen, oder? Also in punkto Bildbearbeitung mag es ja sein, dass die TFTs den CRTs unterlegen sind, aber in punkto Farbdarstellung bei Spielen werden sie wohl eher gleich aufholen.
-
Hallo zusammen,
Ich persönlich kenne keine Grafikkarte, die bei 32 Bit mehr Farben darstellt als bei 24 Bit. Normalerweise werden von den 32 Bit 8 Bit einfach "verschenkt". 32 Bit werden also nur aus Performance-Gründen verwendet, da der Zugriff auf 32-Bit Datenworte wesentlich effizienter ist, als z.B: drei einzelne Bytes (für 24 Bit) zu schreiben.
Natürlich gibt es Grafikverarbeitungsprogramme, die Bilder intern im CMYK-Farbmodell verarbeiten, und dafür tatsächlich echte 32 Bit pro Pixel (oder sogar mehr) verwenden. Das kann aber so nicht direkt von der Grafikkarte angezeigt werden, d.h. bei der Anzeige wird das Bild grundsätzlich "on the fly" in eine RGB-Darstellung umgewandelt. Die volle Farbpracht gibt's also erst beim Drucken.
Ein CRT kann selbstverständlich "beliebig viele" Farben anzeigen, soll heißen: Er wird analog gespeist und beläßt die Helligkeitsinforamtionen durchgehend analog. Es kommt vielleicht noch ein bisschen Verstärkungsrauschen dazu, aber normalerweise ist das nicht wahrnehmbar.
Eine Grafikkarte die mehr als 8 Bit pro Farbkanal darstellen kann ist mir jedoch nicht bekannt (das müsste schon ein sehr spezielles Modell sein...) Somit sehe ich speziell hier keinen echten Vorteil von CRT's gegenüber einem guten TFT.
(Man muß dazu sagen daß nicht wenige TFT's keine echten 24 Bit anzeigen können, diese verwenden oftmals Dithering damit Farbverläufe nicht gar zu stufig wirken.)
Viele Grüße
Wilfried -
Die Matrox Parhelia kann 10Bit pro Kanal.
ZitatWenn man in Spielen den 32-bit-Farbmodus einstellt, aber es trotzdem eigentlich nur 24 bit sind, wieso steht denn da nicht auch 24 bit, sondern 32?
Grafikkarten rechnen heute alle intern mit 32Bit oder mehr, spielt also performance mäßig bei Spielen sowieso keine Rolle ob 24 oder 32. -
Zitat
Original von wwelti
(Man muß dazu sagen daß nicht wenige TFT's keine echten 24 Bit anzeigen können, diese verwenden oftmals Dithering damit Farbverläufe nicht gar zu stufig wirken.)
Viele Grüße
WilfriedWie sieht es beim 15" Iiyama ProLite E380S aus? Den will mir nähmlich zulegen. Kann der echte 24 bit anzeigen? bzw. ist dieser TFT einer, der gut genug ist, das zu können?
-
Hallo zusammen,
thop: Danke für die Info mit der Parhelia. Die verwendet tatsächlich bis zu 10 Bit pro Farbkanal. (Nennt sich GigaColor, wohl weil man so 2^30, also etwas mehr als eine Milliarde verschiedener Farben darstellen kann) Das war mir bis jetzt entgangen. Ich habe mich mal gleich ein bißchen darüber informiert.
Nun ist es so, daß das standardmäßige Win-API auf dem Desktop nur 8 Bit pro Farbkanal unterstützt. Hier werden auch im 32 Bit Modus nur 8 Bit pro Farbkanal verwendet, auch mit der Parhelia. Es gibt allerdings ein spezielles Photoshop-Plugin, welches anscheinend erlaubt, Adobe Photoshop in Verbindung mit der Parhelia mit echten 10 Bit pro Farbkanal zu verwenden.
Weiterhin scheint ab DirectX 8.1 eine Unterstützung von 10 Bit pro Farbkanal in Texturen zu existieren. Außerdem wird in Spielen ja sehr viel in Echtzeit berechnet (Beleuchtung usw), so daß auch bei normalen Texturen ein sichtbarer Qualitätsvorteil bleibt. Für Spiele ist dieses Feature also tatsächlich gewinnbringend.
Bei der DVD Wiedergabe wird auch vieles direkt auf der Grafikkarte gemacht, d.h. auch hier läßt sich das Standard-Win-API umgehen, so daß die 10 Bit pro Farbkanal durchgehend verwendet werden können. Eine höhere Qualität ist hier tatsächlich zu erwarten. (Die MPEG2-komprimierten Daten begrenzen an sich nicht die Farbtiefe des Materials, d.h. eine hohe Farbtiefe auf dem Ausgabegerät bringt deutlich schönere Farbübergänge)
Weiterhin profitiert sogar das standardmäßige Desktop ein wenig davon; jedenfalls dann, wenn eine softwaremäßige Farbkorrektur vorgenommen wird. Denn die von Windows verwendete Farbkorrektur-Tabelle erlaubt 16 Bit pro Farbkanal. D.h. die Qualität der softwaremäßigen Farbkorrektur wird besser. (das soll jetzt nicht heißen, daß durch eine Korrektur die Gesamtqualität der Desktop-Grafik besser würde; nur die Qualität der Korrektur an sich ist besser)
Wobei ich anmerken muß: Der auf vielen Monitoren übliche Gammafaktor von ca. 2.3 ist auf dem Desktop durchaus angenehm und bedarf in den meisten Fällen keiner weiteren Korrektur. Und Helligkeit und Kontrast kann man normalerweise auch direkt am Monitor regeln. D.h. wenn keine Korrektur notwendig ist, werden die "normalen" Desktop-Anwendungen definitiv nicht von den 10-bittigen Farbkanälen profitieren können.
Insgesamt gesehen hat hier der CRT in Verbindung mit einer solchen Grafikkarte für Profi-Grafiker tatsächlich einen echten Vorteil gegenüber dem TFT. Denn DVI unterstützt nur 8 Bit pro Farbkanal. (Wenn es da ein neueres, erweitertes Protokoll gibt, wird es zumindest von den meisten TFT's nicht unterstützt)
@Karras: Leider kann ich Dir nicht sagen, welche TFT's echte 24 Bit darstellen. Ich weiß nur daß meiner (Viewsonic VP201m) es nicht tut. (ist für mich allerdings nicht so schlimm, normalerweise fällt es (mir) auch nicht auf. Ich bin halt kein Grafiker...)
Viele Grüße
Wilfried