16-bit und 32-bit Farbdarstellung bei TFTs

  • Hallo zusammen,


    ich lese hier schon eine Weile und möchte demnächst einen TFT kaufen. Aber bitte nicht hauen wenn ich das falsche Froum erwischt haben sollte.


    Da TFTs "nur" eine 16-bit Farbdarstellung haben, was passiert wenn ich im Treiber 32-bit einstelle? Wird das durch den Monitor wieder runtergerechnet und die Grafikkartenleistung verpufft sozusagen? Wird am Ende genau das gleiche dargestellt wie beim 16-bit Modus oder gibt es doch sichtbare Unterschiede, evtl. sogar eine Verschlechterung?


    Meine Theorie: Beim Analog-Anschluß dürfte die Bildqualität bei 32-bit Ausgabe der GraKa trotzdem etwas besser sein, weil der AD-Wandler im Monitor ein "besseres" Signal angeboten bekommt.
    Wie verhält es sich beim DVI-Anschluß?


    Es geht mir um Abschätzung der 3D-Leistung meiner jetzigen Grafikkarte - in Zukunft werde ich ja nur in 1280x1024 spielen. Bei 16-bit würde die jetzige Lesitung ausreichen, bei 32-bit ist UT2003 aber etwas langsam und ruckelt. ?(



    PS:
    Die in Frage kommenden TFTs wären:
    - Samsung 191T
    - Belinea 101910
    - Samsung 181T
    - Neovo S-19
    - Belinea 101740


    Irgendwelche Ratschläge zu dieser Auswahl?


    Vielen Dank.

    • Offizieller Beitrag

    Wie kommst Du darauf, dass TFTs keine 32Bit darstellen können?


    1 bit = reine s/w-Darstellung
    4 bit = 16 Farben (Standard VGA)
    8 bit = 256 Graustufen (Maximum an erkennbaren Helligkeitsunterschieden / Super-VGA)
    16 bit = 32768 Farben (eigentlich 65536, aber nur 15Bit werden verwendet /HiColor)
    24 bit = 16.7 Mio Farben (TrueColor)
    32 bit = 16.7 Mio Farben (TrueColor) und eine 8Bit Graustufenmaske


    Die Anzahl der Farben bei der überwiegenden Mehrzahl der Displays sind 16,7 Mio.


    Ich habe die Demo von UT2003 schon gespielt, GF3, 1GH PIII, 32Bit Farbtiefe und 1280 x 1024 Auflösung.


    Da ruckelt nichts und die Bildqualität ist nur als erstklassig zu bezeichnen.


    Naja aus Deiner Liste die Du mit angegeben hast, kann ich Dir für den 191T grünes Licht geben. Ich würde den 191T dem Neovo S-19 vorziehen, auch wenn der Neovo ebenfalls ein gutes Gerät ist. Habe schon an beiden Geräten gearbeitet.

  • Hallo Prad,


    danke für deine Hilfe - da war ich ja völlig auf dem falschen Dampfer und hatte 16-bit mit 16 Mio. Farben verwechselt. Vielleicht sollte ich öfter mal eine Pause machen... ;)


    Zur Monitorauswahl: Mal schauen wie sich der Preis der Samsung-Monitore weiter entwickelt. Momentan schwanke ich noch, ob 17" reichen (101740) oder ob ich wirklich zu den großen Geschützen mit 19" greifen soll. Ist ja auch ein bißchen mehr Geld und eine neue Grafikkarte muß schließlich auch noch her.


    Erstmal Danke und Gruß
    Frank

  • Zitat

    32 bit = ca. 16 Mio Farben. (TrueColor)




    Hallo Prad


    Äh... ich will hier jetzt nicht den Oberschullehrer raushängen lassen, aber 16.7 Mio Farben hat man eigentlich bei 24 bit. Die 32 bit (4,3 Milliarden Farben) tauchen erst seit relativ kurzer Zeit auf dem Markt auf. Ich hab zuerst bei Scannern davon gelesen.
    Aber ich weis nicht so recht. Ich halte das für ein wenig Augenwischerei! Ich kann mir beim besten Willen nicht vorstellen, dass irgendein menschliches Auge auf einem Monitor bei 32 Bit Farbtiefe, gegenüber 24 Bit, noch bessere Farbübergänge feststellt.


    Ich gaube, da brauchte der Markt mal wieder ein "für den Kunden einfach zu begreifendes" Zugpferd um ihr Equipment absetzen zu können.


    Tschau...

    • Offizieller Beitrag

    Also das mit den 4,3 Mrd. ist mir neu. Die 32bit haben nach meiner Kenntnis was mit dem Rendering der Grafikkarte zu tun und sind 24bit (TrueColor) zzgl. einer 8bit Graustufenmaske (256 Stufen). Die Karte kann deshalb aber nicht mehr Farben darstellen.


    Ich kann bei meiner Karte lediglich 16bit oder 32bit auswählen. 24bit wird überhaupt nicht angeboten. Ich habe eine GeforceIII und bin mir sicher, dass diese Karte garantierte keine 4,3 Mrd. Farben darstellen kann.


    Soweit mir das bekannt ist, ist die darstellbare Farbanzahl bei 32bit und 24bit TrueColor jeweils 16.7 Mio. Farben.


    Ich lasse mich da auch gerne überzeugen. Da im Posting speziell auf die 32bit eingegangen wurde, habe ich die 24bit nicht erwähnt. Ich habe das aber nachträglich noch geändert.


    Rot, Grün und Blau


    Eigentlich gibt es dieses Phänomen schon beim Farbfernseher. Jeder farbige Punkt auf der Bildröhre ist ein Gemisch aus diesen drei Farb-Punkten. Besonders gut läßt sich dies mit einer Lupe beobachten.


    Auch in Grafiken gibt es eine RGB-Farbpalette, die auf ähnliche Weise Farbtöne bestimmt. Zu jedem binären Muster, das einem Pixel zugeordnet wird gibt es in einer Tabelle drei Bytes, die für diese drei Grundfarben stehen.


    Der Inhalt dieser Bytes kann Werte zwischen 0 und 255 annehmen. Dabei entsprechen diese Werte dem Grad der Farbintensität (je höher, desto heller).


    Da jedes dieser RGB-Bytes 256 mögliche Werte haben kann, ergibt es 256x256x256 verschiedene Farbton-Möglichkeiten, also 16.777.216 Farben, was einer 24Bit-Farbtiefe entspricht. Dies ist der Grund dafür, daß diese Farb-Tiefe auch "Echtfarben" bzw. "TrueColor" genannt wird. Eine 32Bit-Farbtiefe wird über dieses Verfahren nicht mehr Farbtöne darstellen können.

  • Hallo Frank,


    die neue GraKa deswegen, weil die "alte" Karte - eine GF2Pro - keinen DVI-Anschluß hat und bei 1280x1024x32 in UT2003 ziemlich abstinkt. Ich denke an eine GF4 Ti4200, denn wenn schon ein teurer TFT ins Haus kommt dann will ich den auch angemessen nutzen können. :D
    Momentan (am CRT) ist UT2k3 bei 800x600x32 und mittelhohen Details gut spielbar (30-40fps).



    mfg
    frank

  • Mein Wissen entspricht exakt dem, was Prad schon berichtet hat.
    Schon meine alte Matrox Millenium von 1995 konnte 24Bit als auch 32Bit Farbtiefe darstellen, wobei bei beiden 16.7 Mio. Farben gleichzeitig (wenn man soviel Pixel hätte :D ) darstellbar waren.


    Selbst wenn es jetzt ganz neu schon Karten mit 4.3 Mrd. Farbauflösung geben sollte, ist mir unklar, wie und womit diese Farbzahl visualisiert werden könnte.


    Monitore können es eigentlich nicht sein, da diese alle auf 16.7 Mio. Farben "beschränkt" sind (sofern man dieses Wort in diesem Zusammenhang überhaupt gebrauchen sollte). Dabei ist es egal, ob TFT oder CRT - hier ist diesbezüglich nach meinen Kenntnissen kein Unterschied vorhanden.


    @frankt.
    Selbst bei 4.3Mrd. Farben wirst Du auf einem TFT (und CRT) mit an Sicherheit grenzender Wahrscheinlichkeit kein besseres Bild haben.


    Da der AD-Wandler in der analogen TFT-Eingangselektronik nur eine 24-Bit-Auflösung hat, ist es gleich, ob das analoge Signal mit 24Bit oder gar mit echten 32Bit-Farbauflösung darherkommt. Das digitale Bildsignal hat dann in jedem Fall nur 24Bit. Das Ergebnis ist daher nicht "besser", da bei der AD-Wandlung einfach ein Teil der Farbauflösung über den Jordan geht (im Fall einer 32Bit-Farbauflösung).

  • Wie Farbtiefen auf dem Desktop gehandhabt werden, weiss ich nicht, ich gehe aber davon aus, dass hier maximal 16,7 Mio Farben (24 bit) dargestellt werden.


    In Spielen bedeutet 32 bit: 24 bit Farben, 8 bit Alpha. Die Alphabits geben Auskunft über die Transparenz des Farbwertes und werden benötigt, wenn eine Farbe per "Blending" über eine andere gelegt wird. Am Ende kommt aber immer ein Farbwert im 16,7 Mio. Spektrum heraus.
    Die Aussage, 16,7 Mio Farben müssten genügen, das menschliche Auge kann ohnehin nicht so viele unterscheiden, ist so nicht richtig. Über das menschliche Auge weiß ich nicht Bescheid, das Ganze hat aber mehr mit Renderingverfahren zu tun.


    Die Farbe eines Bildpunktes stammt nicht von einer einzige Textur o.ä. Vielmehr werden mehrere Farben zu einer zusammengemischt. Diese Farben stammen zB von der Objekttextur, Beleuchtung, einem Nebeleffekt, einem Waffeneffekt.
    Bei der Mischung entstehen in der internen Berechnung Verluste durch die Rundung, vor allem bei sehr kleinen Werten. Daher ist auch ein 32 bit Bild nicht perfekt.
    Das alles hat m.E. aber nichts mit dem Monitor zu tun, eine Grafikkarte der Zukunft, die mit weit mehr Bits pro Farbkanal rechnet (darüber hinaus wohl im Fließkommaverfahren), sollte auf einem normalen 16,7 Mio Farben Monitor trotzdem ein genaueres Bild produzieren.


    Viele Grüße!
    Gerhard

  • Das menschliche Ohr hat ja auch einen weitaus größeren wahrnehmbaren Freuquenzbereich, als es beispielsweise die CD wiedergibt.
    Das das menschliche Auge auch durchaus mehr 16.7 Mio. Farben aufnehmen kann, könnte ich mir zumindest durchaus vorstellen.


    Was ich mir aber nicht vorstellen kann ist, das das Bild eines 24-Bit-Monitors besser sein soll, wenn dessen empfangenes Bildisignal einen 32Bit- oder größeren Ursprung hatte. Warum soll das so sein?
    Ein Teil der Farben wird in jeden Fall einfach wegfallen - die Frage dabei ist wohl: welche sind dies..? Das könnte nach meiner Vorstellung das Ergebnis der Darstellung beeinflussen.

  • Zitat

    Original von Weideblitz
    @frankt.
    Da der AD-Wandler in der analogen TFT-Eingangselektronik nur eine 24-Bit-Auflösung hat, ist es gleich, ob das analoge Signal mit 24Bit oder gar mit echten 32Bit-Farbauflösung darherkommt. Das digitale Bildsignal hat dann in jedem Fall nur 24Bit. Das Ergebnis ist daher nicht "besser", da bei der AD-Wandlung einfach ein Teil der Farbauflösung über den Jordan geht (im Fall einer 32Bit-Farbauflösung).


    Danke nochmal für die Klarstellung, ich hatte einen Aussetzer weil ich 16-bit und Truecolor (16,7Mio.) in einen Topf geworfen hatte. Ärgerlich, weil mir diese Zusammenhänge eigenlich schon klar sind. :(


    Letztendlich werde ich also nach dem TFT-Kauf auch die Grafikkarte erneuern, weil für beste Qualität ein DVI-Anschluß gebraucht wird und die 3D-Leistung momentan nicht ausreicht, um in der nativen TFT-Auflösung in 32-bit spielen zu können.


    mfg
    frankt.

  • Hallo frankt.


    das machst überhaupt nichts, da das jedem so gehen kann und ist mir auch schon so gegangen.


    An bizzels Einwurf könnte auch durchaus was dran sein. Mehr Farbtöne können im 32-Bit auf keinen Fall dargestellt werden - vielleicht aber die "besseren"? (keine Ahnung ?( )


    Ich habe die Erfahrung gemacht, daß ein Unterschied zwischen 24-Bit und 32-Bit-Darstellung mit dem Auge auf TFT oder CRT nicht sichtlich erkennbar ist. Ich denke daher, daß Du mit Deiner jetztigen Grafikkarte durchaus noch leben könntest.


    Ob Du mit DVI die beste Bildqualität erhälst, ist pauschal nicht unbedingt so zu sagen. In der Regel stimmt das schon, aber bei guten bis sehr guten (und meist auch teureren TFT-Monitoren) ist analoge Eingangselektronik auch so gut, daß man kaum einen Unterschied zwischen DVI und analog sehen kann.


    Wenn Du auf Nummer sicher gehen willst, machst Du jedenfalls nichts verkehrt. Die Investition in DVI halte ich für kein rausgewrofehnes Geld, zumal Du Deine jetztige Grafikkarte im 24-Bit Modus auch schon am Limit betreibst.

  • Hallo Weideblitz,


    ich weiß zwar nur sehr wenig über 3D-Programmierung, aber ich denke blizzel hat Recht: Es wird intern mit 32bit (24+alpha) gerechnet, rauskommen wird immer 24bit, da der Alpha-Kanal bei der Ausgabe mit dem Bild "verschmolzen" wird.


    Da ich die etwas teureren TFTs ins Auge gefaßt habe (siehe 1. Post) werde ich natürlich ausprobieren wie sich der Monitor an der jetzigen Grafikkarte macht. Ein gestochen scharfer Desktop ist wichtig und ich bin skeptisch, ob das mit der jetzigen Karte in der höheren Auflösung machbar ist. Ich habe bisher einen sehr scharfen 17"-CRT im Einsatz, dessen Helligkeit aber nach 5,5 Jahren sehr nachgelassen hat. Spiele sind nicht das Haupteinsatzgebiet - auch wenn das bisher nicht so rüberkam. Aber wenn ich zocke, dann nur UT. :D


    DVI scheint ja bei fast allen Karten dabei zu sein und prinzipbedingt sollten eigentlich keine Qualitätsunterschiede zwischen den verschiedenen Karten bestehen?



    mfg
    frankt.

  • Das bei dem "normalen" 32-Bit-Modus hinten nur 24Bit rauskommt, Dem ist tatsächlich so
    .
    Der Vergleich bzg. des "besseren" Bildes bezog sich auf den Verleich des 24-Bit Modus (16.7 Mio Farben) zum dem echten 32-Bit Modus (4.3 Mrd. Farben).


    DVI: da es sich hier um eine digitale Datenübertragung handelt, ist die Qualität des Signals an sich bei allen Karten identisch. Was allerdings die Grafikengines vorher in das Bild alles reinzaubern, da trennt sich die Spreu vom Weizen (der Kühler von der CPU und der Krach vom Ohr)

    • Offizieller Beitrag
    Zitat

    Original von Weideblitz
    DVI: da es sich hier um eine digitale Datenübertragung handelt, ist die Qualität des Signals an sich bei allen Karten identisch.


    Also ich denke doch, dass hier Unterschiede der Signalqualität durchaus möglich sind. Insbesondere Matrox Karten stehen in dem Ruf ein erstklassiges Ausgangssignal zu besitzen.


    Allerdings muss ebenfalls dazu gesagt werden, dass die Ausgangssignale der Karten innerhalb einer gewissen Spezifikation liegen und dass wir als User diesen Unterschied sicherlich nicht erkennen können.


    Das Ausgangssignal wird aber mittlerweile bei jedem gutem Grafikkarten-Test mit getestet und dann natürlich das Ergebnis veröffentlicht!

  • Das denke ich nicht:


    die gute Signalqualität bei den Tests bezog sich immer auf das analoge Signal. Das hat die c't beispielsweise in ihren Testtabellen auch immer so angegeben.


    Wie soll sich den ein mehr oder weniger gutes digitales Signal die Bildqualität beeinflussen können?
    Bei einem analogen Signal stehen Pegel, Flankensteilheit u.ä. in direktem Zusammenhang mit der Darstellungsgenauigkeit, bei DVI ist das nicht der Fall.


    Ein digitales Signal besteht nur aus 2 Werten, die der Empfänger erkennen muß: NULLEN und EINSEN. Wie gut diese übertragen werden, spielt keine Rolle. Hauptsache, der Empfänger kann das Signal überhaupt lesen.


    Bei einem analogen Signal müssen im Prinzip unendlich viele Werte ausgelesen werden. Eine AD-Wandlung, wie sie bei analogen Eingängen von TFT-Monitoren zwingend erforderlich ist, ist daher immer verlustbehaftet.


    Sollte die Qualität des digitalen Signals so schlecht sein, daß es Empfansgprobleme gibt, dann stimmt schon physikalisch etwas im Ansatz bei der Verbindung zwischen Monitor und Grafikkarte nicht: Verbindund viel zu lang, Kabel nicht abgeschirmt (EMV!) usw.
    Das wäre im besten Fall noch mit sichtbaren Bildstörungen verbunden, im schlechtesten Fall mit dem Ausfall der Anzeige. Das hat mit dem Normalbetrieb aber nichts zu tun.
    Die Verbindung ist ferner relativ kurz, so daß es eigentlich keine Probleme geben dürfte.

  • Weideblitz + prad


    Peinlich, peinlich!!!


    Ihr habt recht mit den 32 Bit. Irgendwie hatte ich da einen Aussetzer.


    Die 24 Bit Farbtiefe errechnet sich ja, wie prad schon beschrieben hat, aus den jeweils 8Bit der einzelnen Farben (Rot, Grün, Blau) ---> also 2^24=16.7 Mio..


    32 Bit lassen sich jedoch (wie ich zugeben muss) ziemlich schlecht durch 3 dividieren. Folglich kann es nicht direkt mit einer noch höheren Farbauflösung zu tun haben.


    Ich habe eben noch kurz bei handelsüblichen Scannern nachgesehen und da war die Rede von 48 Bit (Totaler Overkill wie ich finde :rolleyes: ). Das macht dann ergo 16 Bit pro Farbe.


    ---schäm---



    Tschau...

    • Offizieller Beitrag

    Also ich bin kein Techniker, denke aber dass auch beim analogen Signal Nullen und Einser übertragen werden.


    [Blockierte Grafik: http://www.tu-chemnitz.de/informatik/RA/kompendium/vortraege_99/peripherie/pics/Pic04.gif]


    Es gibt bei den DVI-I Karten schon Unterschiede bei der Signalqualität, allerdings wurde hier auch die VGA Quaität der analogen Signale getestet.


    Insbesondere die Matrox Parhelia konnte hier überzeugen. Diese Karte hatte nur 2 DVI-I Anschlüsse und somit keinen D-Sub Anschluss.


    Ich habe tatsächlich keinen Test gefunden wo ausdrücklich der digitale Ausgang der Karte getestet wurde. Vielleicht tun sich da Abründe auf und keiner hat getestet?


    Insofern relativiere ich meine Aussage, bis ich andere Infos habe. :D

  • Ein analoges Signal kann unendlich viele Werte annehmen. Die Information in einem analogen Signal steckt im Amplitudenverlauf in Abhängigkeit der Zeit.


    Bei der AD-Wandlung wird in regeläßigen zeitlichen Abständen das Analogsignal vermessen. Diese Messwerte nennt man auch Samples, die sequentiell digital (über Nullen und Einsen im hexadezimalen Zahlensystem) abgespeichert werden.


    [Blockierte Grafik: http://wwwsiegert.informatik.tu-muenchen.de/lehre/seminare/ps_ss2000/ausarb/01/sampling.gif]


    Die Qualität eines digitalen Signal hängt dabei ab von:
    a) Wie oft wird der Wert des analogen Signals digitalisiert (Samplefrequenz)?
    b) Mit welcher Genauigkeit werden die Werte erfaßt (Auflösung)?


    [Blockierte Grafik: http://www.musikmarkt.com/content/tips/sampling.jpg]


    Bei der AD-Wandlung wird aus einem zeit- und wertkontinuierlichem Analogsignal somit ein zeit- und wertdiskretes Digitalsignal.
    Bei der DA-Wandlung passiert das gleiche nur umgekehrt.


    Gerade dieses schöne sinusförmige Symbol für das analoge Signal in Deinem Bild soll gerade die Kontinuität des Analogsigals ausdrücken.


    Die verlustfreie Übertragung eines solchen Signals, vielleicht auch über längere Strecken, das ist schwierig und die Kunst der Schaltungstechniker!


    Im Audio-Bereich wird hier teilweise ein extremer Aufwand getrieben (superdicke Kabel, vergoldete Anschlüsse zur Reduktion von leitungsspezifischen Kapazitätenn Induktivitäten und Widerständen.


    Alles, was in dem Bild mit 001001111 gezeit wird, ist digital. Ein schönes Bild von einer analogen VGA- Schwingung eines weissen Pixels findet man in der c't, 10/2002, Seite 132. In dem damaligen großen Vergleichstest hat man die analogen Signale aller Kandidaten im Speziallabor untersuchen lassen.


    Die letzten Millenium Karten mit Analog-Ausgang waren der Konkurrenz aus der Nvidia-Fraktion deutlich überlegen. Über den DVI-(D) Port habe ich noch nirgends eine Aussage gefunden.