16-bit und 32-bit Farbdarstellung bei TFTs

  • Hallo Prad,


    Zitat

    Original von Prad
    Es gibt bei den DVI-I Karten schon Unterschiede bei der Signalqualität, allerdings wurde hier auch die VGA Quaität der analogen Signale getestet.
    Insbesondere die Matrox Parhelia konnte hier überzeugen. Diese Karte hatte nur 2 DVI-I Anschlüsse und somit keinen D-Sub Anschluss.


    DVI-I kann doch auch analoge Signale übertragen und entspricht somit einem vollwertigen VGA-Ausgang, oder?


    Zitat

    Original von Prad
    Ich habe tatsächlich keinen Test gefunden wo ausdrücklich der digitale Ausgang der Karte getestet wurde. Vielleicht tun sich da Abründe auf und keiner hat getestet?


    Eigentlich sollte es doch wie bei einer CD sein: Digital ist digital, dort können (theoretisch?!) keine Qualitätsunterschiede mehr auftreten.




    PS: THG hat zu den digitalen Anschlüssen einen Grundlagenartikel:


    PPS: Faszinierend, welchen thread eine völlig falsche Ursprungsfrage auslösen kann... :D


    mfg
    frankt.

  • Zitat

    Original von frankt.
    DVI-I kann doch auch analoge Signale übertragen und entspricht somit einem vollwertigen VGA-Ausgang, oder?


    Genau. DVI-I ist ein kombiniertes Digital- und Analog-Signal, welche auf unterschiedlichen Polen geführt werden. Das analoge hier entspricht aber genau dem VGA-Signal. DVI-D ist rein digital. So gesehen kann es natürlich unterschiede bei dem Analoganteil bei DVI-I) (-> DVI-A !) geben.


    Zitat

    Eigentlich sollte es doch wie bei einer CD sein: Digital ist digital, dort können (theoretisch?!) keine Qualitätsunterschiede mehr auftreten.


    Richtig.

  • Zitat

    Original von Weideblitz
    Mehr Farbtöne können im 32-Bit auf keinen Fall dargestellt werden - vielleicht aber die "besseren"?


    Yop, in etwa so sehe ich das. Keine Garantie auf Richtigkeit natürlich, aber es ist in jedem Fall eine Tatsache, dass 16 (oder auch 32) bit intern zu wenig sind, daher John Carmacks Pioniergeist Richtung 64 bit und Floating Point. Letzteres setzt am Problem an, indem man durch die "Exponentenbits" zunächst festlegen kann, in welchem Wertebereich man Genauigkeit möchte. Bei Integerrechnung ist die Genauigkeit über die Werteskala immer linear verteilt, und damit idR suboptimal.


    Jetzt aber genug der Mathematik, gute Nacht ;)