Vorteile Displayport vs. DVI?

  • Hallo,


    ich werde mir wahrscheinlich in der nächsten Woche einen neuen Monitor zulegen, der auch einen Displaport hat. Meinen jetzigen Monitor verbinde ich noch mit DVI.


    Gibt es Vorteile (vor allem bezüglich der Bildqualität), wenn ich meinen 'Neuen' per Displayport anschliessen würde und nicht per DVI?


    Grüße

  • Nur wenn du eine "Profigrafikkarte" wie z.B. die Quadro FX1800 nutzt und der Bildschirm 10bit unterstützt. Bei den üblichen Grafikkarten hast du keinen Vorteil bezüglich der Bildqualität. Du kannst allerdings per DP bei den aktuellen Grafikkarten mehr als zwei Monitore parallel verbinden, wenn du das nicht planst, reicht auch DVI aus.

  • Nur wenn du eine "Profigrafikkarte" wie z.B. die Quadro FX1800 nutzt und der Bildschirm 10bit unterstützt. Bei den üblichen Grafikkarten hast du keinen Vorteil bezüglich der Bildqualität. Du kannst allerdings per DP bei den aktuellen Grafikkarten mehr als zwei Monitore parallel verbinden, wenn du das nicht planst, reicht auch DVI aus.


    Ich klinke mich hier mal ein - heisst das ich habe aktuell keine Chance die 32 Bit in denen die aktuellen GPUs rendern auch zum Schirm zu bekommen ? Das wäre ja echt arm...


    Klar - über DVI geht nix - aber mittlerweile haben die meisten Karten eigentlich schon lange genug hdmi und hdmi wiederum HAT die Möglichkeit mehr als 8Bit pro Kanal auszugeben.
    Mit einem hdmi auf DisplayPort Adapter sollte man doch eigentlich an die höheren Farbtiefen rann kommen ?!?

  • Du verwechselst da etwas, die 8bit werden pro Kanal angegeben, ein RGB Farbraum kann daher also (2^8 )^3 = 16.777.216 Farben darstellen. Der vierte Kanal ist der sogenannte Alphakanal, zusammen werden also die kompletten 32bit dargestellt, auch per DVI.


    Fast alle aktuellen Grafikkarten haben auch einen DP-Anschluss und können trotzdem keine 10bit ausgeben, dafür brauchst du eben so eine "Profigrafikkarte".

  • Du verwechselst da etwas, die 8bit werden pro Kanal angegeben, ein RGB Farbraum kann daher also (2^8 )^3 = 16.777.216 Farben darstellen. Der vierte Kanal ist der sogenannte Alphakanal, zusammen werden also die kompletten 32bit dargestellt, auch per DVI.


    Fast alle aktuellen Grafikkarten haben auch einen DP-Anschluss und können trotzdem keine 10bit ausgeben, dafür brauchst du eben so eine "Profigrafikkarte".


    Ich bin mir da nicht sicher. Transparenzinfos machen absolut keinen Sinn bei einem fertig gerenderten Bildsignal - also besteht für mich schon die Frage was mit 32Bit Farbtiefe an Farben pro Kanal zur Verfügung steht. Transparenzinfos brauche ich nur wärend ich das Bild berechne, oder bei Bildaten, die ich ggF noch weiterverarbeiten will. Das ist aber bei nem Ausgangssignal einer Graka irgendwie Sinnfrei (was nicht heisst, dass es nicht doch so sein kann.)


    Dazu kommte dass seit HDMI 1.3 deep color (30 Bit) und vYCC Color Einzug gehalten haben. Ergo sollte eigentlich z.B. eine GTX460 ein solches Signal liefern können...
    Siehe hier http://www.nvidia.com/object/product-geforce-gtx-460-us.html

    Zitat von NVIDIA


    Fully integrated support for HDMI 1.4a including GPU accelerated Blu-ray 3D4 support, xvYCC, deep color, and 7.1 digital surround sound including Dolby TrueHD and DTS-HD. Upgrade your GPU to full 3D capability with NVIDIA 3DTV Play software, enabling 3D gaming, picture viewing and 3D web video streaming. See http://www.nvidia.com/3dtv for more details.


    Wenn das nur leere Werbeversprechen sind dann Frage ich mich ob man sie da nicht irgendwie mal drauf festnageln sollte. Da sollte mal ein Profi rann an das Thema finde ich. Da gibts grade jede Menge Marketing Blah und gefährliches Halbwissen...