Samsung S27A850T, HDMI Eingang nur 1920x1080? Dann doch S27A850D?

  • Hi,


    der S27A850T hat gegenüber dem S27A850D einen HDMI Eingang statt des zweiten DVI-Dual Einganges.


    Laut Benutzerhandbuch SyncMaster S27A850T (BN46-00082B-Ger.pdf BN46-00082B-03), Seite 33, ist die maximale Auflösung am HDMI Eingang nur 1920x1080.


    Stimmt das so?
    Ich meine gelesen zu haben, dass er auf allen drei Eingängen die Auflösung 2560x1440 entgegen nähme.
    Dann wärs gut. Ansonsten scheint es mir ein schlechter Tausch. (HDMI auf DVI Adapter habe ich)


    Von der 330MHz Pixelclock des 'T' anstatt der 270MHz Bildpunktrate des 'D' habe ich vermutlich wenig, ist aus dieser Sicht ein S27A850D vorzuziehen?


    Grüße

  • HDMI existiert in verschiedenen Standards, während erst 1.3a Auflösung von 1440p realisiert. HDMI war aber noch nie die bevorzugte connection bei Monitoren... und braucht man nicht nur einen Anschluss ? Daisy chaining geht ja nicht.




    Auf jeden Fall ist vom neueren T Modell noch nicht viel negatives bzgl backlight bleeding zu hören.


    Pixelclock ist eigentlich keine direkte Angabe für Konsumenten und ich bin mir auch nicht sicher warum die differiert. Das ist lediglich die Frequenz mit der sich das Bildsignal synchronisieren soll... Bildpunktrate, ich glaub nicht, dass das der richtige deutsche Begriff ist.

  • Danke für die Antwort!

    ... und braucht man nicht nur einen Anschluss ?

    Naja, der Monitor sollte es für das nächste halbe Jahrzehnt tun. Da ist es möglicherweise schon angesagt, dass er über HDMI seine native Auflösung anpreist und entgegen nimmt.

    Zitat

    Bildpunktrate, ich glaub nicht, dass das der richtige deutsche Begriff ist.

    Ist sicher ungewöhnlich, aber vermutlich korrekt.

  • Naja, der Monitor sollte es für das nächste halbe Jahrzehnt tun. Da ist es möglicherweise schon angesagt, dass er über HDMI seine native Auflösung anpreist und entgegen nimmt.

    Nope, HDMI war bis vor kurzem und ist eignetlich immernoch eine unterlegen Schnittstelle. Dual DVI ist weitaus potenter und die Zukunft rennt eher richtung Displayport. HDMI ist nur äußerst günstig zu verbauen.



    Ist sicher ungewöhnlich, aber vermutlich korrekt.

    Ne, denke nicht. Pildpunktrate ist wohl eher ein Begriff für die Auflösung, weil es einen relativen Wert benennt. Bildpunkte = Pixel, rate = ratio = Verhältnis => Pixelverhältnis (800x600 - 800 zu 600 Pixel) oder auch Auflösung !

  • Pixel clock ist der Pixeltakt und hat erstmal nichts, bzw wenig mit der synchronisierung zu tun.


    Er sagt aus wie viele Pixel pro sekunde dagestellt werden können und ist somit eine größe für die Bandbreite, die bestimmte kombination von Auflösungen und Wiederholrate zulässt.


    Merken wirst du bei den beiden Monitoren von nichts. Da beide weder durch Ihre Auflösung noch Wiederholrate den Pixeltakt ausreizen.


    Zwischen HDMI und DVI nimmt sich eigentlich nicht viel. In der Regel kann mann auch über HDMI 2560 x 1440 nutzen, unter anderem in den Einstellungen der Grafikkarte.


    Da es auch Monitore gibt die das tun, gehe ich nicht davon aus, dass die Hersteller zu doof zum implementieren sind, sondern einfach nur Geld sparen und alte HDMI Versionen verbauen, da die meisten Graffikkarten ja fast alles unterstützen und es nicht das Problem ist den Monitor über DVI anzuschließen und die meisten externen Medien bei denen zusätzlich eine Audioübertragung interessant wär sowieso nur 1080p wiedergeben.


    Zitat

    Ne, denke nicht. Pildpunktrate ist wohl eher ein Begriff für die Auflösung, weil es einen relativen Wert benennt. Bildpunkte = Pixel, rate = ratio = Verhältnis => Pixelverhältnis (800x600 - 800 zu 600 Pixel) oder auch Auflösung !


    800x600 => Auflösung, das ist kein Verhältnis
    800/600 ist das Pixelseitenverhältnis (pixel aspect ratio), nicht zu verwechseln mit dem Seitenverhältnis des Bilschirms.


    PS: Entschuldigt die Formatierung, aber irgendwie haut der mir gerade jedesmal doppelte Absätze rein, wenn ich auf Absenden klicke.

  • Zwischen HDMI und DVI nimmt sich eigentlich nicht viel. In der Regel kann mann auch über HDMI 2560 x 1440 nutzen, unter anderem in den Einstellungen der Grafikkarte.

    Nope, erst seit HDMI 1.3a schafft diese Connection diese Bandbreite und das ist ein subtiler Indiz für die natürliche technische Unterlegenheit - natürlich ist das heute nicht mehr der Fall.

    Da es auch Monitore gibt die das tun, gehe ich nicht davon aus, dass die Hersteller zu doof zum implementieren sind, sondern einfach nur Geld sparen und alte HDMI Versionen verbauen, da die meisten Graffikkarten ja fast alles unterstützen und es nicht das Problem ist den Monitor über DVI anzuschließe

    Wie ich bereits gesagt habe, HDMI ist um ein vielfaches günstiger und vorallem kleiner, weswegen es in Laptops weitere Verwendung findet. Aus betriebswirtschaftlichen Gründen stapelt man also eher HDMI als DVI, da breitflächiger implementiertbar.


    800x600 => Auflösung, das ist kein Verhältnis
    800/600 ist das Pixelseitenverhältnis (pixel aspect ratio), nicht zu verwechseln mit dem Seitenverhältnis des Bilschirms.

    uiuiu, da is aber einer kleinlich. Die Aussage sollte trotz dem falsch angewandten math. Symbol dennoch verstanden sein.

  • Zitat

    Pildpunktrate ist wohl eher ein Begriff für die Auflösung, weil es einen relativen Wert benennt. Bildpunkte = Pixel, rate = ratio = Verhältnis => Pixelverhältnis (800x600 - 800 zu 600 Pixel) oder auch Auflösung !

    Zitat

    Die Aussage sollte trotz dem falsch angewandten math. Symbol dennoch verstanden sein.

    Verstanden habe ich die Aussage, für richtig halte ich sie nicht.


    Das "Rate" wie in Bildpunktrate, Bildwiederholrate oder Zerfallsrate verwendet, bezeichnet eine Größe (hier die Zahl von Bildpunkten, die Zahl der Bildwiederholungen oder Zerfällen) pro Zeiteinheit. Ist aber off topic.

  • Zitat

    Nope, erst seit HDMI 1.3a schafft diese Connection diese Bandbreite und das ist ein subtiler Indiz für die natürliche technische Unterlegenheit - natürlich ist das heute nicht mehr der Fall.


    Selbstverständlich bezog ich mich auf den derzeitigen Stand der Technik. Das die Hersteller einen alten Standard in einem neuen Monitor verbauen hat mit der Technik an sich erstmal nichts zu tun.

    Zitat

    uiuiu, da is aber einer kleinlich. Die Aussage sollte trotz dem falsch angewandten math. Symbol dennoch verstanden sein.


    Ich bin nicht kleinlich, aber du rätst rum ohne zu wissen worum es überhaupt geht.
    Die ganze Prämisse in deiner Aussage ist falsch. Die mathematischen Symbole sind ein gut gemeinter Wink der mitteilen sollte, dass allein beim lesen des Satzes einen schon was auffallen müsste. ;)



    Zitat

    Wie ich bereits gesagt habe, HDMI ist um ein vielfaches günstiger und vorallem kleiner, weswegen es in Laptops weitere Verwendung findet. Aus betriebswirtschaftlichen Gründen stapelt man also eher HDMI als DVI, da breitflächiger implementiertbar.


    Quelle bitte. Bei HDMI kommen neben den Gebühren für HDMI selbst meist auch noch HDCP Gebühren dazu. Bei DVI sehe ich zurzeit nur den Mitgliedsbeitrag, der trotzdem geringer ist als die jährliche Gebühr von HDMI.
    Abgesehen davon ist das nicht betriebswirtschaftlich logisch, da es sonst nur HDMI Eingänge gebe mit ggf. DVI Adapter und nicht die halben dinger unter 1.3a. Deshalb ist davon auszugehen, dass DVI immernoch günstiger ist als HDMI 1.3a.

    Zitat

    natürliche technische Unterlegenheit


    Das ist doch ein Witz. Du sagst selber das HDMI kleiner und "günstiger" ist und reduzierst ihn dann auf die Bandbreite und das noch bei kleinerer Steckfläche.


    Abgesehen davon vergleichst du verschiedene Generationen von Schnittstellen, vor allem eine in ihrem Endstadium mit der Mitte von einer anderen. Da könnte ich genausogut CD und DVD vergleichen, genauso sinnig. Oder eine 16 Jährige mit Michael Phelps.

    2 Mal editiert, zuletzt von Devron ()

  • Zitat
    uiuiu, da is aber einer kleinlich. Die Aussage sollte trotz dem falsch angewandten math. Symbol dennoch verstanden sein.



    Ich bin nicht kleinlich, aber du rätst rum ohne zu wissen worum es überhaupt geht.
    Die ganze Prämisse in deiner Aussage ist falsch. Die mathematischen Symbole sind ein gut gemeinter Wink der mitteilen sollte, dass allein beim lesen des Satzes einen schon was auffallen müsste. ;)

    Das ist kein raten, sondern eine logische Deduktion von dem Wort: Bildpunktrate. Wie ich es bereits seziert habe, macht immernoch Sinn und wenn man schon den Transfer nicht leisten möchte um das "x" mit einem "/" oder ":" auszutauschen, dann bin ich auch so pedantisch und negiere: "Rate bezeichnet KEINE Größe, sondern ein dimensionsloses Verhältnis" und das ist nichts anderes, als das was ich bereits geschrieben habe.


    Soweit ich weiß, wurde hier auch noch nicht revidiert, dass Pildpunktrate /= Pixel clock !


    Abgesehen davon ist das nicht betriebswirtschaftlich logisch, da es sonst nur HDMI Eingänge gebe mit ggf. DVI Adapter und nicht die halben dinger unter 1.3a. Deshalb ist davon auszugehen, dass DVI immernoch günstiger ist als HDMI 1.3a.

    Es ist insofern betriebswirtschaftlich logisch, dass die Hersteller im seltensten Falle ein limitierten Warenkatalog produzieren, sondern ebend Typübergreifend produzieren, weswegen HDMI wohl günstiger ist überall rein zu drücken als DVI. Bspw. in Fernseher und Monitore - per Kostenstelle nur eine und zwar HDMI, anstelle noch DVI oben drauf. Außerdem ist es kleiner, verbraucht also weniger Raum, aber ist per technologischer Leistungsfähigkeit "natürlich" unterlegen - das hat rein garnichts mit der pyhsischen Größe zu tun.