Posts by Devron

    Das da noch niemand zuschlägt. Würde ich nicht mit einem Fujitsu oder Dell liebäugeln wäre das definitiv lohnenswert.
    Viel Erfolg. :)

    Quote

    Nope, erst seit HDMI 1.3a schafft diese Connection diese Bandbreite und das ist ein subtiler Indiz für die natürliche technische Unterlegenheit - natürlich ist das heute nicht mehr der Fall.


    Selbstverständlich bezog ich mich auf den derzeitigen Stand der Technik. Das die Hersteller einen alten Standard in einem neuen Monitor verbauen hat mit der Technik an sich erstmal nichts zu tun.

    Quote

    uiuiu, da is aber einer kleinlich. Die Aussage sollte trotz dem falsch angewandten math. Symbol dennoch verstanden sein.


    Ich bin nicht kleinlich, aber du rätst rum ohne zu wissen worum es überhaupt geht.
    Die ganze Prämisse in deiner Aussage ist falsch. Die mathematischen Symbole sind ein gut gemeinter Wink der mitteilen sollte, dass allein beim lesen des Satzes einen schon was auffallen müsste. ;)



    Quote

    Wie ich bereits gesagt habe, HDMI ist um ein vielfaches günstiger und vorallem kleiner, weswegen es in Laptops weitere Verwendung findet. Aus betriebswirtschaftlichen Gründen stapelt man also eher HDMI als DVI, da breitflächiger implementiertbar.


    Quelle bitte. Bei HDMI kommen neben den Gebühren für HDMI selbst meist auch noch HDCP Gebühren dazu. Bei DVI sehe ich zurzeit nur den Mitgliedsbeitrag, der trotzdem geringer ist als die jährliche Gebühr von HDMI.
    Abgesehen davon ist das nicht betriebswirtschaftlich logisch, da es sonst nur HDMI Eingänge gebe mit ggf. DVI Adapter und nicht die halben dinger unter 1.3a. Deshalb ist davon auszugehen, dass DVI immernoch günstiger ist als HDMI 1.3a.

    Quote

    natürliche technische Unterlegenheit


    Das ist doch ein Witz. Du sagst selber das HDMI kleiner und "günstiger" ist und reduzierst ihn dann auf die Bandbreite und das noch bei kleinerer Steckfläche.


    Abgesehen davon vergleichst du verschiedene Generationen von Schnittstellen, vor allem eine in ihrem Endstadium mit der Mitte von einer anderen. Da könnte ich genausogut CD und DVD vergleichen, genauso sinnig. Oder eine 16 Jährige mit Michael Phelps.

    Pixel clock ist der Pixeltakt und hat erstmal nichts, bzw wenig mit der synchronisierung zu tun.


    Er sagt aus wie viele Pixel pro sekunde dagestellt werden können und ist somit eine größe für die Bandbreite, die bestimmte kombination von Auflösungen und Wiederholrate zulässt.


    Merken wirst du bei den beiden Monitoren von nichts. Da beide weder durch Ihre Auflösung noch Wiederholrate den Pixeltakt ausreizen.


    Zwischen HDMI und DVI nimmt sich eigentlich nicht viel. In der Regel kann mann auch über HDMI 2560 x 1440 nutzen, unter anderem in den Einstellungen der Grafikkarte.


    Da es auch Monitore gibt die das tun, gehe ich nicht davon aus, dass die Hersteller zu doof zum implementieren sind, sondern einfach nur Geld sparen und alte HDMI Versionen verbauen, da die meisten Graffikkarten ja fast alles unterstützen und es nicht das Problem ist den Monitor über DVI anzuschließen und die meisten externen Medien bei denen zusätzlich eine Audioübertragung interessant wär sowieso nur 1080p wiedergeben.


    Quote

    Ne, denke nicht. Pildpunktrate ist wohl eher ein Begriff für die Auflösung, weil es einen relativen Wert benennt. Bildpunkte = Pixel, rate = ratio = Verhältnis => Pixelverhältnis (800x600 - 800 zu 600 Pixel) oder auch Auflösung !


    800x600 => Auflösung, das ist kein Verhältnis
    800/600 ist das Pixelseitenverhältnis (pixel aspect ratio), nicht zu verwechseln mit dem Seitenverhältnis des Bilschirms.


    PS: Entschuldigt die Formatierung, aber irgendwie haut der mir gerade jedesmal doppelte Absätze rein, wenn ich auf Absenden klicke.