Beiträge von utzutz

    Ist es auch, wenn du nicht ganz so helle bist. Wenn du das ag coating entfernst, entfernst du auch jegliche Schicht und Schutz vor dem Polarizer und der wird, je nach dem wie oft du über den screen wischst, früher oder später einen Knacks kriegen.


    Onscreen verkauft glaube ich auch custom Folien, zumindest diese hier gibst auch regulär:



    Ist für ein iMac, kann man aber simpel etwas verkürzen und unter den Rahmen vom Dell verkleben.

    Ein IPS mit Antireflexionsbeschichtung und einer hohen ppi wird immer ein Glitzern verursachen. Subjektiv ist dann jedoch die Wertung dessen. Der eine empfindet jedes verschmierte Weiß als störend, dieser wird aber auch nie mit einem COating zufrieden sein, während ein andere diese nichtmal bemerkt.


    Fakt ist GLitzern ist da, aber geringer als die grobe Malerei beim u2711 - wobei ein glossy mod. beim u2711 auch nicht fordernd ist. (Mit glossy mod impliziere ich eine anschließende klare Schutzfolie - kann man überall kaufen)

    ttt
    das Wichtigste: welcher Farbraum, sRGB oder aRGB.
    !0 Bit Farbfähigkeit ist zwar gut, unterstützt das aber die GraKa ?
    ich kaufe lieber einen preiswerten Monitor für nur-sRGB und ein Colorimeter, als ein teures Profimodell. Habe aber auch 2 Monitore in Betrieb.
    So ist auch farbechtes Arbeiten möglich.
    Die weiteren Eigenschaften sind im PRAD-Testbericht nachzulesen.

    Nein das ist falsch. In diesem Fall fragt TTT nach dem besseren Gerät und der u2711 ist in jeglicher Hinsicht überlegen.

    Der Vergleich ist lächerlich.


    Du vergleichst einen guten Profi-Monitor, den man für diverse Bildbearbeitung verwenden kann mit einem eco IPS-class Monitor.


    Quasi ein BMW x5 mit einem Tiguan verglichen. Der u2711 ist per Wertigkeit gute 500€ mehr wert als der 2713 - außer man sucht einen Büromonitor, dann ist natürlich der neuste USB-hub und geingste Stromverbrauch von Mehrwert.

    hey, kannst du deine Aussage erläutern?


    Spielt der U2713HM nicht in einer Liga mit dem 850D?

    Jup, der 850D ist präziser in der Darstellung als der 13HM. Ich versteh auch nicht, wie der 13 ein Sehr Gut erhalten konnte, da er weder eine zureichende Farrbaumabdeckung anbietet, noch eine angmessen Präzision oder Ausleuchtung.


    Die Knackpunkte beim PLS Kandidaten sind beim u2713 nicht weniger ausgebildet, nämlich eine heterogene Ausleuchtung.


    Im Endeffekt reden wir hier aber dennoch von Marginalien im Einsteigersegment - also "who cares" ?

    Zitat
    uiuiu, da is aber einer kleinlich. Die Aussage sollte trotz dem falsch angewandten math. Symbol dennoch verstanden sein.



    Ich bin nicht kleinlich, aber du rätst rum ohne zu wissen worum es überhaupt geht.
    Die ganze Prämisse in deiner Aussage ist falsch. Die mathematischen Symbole sind ein gut gemeinter Wink der mitteilen sollte, dass allein beim lesen des Satzes einen schon was auffallen müsste. ;)

    Das ist kein raten, sondern eine logische Deduktion von dem Wort: Bildpunktrate. Wie ich es bereits seziert habe, macht immernoch Sinn und wenn man schon den Transfer nicht leisten möchte um das "x" mit einem "/" oder ":" auszutauschen, dann bin ich auch so pedantisch und negiere: "Rate bezeichnet KEINE Größe, sondern ein dimensionsloses Verhältnis" und das ist nichts anderes, als das was ich bereits geschrieben habe.


    Soweit ich weiß, wurde hier auch noch nicht revidiert, dass Pildpunktrate /= Pixel clock !


    Abgesehen davon ist das nicht betriebswirtschaftlich logisch, da es sonst nur HDMI Eingänge gebe mit ggf. DVI Adapter und nicht die halben dinger unter 1.3a. Deshalb ist davon auszugehen, dass DVI immernoch günstiger ist als HDMI 1.3a.

    Es ist insofern betriebswirtschaftlich logisch, dass die Hersteller im seltensten Falle ein limitierten Warenkatalog produzieren, sondern ebend Typübergreifend produzieren, weswegen HDMI wohl günstiger ist überall rein zu drücken als DVI. Bspw. in Fernseher und Monitore - per Kostenstelle nur eine und zwar HDMI, anstelle noch DVI oben drauf. Außerdem ist es kleiner, verbraucht also weniger Raum, aber ist per technologischer Leistungsfähigkeit "natürlich" unterlegen - das hat rein garnichts mit der pyhsischen Größe zu tun.

    S27A850D

    noch besser ist in dieser Hinsicht der
    Dell U2713HM


    Auch den findest Du im Prad als preview test und erste Infos schon im Forenthread zu diesem Monitor


    Stichwort: Neuer 27 Zoll Monitor ohne PWM-Technik überzeugt auf ganzer Linie

    Ist das ein Witz?
    Du vergleichst gerade einen CG275 mit zwei Einsteiger IPS Modellen, gut ein Einsteiger PLS Monitor. Der DELL u2713HM kommt nichtmal annähernd an den u2711 ran in Sachen Bildbearbeitung, mal vom vorgeschlagenen HP abgesehen, und der S27A850 ist zwar ein schöner mainstream Monitor steht aber zum CG wie eine VW Golf zu einem Porsche GT2.


    Matz:
    Der CG wird mit einer CCFL beleuchtet, die etwas nachglüht, weswegen man eher weniger vom Flimmern mitbekommen sollte. Im Grunde wirst du aber bei jedem Monitor in der Königsklasse PWM wiederfinden, aber ebend auch eine CCFL Hintergrundbelecuhtung, welches dieses quasi weicher schalten lässt.


    Schlussendlich wirst du wohlmöäglich einfach testen müssen, welches ich dir in der Kategorie aber eh nahe legen würde.

    Also bei dem Budghet ist der NEC SpectraView 241 definitiv die beste Wahl, allerdings stellt sich die Frage, ob der nicht etwas zu übertrieben ist, wenn wir betrachten, dass du ürsprünglich zu einem mainstream ACD gegriffen hättest.


    Andererseits, für die richtigen RAW Daten gibt's nichts besseres als spectraview oder CG ;)

    sorry, aber ein IPS display kann keine 100 punkte in bulqualität erreichen, da gibt es bessere techniken.

    Grundsätzlich ist so eine Wertskala ja immer in Relation zu einer Referenz zu betrachten. Wenn bei meinem Werturteil ein BMW den höchsten Referenzwert erreicht hat, dann wird ein Lamborghini wohl diesen durchbrechen und die neue 100% Referenz darstellen.


    Aber, welche Technologie meinst du, mit besser als IPS ? VA Panels?

    primär wird der Bildschirm zur fortgeschrittener Bilderverarbeitung verwendet werden.

    Beide Monitore sind nicht geeignet für die "fortgeschrittene" Bildbearbeitung, sofern man diesen Begriff richtig anwendet und wertet. Ist ja äußerst subjektiv... was man sich darunter vorstellt.

    2) Wie sieht das mit dem IPS-Glitzern aus? Macht da einer vielleicht mehr als der andere? Weil das würde mich vielleicht wirklich stören!?

    Kannst soviel drüber lesen und recherchieren wie du willst, am Ende wirst du nicht über eine eigene Beurteilung hinweg kommen.



    3) Gibt es vielleicht ne Alternative ?

    Der ersten Monitore, per Budget betrachtet, die in dieses Anwendungsgebiet fallen, sind wohlmöglich der Eizo 2332 und dann der u2711.

    Zwischen HDMI und DVI nimmt sich eigentlich nicht viel. In der Regel kann mann auch über HDMI 2560 x 1440 nutzen, unter anderem in den Einstellungen der Grafikkarte.

    Nope, erst seit HDMI 1.3a schafft diese Connection diese Bandbreite und das ist ein subtiler Indiz für die natürliche technische Unterlegenheit - natürlich ist das heute nicht mehr der Fall.

    Da es auch Monitore gibt die das tun, gehe ich nicht davon aus, dass die Hersteller zu doof zum implementieren sind, sondern einfach nur Geld sparen und alte HDMI Versionen verbauen, da die meisten Graffikkarten ja fast alles unterstützen und es nicht das Problem ist den Monitor über DVI anzuschließe

    Wie ich bereits gesagt habe, HDMI ist um ein vielfaches günstiger und vorallem kleiner, weswegen es in Laptops weitere Verwendung findet. Aus betriebswirtschaftlichen Gründen stapelt man also eher HDMI als DVI, da breitflächiger implementiertbar.


    800x600 => Auflösung, das ist kein Verhältnis
    800/600 ist das Pixelseitenverhältnis (pixel aspect ratio), nicht zu verwechseln mit dem Seitenverhältnis des Bilschirms.

    uiuiu, da is aber einer kleinlich. Die Aussage sollte trotz dem falsch angewandten math. Symbol dennoch verstanden sein.

    Ich meinte natürlich "generell alles von Apple ist für anspruchsvolle Bildbearbeitung ungeeignet"


    Nein, ein Umstieg lohnt sich definitiv nicht, denn in jeglichem Apple Display (ausgenommen MBP) ist ein einstiges IPS Panel verbaut und dazu auch noch ein veraltetes. Cinema Displays, iMacs sind nicht für professionals.


    Zitat

    Zumal der Bildschirm vom IMac Spiegelungen der
    Umgebung zulässt (soll ja in der nächsten Version abgestellt werden ggf.
    mit einem Retina-Display).


    Retina ist lediglich ein Marketingbegriff von Apple und bezeichnet nichts anderes als hochauflösende Panels, welche aber bereits im herkömmlichen Markt vorhanden sind, nun auch in mobilen Geräten zu finden sind. Das heisst, der Begriff Retina, wie er von Apple im Marketing verwendet wird, müsste bei iMacs eine Auflösung von jenseits WQXGA ( 2560x1440 ) besitzen, weil das bereits normal ist in unserem Segment - das wird aber wohl kaum so sein.


    Die neuen iMacs bekommen eine Entspiegelung ?

    Hallo zusammen,
    ich bin auf Hardware-Suche für die Bildbearbeitung (Lightroom 4) mit RAW-Dateien.
    Wo liegen die Unterschiede zwischen einem Apple-Mac und "normale TFT`s z. B. von Eizo oder NEC (SpectraView 241).
    Einige sagen, dass der Apple-Mac auch von Grafikern genutzt werden. Leider finde ich keine Vergleichsberichte.
    Ich weiß nur, dass bei Apple die einzelnen Komponenten (Grafikkarte, Bildschirm etc.) optimal aufeinander abgestimmt sind.
    Vielen Dank für Eure Meldungen.

    Warum sind's eigentlich immer Anfänger und leute mit keiner AHnung, die ein Apple Produkt als QUalitätsprodukt bezeichnen?


    ALso, wo liegt der Unteschied zwischen einem Apple-Mac und einem TFT:
    - Mac ist ein Betriebssystem, Apple eine Marke und TFT ein Monitortypus.


    Es gibt kein "der Apple-Mac". Apple bietet diverse Produkte an, wie das Cinema Display oder den iMac, was du vermutlich meinst. Der iMac ist nur ein total generischer All-in-One Rechner wie bspw. von HP


    In AiO Rechnern ist generell jegliche Komponente auf einander abgestimmt, weil diese nur bedingt auswechselbar, im Falle von Apple gebrandmarkten Produkten so gut wie garnicht auswechselbar.



    Generell, egal was von Apple, außer das neue high-res MBP, ist für anspruchsvolle Bildverarbeitung geeignet. Das Cinema DIsplay ist ein überteuerter Einsteigermonitor, der iMac verbindet das gleiche Panel und integriert veraltet Hardware zum teuren Preis.

    Naja, der Monitor sollte es für das nächste halbe Jahrzehnt tun. Da ist es möglicherweise schon angesagt, dass er über HDMI seine native Auflösung anpreist und entgegen nimmt.

    Nope, HDMI war bis vor kurzem und ist eignetlich immernoch eine unterlegen Schnittstelle. Dual DVI ist weitaus potenter und die Zukunft rennt eher richtung Displayport. HDMI ist nur äußerst günstig zu verbauen.



    Ist sicher ungewöhnlich, aber vermutlich korrekt.

    Ne, denke nicht. Pildpunktrate ist wohl eher ein Begriff für die Auflösung, weil es einen relativen Wert benennt. Bildpunkte = Pixel, rate = ratio = Verhältnis => Pixelverhältnis (800x600 - 800 zu 600 Pixel) oder auch Auflösung !

    HDMI existiert in verschiedenen Standards, während erst 1.3a Auflösung von 1440p realisiert. HDMI war aber noch nie die bevorzugte connection bei Monitoren... und braucht man nicht nur einen Anschluss ? Daisy chaining geht ja nicht.




    Auf jeden Fall ist vom neueren T Modell noch nicht viel negatives bzgl backlight bleeding zu hören.


    Pixelclock ist eigentlich keine direkte Angabe für Konsumenten und ich bin mir auch nicht sicher warum die differiert. Das ist lediglich die Frequenz mit der sich das Bildsignal synchronisieren soll... Bildpunktrate, ich glaub nicht, dass das der richtige deutsche Begriff ist.