Beiträge von nexo

    und deine aussagen zur unschärfe bezogen sich also auf einspielung mit hdmi?


    Ja. Bei den anderen ist man ja nicht dazu gezwungen, permanent eine kleinere Auflösung zu fahren.


    der u2711 soll ja diesen extremen judder effekt haben..


    ...bei Einspielung mit Wiederholraten ungleich 60Hz. Am Computer wird man das Problem also eigentlich nie haben, wenn man BD-Player, Receiver, etc. entsprechend einstellen kann, auch nicht.


    ich mein, ich brauch ekeinen derart großen farbraum... das "blöde" ist halt, dass beide so ähnlich gleich kosten. das macht es schwer


    Lässt du das Farbkriterium weg, wäre der einzige Vorteil die Schnittstellen (zweite DVI und Komponentensignal). Der 2713HM dagegen ist ein sehr guter LED-Monitor mit Leistungsaufnahme von 42W (statt 130) und USB3 (naja OK...), der im sRGB Raum genauso gut dasteht.
    Gehe ich von deinem ersten Beitrag aus, könntest du z.B. den PC per Displayport (viele 7950er haben einen) anschließen, BD-Player per HDMI, Kabelreceiver per HDMI-DVI Adapter und hättest mit dem 2713HM alle Wünsche erfüllt...



    Der Samsung liest sich auch nicht schlecht, kann ich aber auch nichts zu sagen...

    Das bedeutet dann ja auch das ich den Farbraum meiner Kamera von sRGB auf Adobe RGB umstellen muss?


    Nicht unbedingt... Wenn du mit RAW-Aufnahmen arbeitest, haben diese zunächst garkeinen eigenen Farbraum, egal, was du an der Kamera einstellst. Die Einstellung der Kamera bezieht sich auf den Farbraum der JPGs oder ggf. TIFFs. Sagt auch nichts über die Farbtiefe aus, ein aRGB JPEG hat also nach wie vor 8bit...
    Nimmt man ich nun z.B. ein 8bit aRGB Bild und exportiert es 1:1 in sRGB, werden alle Farben >219 auf 219 gesetzt und das ganze dann auf 0-255 "gestreckt". Man hat also reinen Verlust im oberen Farbbereich (also die kräftigen Töne fallen weg)
    Nimmt man umgekehrt ein 8bit sRGB Bild und konvertiert es nach aRGB, wird der Bereich 0-255 auf 0-219 gestaucht. Der Farbraum ändert sich also nicht, es gehen allerdings einige Abstufungen verloren... Man hat also durch die reine Konvertierung auch erstmal nichts gewonnen.
    Verwendet man TIFFs mit 16bit Farbtiefe in aRGB und konvertiert diese in 8bit sRGB, gehen einem sowohl Farbumfang, als auch Farbtiefe verloren, also kräftige Farben weg und weniger Abstufungen. Damit muss man leider leben, wenn man es kompatibel möchte.


    Wie groß der Verlust letztlich ist, hängt natürlich immer davon ab, was auf dem Bild ist. ein sowieso schon blasses oder dunkles Bild, wird kaum sichtbare Änderung haben, ein strahlendes farbenfrohes unter Umständen ziemlich. Dazu immer wieder gern verlinkt, diese Seite, Abschnitt "Grenzfarben ..." passt ganz gut (Beispiele kommen nur in Firefox, Safari oder Chrome richtig rüber, die anderen haben teils mieses Farbmanagement)


    Ist der Verlust bei dir so krass, dass es nicht mehr dadurch erklärbar ist?



    Kurz zum Farbmanagement:
    Der Monitor hat erstmal seinen eigenen Farbraum, das kalibrierte Profil definiert diesen. Das Foto hat wieder seinen eigenen Farbraum und zuguterletzt hat die Bearbeitungssoftware wieder einen. Manche Bildschirme emulieren Standardprofile (sRGB, Adobe RGB), ist aber nicht der Normalfall. Am besten ist der Monitorfarbraum größer/gleich dem des Fotos, genau wie der Arbeitsraum der Software. Bis die Bilddaten auf dem Schirm sind, werden sie also generell mehrfach konvertiert, damit es am Ende stimmig ist. Unabhängig vom Bildschirm kann dieser natürlich auch nur anzeigen, was das Bild hergibt, dazudenken tut er nichts (von irgendwelchen Effekt-Einstellungen mal abgesehen)


    Es gibt leider auch noch einige Bildbetrachter, die kein ordentliches FM haben und alles, was vom Monitorprofil abweichtz, fehlerhaft darstellen. Bei Freeware und OpenSource tatsächlich sehr häufig...

    Genau, DualLink DVI (Kabel wird mitgeliefert) bringt die volle Auflösung, das sollte mit deiner Grafikkarte kein Problem sein.
    Über Displayport ginge das auch.
    Nur HDMI ist auf 1920x1080 begrenzt. Bzw. auch DVI, wenn man nur ein SingleLink Kabel verwendet (da fehlt der mittlere Pin-Block).

    Ja, haben beide.


    Ich habe noch nicht so viele andere mit der Auflösung live gesehen, aber das Problem gab's bei allen, mal etwas mehr, mal weniger ausgeprägt, aber perfekt wird es nie (es sind ja nur etwa die Hälfte der möglichen Pixel und nichtmal im ganzzahligen Verhältnis)
    Kommt dazu eine andere Wiederholfrequenz (50Hz, 24Hz, ...) ist das für Chip/Firmware schon eine Herausforderung, was die im Test angemerkt Problematik erklärt. Ob das beim Fujitsu besser ungesetzt ist, keine Ahnung... Vielleicht schaust du vorher mal in's Handbuch deiner Geräte, ob die mit 60Hz arbeiten können (1080p60 ist eig. nichts exotisches), dann sollte es bis auf die o.g. Geschichte laufen.

    Mit der richtigen Zuspielung kann man dies zwar vermeiden, aber einen ausgereiften Eindruck macht das natürlich nicht."
    [...]
    "Zum Arbeiten hat man bei der interpolierten Auflösung immer das
    Bedürfnis irgendwo einen "Scharfstell-Knopf" zu drücken, das Wahre ist
    es leider nicht. Aber das ist sicher keine Eigenheit von diesem Modell."
    Was genau meinst Du damit?


    Das Bild wird immer schlechter, wenn man den Monitor mit einer geringeren Auflösung ansteuert. Aber obwohl FullHD bei der Größe sicher noch recht OK ist, wirkt das Bild um Welten schlechter, als bei einem 27"er mit nativer 1080 Auflösung, fast schon wie bei analogem VGA-Signal. Ermüdungsfreies Arbeiten ist das in meinen Augen nicht mehr. Bei Film oder Spiel dürfte das sicher weniger in's Gewicht fallen.


    Angeschlossen hatte ich bisher Laptop und Medienrechner per HDMI und einmal kurz einen BD-Player, wobei allerdings auch immer ein 60Hz Signal möglich war. Unter den Bedingungen wäre Mediacenter-Nutzung akzeptabel.


    Wozu ist Wide gammut?


    Wenn sich die Frage stellt, ist es recht wahrscheinlich, dass du es nicht brauchen wirst.
    Wide Gamut (dt. etwa "große Farbpalette") bedeutet, dass der Bildschirm mehr Farben als den Standardfarbraum darstellen kann. Der Normalverbraucher arbeitet irgendwo im sRGB Farbraum, so wie eigentlich alle Kompaktkameras und bei Standardeinstellung auch DSLRs. Wer bei Grafikbearbeitung und Fotografie höhere Ansprüche hat, kann seinen Arbeitsplatz auf mehr, meist AdobeRGB, einrichten. Die 97% Abdeckung, die der U2711 mitbringt, übersteigen schon das Potential der meisten Kameras, reichen für den Hobbybereich also allemal. Die Werkskalibrierung ist ganz OK, lässt sich aber mit üblichen Geräten auch recht gut (softwareseitig) kalibrieren.


    Nur weil der Bildschirm es kann, den großen Farbraum verwenden, bringt allerdings keinen Vorteil, wenn nicht sogar Nachteile mit sich.


    Keiner von Euch favorisiert anscheinend den Fujitsu....


    Von den technischen Daten sicher auch kein schlechtes Gerät, da ich den oder einen vergleichbaren aber noch nicht live gesehen habe, möchte ich mir kein tieferes Urteil drübererlauben. Vor einem 2711 sitze ich gerade und kann daher aus Erfahrung sprechen...



    Zum Preis... Der 2711 ist schon was älter, wodurch der Preis inzwischen eben etwas gefallen ist, Dell hat momentan aber noch keine echte Alternative am Markt.
    Der 2713HM ist wesentlich neuer und setzt auf LED-Hintergrundbeleuchtung, dafür wurde eben am Farbraum (LEDs machen es den Herstellern da auch nicht leichter) und ein paar Anschlüssen gespart.
    Verschiedene Ankündigungen (siehe oben) legen nahe, dass mit einem U2713H beides vereint wird, dementsprechend aber auch mit Preisfaktor 2. Erscheinungsdatum soweit ich weiß allerdings noch offen...

    Den U2711 mit 1080p Bild über HDMI füttern ist OK, solange man es nur für Filme oder entsprechend groß angelegte Menüs nutzt. Zum Arbeiten hat man bei der interpolierten Auflösung immer das Bedürfnis irgendwo einen "Scharfstell-Knopf" zu drücken, das Wahre ist es leider nicht. Aber das ist sicher keine Eigenheit von diesem Modell.
    Zu tatsächlichen Problemen mit verschiedener Hardware kann ich nichts fundiertes sagen.


    Ansonsten ein guter Monitor mit inzwischen hervorragendem Preis/Leistungsverhältnis. Der Vorteil gegenüber dem 2713HM wäre bei Office-Anwendung allerdings ziemlich vernachlässigbar. Wenn du bei "sehr gelegentlicher" Bildbearbeitung auch eher im sRGB Raum bleiben wirst, wäre der U2713HM keine schlechtere Wahl (dazu nur knapp 1/3 Leistungsaufnahme)

    Eine 12px Schrift auf dem 30" ist etwa so groß wie ein 10px Schrift auf dem 27", 14px wäre so groß wie 11,5px usw...


    Oder einfach die Skalierung auf 82% stellen (im Webbrowser, Officeanwendung, etc.)


    Man kann in den meisten Betriebssystemen auch die Schriftgröße einstellen, sodass man Auflösung und Lesbarkeit kombinieren kann. Oder z.B. beim Surfen den Standardzoom auf 110% setzen...

    Das mit der Software-Problematik halte ich bei aktuellen System mal für weniger kritisch. Apples eigene Displays fahren nativ eine 2560er Auflösung (Cinema/TB-Display oder 27" iMac) und am PC mit Arch Linux und Win 8 hatte ich seit ich den Monitor habe auch noch nicht ein Problem... (DualLink DVI-Kabel sind aber auch nur für diesen Zweck gemacht, da passt die Verarbeituing einfach).


    Ich bin selbst in der Elektronik-Entwicklung tätig und mir ist die Ursache der kabelbedingten Störungen also durchaus bekannt, nur sieht man es dem Kabel auf einem Produktfoto selten an, ob die Stecker vernünftig angebracht sind, Schirm ordentlich aufgelegt ist oder überhaupt für die Datenraten geeignete Leitung verwendet wurde... Dass das Macbook in Sachen EMV auch nicht immer glänzt macht es nicht einfacher, aber daran ist nunmal nichts zu ändern. Man sollte meinen, die Hersteller hätten das auch mal mitbekommen, so viele Geräte mit miniDP/TB sind ja nicht auf dem Markt.


    Wenn man sich die meisten 3-4* Bewertungen ansieht, sind da meist 10x5* mit FullHD Monitoren dabei und ein paar 1*, die schreiben, dass mehr nicht geht. Von den bekannten Herstellern gibt es derartige Kabel nicht (braucht ja auch kaum jemand).


    Mit einem Klemmferrit Notebookseitig um das 1m Kabel wird es besser unedermöglicht schonmal störungsfreies 2048x1152, mit einem zweiten Displayseitig ginge es vielleicht komplett, hab aber keinen mehr da.
    Bestellt habe ich mir nun einen DP Stecker auf miniDP Buchse Adapter (einziger, bei dem es Rezensionen gibt, die QHD bestätigen) und ein (vergleichsweise teureres) Thunderbolt-Kabel, damit wird es hoffentlich funktionieren. Immerhin noch ein paar Euro unter dem DVI-Adapter...

    Es gibt für TV-Geräte optimierte Kolorimeter, z.B. Spyder4TV. Bei klassischen LCDs müsste es an sich auch mit jedem anderen funktionieren. Halt Software-Kalibrierung/-Profilierung für das jeweilige Gerät.


    Allerdings kenne ich jetzt auch niemanden, der derartige Ansprüche an seinen Fernseher hat. Meist geht es beim Bilder Vorführen ja mehr um den Inhalt, Hauptsache die Farbe passt ungefähr. Für gesteigerte Ansprüche muss man eben mit dem kleineren Monitorbild leben.

    Nur der Unterschied zwischen dem M2382D und dem M2352D ist mir immer noch nicht so ganz klar... PIP haben beide Monitore laut Beschreibung.
    Weiß jemand wo drin die sich nun genau unterscheiden?


    Das wichtigste Argument für dich wird wohl sein, dass der 8er nicht für Wandhalterung geeignet ist (zumindest keine Angabe im Datenblatt). Ansonsten Kleinigkeiten wie USB-Anschluss, dynamischer Kontrastwert, Gehäusefarbe, ...Nach deiner obigen Aufstellung wäre bei den beiden also M2352D Gerät der Wahl...


    M2382D:
    Kontrast: 10.000.000:1 mit DFC (statisch 1.000:1)
    Anschlüsse: [...], RS232C
    Lautsprecher: 2 x 7W
    Neigungswinkel: 20° nach oben, 5° nach unten
    Leistungsaufnahme: Betrieb: <30 W, Stand-by: <0,4 W, Aus: <0,4 W
    Maße: 547 x 417,2 x 176,3 (inkl. Standfuß)
    Gehäusefarbe: Front Mattschwarz im Hairline Design
    Gewicht: 4,7 kg
    VESA: -


    M2352D:
    Kontrast: 5.000.000:1 mit DFC (statisch 1.000:1)
    Anschlüsse: [...], USB (JPEG/MP3), PC Audio
    Lautsprecher: 2 x 5W
    Neigungswinkel: -
    Leistungsaufnahme: Betrieb: 31 W, Stand-by: <0,4 W, Aus <0,3 W
    Maße: 508,6 x 386,5 x 182,8 (inkl. Standfuß)
    Gehäusefarbe: Klavierlack hochglänzend
    Gewicht: 3,9 kg (inkl. Standfuß)
    VESA: Kompatibel für Schwenkarme und Wandhalterung nach FDMI™ (100 mm)

    Wann ?
    Also zunächst ist der Markt für 26" enorm klein und dann auch noch 16:10 und 28" ? Gibt es überhaupt 28" ?
    Also die Zeit als 26" Standard war, hab ich scheinbar übersprungen... ^^

    Müsste so etwa 3 Jahre her sein, als ich zuletzt mal einen größeren 0815 Monitor gesucht hatte. Da war 27" die absolute Ausnahme (28 gab es ein paar wenige Modelle, ware aber unverhältnismäßig teuer).


    Die Standardanordnung für Systemmenüs ist nunmal bis Win 7 und bei allen OSX Versionen oben/unten, was im 16:9 nunmal je nach Skalierung einiges an Platz nimmt. Lässt sich natürlich alles an die Seite verschieben und einige Linux-Derivate sowie Win 8 setzen ja auch schon von Haus aus auf seitliche Menüs, muss man sich nur dran gewöhnen. Man muss sich seine Arbeitsumgebung halt an die Gegebenheiten anpassen und das beste draus machen.


    Der Arbeits-Mehraufwand, ein anderes Panel zu fertigen, ist überschaubar, aber bis zum Endprodukt hängen da mechanisch noch Rahmen, Halterungen, etc. dran, die bei den Herstellern (abgesehen von der äußeren Verkleidung) ziemlich identisch bleiben, also in großer Masse gefertigt werden können. Elektrisch braucht man nur einen Controller, und nur eine Länge Röhren / LED-Panels, gleiches Argument. Da einigt man sich natürlich lieber auf die gefragtere Größe.

    Vermutlich Angebot und Nachfrage...


    Bis vor garnicht so langer Zeit war 26" in 16:10 Stand der Dinge für einen "größeren" Bildschirm, da gab es auch ein paar entsprechende 28er, die inzwischen beide wieder verschwunden sind. Ich habe selbst von einem solchen (26) auf einen 27" 16:9 gewechselt (Grund waren allerdings Farbe und Auflösung) und muss halt mit mehr Rand leben. Man kann halt Werkeugleisten, Übersicht, etc. größer ziehen, aber einen richtigen Vorteil sehe ich auch nicht.


    Im Consumer-Bereich wird die Größenordnung aber wahrscheinlich auch viel zum gucken von Filmen genutzt und der Anschluss von Set-Top-Boxen und erwünscht, die halt 1080 rausgeben.
    Würde man nun verschiedene Panelgrößen bauen, heißt das auch verschiedene Gehäuse, die dann in kleineren Stückzahlen gefertigt werden und damit am Ende ein höherer Verkaufspreis. Euros sind bei den meisten, die das Gerät nicht mindestens semi-professionell nutzen nunmal eines der wichtigsten Kaufargumente, also lieber die Masse mit etwas günstigerem 16:9 bedienen...


    Wenn man manche Beschreibung liest, wären 5 HDMI Schnittstellen bei einem QHD-Monitor auch ein top Verkaufsargument, egal wie viel Sinn die machen.

    Genau da fängt ja meine Frage an: Welches? (muss höchstens 1,50m lang sein)


    Ich habe hier eben eins liegen, das bei höherer Auflösung nurnoch Störungen produziert und wenn ich mir z.B. bei einem großen Onlineshop mit A die Rezensionen durchsehe, wird bei nahezu jedem ähnliches berichtet. Daher habe ich gehofft, hier Erfahrungen aus erster Hand zu bekommen, damit ich nicht 5 Stück kaufen muss, bis eins klappt.


    Der PC-Händler meines vertrauens hat klar gesagt, dass das, was sie da haben, schonmal Störungen hat, bei den großen Ketten hier in der Gegend ist sowas garnicht erst vorrätig und jedes Mal Porto+Rückporo zu zahlen möchte ich vermeiden...

    Hi,
    ich habe hier einen Monitor mit QHD Auflösung (2560x1440) stehen, der u.A. auch über einen Displayport-Eingang verfügt. Mein PC hängt per Dual-Link DVI dran, alles bestens, nun möchte ich allerdings auch 2 Laptops mit Mini-Displayport/Thunderbolt anschließen. Bei den aktiven DualLink DVI Adaptern stört mich (abgesehen von happigen Preis) der riesen Aparat, den man am Laptop hängen hat, daher wollte ich gern die DP-Schiene fahren...


    Habe hier ein 1m Kabel von Inline: Sporadische Bildaussetzer ohne dass man etwas tut, auch schon bei FullHD Auflösung > durchgefallen
    Zweiter Test war ein LogiLink Adapter und ein Displayport-Kabel (das am PC bestens funktioniert): Aussetzer bei Berührung/Bewegung > nicht unbedingt Laptop-tauglich


    Kann mir jemand ein Kabel oder eine Kombination empfehlen, das bei voller Auflösung (60Hz) einwandfrei funktioniert? Ich habe keine Lust noch mehr durchzuprobieren, die Shop-Rezensionen sind ja leider alle sehr gemischt. Preis soll mir erstmal egal sein, Hauptsache einwandfreies Bild.


    Gruß, Stefan