Posts by Wraithguard

    Es gab mal Zeiten, da wusste ich die exakten Typbezeichnungen jeglicher in meinen Selberbaurechnern verbauten Komponenten... die Zeiten sind lange vorbei. ;)
    Die Karte ist eine Club3D Radeon 5770, und sie hat - jedenfalls wenn mich die Erinnerung an den kurzen Blick auf die Rückseite meines Rechners nicht täuscht - zwei DVI-Anschlüsse, einer davon DVI-I, der andere nur DVI-D, und zusätzlich 1xHDMI. Aber ich konnte bisher nicht abschließend klären, welche HDMI-Version das ist, und ob darüber 2560x1440 bei 60Hz funktionieren würde. Laut diverser Datenblätter, die zu den verschiedenen Versionen einer Club3D Radeon 5770 herumgeistern, ist 2560x1600 die maximale Auflösung... aber es geht eben nie daraus hervor, ob das auch über HDMI klappt. Rein vom Kaufdatum dürfte es bestenfalls HDMI 1.3a sein (die Spec ist 2006, 1.4 von 2009... irgendwann 2009 oder Anfang 2010 habe ich die gekauft, also eher unwahrscheinlich, dass es schon 1.4 ist).
    Hat das jemand mal mit HDMI und eine Graphikkarte aus der Zeit probiert?


    Ich würde mir halt ungern den Monitor bestellen (in der Hoffnung, in den paar freien Tagen um Neujahr auch nutzen zu können), um dann festzustellen, dass er mit der vorhandenen GraKa nicht tut. Und eigentlich hätte ich eh Lust auf ne neue GraKa, aber da ich irgendwie ständig bei der GTX970 rauskomme (insbesondere die Effizienz ist halt phänomenal im Vergleich zu ältern nVidia oder zeitgenössischen ATI), sind das mal eben wieder >300€. Und wie sinnvoll das bei meiner CPU ist... am Ende isses dann auch noch eine neue CPU+Board. :rolleyes:

    Den Samsung hatte ich noch nicht auf dem Radar... allerdings liegt der mit seinen ~1800€ doch etwas über dem, was ich investieren wollte. :whistling:
    Vielleicht sollte ich einfach den U2715H nehmen und fertig. Zumal da die Chance wohl höher ist, ohne neue Grafikkarte hinzukommen, auch wenn ich nix zum Thema Adaptierung von DVI auf DPP gefunden habe...

    Wenn man bei Geizhals nach 32" mit "Wide Color Gamut" (offenbar heißt der Suchfilter neuerdings "100% sRGB") sucht, bleibt leider nicht so viel übrig:



    Nach dem von euch positiv (wenn auch nur mit Gesamturteil "gut") getesten BenQ BL3200PT wäre der BenQ BL3201P natürlich prinzipiell interessant. Allerdings habe ich (rein subjektiv) von Dell als Displayanbieter irgendwie eine höhere Meinung als von Acer und BenQ (auch wenn ich das hier auf einem ~5 Jahre alten Acer Timeline Travelmate tippe, dass bis auf die inzwischen unerträgliche Performance bisher problemlos funktioniert, ich habe als kein Problem mit Acer an sich).
    Allerdings hört man ja bei späteren Chargen des BenQ BL3200PT von
    Qualitätsproblemen, was mich dann wiederum etwas skeptisch macht.


    Habt ihr die beiden Treffer aus meiner Geizhals-Suche (BenQ BL3201P und Acer Professional B326HKymjdpphz) schon in der Testpipeline?

    Hi,


    nachdem mein rüstiger Dell 2405 so langsam die Grätsche macht (eine Bildschirmspalte zeigt nur noch grün :thumbdown: ), bin ich derzeit auf der Suche nach einem Nachfolger. Nach dem überaus positiven Test zum Dell U2715H war ich schon drauf und drann, mir den zu bestellen. Da ich aber wohl ziemlich sicher eine neue Grafikkarte benötige (habe ne ca. 4 Jahre alte Radeon 5770... leider konnte ich nicht bisher abschließend klären, ob ich den da vorhandenen Dual-Link-DVI-Ausgang so auf HDMI oder DPP adaptiert bekomme, dass die 2560x1440 mit 60Hz funktionieren... hat da zufällig jemand Erfahrungen?), habe ich das erstmal zurückgestellt, bis ich weiß, welche neue GraKa am meisten Sinn macht (da ich meinen ebenfalls ~5 Jahre alten i7-860 eigentlich erstmal nicht austauschen wollte, aber trotzdem was spieletaugliches suche).


    Egal, ich schweife ab... zurück zum Thema Display-Kauf.
    Mir ist bei meinen Recherechen der P2715Q begegnet... 4K, IPS, Wide-Color-Gamut und kaum teurer... der einzige sichtbare Nachteil scheint mir der im Vergleich zum U2715H "normal breite" Rahmen zu sein... :rolleyes:


    Und jetzt stehe ich vor der Frage: U2715H oder P2715Q? WQHD oder doch "schon" 4k? Zum P2715Q habe ich bisher nur einen, aber doch sehr enthusiastischen Test gefunden:



    Was mich überrascht hat war die Aussage, dass die "Dell Professional"-Serie üblicherweise einfachere Geräte wären als "Dell Ultrasharp"... ist das so? Die bemängelten reduzierten Einstellmöglichkeiten sind auch nicht unbedingt ein Nachteil, es sei denn, dass Modell hat einen ähnlich übermotivierten Overdrive wie einige andere Dell-Geräte der letzten Zeit. Wenn man den dann nicht etwas zurückfahren könnte, wäre da sehr ärgerlich.
    Letztlich wäre mir sehr an einem baldigen Urteil von prad.de gelegen... gerade die Beurteilung der Bewegtbilddarstellung würde mich interessieren, da ich zwar primär daran arbeiten werde (Bildbearbeitung), aber eben auch gelegentlich zocken möchte.


    Unabhängig von den beiden konkreten Monitor-Modellen stellt sich dann für mich noch die Frage nach WQHD oder 4k... natürlich würde mir 4k zusagen, aber so mancher Praxisbericht zeigt, dass es da noch viele Tücken und Probleme gibt (neulich sogar bei einem Mainstream-Medium wie SPON: )
    Leider funktioniert unter Windows die Skalierung wohl immer noch eher schlecht als recht, gerade Lightroom kann das wohl immer noch überhaupt nicht. Während man mit WQHD auf 27" wohl noch gut ohne Skalierung hinzukommen scheint, kann man das bei 4k wohl vergessen. Allerdings könnte man bei einem 4k-Display im Worst-Case immer noch auf FHD gehen, wenn eine Software auf 4k überhaupt nicht nutzbar ist - zumindest theoretisch sollte man dann ja interpolationsfrei, also ohne Unschärfen ein FullHD-Pixel auf vier Monitorpixel bekommen.


    Mich würde mal die Meinung der werten Mit-Foristen zu den beiden Displays und der Debatte 4k vs. WQHD interessieren.


    Gruß


    W

    Nochmal danke für eure Antworten, vielleicht interessiert es den einen oder anderen, wie es ausgegangen ist:


    Gestern war ich im Saturn und habe den LG umgetauscht... ging relativ problemlos, allerdings musste ich direkt einen anderen Fernseher auswählen (ergo: kein Geld zurück), was bei der Preisgestaltung dieser Märkte gar nicht so einfach ist... die Auswahl ist zwar groß, aber leider sind die Preise bei den meisten Geräten jenseits von gut und böse... letztlich ist es ein Samsung 32C6200 geworden, zum gleichen Preis wie der LG. Natürlich nur 32 Zoll, aber der LG war eigentlich eh ein gutes Stück zu groß für den geplanten Einsatzzweck als Zweitgerät im Arbeitszimmer -- ich hatte den nur trotz der 42 Zoll gekauft, weil es halt ein günstiges Angebot war und ich nicht widerstehen konnte... :rolleyes:
    Der Samsung ist sehr elegant, hat ein tolles Bild, aber ein absolut idiotisches Konzept, um die Sender zu sortieren :huh:, aber das macht man ja nur einmal. Und HDMI funktioniert direkt und problemlos ohne Rauschen, ohne Bildausfälle etc. Unabhängig von der HDMI denke ich also, dass der Samsung für mich die bessere Option ist. Und einen DVB-S-Tuner hat der Samsung auch, wer weiß, ob man den nicht mal gebrauchen kann.

    Zunächst mal danke für alle eure Kommentare! :)

    Ist an den HDMI Anschlüssen des LG PC Betrieb überhaupt möglich? Es gibt auch Monitore wo man an einen HDMI Eingang nicht einfach einen PC anschließen kann. Die HDMI Eingänge müssen entsprechend spezifiziert sein. Was sagt denn Dein Handbuch zum PC Betrieb?

    Habe eben nachgeschaut, da ist nur generell vom Anschluss von HDMI-Geräten oder alternativ von DVI-Geräten via DVI-2-HDMI-Kabel die Rede, und zwar für die Eingänge 1-3. Ebenfalls steht da was von einem "High-Speed-HDMI-Kabel", das angeblich erforderlich wäre. Ich habe daraufhin mal geschaut, was es so an Kabeln zu kaufen gibt, da findet man im wesentlichen zwei Kategorien, HDMI-1.3-Kabel (mit Preisspannen von 1,60€ bis ~500€ :wacko:) oder welche für HDMI 1.4, aber keine Unterscheidung in "High-Speed" und "normal". Also für mich sieht das so aus, dass ein Kabel entweder HDMI (1.3 oder 1.4)-konform ist oder es nicht ist, aber es gibt scheinbar im Ggs. zu DVI eben nicht das Problem, dass z.B. man nur teilweise bestückte (=Single-Link) Kabel kaufen könnte. Aber vielleicht kann mich ja jemand erhellen, ob es da wirkliche Unterschiede in der Spezifikation der Kabel (und nicht nur in deren Güte) gibt -- für mich sieht der Kommentar in der Anleitung eher danach aus, dass man damit vermeiden will, dass die Kunden die allerbilligsten Kabel nehmen.
    Und wenn es am Kabel liegt: Wieso funktioniert es beim Sony (gleiche Auflösung am PC eingestellt!)?


    Ich habe keinen LE5500 aber einen LE5300 und ich kann mir irgendwie nicht vorstellen dass alle 4 HDMI Eingänge deines LG defekt sind. Das wär schon etwas krass :) Dein LG war aber kein Ausstellungsstück oder? Ich kann mir nur vorstellen dass der LG mit deinem verwendeten HDMI Kabel nicht klarkommt. Wichtig wäre zuerst einmal ein anderes Kabel zu versuchen und deiner Beschreibung nach kann es eigentlich nur das sein.

    Naja, ich vermute doch mal, dass für alle vier HDMI-Eingänge die gleiche Elektronik zuständig ist (und quasi nur die "Buchse" umgeschaltet wird), und wenn die Elektronik 'nen Knacks hat, könnte das schon sein. Und wieso geht es beim Sony (völlig problemlos), und wieso geht es beim LG bei manchen Eingängen gar nicht, bei manchen etwas besser?
    Und woher kommt das Rauschen? Offensichtlich ja nicht als Nutzinformation über das HDMI-Signal, sonst würde es ja leiser werden, wenn man die Lautstärke runterregelt. Es scheint mir eher sowas wie eine "Einstreuung" zu sein, so als ob der analoge Audio-Verstärkerteil des LG nicht elektrisch sauber von den HDMI-Eingängen getrennt ist.


    Hast du an deinem LE5300 schonmal erfolgreich einen PC via HDMI betrieben? Wenn ja, welche Grafikkarte?


    Fast auf die Minute Andi :D


    Es gibt am LG einen HDMI Eingang bei dem in Klammer DVI steht. Dieser ist für den PC-Betrieb gedacht aber wenn er eh alle HDMI Eingänge ausprobiert hat, war dieser auf jeden Fall mal dabei.

    Laut Anleitung und Blick auf die Rückseite haben die Eingänge 1-3 alle die "(DVI)"-Markierung. Witzigerweise gehen 2 und 4(!) besser als 1 und 3.


    Ich werde also mal noch schnell ein anderes Kabel auftreiben... habe aber dummerweise keine andere HDMI-Quelle, höchstens noch meine DSLR und die hat leider ne Mini-HDMI-Buchse, da passt das vorhandene Kabel nicht.


    Ich befürchte jetzt natürlich eine generelle Inkompatibilität des LG mit meiner Grafikkarte (oder allgemeine Wählerischkeit mit wem er HDMI redet ;) ) , aber mangels andere Quellen kann ich das nicht wirklich testen.
    Da ich noch innerhalb der 14-Tage-Umtauschfrist bei Saturn bin, bin ich daher auch am Überlegen, den Kauf komplett rückgängig zu machen bevor ich mich ständig mit aktuellen oder künftigen HDMI-Quellen wegen möglicher Inkompatibilitäten herumärgern muss.

    Hi zusammen,


    ich habe mir kürzlich bei er Neueröffnung eines Planetenmarkts den LG 42LE5500 zugelegt - ist als Zweitgerät für's Arbeitszimmer geplant und dafür eigentlich etwas überdimensioniert, aber bei dem Preis konnte ich nicht widerstehen. :whistling:
    Heute wollte ich die Glotze via HDMI mit dem danebenstehenden PC verbinden, erstmal um rauszufinden ob es funktioniert, und um evtl. damit ein wenig zocken zu können.
    Also habe ich ein HDMI-Kabel in HDMI 1 eingesteckt. Am Rechner wird das Display erkannt, also schnell "Desktop erweitern" ausgewählt und am TV HDMI1 gewählt und dann... langes Gesicht. Kein Bild, stattdessen nur die Anzeige "kein Signal", das Ganze untermalt von einem deutlich hörbaren Rauschen, dass auch beim Runterregeln der Lautstärke bzw. beim Stummschalten des TV nicht leiser wird. Nach einigen Einstellversuchen habe ich dann HDMI 2 probiert, auch da dieses lästige Rauschen, aber immerhin diesmal ein Bild. Das ist sogar fast einwandfrei... leider nur fast, dummerweise bricht es immer wieder komplett zusammen (das Bild wird kurz schwarz, bunte Pixel, dann ist es wieder kurz da). Die Häufigkeit variiert scheinbar je nach Inhalt... als ich ein Video über VLC abgespielt habe, war es teilweise sekündlich, beim Desktop-Hintergrund vielleicht alle 10-20 Sekunden. Bei HDMI 3 gleiches "Bild" wie bei HDMI 1 (nämlich keines...), bei HDMI 4 isses dann wieder so ähnlich wie bei HDMI 2. Ach ja, wenn der Fernseher während dem Booten an ist, flackert das Bild ständig, untermalt von bunten Streifen.


    Leider habe ich keine andere HDMI-Quelle und auch kein anderes Kabel zur Hand, allerdings habe ich über das gleiche Kabel zuvor meinen "Hauptfernseher" (Sony 46 HX 805) mit dem gleichen Rechner verbunden, das hat direkt und absolut wunderbar funktioniert.
    Ich tippe auch deshalb eher auf ein Problem mit dem TV, weil das (Audio-)Rauschen ja auch bei stummgeschaltetem Fernseher bleibt (es kommt also eher nicht aus dem HDMI-Signalpfad, sondern wird wohl irgendwie ungeplant in die Verstärkerelektronik eingestreut).


    Jetzt stelle ich mir die Frage: Ist das eine Inkompatibilität zwischen Grafikkarte (eine ATI Radeon 5770) und dem TV, oder gar ein bekanntes Problem mit dem LG? Ein wenig Googlei und Suche hier im Forum hat leider nix brauchbares zu Tage gebracht.


    Bevor ich die Kiste jetzt zurück zum Saturn schleppe, würde ich mich gerne mal bei der Community erkundigen, ob das ein bekanntes Problem ist.
    Also, wer hat einen aktuellen LG-Fernseher (vielleicht sogar aus der LE5500-Reihe) und kennt dieses Problem womöglich bzw. kann mir bestätigen, dass das nicht normal ist?


    Schonmal danke für eure Hilfe


    Gruß


    W

    Hallo,


    ich könnte nur noch heute (Media-Markt -25%-Aktion) einen Eizo 2411W-BK für 600€ kriegen. Laut Preisvergleich liegt der im Inet sonst bei fast 1000€, allerdings ist das ein Gerät von Anfang 2007, daher nur noch bei wenigen Händlern gelistet, und so ist der Preis wohl nur noch bedingt repräsentativ. Soweit ich das damalige Eizo-Produktprogramm beurteilen kann, war das schon mit das Top-Gerät, Samsung-PVA-Panel, 2xDVI-I, HDCP. Der hat auch im Test in der c't 07/2007 sehr gut abgeschnitten (außer Spieletauglichkeit und Ausleuchtung, die beide nur befriedigend waren, alles überwiegend sehr gut bis gut). Allerdings ist die Darstellung von 1080i-Material nicht toll, aber ich will mit dem Ding auch nicht fernsehen oder einen BlueRay-Player anschließen, (ich habe bis heute keinen DVD-Player und gucke wenn über den PC, also damit kein Problem). Nachteil ist allerdings die Latenz, die durch den Overdrive verursacht wird. Die Bezeichnung des Overdrive-Mechanismus ist genauso wie bei 2410, der bei Prad getestet und trotzdem als sehr gut spieletauglich für Gelegenheitsspieler (bin ich inzwischen mangels Zeit leider) bewertet wurde. Im Forum hört man dagegen, dass einige Leute von der Verzögerung genervt sind.


    Was ich vielleicht noch ergänzen sollte: ichhabe zur Zeit einen Dell 2405W, mit dem ich an sich relativ zufrieden bin. Allerdings denke ich, das gerade was Farbdarstellung etc. anbelangt, der Eizo nochmal ein Stück besser ist. Außerdem ist mein Dell noch die Generation mit dem Made-in-China-Plastikcharme. ;-)
    Was meint ihr? Zuschlagen? Angeblich hat Media Markt ja eine 14-Tage-Rücknahmegarantie, so dass ich auch bzgl. Pixelfehlern nix riskieren würde.


    Ich bin schon ziemlich in Versuchung, weil ich für vergleichsweise wenig Geld zum Golf-Preis den Mercedes (wenn auch den vom letzten Jahr) kriegen könnte.


    Gruß


    Wraithguard

    Quote

    Original von Ganter



    Also bei meinem steht "Made in Japan" drauf. Meinst Du in Taiwan montieren sie den schlechter?


    Nein, mir geht es nicht um Taiwan vs. Japan sondern eher um "beliebiges westlich orientiertes Land mit einigermaßen fairen, menschenwürdigen Lebens- und Arbeitsverhältnissen das ich gerne mit meinem Geld unterstütze" vs. China.


    Es ärgert mich zunehmend, dass alles nur noch aus China kommt, und offenbar keiner einer Problem hat, durch die Geschäfte mit diesem Land dieses Regime auch noch zu unterstützen (und nebenbei unsere Wirtschaft gegen die Wand zu fahren).
    Versuch mal Klamotten, Turnschuhe oder Hardware zu bekommen, wo nicht "Made in China" draufsteht, wird zunehmend schwieriger.


    Leider bin ich selbst da nicht konsequent, mein Dell ist auch "Made in China".

    Das Modell des KVM-Switchs stand wirklich nicht hier drinn, aber in einem anderen Thread, daher habe ich es hier vergessen.


    Es ist ein Uniclass-Switch, Modellbezeichnung UKA-248.


    Technische Daten beim Hersteller:



    Ohne jetzt Werbung machen zu wollen, gekauft habe ich den hier:



    Mal schauen, wie es scheint muss ich doch deren Service testen. Einer der USB-Ports ist komplett tot und ich hatte eigentlich alle vier Ports verplant. Der Vorschlag, das USB-Powermanagement zu überprüfen, hatte nix gebracht, weil der Hub im Switch als "self-powered" erkannt wird und daher die Option gar nicht anbietet. Außerdem gehen die Geräte ja an den anderen Ports. Interessant ist auch die interne Konfiguration der Ports... offenbar sind die beiden rückseitigen Ports (von denen einer eben nicht geht...) intern nochmal als USB-Hub realisiert (siehe Bild im Anhang, der Hub, an dem der Mouseman Dual Optical hängt), wäre mir natürlich letztlich egal, wenn beide funktionieren würden... .

    Ich finde z.B. den Unterschied zwischen Mitte und links nicht so deutlich wie den zwischen links und rechts. Bzgl. der Beleuchtung habe ich mein Möglichstes getan, um da Unterschiede zu vermeiden. Die Kamera stand relativ fest am gleichen Platz, aber dank Fuzzy Logic bei Schärfe, Belichtung und Weißabgleich kommt bei eigentlich identischer Bildsituation manchmal doch was anderes raus. Insgesamt denke ich, dass das rechte Bild die Realität ziemlich gut trifft, es wirkt auch "in echt" etwas dunkler (offenbar fehlen nach dem Weg über KVM und mehr Kabel ein paar Millivolt für volle Aussteuerung), und dann eben die leichten Schatten an harten Konturen. Warum die aber _vor_ den Buchstaben sind... ich kann es mir nicht wirklich erklären.

    Bei Bild eins und zwei kann ich dir fast zustimmen, das dritte Bild ist IMO schon deutlich schlechter, aber daran merkt man doch mal, wie unterschiedlich die Empfindlichkeit der Menschen sein kann. Danke für deine Meinung, darum geht es mir mit dem Thread ja. Achte mal auf den leichten Schatten links(!) von senkrechten schwarzen Strichen, daran merkt man, dass da doch etwas mehr Kabel dazwischen ist.


    Der "Einschluss" ist übrigens ein Staubkorn _auf_ dem Display. Wahrscheinlich würde ich durch regelmäßigeres Abstauben des Displays die Bildqualität mehr steigern als durch einen hochpreisigeren KVM-Switch. ;-)

    Sehr gut analysiert, gerade der Unterschied "direkt analog" vs. DVI ist meiner Meinung nach relativ schwer festzustellen.
    Ich frage mich nun, ob ich den Switch behalten soll. Eigentlich hatte ich ja deutlich Schlimmeres befürchtet, vor allem ist der subjektive Unterschied bei normaler Sehentfernung längst nicht so groß, wie es die Bilder evtl. suggerieren. Ich habe übrigens auch mal den Vergleich analog direkt vs. analog mit KVM mit meinen Hauptarbeitsrechner (Toshiba Satellite 5100-503, mit einem laut damaligem Test sehr guten Analogsignal) gemacht, dort war der Eindruck insgesamt deutlich besser, und ich konnte auf den Testbildern keine so klaren Unterschiede erkennen. Heute abend stelle ich die auch mal noch ins Forum. Offenbar ist es auch nicht ganz unwichtig, wieviele Reserve das Bildsignal hat (d.h. wie gut es am Ausgang anliegt), oder der Ausgang des Notebooks passt analogelektronisch (Kapazitäten, Scheinwiderstände) besser zur Characteristik von Kabeln, KVM und Display.


    Ach ja, was ich zur Beurteilung der Qualität noch ergänzen wollte: das ganze wurde nicht bei den üblichen "harmlosen" Auflösungen (SXGA und kleiner) gemacht, sondern bei WUXGA (1920x1200). Gerade in anbetracht der dazu erforderlichen Bandbreite war ich dann insgesamt doch positiv überrascht. Die Frage "ist der KVM gut genug" bleibt natürlich.


    Leider haben zwei der vier USB-Ports des KVMs leider ein Problem (einer geht gar nicht, der zweite manchmal), so dass ich dieses Exemplar wohl eh zurückschicken muss. Die Frage ist: Ersatzgerät oder anderes Modell? Der in einem anderen Thread erwähnt DVI-I-Switch von Lindy kann ja leider nur PS2, und wie gut dessen Umgang mit dem analogen Signal ist, ist unklar. Vor allem braucht man wohl diverse Adapter: von analog auf DVI-A (die gibt es, ~5€/Stk.), dann ins Kabel, zum KVM-Switch, ins Kabel, dann Aufspalten auf DVI-D und analog (gibt es dafür überhaupt Adapter?).

    Heute ist mein neuer KVM-Umschalter eingetroffen, analog (drei der vier Rechner die drann sollen haben kein DVI). Ich hatte subjektiv zunächst den Eindruck, dass das Bild schon irgendwie schlechter ist, konnte das aber nicht klar beschreiben. In einem Blindtest (nein, das soll jetzt kein Wortspiel sein ;-) ) "analog über KVM vs. DVI" war ich sehr sicher, einen Blindtest mit allen dreien konnte ich auf die Schnelle nicht machen, da ich niemanden zur Hand hatte, der für mich die Kabel umstecken (oder auch nicht umstecken) konnte.


    Also habe ich die Digicam ausgepackt... im Anhang findet ihr drei Bilder, Image1, Image2 und Image3, es handelt sich um ansonsten unveränderte Ausschnitte der Digicam-Fotos, minimale JPEG-Kompression.


    Meine Frage ans Prad-Publikum:


    Wer erkennt welches Bild über DVI, welches analog direkt bzw. analog über den KVM angeschlossen ist?
    Am besten dazu die Bilder runterladen und mit einem Programm wie ACDSee anschauen, so dass man ohne Verzögerung zwischen den Bildern umschalten kann. Oder einfach jedes Bild in einem eigenen Browser-Tab öffnen.


    Natürlich sagt ein solches Detailfoto nichts über den Bildeindruck bei normaler Sehentfernung, aber mich würde trotzdem auch mal interessieren, ob ihr das KVM-Bild (wenn ihr glaubt, es identifizieren zu können) für "Noch erträglich" haltet, oder ob das Teil eurer Meinung nach zurückgehen sollte.

    Eine Wandhalterung sollte kein Problem darstellen, der Dell hat wie die meisten aktuellen TFTs (Supermarkt-Sonderangebote mal außen vor) die Vesa-Montagelöcher. Das Display selbst, also ohne den relativ ausladenden Standfuß ist ca. 8 cm tief, mit Standfuß gut das doppelte. Aber die genauen Maße sollten auch auf der Dell-Seite zu finden sein, zumindest die Gesamttiefe mit Fuß.

    Ich habe da auch mit den Einstellungen (im Grafiktreiber) für Gamma etc. rummprobiert und es war eine Verbesserung zu erzielen. Selbst wenn man das auch mit den Einstellungen des Displays hinbekommt, so ist es doch mehr als lästig, wenn man jedes mal, wenn man einen Film gucken will, erstmal manuell eine handvoll Einstellungen ändern muss und anschließend wieder zurück, weil es nämlich sonst auf dem normalen Desktop mies ausschaut.

    In meinem Desktop steckt eine Radeon 9800 NON-Pro von HIS, die natürlich am DVI-Eingang des Monitors angeschlossen ist. Am analogen Eingang betreibe ich ein rund zwei Jahre altes Notebook (Toshiba Satellite 5100-503) mit einer Geforce 4 Go 440. Der analoge Ausgang des Notebooks wurde damals in einem c't-Test mit "sehr gut" bewertet.
    Ich weiß nicht mehr, wie da meine Radeon-9800-Grafikkarte abgeschnitten hat, aber ich sie habe testweise sowohl über DVI als auch analog angeschlossen, den Clone-Modus eingeschaltet und einen direkten Vergleich gemacht. Das Bild war nicht merklich schlechter als das vom analogen Ausgang des Notebooks, der Unterschied lässt sich im direkten Vergleich schon klar erkennen, ist aber bis auf die Sache mit dem hellen Rand an harten Kontrasten schwer zu beschreiben.


    Vielleicht noch ein Nachtrag: wer vor hat, über den Rechner (also DVI oder SUb-D) Videos mit dem Dell zu gucken, wird evtl. nicht sonderlich glücklich. Weniger wegen der schlechten Qualität des Monitors als wegen der schlechten Qualität der Videos! Man sieht halt leider jedes Kompressionsartefakt. Das fällt insbesondere dann auf, wenn man sonst die Videos eher auf dem Fernseher schaut. Denn was mein schon ein paar Jahre alter, aber an sich recht hochwertiger Röhren-TV anzeigt, nachdem das Composite-Signal den beschwerlichen Weg durch 10 Meter Audio(!)-Cinch-Kabel zurückgelegt hat, ist da deutlich gnädiger. ;)