Sehr geehrte Hersteller,
wir schreiben demnächst das Jahr 2018. Also habe ich da mal ein bisschen recherchiert und wurde pathetisch.
Ich kann mich noch gut an die Zeit erinnern, als die Flachen Schirme die Arbeitstische der Republik eroberten. In gefühlt fünf Jahren war die jahrzentelang übliche Technologie durch eine neue verdrängt worden.
Aber was dann? Was ist danach bei euch nur schief gelaufen?
Vor etwa NEUN Jahren betratten 120Hz-Monitore den Markt (z.B. der Acer HS244HQ, Samsung 2233RZ).
Vor etwa VIER Jahren betratten 144Hz-Geräte und variable Synchronisierung den Markt.
Und Anfang des Jahrzehnts waren auch Monitore mit 1200Zeilen durchaus üblich,
in augenfreundlicher Größe von ca. 24 Zoll (ca. 90dpi). Und auch die Quali
stimmte eigentlich, ich kann mich nicht an allzu krasses Glühen und Lichthöffe
erinnern, jedenfalls nicht in breiter Masse.
Wo stehen wir heute? Irgendwo am Abgrund, würde ich sagen. Der Markt scheint in zwei Richtungen auseinander zu driften - Schrott für Konsumententen auf der einen Seite, und auf der anderen Geräte mit jeweils "einseitiger Begabung" auf der anderen (da gibt es auch weniger politisch-korrekten Ausdruck dafür).
Die Monitore von heute, die mir qualitativ/featuremässig zusagen, haben bezüglich Performance nur Standardkost zu bieten: 60Hz, nix Freesync/G-Sync. Input-Lag scheint heute durchweg gering zu sein, jedenfalls im Vergleich zum Zustand vor 12-15 Jahren. Kein Wunder, die Datenprozessoren wurden auch schneller.
Aber davon abgesehen hat sich bei Performance NICHTS GETAN.
Und schlimmer noch, scheinbar hat man die Leute drauf konditioniert, wieder weniger Pixel zu akzeptieren. Hallo... 1080p... das ist doch ein Witz. Vor 10 Jahren waren 1600x1200 üblich. Heute werden sogar 32Zoll-Geräte mit lächerlicher FHD-Auflösung produziert und vermutlich auch verkauft. ACHTZIG ZENTIMETER! Wer da nicht zwei Meter davor sitzt oder sehschwäche hat, kann doch das Fliegengitter ohne Luppe erkennen. Und das sollen PC-MONITORE sein? Selbst auf 27Zoll wirkt FHD pixelig - selbst mein oller 19Zöller hat kleinere Pixel, und der war schon damals grenzwertig.
Am Können scheint es ja nicht zu liegen. 4K-Panels gibt es mittlerweile genug, auch die Smartphones bekommen heute absurd hohe Pixeldichten.
Und selbst da scherrt sich kein Hersteller um die Kundenwünsche. Wieso gibt es nicht den einfachsten 1:2-Skaliermodus, damit auch weniger aktuelle Grafikkarten eine 4K-Glotze schön betreiben könnten?
Wird irgendwann in diesem Jahrzehnt noch ein Versuch unternommen, einen brauchbaren Allrounder zu bauen? Mit angenehmer Auflösung (muss kein 4K sein, UHD reicht), angenehmer Pixeldichte (so 90-100dpi), mindestens 100Hz (und zwar real, nicht mit Übersteuerung und Strobo-Ticks am ansonsten lahmen Panel) und mit ordentlichen Blickwinkeln!
Und wird das Gerät zu bezahlbaren Preisen angeboten? Die wenigen ernstzunehmenden Kompromisse, die man auf dem Markt findet, haben laut Benutzern entweder Qualitätsprobleme mit dem Panel (Pixelfehler, Lichthöfe) oder sind nur zu Apothekenpreisen zu haben (Eizo, und der ist auch nicht perfekt, da eingeschränkte Freesync-Bereiche). Eine Mittelklasse scheint es nicht zu geben, jedenfalls in Sachen Qualität nicht... d.h. ob man nun 500€ oder 700€ bezahlt, scheint die Chancen in der Panel-Lotterie wenig zu beeinflussen.
Die da meine ich.
Und noch ein paar Meinungen:
Vergesst Blaulicht-Filter. Das ist doch schrott und braucht niemand wirklich. Und wenn doch, dann sollte das adaptiv sein. Wer fummelt schon gern an dieser Einstellung?
Baut lieber smarte Lichtsensor-Steuerung ein. Auch in Konsumenten-Geräten. Das macht doch seit einem Jahrzeht fast jedes Smartphone, und Eizo hat es auch seit Ewigkeiten drin. Und ihr kriegt es nicht auf die Reihe, echt jetzt?
Eine kleine KI wäre hier angebracht (DeepLearning ist doch gerade hipp).
Vergesst die Energie-Labels. Ob ein Monitor 30W oder 70W verbrennt ist unterm Strich selten relevant (der Rest des Systems schluckt auch nicht wenig). Vielleicht stattdessen das gute alte CCFL (statt LED) oder eben mehr Leds verbauen? So zwecks besserer Ausleuchtung?
Vergesst die dünnen Ränder. Nur wenige finden sie chick. Und nicht wenige finden sie hässlich. Auf mich wirkt es eher unfertig, wie Labor-Aufbau.
Vergesst die Lautsprecher. Lieber weg lassen und Platz und Gewicht sparen und den Kostenvorteil weitergeben. Wer keine Krachmacher hat, kann sich dafür dann passende besorgen - und kann sie dann BESSER aufstellen, als wenn die Quäker irgendwo hinten am Monitor versteckt sind.
Bringt endlich NVidia zu Vernunft, oder zumindest mit AMD an einen Tisch. Es kann doch nicht sein, dass die Nvidia-Opfer erst 100-200€ Aufpreis bezahlen und dann noch weniger Anschlussmöglichkeiten haben. Oder wird damit eventuell die verbilligte GTX1060 querfinanziert?
Macht eure QA-Arbeit auch mal mit Linux! Es ist echt zum k*en, wenn irgendwelche Automatismen mit Linux-Treibern versagen (neulich erlebt, irgendein BenQ hat den HDMI-Signal-Umfang falsch erkannt und überall sind helle/dunkle Töne verschwunden, und Automatik abstellen war unpraktisch, weil Windows das andersherum machte).
Zeigt eure Specs! Und keinen Quatsch a-la "5ms g-t-g" oder "Kontrast 1000:1 (typ.)". g2g interessiert nicht. S/W interessiert. Da können Welten dazwischen liegen (vielleicht 10ms, vielleicht 16ms). Wenn ich die Info nicht kriegen kann, kaufe ich euer Zeug nicht. "typischer Kontrast" ist auch ein Scherz, so gut wie "bis zu 16mbit/s" beim Dorf-DSL.
So viel dazu. Mir fallen bestimmt noch mehr Dinge ein, aber das reicht jetzt erst mal.