Posts by wus

    Die Frage steht hier schon etwas länger, trotzdem versuche ich mal ne Antwort. Mich nervt das auch teilweise.


    Die meisten der von Dir beschrieben Unzulänglichkeiten werden von der übermäßigen Kompression verursacht, die nötig ist, um die HD-Übertragung innerhalb der von den Sendern gekauften bzw. zur Verfügung stehenden Kanalbandbreiten zu übertragen. Das Signal wird viel zu stark komprimiert, das verursacht u.a. Banding (schrecklich :thumbdown: ), diesen Puderquasten-Effekt, die grüne-Tupfen-Blätter u.ä.


    Die TV-Hersteller programmieren z.T. Bildverbesserungsalgorithmen in ihre TVs, die einige diese Fehlerchen kompensieren sollen. Aber nicht alle sind gut programmiert, und was am Signal mal verloren ist, kann im Grunde höchsten kaschiert werden, aber nicht wirklich wieder hergestellt. Diese Bildverbesserer haben auch einige unerwünschte Nebeneffekte.


    Im Gegensatz dazu war Analog-TV zwar den Unzulänglichkeiten der analogen Übertragung unterworfen, wenn hier das Signal gut ist, gibt es aber jedenfalls kein Bandbreitenproblem oder Kompressionsartefakte.


    Natürlich gibt es noch ein paar weitere Problemstellen bzw. Ursachen, aber die wenigsten davon "gehen weg" wenn man richtig gute, teure TVs kauft.


    Sind leider überwiegend Unzulänglichkeiten die am "System TV" liegen.


    Einiges ist besser wenn man HD oder auch UHD von der Bluray guckt, oder selbst gedrehte Filme (entsprechend gutes Equipment vorausgesetzt).


    Leider wird das Versprechen von HD ("High Definition"), oder gar UHD, von der Industrie nur sehr unzulänglich erfüllt. Ich fürchte das wird auch so bleiben, weil die Hersteller und Normungsgremien rein wirtschaftlich getrieben sind, und sich somit nicht auf optimale Qualität ausrichten, sondern nur auf maximalen Profit.

    Da mein NEC PA301W seit kurzem eine Macke hat bin ich auf der Suche nach einem neuen Monitor. Und da ich aktuell immer noch (wenn auch selten) über ein Röhren-TV glotze dachte ich mir, erschlägst Du beide Fliegen mit einer Klappe, nimmst einen 4K TV und verwendest den dann nicht nur zum fernsehen sondern auch als Monitor am PC.


    Spricht irgend was gegen diese Verwendung?


    Prinzipiell funktioniert das sicherlich, aber kann man aktuelle, bessere (u.a. HDR-fähige) TVs mit den an PCs üblichen Methoden (Spider o.ä.) kalibrieren? Oder sonst irgendwie so wie man es für (semi-)professionelle Bildberarbeitung braucht?

    Die neuen Samsung, vor allem der F2380 sind sicher einen Test wert. 100% sRGB und 3000:1 statischer Kontrast klingt hoch interessant. Dazu noch ein blickwinkelstabiles PVA-Panel - und das für gerade mal 300 Euro!


    Was will man mehr?


    Ganz einfach: WISSEN ob die Monitore halten was diese Schlagworte bzw. Herstellerangaben verspechen.


    Was mich speziell interessieren würde: HDMI 1.3 sieht ja u.a. auch Farbtiefen bis zu 16 bit pro Grundfarbe vor. Geht das auch über DVI? Ich meine, wozu 3000:1 Kontrast wenn nur 8 bit pro Farbe an Auflösung zur Verfügung stehen??? Damit kann man eine Skala von 1 bis 3000 nicht kontinuierlich abbilden... mit 8 bit gehen halt nun einmal nicht mehr als 256 Abstufungen. Da müsste es doch fast obligatorisch sein, dass der Monitor nativ mit wenigstens 12 bit pro Farbe arbeiten kann (und nicht nur intern 12 bit interpoliert aus 8 bit wie von 0-8-15-Graka geliefert, wie es bessere Grafik-Monitore machen).


    Deshalb: bitte testen!


    Danke + Grüße!

    Hochinteressantes neues Panel, nicht nur wegen Größe und Auflösung sondern auch wegen der Farbtiefe von 10 bit.


    Ungewöhnlich ist das Seitenverhältnis von 256 : 135, oder ungefähr 19 zu 10 (ich gehe mal von quadratischen Pixeln aus).


    Nicht stimmen kann die Angabe von 85 ppi. Wenn man nachrechnet kommt man auf 72 ppi. Wenn man wirklich nicht-quadratische Pixel und ein 16 : 9 Seitenverhältnis annimmt kommt man auf 73 ppi horizontal und 69 vertikal.


    Interessant wäre auch noch:


    - was ist ASV Techjnologie? Ein neuer TFT-Typ? Vorteile? Nachteile?


    - welche Art Backlight wird verwendet?

    ach so, ich vergaß:


    YCbCr mir chroma subsampling würde ich nicht gerne wollen. Ich empfinde es schon als Zumutung, oder jedenfalls als heftige Einschränkung, dass auch größere Monitore nur winzige Bruchteile der Auflösung heutiger DSLRs bieten, da möchte ich dann nicht auch noch einen zusätzlichen Auflösungsverlust bei der Farbauflösung hinnehmen müssen. Für Filme ist YCbCr mit Chroma Subsampling sicher eine feine Sache, aber für Fotobearbeitung hätte ich schon lieber Pixelgenauigkeit auch bei der Farbe.

    Grafikkarten mit Displayports scheint es massenweise zu geben, habe ich gerade bei Google Shopping gesehen.


    Was aus den Graka-Specs leider generell nicht hervorzugehen scheint ist welche tatsächlich mit mehr als 8 bit pro Farbe arbeitet. Zumindest nicht bei den Modellen auf deren Herstellerseiten ich bisher nachgeschaut habe.


    Gibt's da wirklich noch nichts, oder kennt jemand vielleicht doch eine?


    Einen Monitor scheint es auch schon zu geben, siehe

    Aufgrund seiner Größe und weil es ein medical display ist wird dürfte er wohl nicht wirklich günstig sein, aber immerhin...

    Ich meine Monitore die mehr als die üblichen 8 bit pro Farbe und somit mehr als 16,7 Mio Farben darstellen können. Wobei es mir gar nicht so sehr um die Anzahl unterschiedlicher Farbtöne geht, sondern darum, einen höheren Kontrastumfang bei trotzdem auch in hellen und dunklen Bereichen noch gleichmäßigen Farbverläufen darstellen zu können.


    Wenn ja, wer baut sowas?


    Welche Grafikkarte und welchen Anschlusstyp braucht man dazu?


    Ich bin Hobbyfotograf und ärgere mich ein wenig über die Unmöglichkeit, Fotos von Digitalspiegelreflexkameras, oder auch Scans von Dias mit vergleichbarer Farbtiefe, die inzwischen bis zu 14 bit pro Farbe erreicht, auf Monitoren mit nur 8 bit pro Farbe abbilden zu können.


    Gute TFTs können ja heute immerhin einen statischen Kontrast von 1000:1 und mehr erreichen, da würden wenigstens 10 oder besser 12 bit pro Farbe m.E. schon Sinn machen. Und ich meine damit nicht Monitor-interne 10 oder 12 Bit LUTs sondern echte Bildsignaleinspeisung von außen mit 10 oder 12 bit pro Farbe.


    Bin schon gespannt auf Eure Antworten!

    Danke für die Aufklärung, Sailor Moon.


    Die Bilder sehen tatsächlich ganz gut aus, nur leider zeigt meine Erfahrung dass das einen eigenen Versuch nicht ersetzen kann. Ich habe auch schon Flachfernseher gesehen, die das normale Fernsehprogramm sehr gut dargestellt haben - solange man es aus einem für normalauflösendes Fernsehen normalen Abstand ansah. Bei HD-Programm will ich aber höchsten halb soweit weg sitzen, und einen HD-Fernseher, der aus diesem Abstand das auf volle Bildschirmgröße (-höhe) aufgezoomte Bild in erträglicher Qualität dargestellt hat ist mir noch nicht untergekommen. Vermutlich ist das auch gar nicht möglich, denn woher sollen die Details kommen? Auch der beste Linedoubler interpoliert letztlich nur. Das einzig senkrechte wäre meiner Meinung nach die pixelgenaue Darstellung. Daher meine Frage. Schade dass es das immer noch nicht gibt. Da werde ich wohl doch noch mit dem Kauf warten.

    Hallo,


    Ihr schreibt im Teil 12 "Nur Scan: Hier wird eine Signalquelle pixelgenau, also ohne etwaige Beschneidung des Bildes (Overscan) dargestellt."


    Das würde ja heißen, dass PAL in Standardauflösung (Standard-TV) nur einen kleinen Teil der Bildschirmfläche füllt, mit breitem scxhwarzen Feld rundrum. Ist das wirklich so oder habe ich das was falsch verstanden?


    Ich frage aus folgendem Grund: Ich würde mir gerne einen großen Full-HD Fernseher kaufen und den zum Blu-Ray gucken auch ziemlich nahe aufstellen, damit echtes Kino-Feeling aufkommt. Auf einen 52-Zöller würde ich schätzungsweise aus nicht mehr als 2m schauen. Aus dem Abstand wirkt aber auf volle Bildschirngröße aufgeblasenes Standard-TV unerträglich matschig, und zwar selbst bei unverzerrtem Seitenverhältnis, also mit schwarzen Balken links und rechts.


    Mich würde es nicht stören, wenn Standard-TV nur einen kleinen Teil des Bildschirms füllt. Leider habe ich bisher noch keinen Fernseher gesehen, der nicht nur oben und unten oder links und rechts schwarze Streifen lässt, sondern rundrum. Kann das der LE-52F96BD?

    Mir geht es darum, möglichst viel von der Dynamik, die heutige Digitalkameras einfangen können auch darzustellen. Dias niedrigempfindlicher Filme haben Kontrastumfänge bis zu mehreren 1000:1, auf dem Leuchttisch (unter der Lupe) sehe ich auch in dunkelsten oder hellsten Bildteilen noch Zeichnung.
    Moderne DSLRs arbeiten mit 12 oder inzwischen sogar 14 bit pro Farbe, das ist vergleichbar damit. Aber das verdammte JPG oder die Grafikkarten und Monitore geben alle leider nur 8 Bit pro Farbe ab.


    Interne 10-Bit Verarbeitung ist ein guter Ansatz um die Möglichkeiten eines 8-Bit Systems voll auszureizen, aber die Systemgrenze von 8 Bit pro Farbe sprengen kann man damit nicht. Von 8 auf 14 bit pro Farbe macht 6 Bit Unterschied, ein Faktor von 64. Das ist die Lücke, die derzeit zwischen Aufnahme und Wiedergabe klafft.


    Sieht so aus als müsste ich wohl noch ein Weilchen auf eine grundlegende Verbesserung warten, wenn selbst Dolby / BrightSide auf "Complete compatibility with existing computer video cards" setzt, wie man auf lesen kann. Schade.


    Aber danke für Ihre Antwort zum Samsung LE-52F96BD. Immerhin ein Fortschritt wenn man den Overscan abschalten kann.

    Danke!


    Kann man den Samsung LE-52F96BD als Monitor am PC verwenden, über einen der HDMI-Eingänge? Ist er dabei pixelgenau - kann man den bei TVs üblichen Overscan für diese Anwendung abschalten? Verarbeitet er mehr als 8 bit pro Farbe? Welche Grafikkarte brauche ich dazu?


    Nochmals danke + Gruß,
    wus

    Ich wäre schon froh, wenn es endlich mal Displays und Grafikkarten gäbe, die wenigstens 10 oder 12 bit pro Farbe auflösen und darstellen können. Mit den Kontrastumfängen aktueller TFTs, die ja mittlerweile auch bis 10000:1 gehen, müsste das ja eigentlich möglich sein, und auch halbwegs erschwinglich - jedenfalls sicher weitaus billiger als dieser All-LED Monitor.


    Oder gibt's sowas schon?