Beiträge von mic

    Zitat

    Original von wwelti
    Und wenn es mir doch mal zu klein sein sollte, drücke ich einfach Ctrl - "+", und Mozilla stellt alles (auch die Eingabebox bei Prad.de) eine Stufe größer dar. (BTW, das ist unter Linux. Weiß nicht ob's unter Windows genauso einfach geht)


    Genau so ... In Opera genügt sogar die Plus-Taste am Ziffernblock.


    Zitat

    Das ist natürlich nur meine private Meinung zu dem Thema. Es sei jedem unbenommen, sich an grobpixeligen 19"-TFT's mit 5:4 Seitenverhältnis zu erfreuen ;)


    :evil:
    Grobpixelig??? Das weise ich auf Schärfste zurück! Wenn ich dem Führerschein-Sehtest und der Bw-Musterung glauben darf, habe ich sehr gute Augen und ich kann keine "groben Pixel" oder dergleichen erkennen. Um einen einzelnes Pixel begutachten zu können, müßte man zur Lupe greifen. :D


    Gruß
    Michael

    Zitat

    Original von Weideblitz
    ..und auch nicht bei TFT-Monitoren der Firma AG Neovo.. 8)


    Neveo... aja, gerade nach gelesen. Eine "neo-V Glastechnologie", die das Panel schützt. So etwas sollte man zum Standard machen. Schaden würde es jedenfalls nicht.


    Gruß
    Michael

    Zitat

    Original von Weideblitz
    Man kann aber ohne Probleme so gut wie jedes TFT-Modell mit VESA-Anschluß um eine Portrait-Funktion nachrüsten. Damit würde sich die in Frage kommende Modellpalette drastisch vergößern.


    Tja, fragt sich nur, ob die dafür benötigte Wandhalterung noch in sein Budget paßt... Ich glaube, ab ca. 50 Euro aufwärts ist man dabei.


    Gruß
    Michael

    Zitat

    Original von feierfresse
    Warum soll man den kein Fensterputzmittel nehmen?
    Damit geht bestimmt alles ab!


    Möglich. Falls das Mittel zu scharf ist, geht vielleicht auch die Panelschicht ab, die vor den Leuchtpunkten sitzt. Ich werde das sicher nicht bei meinem Flachmann ausprobieren. Meldet sich jemand freiwillig? Bei einer verglasten Röhre hätte ich ja keine Bedenken...


    Gruß
    Michael

    Himmel, da haben wir was losgetreten...


    Zitat

    Original von newboardmember
    Worin soll der Nutzen liegen, per DVI-I "auch analoge" Signale aufzunehmen?


    Das ist quasi nur ein Zusatzfeature, welches sehr nützlich sein kann, wenn die Graka kein digitalen Ausgang hat. Da werden die analogen Signale des Sub15-Ausganges über den DVI-I-Eingang eingelesen und somit ist der Betrieb eines LCDs zur Not auch ohne DVI-Graka möglich.


    Zitat

    Original von Randy
    So ist es möglich (Iiyama macht das glaube ich) einfach zwei DVI-I Buchsen in das TFT zu bauen und einmal ein DVI-I digital (DVI auf beiden Seiten) und ein DVI-I analog Kabel (DVI-I auf 15 pin D-Sub) beizulegen. Es müssen dann halt keine anderen Buchsen eingebaut werden.
    Außerdem kann man dann z.B. zwei PCs digital an ein TFT anschließen.


    Fast. Zumindestens bei meinen Gerät hat Iiyama zwei DVI-I-Eingänge eingebaut. Die mitgelieferten Kabel sind einmal ein reines DVI-D-Kabel ohne analoge Signale und ein Sub15-DVI-A-Kabel, welches natürlich nur die analogen Signale aufnimmt und in den DVI-I-Eingang speist. Theoretisch könnte ich es auch umgekehrt verwenden, um an einem DVI-I-Ausgang das analoge Signal in einen Röhrenmonitor zu leiten.


    Zitat

    > Es halt nur die Frage, ob das LCD auch analoge Signale mit aufnimmt über DVI-I
    Ich verstehe das so, dass man nicht weiß, ob das digital Signal oder das analoge abgegriffen wird.


    Da müßte man ein DVI-I-Kabel an einem DVI-I-Augang setzen, um das gleiche Bild analog und digital einzuspeisen. Ich denke mal, das Gerät entscheidet sich dann automatisch für das digitale Signal. Ich vermute mal, daß die meisten Display sowieso mit einem DVI-D-Kabel angeschlossen werden und daher nicht vor der Problematik stehen.


    Gruß
    Michael

    Hallo!
    Ich glaube, daß heißt im Deutschen "Bildschirmschriftarten glätten". Hilfetext: "Legt fest, ob die Kanten großer Schriftarten geglättet werden, um die Lesbarkeit von Bildschirmschriftarten zu erhöhen.." Dazu noch die Hardwarevorraussetzungen (ab 256 Farben, besser 16bit ...).


    Gruß
    Michael

    Zitat

    Original von chipsy
    kann mal einer sagen, wie man im ati-graka-treiber einstellen kann, dass bei einem 19er tft für 1024 nicht interpoliert werden soll?


    Hallo!
    Bei Ati geht so etwas auch über den Treiber? Ich kann im Monitor einstellen, daß die Vollbilddarstellung auf die Orginalbildgröße beschränkt wird...


    Gruß
    Michael

    Zitat

    Original von wwelti
    Ups, hatte Dein Posting das letzte Mal übersehen, sorry.


    Verzeihlich.


    Zitat

    Klar. Aber das Raster ist ziemlich fein. Und zumindest wenn Du die Nenn-Auflösung des TFT's verwendest (optimale Auflösung, maximale darstellbare Auflösung) sollte es auch sehr gleichmäßig aussehen. D.h. wenn Du nur weit genug vom Monitor weggehst, kannst Du das Raster beim besten Willen nicht mehr als Raster erkennen; sondern Du siehst nur noch eine Fläche einheitlicher Farbe.


    Stimmt. Nach 100 Metern sehe ich sicherlich nur noch einen leuchtenden Fleck. :D


    Zitat

    Bei 15" und 19" TFT's ist es wahrscheinlich am schwierigsten dies zu erreichen, da die Pixel hier meistens besonders groß sind.


    Ansichtssache. Ich würde sagen, bei 16" und 17" sind sie besonders klein.


    Zitat

    Bei analogem Anschluß können u.U. die Ränder von gerasterten Flächen deutlicher hervortreten, was das "Verschwinden" derselbigen nahezu unmöglich macht. Habe ich jedenfalls schon an analog angeschlossenen TFT's gesehen.


    Da gut, ich werde mich mit wieder mit der Materie beschäftigen, wenn ich eine DVI-Graka habe.


    Gruß
    Michael

    Zitat

    Original von newboardmember
    Also, ich habe z.B.
    - eine Grafikkarte mit VGA und DVI-D Ausgang, dann kann ich an letzterem nur digital anschließen, und zwar wegen bereits erklärter Problematik derzeit nur TFT's, am VGA kann ich nur analog anschließen, wahlweise CRT's oder TFT's


    Jepp.

    Zitat

    Oder ich habe stattdessen
    - eine Grafikkarte mit zwei DVI-I: an beiden kann entweder analog oder digital angeschlossen werden, je nachdem, was auf der Gegenseite vorhanden ist, und somit immer das Maximale herausgeholt werden


    Richtig?


    Jepp

    Zitat

    Wenn ich also einen TFT mit DVI-D Unterstützung habe, bringt mir DVI-I an der Grafikkarte verglichen mit DVI-D überhaupt nichts (und auch generell qualitätsmäßig nichts im Vergleich zu DVI-D), sondern das DVI-I an der Grafikkarte hat den Vorteil der Flexibilität für den User, sehe ich richtig?


    Jedes LCD mit DVI-Eingang hat DVI-D-Unterstützung. (Eine m.E. eher sinnlose Ausnahme wäre ein DVI-A-Eingang, der nur analoge Signale akzeptiert.) Es halt nur die Frage, ob das LCD auch analoge Signale mit aufnimmt über DVI-I. Ja, ich würde sagen, Du hast jetzt den Durchblick 8)


    Gruß
    Michael

    Zitat

    Original von toru
    Während dieser Zeit sieht man auf dem Display wellenartige hell / dunkel Bewegungen die über die ganze Fläche gehen. Erst nach den erwähnten 2 Minuten stabilisiert sich der Bildaufbau und man kann an dem Monitor arbeiten.


    Hallo!
    Könnte man der Beschreibung nach fast für ein Autoadjust halten, um Clock/Phase einzustellen. Aber dafür zwei Minuten??? Das kann doch nicht gesund sein.


    Gruß
    Michael

    Zitat

    Original von Weideblitz
    Stimmt, einen Kostenvorteil hätte man auch noch aber nur, wenn die Grafikarte einen _reinen_ DVI-D-Ausgang haben würde. Da aber alle Karten ohne Ausnahme auch einen VGA-Port haben, hat man effektiv doch nichts gespart - aber schön wäres gewesen.


    Tja, als damals vor ca. 20 Jahren die Monitore aus der Mega-Peripherie der Computer herausgelöst wurden und als eigenständige Geraete auf den Tisch gestellt wurden, haette man die Technik nur so hinbiegen müssen, daß der Wandler nicht auf den Bauteilen für Bildberechnung (gab es damals schon steckbare Grafikkarten??), sondern in den Monitor eingebaut wurde. Dann hätte man heute was sparen können. Aber "hätte" ist nicht "hat"...


    Zitat

    Ähmm, du meinst wie oben den D/A-Wandler, nicht A/D..;)


    Asche auf mein Haupt...


    Zitat

    Original von newboardmember
    Und was bringt das analoge Signal am DVI-I und wozu braucht man das?


    Ich würde sagen, es bringt Flexibilität. Erstens kann man ein LCD mit DVI-I-Eingang an einen Computer anschliessen, dessen Graka noch nicht über DVI verfügt. Zweitens könnte man mit einem DVI-I-Ausgang wahlweise eine Röhre oder ein LCD betreiben, wobei das LCD auf jeden Fall digital angesteuert werden kann. Ich glaube, Matrox hat eine Karte mit zwei DVI-I-Ausgängen im Programm. Da kann wahlweise ein LCD und eine Röhre oder zwei LCDs oder zwei Röhren betrieben werden, wobei die LCDs an beiden Ports idealerweise digital angesteuert werden können, weil DVI-I (I=integriert) digitale und analoge Signale ausgibt.


    Gruß
    Michael

    Hallo!


    Was für einen Bildstrich???
    Ich spiele auch BF1942 am LCD und habe keine Probleme. Allerdings wüßte ich auch nicht, wo ich Vsnyc eingeschalten/auschalten hätte...


    Gruß
    Michael

    Hallo da draußen!


    Also so pauschal kann ich den Beitrag hier nicht stehen lassen.


    Zitat

    Original von Affe
    MVA-(Premium)-Panel: Windows hui (von Anfang an sah´s gut aus, gut im sinne von wie bei meiner alten Röhre, als der Farbverlauf, außer natürlich Schärfe, Farbrillianz usw.) Spiele pfui!


    Gleich ein pfui? Ich komme mit MVA beim Spielen ganz gut zurecht.


    Zitat

    17er reichen für den Normaluser meiner Meinung nach vollkommen aus, die Schrift ist NICHT zu klein. Jemand der aber 15 Stunden am Tag vorm PC sitzt oder Grafiker etc etc ist, der sollte sich aber glaub ich trotzdem überlegen, sich nen größeren zu holen...


    Tja, das ist eine Ansichtssache, über die man ganze Flamewars führen könnte. Mir mich ist die Standardschriftgröße auf 19" genau richtig. Es wäre wahrhaftig ein Grauen, wenn ich bei der gleichen Auflösung auf beiden Seiten meiner Bildschirmdiagonale ein Zoll wegdenken müßte. Immerhin sind ein Zoll satte 2,54 Zentimeter! Zuerst hatte ich auch geglaubt, daß ich mit 17" hinkommen würde. Aber ein kurzer Blick auf Geraete bei Promarkt und Konsorten ist halt nicht der Weisheit letzter Schluß. Wie ich vor einem 19" stand und die Schriften/Icons sah, ging es quasi durch den Kopf: "Augen an Großhirn! Augen an Großhirn! Das isses!!!" Da war auch das gewohnte Größenverhältnis der Pixel vom unserem 15"LCD im Büro wieder da.


    Und wieviel Platz bieten 17"LCDs? Wenn ich davon ausgehe, daß bei 17"Röhren ca. 16" sichtbar sind, bieten LCDs auch nur ein Zoll mehr Diagonale. Ich hätte eher die 1152*864 als optimale Auflösung für 17"LCDs eingesetzt. Ich bin mir aber nicht sicher, ob diese Auflösung überhaupt von DVI unterstützt, vielleicht haben die Panel-Hersteller deswegen diese Auflösung als native ausgeklammert.


    Zitat

    Für Spieler und Leute, die aufs Kleingeld achten müssen, ist ein TN Panel praktisch Pflicht. Die Spieleleistung ist hier echt phänomenal, wärend sie beim MVA-Panel einfach nur zum ko**** ist... :(

    Klaro kann die Spieleleistung besser sein, aber so wie Du es ausdrückst, wird eher impliziert, daß man MVA überhaupt nicht zum Spielen nehmen kann. Dem kann ich jedenfalls nicht zustimmen. Und ich spiele auch BF1942, Cstrike, Mohaa...


    Zitat

    Ein anderer 19er würd sich für mich einfach nicht lohnen, da die "Mehrleistung" ( = größeres Bild) einfach zu teuer sonst ist.


    Das ist wie mit den Autos. Je mehr Hubraum und PS, desto teurer.:(



    Und wer sich nicht zwischen 17" und 19" entscheiden kann, sollte einen Blick auf die 18"-Kategorie werfen. :D


    Gruß
    Michael

    Zitat

    Original von Checker
    Das Problem sehe ich wie bei mic in der Gamma-Einstellung. Mir ist es auch nicht gelungen, die Quadrate im Hintergrund verschwinden zu lassen. Möglicherweise war das Gerät auch noch nicht ganz warm.


    Tja, mein Gerät war schon mindestens seit vier Stunden eingeschalten. Zum Erreichen der Betriebstemperatur sollte das ausreichen. Zimmertemperatur laut Thermometer 21,5 Grad Celsius.

    Zitat

    Kein Grund also, den Iiyama wegzuwerfen ;)


    Ich werde mich zu hüten. :tongue:


    Zitat

    Original von wwelti
    Wenn ihr mit eurer Gamma-Einstellung erreicht, daß die Helligkeit der Quadrate mit dem Hintergrund übereinstimmt, ist die Einstellung richtig. Möglicherweise ist die "Farbigkeit" ein kleines bisschen unterschiedlich, da kann man dann nichts machen.

    Problem: wie kann ich objektiv bewerten, ob zwei Flächen die gleiche Helligkeit haben? Zumal eine Fläche grau ist und die andere so ein gerastertes Muster.

    Zitat

    Übrigens: Die Gamma-Einstellung ist bei analogem Anschluß oftmals problematischer als bei digitalem Anschluß.

    Och nö, wieso das denn? Bis ich eine Graka mit DVI habe, wird es noch mindestens ein halbes Jahr dauern.

    Zitat

    Ich möchte euch ja nicht enttäuschen, aber der Gamma-Faktor hat keinen Einfluß auf den Verfolgungstest.

    Und warum soll dann der Gamma-Faktor überhaupt eingestellt werden?

    Zitat

    Ich würde mir keinen Kopf machen wegen den Werten beim Verfolgungs-Test. Dieser Test ist nicht unbedingt der genaueste, außerdem ist er stark abhängig vom "Schlieren- Empfinden" der Testperson. Was ist schon Hintergrundfarbe, was noch nicht?

    So siehts aus. Besonders bei der grauen Hintergrundfarbe ist es aus meiner Sicht schwer zu sagen, ob es noch das Grau vom Hintergrund ist oder das gräuliche Geschmiere der Schlieren.

    Zitat

    Offiziell wird für die (einfache) Übergangszeit sowieso nur die Zeit zwischen dem zu 10% und zu 90% erreichten Zielwert ermittelt. Weiterhin sind die Farbkombinationen beim Verfolgungstest durchaus so gewählt, daß dabei längere Schlieren als im "Optimalfall" Schwarz auf Weiß entstehen. Also, selbst wenn ihr dort 66ms herausbekommt, kann es durchaus sein, daß euer Monitor bei offiziellen Messungen eher bei 30 ms liegt.

    Theorie und Praxis ... die hohen ms-Werte ändern ja nichts daran, daß ich mit dem Monitor voll zufrieden bin.

    Zitat

    Original von Weideblitz
    Das ist aber granatenhaft viel..

    Solange ich nicht in Deckung gehen muß...


    Gruß
    Michael

    Zitat

    Original von Randy
    Da Entwicklung damals aber zum Wandler auf die Graka gegangen ist, wird es wohl keine CRTs mit A/D Wandler geben.
    Deswegen schrieb ich das es keinen Sinn macht.


    Genau das meinte ich. Der a/d-Wandler sitzt auf der Graka und muß vom Hardcore-Zocker jedes Jahr mit der neuen Graka bezahlt werden. Ein neuer Monitor fällt grob geschätzt wohl nur alle 4-8 Jahre an. Damit wäre es heute bestimmt günstiger, wenn der a/d-Wandler im Röhrenmonitor sitzen wäre, zumal dann die Flachbildschirme generell ein digitales Signal bekommen würden und das doppelte Umwandeln entfallen würde. Naja, nun sind die Standards festgefahren. Ja, wenn man das vor 15-20 Jahren hätte vorhersehen können, wie sich Monitore so mit der Zeit entwickeln würden...


    Gruß
    Michael

    Hallo da draußen!


    Hier noch zwei Ergänzungen zu meinem Testbericht.


    DATUM ---
    Nachdem ich in einem Acer-Bericht Randys Hinweis gelesen habe, daß man mit Powerstrip das Produktionsdatum auslesen kann, habe ich mir mal v3.30 heruntergeladen und es ausprobiert. Tatsächlich, da wird etwas ausgelesen! Als Produktionsdatum erhalte ich "2003, ISO week 2". Wenn damit die zweite Kalenderwoche gemeint ist, dann habe ich ungefähr zum Produktionszeitpunkt die Nachricht vom iiyama-Support bekommen, daß das Gerät demnächst auch in WEISS zu haben ist.



    SCHLIERENTEST ---
    Damit PixPerAn nicht sinnlos auf meiner Platte rumliegt, habe ich mich durchgerungen und das Programm durchlaufen lassen.
    Hier der Inhalt der PixPerAn_Ergebnis.txt:
    Grafikmodus: 1280x1024 @ 32 bpp
    Frame Rate: 60.3 Hz
    Gamma Faktor: 1.9562


    Flaggen-Test: s->w: 70.7%, w->s: 99.7%, s->g: 20.7%, w->g: 87.2%
    Verfolgungs-Test: 32(53.3ms), 50(83.3ms), 31(51.7ms)
    Lesbarkeit: Tempo 7
    Spiel: -
    Schlierenbild: Bild Nr. 3, Tempo 16, Gamma 1.39, r.exp 0.50, r.time 20.0, r.delay 14.3, f.exp 0.38, f.time 17.0, f.delay 11.3, s.tempo 16


    (Auf das Spiel habe ich verzichtet, dafür bin ich ein hoffnungsloser Grobmotoriker.)
    Etwas muß ich dazu noch sagen. In der Gamma-Einstellungen war aus meiner Sicht nicht hinzubekommen, daß die Quadrate quasi die gleiche Helligkeit erreichen wie der Hintergrund. Auch ein Verschwinden der Quadrate, betrachtet aus einer Distanz von 2-3m, war nicht zu erreichen. Ich habe einen Punkt gewählt, bei dem die Quadrate mit leicht zusammengekniffenen Augen ungefähr mit dem Hintergrund in der gleichen Helligkeit waren. Nicht optimal, aber einen besseren Näherungswert konnte ich nicht bekommen.
    Vielleicht sind die ms-Werte auch deswegen arg hoch geraten. Mit der Wirklichkeit können sie nicht viel zu tun haben, sonst hätte ich wohl ein Problem mit BF1942, RtCW oder Mooha, geschweige denn mpg- oder avi-Videos.



    Gruß
    Michael

    Zitat

    Original von Weideblitz
    Ich kann dazu leider nix beitragen. Solche Fragen brauchen erfahrungsgemäß immer etwas mehr Geduld, bis sich einige Antworten gesammelt haben..;)


    :D Was sehe ich? Weideblitz mal quasi sprachlos. Wo er doch sonst über TFTs eine Doktorarbeit schreiben könnte... :P


    Gruß
    Michael

    Zitat

    Original von memetic
    ich habe die monitor treiber von samsung installiert und die auflösung auf 1024x1280
    bei 75Hz eingestellt


    Hallo. Wie Jetson schon sagte, versuche es mit 60Hz. Und wie wäre es mit der nativen Auflösung? Ich habe mich über den größeren Desktop gefreut. Und die Bildqualität wird sicher steigen, wenn Du auf die native Auflösung umschaltest (1280x1024).



    Gruß
    Michael