Acer AL732 flimmert bei bestimmten Grafiken extrem

  • Genau so wie's Michael sagte, hab ich das gemeint ... !?


    Und warum macht DVI-D keinen Sinn aber DVI-I schon, das verstehe ich überhaupt nicht? Worin liegt der genaue Unterschied (bitte nicht auf das Lexikon verweisen, daraus alleine werd ich nicht schlau) und wie wirken sich diese aus?

  • Hi,


    du solltest mal die Bildfrequenz verändern, die kann ein Bild auf dem TFT wesentlich zum flimmern bringen (selber ausprobiert auf dem Belinea 101910). Wenn sie zu hoch ist, flimmert es bei mir, aber dann das ganze Bild. Stell sie doch mal auf den untersten Wert, den dein TFT "gebrauchen" kann (=> Bedienungsanleitung).
    Das müsste eigentlich helfen...


    Grüße,
    Sven

  • DVI-I führt zusätzlich zum digital auch noch das analoge Signal mit.


    Es ist bestimmt möglich den Wandler auch in den Monitor zu intigrieren, allerdings stellt sich die Frage, ob das jemand kauft. Denn der Monitor wäre bestimmt teurer.


    Da Entwicklung damals aber zum Wandler auf die Graka gegangen ist, wird es wohl keine CRTs mit A/D Wandler geben.
    Deswegen schrieb ich das es keinen Sinn macht.

    Viele Grüße
    Randy

  • Zitat

    Original von Randy
    Da Entwicklung damals aber zum Wandler auf die Graka gegangen ist, wird es wohl keine CRTs mit A/D Wandler geben.
    Deswegen schrieb ich das es keinen Sinn macht.


    Genau das meinte ich. Der a/d-Wandler sitzt auf der Graka und muß vom Hardcore-Zocker jedes Jahr mit der neuen Graka bezahlt werden. Ein neuer Monitor fällt grob geschätzt wohl nur alle 4-8 Jahre an. Damit wäre es heute bestimmt günstiger, wenn der a/d-Wandler im Röhrenmonitor sitzen wäre, zumal dann die Flachbildschirme generell ein digitales Signal bekommen würden und das doppelte Umwandeln entfallen würde. Naja, nun sind die Standards festgefahren. Ja, wenn man das vor 15-20 Jahren hätte vorhersehen können, wie sich Monitore so mit der Zeit entwickeln würden...


    Gruß
    Michael

  • Zitat

    Original von mic
    Warum eigentlich nicht? Das Signal muß für Röhrenmonitore doch sowieso umgewandelt werden. Was wäre denn so schlimm daran, wenn der d/a-Wandler nicht auf der Grafikkarte, sondern im Monitor sitzen würde?


    Wenn ich davon ausgehe, daß digitale Signale auch auf einer längeren Strecke störungsfreier übertragen werden können, wäre das ankomme Signal sogar dann quasi verlustfrei, wenn mehrere Verlängerungskabel dazwischen gesteckt werden oder das Signal über mehrere Verteilerstationen geht, um mehrere Monitiore anzusprechen.


    Technisch gesehen hast du vollkommen recht. Auch eine digitale Ansteurung eines CRTs macht genau aus deinen Überlegungen heraus Sinn. Gewandelt werden muß sowieso - dann ist es besser erst dort zu wandelen, wo man das gewandelte Ergebnis auch braucht - im CRT-Monitor!


    Zitat

    Original von mic
    Genau das meinte ich. Der a/d-Wandler sitzt auf der Graka und muß vom Hardcore-Zocker jedes Jahr mit der neuen Graka bezahlt werden. Ein neuer Monitor fällt grob geschätzt wohl nur alle 4-8 Jahre an. Damit wäre es heute bestimmt günstiger, wenn der a/d-Wandler im Röhrenmonitor sitzen wäre, zumal dann die Flachbildschirme generell ein digitales Signal bekommen würden und das doppelte Umwandeln entfallen würde.


    Stimmt, einen Kostenvorteil hätte man auch noch aber nur, wenn die Grafikarte einen _reinen_ DVI-D-Ausgang haben würde. Da aber alle Karten ohne Ausnahme auch einen VGA-Port haben, hat man effektiv doch nichts gespart - aber schön wäres gewesen.


    Ähmm, du meinst wie oben den D/A-Wandler, nicht A/D..;)

  • > Stimmt, ein kostenvorteil hätte man auch noch aber nur, wenn
    > die Grafikarte einen _reinen_ DVI-D-Ausgang haben würde.
    > Da aber alle Karten ausschließlich auch einen VGA-Port haben


    Wie "alle Karten ausschließlich auch einen VGA-Port haben" - kenn mich mit den neuen Entwicklungen im Bereich Grafikkarten nicht aus, aber euere Profikarten haben doch auch DVI (also nix mit auschließlich VGA) oder wie sonst nutzt ihr das DVI des TFT?


    Und was bringt das analoge Signal am DVI-I und wozu braucht man das?



    Andere Frage, beim TFT ist ja jeder einzelne Pixel gestochen scharf, warum ist das beim CRT nicht so? Die dahinterstehende Technik (Elektronenstrahl bringt Phosphorschicht zum Leuchten) ist mir bekannt, nur warum die Pixel deswegen nicht so scharf sind?

  • Zitat

    Original von newboardmember
    Andere Frage, beim TFT ist ja jeder einzelne Pixel gestochen scharf, warum ist das beim CRT nicht so? Die dahinterstehende Technik (Elektronenstrahl bringt Phosphorschicht zum Leuchten) ist mir bekannt, nur warum die Pixel deswegen nicht so scharf sind?


    Weil es technisch nicht machbar ist, dass sich die drei Elektronenstrahlen exakt in einem Punkt bündeln lassen (Konvergenzfehler). Darüber hinaus haben CRTs eine (Loch/Streifen)-Maske die den Dot-Pitch vorgibt. Wenn die gewählte Auflösung nicht genau mit der physikalischen Auflösung der Maske übereinstimmt wird das Bild ebenfalls unschärfer.

  • Zitat

    Original von newboardmember
    Wie "alle Karten ausschließlich auch einen VGA-Port haben" - kenn mich mit den neuen Entwicklungen im Bereich Grafikkarten nicht aus, aber euere Profikarten haben doch auch DVI (also nix mit auschließlich VGA) oder wie sonst nutzt ihr das DVI des TFT?


    Nein, da hast du mich mißverstanden, oder ich habe mich unglücklich ausgedrückt: ich hätte besser "ohne Ausnahme" anstatt "ausschließlich" schreiben sollen (habe ich schon korrigiert), also: "Da alle Karten ohne Ausnahme auch einen VGA-Port haben,.." oder noch klarer: "Ich kenne keine Karten mit nur einem reinem digitalen DVI-Port(s)."


    Nun isses klarer, oder?;)

  • Zitat

    Original von Weideblitz
    Stimmt, einen Kostenvorteil hätte man auch noch aber nur, wenn die Grafikarte einen _reinen_ DVI-D-Ausgang haben würde. Da aber alle Karten ohne Ausnahme auch einen VGA-Port haben, hat man effektiv doch nichts gespart - aber schön wäres gewesen.


    Tja, als damals vor ca. 20 Jahren die Monitore aus der Mega-Peripherie der Computer herausgelöst wurden und als eigenständige Geraete auf den Tisch gestellt wurden, haette man die Technik nur so hinbiegen müssen, daß der Wandler nicht auf den Bauteilen für Bildberechnung (gab es damals schon steckbare Grafikkarten??), sondern in den Monitor eingebaut wurde. Dann hätte man heute was sparen können. Aber "hätte" ist nicht "hat"...


    Zitat

    Ähmm, du meinst wie oben den D/A-Wandler, nicht A/D..;)


    Asche auf mein Haupt...


    Zitat

    Original von newboardmember
    Und was bringt das analoge Signal am DVI-I und wozu braucht man das?


    Ich würde sagen, es bringt Flexibilität. Erstens kann man ein LCD mit DVI-I-Eingang an einen Computer anschliessen, dessen Graka noch nicht über DVI verfügt. Zweitens könnte man mit einem DVI-I-Ausgang wahlweise eine Röhre oder ein LCD betreiben, wobei das LCD auf jeden Fall digital angesteuert werden kann. Ich glaube, Matrox hat eine Karte mit zwei DVI-I-Ausgängen im Programm. Da kann wahlweise ein LCD und eine Röhre oder zwei LCDs oder zwei Röhren betrieben werden, wobei die LCDs an beiden Ports idealerweise digital angesteuert werden können, weil DVI-I (I=integriert) digitale und analoge Signale ausgibt.


    Gruß
    Michael

    Einmal editiert, zuletzt von mic ()

  • Zitat

    Original von mic
    Ich glaube, Matrox hat eine Karte mit zwei DVI-I-Ausgängen im Programm. Da kann wahlweise ein LCD und eine Röhre oder zwei LCDs oder zwei Röhren betrieben werden, wobei die LCDs an beiden Ports idealerweise digital angesteuert werden können, weil DVI-I (I=integriert) digitale und analoge Signale ausgibt.


    Stimmt. Zum einen ist es die Millenium G550 DualDVI. diese Karte hat einen proprietären Port, an dem man zwei DVI-Peitschen mit optionalen DSUB-Adapter für das Analogsignal anschließen kann.
    Diese Karte liefert auch ein sehr gutes Analogsignal, ist aber für Spiele nicht gedacht und nicht zu gebrauchen.
    Weiternin ist die Parhelia von Matrox die einzige Karte mit zwei echten DVI-Ports - und gut 3D-fähig.

  • Ah, jetzt scheint mir klarer zu werden, für was DVI-I sinnvoll sein könnte ... glaub ich zumindest.


    Also, ich habe z.B.
    - eine Grafikkarte mit VGA und DVI-D Ausgang, dann kann ich an letzterem nur digital anschließen, und zwar wegen bereits erklärter Problematik derzeit nur TFT's, am VGA kann ich nur analog anschließen, wahlweise CRT's oder TFT's


    Oder ich habe stattdessen
    - eine Grafikkarte mit zwei DVI-I: an beiden kann entweder analog oder digital angeschlossen werden, je nachdem, was auf der Gegenseite vorhanden ist, und somit immer das Maximale herausgeholt werden


    Richtig?


    Wenn ich also einen TFT mit DVI-D Unterstützung habe, bringt mir DVI-I an der Grafikkarte verglichen mit DVI-D überhaupt nichts (und auch generell qualitätsmäßig nichts im Vergleich zu DVI-D), sondern das DVI-I an der Grafikkarte hat den Vorteil der Flexibilität für den User, sehe ich richtig?

  • Zitat

    Original von newboardmember
    Also, ich habe z.B.
    - eine Grafikkarte mit VGA und DVI-D Ausgang, dann kann ich an letzterem nur digital anschließen, und zwar wegen bereits erklärter Problematik derzeit nur TFT's, am VGA kann ich nur analog anschließen, wahlweise CRT's oder TFT's


    Jepp.

    Zitat

    Oder ich habe stattdessen
    - eine Grafikkarte mit zwei DVI-I: an beiden kann entweder analog oder digital angeschlossen werden, je nachdem, was auf der Gegenseite vorhanden ist, und somit immer das Maximale herausgeholt werden


    Richtig?


    Jepp

    Zitat

    Wenn ich also einen TFT mit DVI-D Unterstützung habe, bringt mir DVI-I an der Grafikkarte verglichen mit DVI-D überhaupt nichts (und auch generell qualitätsmäßig nichts im Vergleich zu DVI-D), sondern das DVI-I an der Grafikkarte hat den Vorteil der Flexibilität für den User, sehe ich richtig?


    Jedes LCD mit DVI-Eingang hat DVI-D-Unterstützung. (Eine m.E. eher sinnlose Ausnahme wäre ein DVI-A-Eingang, der nur analoge Signale akzeptiert.) Es halt nur die Frage, ob das LCD auch analoge Signale mit aufnimmt über DVI-I. Ja, ich würde sagen, Du hast jetzt den Durchblick 8)


    Gruß
    Michael

  • Fast, nur


    > Es halt nur die Frage, ob das LCD auch analoge Signale mit aufnimmt über DVI-I


    das hat mich jetzt nochmal verwirrt :).


    Wozu soll denn das gut sein, wenn die Verwendung von DVI möglichist (DVI-D Ausgang an der Graka und DVI Input am TFT)?
    Und wenn nicht, haben ja alle Grakas und TFT's auch den VGA-port?


    Worin soll der Nutzen liegen, per DVI-I "auch analoge" Signale aufzunehmen?

  • So ist es möglich (Iiyama macht das glaube ich) einfach zwei DVI-I Buchsen in das TFT zu bauen und einmal ein DVI-I digital (DVI auf beiden Seiten) und ein DVI-I analog Kabel (DVI-I auf 15 pin D-Sub) beizulegen. Es müssen dann halt keine anderen Buchsen eingebaut werden.
    Außerdem kann man dann z.B. zwei PCs digital an ein TFT anschließen.


    Das sind zumindest die Gründe, die ich dafür sehe.



    > Es halt nur die Frage, ob das LCD auch analoge Signale mit aufnimmt über DVI-I
    Ich verstehe das so, dass man nicht weiß, ob das digital Signal oder das analoge abgegriffen wird.

    Viele Grüße
    Randy

    Einmal editiert, zuletzt von Randy ()

  • Himmel, da haben wir was losgetreten...


    Zitat

    Original von newboardmember
    Worin soll der Nutzen liegen, per DVI-I "auch analoge" Signale aufzunehmen?


    Das ist quasi nur ein Zusatzfeature, welches sehr nützlich sein kann, wenn die Graka kein digitalen Ausgang hat. Da werden die analogen Signale des Sub15-Ausganges über den DVI-I-Eingang eingelesen und somit ist der Betrieb eines LCDs zur Not auch ohne DVI-Graka möglich.


    Zitat

    Original von Randy
    So ist es möglich (Iiyama macht das glaube ich) einfach zwei DVI-I Buchsen in das TFT zu bauen und einmal ein DVI-I digital (DVI auf beiden Seiten) und ein DVI-I analog Kabel (DVI-I auf 15 pin D-Sub) beizulegen. Es müssen dann halt keine anderen Buchsen eingebaut werden.
    Außerdem kann man dann z.B. zwei PCs digital an ein TFT anschließen.


    Fast. Zumindestens bei meinen Gerät hat Iiyama zwei DVI-I-Eingänge eingebaut. Die mitgelieferten Kabel sind einmal ein reines DVI-D-Kabel ohne analoge Signale und ein Sub15-DVI-A-Kabel, welches natürlich nur die analogen Signale aufnimmt und in den DVI-I-Eingang speist. Theoretisch könnte ich es auch umgekehrt verwenden, um an einem DVI-I-Ausgang das analoge Signal in einen Röhrenmonitor zu leiten.


    Zitat

    > Es halt nur die Frage, ob das LCD auch analoge Signale mit aufnimmt über DVI-I
    Ich verstehe das so, dass man nicht weiß, ob das digital Signal oder das analoge abgegriffen wird.


    Da müßte man ein DVI-I-Kabel an einem DVI-I-Augang setzen, um das gleiche Bild analog und digital einzuspeisen. Ich denke mal, das Gerät entscheidet sich dann automatisch für das digitale Signal. Ich vermute mal, daß die meisten Display sowieso mit einem DVI-D-Kabel angeschlossen werden und daher nicht vor der Problematik stehen.


    Gruß
    Michael