Beiträge von wwelti

    Hallo Weideblitz, newboardmember


    Kleiner Kommentar zur Verdreifachung der Helligkeit: Kann schon sein. Bedenke, daß das menschliche Auge Helligkeiten extrem nichtlinear wahrnimmt. Um etwas als doppelt so hell wahrzunehmen, muß es tatsächlich mehr als 5 mal heller sein. Also ist eine Verdreifachung jedenfalls nicht übertrieben, und für's Filme-gucken wahrscheinlich gar nicht so schlecht. Dafür(Filme gucken) kommt's dann auch nicht so sehr auf die perfekte Schärfe an.


    Edit: newboardmember: Allerdings, je heller Dein CRT leuchtet, desto mehr Röntgenstrahlung bekommst Du ab. Das gilt allgemein, ob jetzt ein helleres Bild angezeigt wird, oder ob Du den Monitor heller einstellst. Elektronen fliegen Dir allerdings keine um die Ohren, die werden durch Phosphor + Glasschicht effektiv aufgehalten, gerade bei diesem Aufprall entsteht ja die Röntgenstrahlung. Außerdem können die sich eh nur in luftleerem Raum frei bewegen.


    Viele Grüße
    Wilfried

    Hallo newboardmember,


    Die wörtliche Übersetzung von "aperture grille" (ist englisch) wäre "Blendengitter", was auch ziemlich genau hinhaut. Das ist die Technik, die von Sony unter dem Namen Trinitron verkauft wurde. Es handelt sich dabei um ein feines Gitter von vertikal angeordneten Drähten, die an Stelle einer Lochmaske verwendet werden. Man nennt diese Art von Masken auch Streifenmasken. Der große Nachteil dieser Technik ist, daß ein oder zwei horizontale Stabilisierungsdrähte benötigt werden, so daß ein oder zwei dünne horizontale Linien durchs Bild gehen. Sind zwar nicht übermäßig kräftig, aber man sieht sie schon. Der Vorteil von Streifenmasken ist, wie Du schon gesagt hast, daß im Vergleich zur Lochmaske deutlich mehr Elektronen "durchkommen" und zur Bildhelligkeit beitragen können.


    Wie die traditionelle Lochmaske funktioniert, weisst Du ja. Es gibt allerdings auch noch Schlitzmasken, die das Beste aus beiden Welten kombinieren sollen: Relativ gute Helligkeits- und Kontrastwerte, ohne die störende horizontale Linie(n) wie bei einer Streifenmaske. Die Schlitzmaske funktioniert wie eine Lochmaske, nur daß statt Löchern ein Raster von kurzen Schlitzen verwendet wird.


    Es heißt, Schlitzmasken seien deshalb die beste Lösung. Vielleicht haben sie doch noch irgendwelche anderen Nachteile, weiß jemand mehr darüber?


    Edit: Ups, da war wohl jemand schneller als ich... :)


    Edit2: "Magic Bright" kenn ich nicht...


    Viele Grüße
    Wilfried

    Hallo zusammen,


    Wie's aussieht, gibt es ein "reales" Problem (verzerrte Bildinhalte) nur dann, wenn der Monitor keine 1:1 Darstellung zulässt, und selbst in diesem Falle kann so etwas häufig auch von der Grafikkarte übernommen werden (korrekt?). Wobei die 1:1 Darstellung von 1280x960 auf einem 1280x1024 TFT dann natürlich automatisch schwarze Balken oben und unten mit sich bringt (daran könnte man sich auch stören :-).


    Daß manche sich nichts aus einer leicht verzerrten Darstellung machen, ist genauso gut nachvollziehbar, wie daß es andere gibt, die sich sehr wohl daran stören. In sofern sollte man einfach beide Standpunkte akzeptieren, was jedoch auch bedeutet, daß eine Diskussion über das Problem akzeptiert werden sollte, selbst wenn manche es für sich nicht als Problem betrachten.


    Es wäre also z.B. durchaus interessant zu erfahren, welche Monitore bzw. Grafikkarten eine problemlose 1:1 Darstellung von 1280x960 erlauben, und welche nicht.


    Ich möchte darum bitten, daß diese Diskussion (und wir sind hier im richtigen Thread für diese Diskussion) sachlich fortgeführt wird. Wenn eine Meinung eines anderen nicht gefällt, sollte man sich nicht über das Posting des anderen beschweren, sondern eine fundierte Darstellung der eigenen Meinung schreiben. Und wenn eine Aussage unklar (bzw. wenig sinnvoll) scheint, wäre es z.B. sinnvoll, nachzufragen, wie es nun genau gemeint war.


    So, ich hoffe, ich habe das neutral genug formuliert, um niemandem auf den Schlips zu treten :D (Als Schweizer müsste mir die Neutralität ja eigentlich in die Wiege gelegt sein :P )


    Viele Grüße
    Wilfried (der eigentlich die Klappe halten sollte, da er einen 4:3 TFT hat :rolleyes: )

    Hallo newboardmember,


    Bei projezierten Bildern hat man letztendlich immer Probleme mit dem Kontrast. Wenn die Umgebung zu hell (sprich: nicht abgedunkelt) ist, wird automatisch auch die (weiße) Leinwand von der Umgebung angeleuchtet, so daß kein vernünftiges Schwarz dargestellt wird. (Dagegen ist selbst das Schwarz eines schlechten TFT's noch sehr "satt"). Wenn die Umgebung dunkel ist, kann die Darstellung ganz ok sein, kommt natürlich auch darauf an, ob das Gerät was taugt.


    Als Monitor-Ersatz kann man sowas natürlich komplett vergessen, da ein starker Unterschied zwischen Bildhelligkeit und Umgebungshelligkeit äußerst unergonomisch ist.


    Zum Filme-gucken im abgedunkelten Raum kann's also ganz ok sein, da kann man sich dann über ein schön großes Bild freuen. Ansonsten m.E. nicht empfehlenswert.


    Daß Dir das Bild verschwommen vorkommt, wird vor allem daran liegen, daß es sehr groß angezeigt wird. Die Auflösung eines Fernseh-Bildes ist schließlich nicht besonders hoch. Außerdem ist wie zuvor erwähnt bei Projektionsgeräten der Kontrast bei normal heller Umgebung ein Problem. Schlieren im Sinne von Bewegungsunschärfe kann es dann geben, wenn die Rückprojektion mittels LCD funktioniert (sowas soll es auch geben), es gibt da wohl sehr unterschiedliche Patente...


    Viele Grüße
    Wilfried

    Hallo newboardmember,


    >D.h. Filme im 16:9 Format wurden in den 576 Zeilen beschnitten, und wenn sie auf Gesamtgröße dargestellt werden, ist die Sache noch grobpixeliger?


    Die Frage ist so nicht so recht verständlich:
    - Wenn was abgeschnitten wird, um von 16:9 auf 4:3 zu kommen, dann natürlich rechts und links. Was soll heißen "wurden in den 567 Zeilen beschnitten"?
    - Nur digitale Filme haben Pixel. Die meisten Filme sind nicht digital. Also können sie auch nicht grobpixlig werden. Kinofilme verwenden meistens recht hochauflösendes Filmmaterial (hiermit ist nicht eine hohe Pixel-Auflösung gemeint, da die keine Pixel haben), somit ist eine leichte Vergrößerung um einen 4:3 Ausschnitt zu erhalten von diesem Gesichtspunkt her überhaupt kein Problem.


    >Welchem Standard entspricht das dann?


    Es gibt niemanden, der vorschreibt, welchem Standard 16:9 Filme (oder meinetwegen beschnittene 16:9 Filme) entsprechen müssen. Jeder macht, was er für sinnvoll und richtig hält.


    > Und wo du sagtest, Fernsehapparate arbeiten üblicherweise mit einer Kathodenstrahlröhre: es gibt aber doch auch sogenannte "Rückprojektionsgeräte"? Was zum Teufel ist das?


    Rückprojektionsgeräte projezieren irgendwie von hinten ein Bild an eine Art Leinwand, die man von vorn betrachtet. Wie sie das genau machen, ist ihre Sache, da wird es wohl verschiedene Patente geben.


    Viele Grüße
    Wilfried

    Hallo newboardmember,


    Lies doch mal den Link von Big Daddy. Das erklärt vielleicht vieles ;)


    Ein Fernseher hat normalerweise einen CRT-Bildschirm. (Es gibt auch Plasma-Fernseher, die sind dann relativ flach und sündhaft teuer und halten nicht lang. Inzwischen gibt's sogar TFT Fernseher, die sind auch teuer...) Viele Fernseher kommen sowohl mit PAL als auch mit NTSC klar, und zeigen dann auch beides richtig skaliert und scharf (naja so scharf wie ein Fernseher halt ist) an. Ein CRT hat keine "native Auflösung" im Sinne von TFT's, die "Pixel" eines CRT's stimmen nie 100%ig mit den Pixeln des angezeigten Bildes überein. Das gilt auch für Fernseher. In sofern könnte man sagen, daß ein CRT immer alles "hardwaremäßig" interpoliert anzeigt.


    Wie schon zuvor gesagt, basieren PAL und NTSC nicht auf Pixeln, sondern auf Scanlines, da sie analoge Standards sind. Wenn ein Film eine konkrete horizontale Auflösung in Pixeln hat, ist er digital (z.B. auf DVD). Videorekorder z.B. sind analog und kennen also auch keine Pixel.


    PAL (ebenso wie NTSC) ist für 4:3 ausgelegt, nicht für 16:9. Daher gibt es auch keine 16:9 Filme im PAL Standard. Natürlich kann man einen 16:9 Film seitlich abschneiden oder oben und unten mit Rändern versehen, um ihn ins 4:3 Format zu zwängen. Auch zu dem Thema wird einiges in Big Daddy's Link erklärt.


    Viele Grüße
    Wilfried

    Hallo Weideblitz,


    Tja, ich will mich lieber nicht zu weit aufs Glatteis wagen. Ich habe schließlich _nicht_ irgendwo in einer Spezifikation nachgelesen, um diese Zahlen festnageln zu können. Mir kam es bei meiner Erklärung auch nicht so sehr auf die genauen Zahlenwerte, sondern aufs Prinzip (wie funktioniert was) an. Daß Du das alles schon wusstest, hätte ich mir schon gedacht. Ich habe es auch nicht in erster Linie wegen Dir geschrieben 8).


    Wenn von PAL-Auflösung geredet wird, liest man normalerweise 768x576. Ich denke, man kann davon ausgehen, daß die 576 Zeilen zuerst da waren (und nicht etwa die 768 Pixel pro Zeile). PAL ist natürlich letztendlich eine Fernseh-Norm, und Fernsehen gibt es schließlich schon sehr lange. Früher gab es noch keine digitalen Filme; da war alles analog. Da hat man erst gar nicht in Pixeln gedacht, sondern einfach nur in "Scanlines", also Zeilen. Wenn man nun darauf aufbauend ein quadratisches Pixelraster haben will, kommt man ausgehend vom 4:3 Seitenverhältnis natürlich automatisch auf 768 Pixel in der Horizontalen.


    Das 4:3 Seitenverhältnis mag wohl irgendwoher seine Wurzeln haben, woher weiß ich nicht. Jedenfalls ist dieses Format weit verbreitet und sozusagen ein "Klassiker" für Fernseher und Computer-Monitore.


    Viele Grüße
    Wilfried

    Hallo newboardmember,


    Ist das denn ein Widerspruch? Der Monitor braucht schließlich nicht zu wissen, wieviel Grafikkarten-Pixel es sind, die er darstellt. Wenn man von Pixelabständen redet, kommt es natürlich darauf an, welche Art von Pixeln man betrachten möchte: Der Abstand der "Grafikkarten-Pixel", oder der Abstand der "Monitor-Pixel". Wobei einige Monitore (schwarzweiße CRT's) gar kein eigenes Pixelraster haben...


    Der "Grafikkarten-Pixelabstand" bestimmt wie groß gegebene Pixelgrafiken (oder ein Windows-Desktop) dargestellt werden. Der Monitor-Pixelabstand hat maßgeblichen Einfluß darauf, wie hohe Auflösungen der Monitor noch scharf anzeigen kann. Der Monitor-Pixelabstand ist nicht zwingendermaßen identisch mit dem Grafikkarten-Pixelabstand. Beim TFT ist dies nur in der sogenannten "nativen Auflösung" der Fall, in der die Darstellung natürlich am schärfsten ist. Bei CRT's ist dies praktisch nie der Fall.


    Die 0,34 mm Pixelabstand die Du in Deinem 15"-CRT Beispiel berechnet hast, sind selbstverständlich Abstände der "Grafikkarten-Pixel", so wie sie auf dem Monitor dargestellt werden. Das hat nix mit dem Raster der Monitor-Lochmaske zu tun. Wie schon einmal früher gesagt: Ein CRT interpoliert sozusagen in jedem Modus, und zwar hardwaremäßig mittels seiner Lochmaske ;)


    Wenn Du den Film mit 1280x1024 auf dem TFT im Vollbild siehst, wird er gestreckt, um die volle Bildgröße abzudecken. Kein DVD-Film hat eine Auflösung von 1280x1024! Auflösungen in dieser Größenordnung kommen vielleicht irgendwann mal mit HDTV.


    Wie oben beschrieben ist die PAL-Auflösung 576 Zeilen. Pragmatischerweise verwendet man in digitalen PAL-Filmen gerne eine horizontale Auflösung von 768 Pixel, so hat man dann wieder ein 4:3 Verhältnis mit einem quadratischen Pixelraster. Wie Du siehst, ist das perfekt passend für's Fernseh-Bild. Auf dem Computer-Monitor dagegen werden Filme meist irgendwie interpoliert: Entweder von der TFT-Hardware, weil eine niedrige Auflösung verwendet wird, oder von der Player-Software, weil der relativ niedrig aufgelöste Film auf Vollbild in einer wesentlich höheren Bildschirmauflösung gestreckt werden muß.


    Viele Grüße
    Wilfried

    Hallo Newboardmember,


    Es gilt allgemein bei analogem Anschluß, daß eine horizontale Auflösung gar nicht "explizit" übertragen wird. Auch beim Computerbildschirm. Es gibt Synchronisations-Signale für Zeilen-Sprünge und für Bild-Sprünge (hsync und vsync), so daß das analoge Signal eindeutig in Bilder und Zeilen aufgeteilt wird. Was es jedoch nicht gibt, ist ein Synchronisationssignal für Pixel-Übergänge. Wie fein die wahrgenommene horizontale Auflösung beim Fernseher ist, hängt natürlich sowohl von der Signalqualität als auch von der Lochmaske ab.


    Klar sind 576 Pixel grobpixelig. Allerdings bildet ein Fernseher im allgemeinen alles deutlich unschärfer ab, als ein Monitor, daher verschwimmen die Pixel mehr ineinander. So fällt die "Grobpixligkeit" nicht so sehr auf. Als Monitor-Ersatz ist ein Fernseher meiner Meinung nach aufgrund der zu niedrigen Auflösung und der zu schlechten Schärfe ungeeignet. Vielleicht ändert sich das ja mit HDTV. Aber wahrscheinlich sind die Monitore dann auch schon wieder ein gutes Stück besser, wenn das mal kommt. Sinnvoll ist TV-Out also vor allem für Präsentationen und Filme gucken.


    Was Präsentationen und Fotos gucken angeht: Oftmals ist da die reine Bildgröße wichtiger als die Detailgenauigkeit. In sofern kann. Wie so oft, kommt es auf den konkreten Anwendungsfall an, um zu entscheiden, was sinnvoll ist und was nicht.


    Viele Grüße
    Wilfried

    Hallo zusammen,


    Big Daddy: ehäm, ein bisschen anders ist es aber schon.


    Natürlich hat der Fernseher selber eine Lochmaske, die die maximal mögliche Detail-Auflösung schon von der Hardware her begrenzt. Diese Lochmaske dürfte allerdings von Modell zu Modell unterschiedlich sein.


    Das in Deutschland übliche PAL-Fernsehsignal ist natürlich analog. Das bedeutet, daß eine Zeile horizontal nicht in "Pixel" unterteilt wird. Das ganze Bild besteht aus 576 Zeilen (meistens sind allerdings oben und unten ein paar abgeschnitten). Die Bildwiederholrate liegt bei nur 50 Hz, und es wird pro Zyklus nicht einmal ein volles Bild, sondern nur ein sogenanntes Halbbild übertragen. Ein Halbbild enthält entweder alle geraden, oder alle ungeraden Zeilen, diese werden also immer abwechselnd übertragen. Somit wird ein Vollbild, das aus zwei Halbbildern besteht, nur 25 mal pro Sekunde übertragen. Das nennt sich dann Interlacing.


    Wer einen "normalen" (älteren oder eher preisgünstigen) Fernseher sein eigen nennt, kann gut nachvollziehen, warum man die Glotze auch "Flimmerkiste" nennt. 50 Hz mit Interlacing - damit kriegt man kein ruhiges Bild hin!


    Nun gibt es allerdings auch modernere Geräte, die einen internen Bildspeicher benutzen, und jedes empfangene Vollbild nicht einmal, sondern zweimal hintereinander anzeigen. Auf die Art kann die Bildwiederholfrequenz auf 100 Hz (allerdings immer noch mit Interlacing) gesteigert werden, was natürlich wesentlich flimmerfreier aussieht. Das sind die sogenannten "100 Hz-Fernseher".


    Nun ist es so, daß in vielen Ländern nicht PAL, sondern NTSC verwendet wird. NTSC funktioniert mit 60 Hz, hat dafür aber weniger Bildzeilen (480). Viele Fernseher sind in der Lage, sowohl PAL als auch NTSC anzuzeigen. Oftmals vertragen sie auch Signale, die leicht außerhalb dieser Standards sind, z.B. PAL-Auflösung bei 60 Hz, oder 600 Zeilen statt 576 (so daß man einen Laptop mit 800x600 am Fernseher anschließen kann).


    Big Daddy: Von 75 Hz Fernsehern hab' ich noch nie was gehört. Wie kommst Du darauf?


    Viele Grüße
    Wilfried

    Hallo chipsy,


    Bei mir ist's ähnlich. Die Lautsprecher an meinem TFT lass' ich auch immer deaktiviert, da sie sonst fröhlich vor sich hin rauschen. Ich weiß auch nicht was sich die Monitor-Hersteller dabei denken. Klar, daß es keine High-End-Abhören sind, was an einen Monitor gepappt wird, aber muß die Verarbeitung (Schirmung, Verstärker) so miserabel sein, daß man in eingeschaltetem Zustand so einen Störgeräusch-Terror ertragen muß?


    Irgendwann hab' ich mir für meinen Computer ein paar vernünftige Lautsprecher (Yamaha MSP5) geholt. War zwar mächtig teuer, aber ich hab's nicht bereut. Immerhin sitzt man da genauso lange vor wie vor seinem Monitor :rolleyes:


    Viele Grüße
    Wilfried

    Hallo newboardmember,


    Es kommt eigentlich nur darauf an, daß Du selber gut damit zurechtkommst. Es gibt Leute, die hohe Auflösungen auch auf kleinen Geräten bevorzugen. Andere Leute wiederum bevorzugen eine große Darstellung.


    Es gibt im Prinzip folgende Gesichtspunkte zur Auswahl der Bildschirmauflösung bei einem CRT:


    1) - Kann die Auflösung flackerfrei (min. 75 Hz, besser 80 oder 85 Hz) dargestellt werden?
    2) - Kann die Auflösung scharf dargestellt werden? Hier kommt es auf die sichtbare Diagonale, und die Feinheit der Loch/Streifen/Schlitz-Maske an.
    3) - Ist die Auflösung für den gegebenen Anwendungsfall ergonomisch?


    Zu 1): Die meisten modernen CRT's (ausgenommen die absoluten Billigheimer) erlauben auch bei relativ hohen Auflösungen ergonomische Bildwiederholfrequenzen. Daher stellt dieser Gesichtspunkt heutzutage meist kein Problem dar.


    Zu 2): Der eigentliche "Flaschenhals" für den sinnvollen Betrieb hoher Auflösungen ist am ehesten die Lochmaske, d.h. je feiner die Lochmaske, desto kleinere Pixel können noch scharf dargestellt werden. Eine Auflösung zu betreiben, in der z.B. in einem Raster von horizontalen, 1 Pixel breiten Linien, diese Linien nicht mehr scharf voneinander getrennt werden, ist normalerweise nicht sinnvoll.


    Zu 3): Auch hier ist eine generalisierende Aussage nicht so einfach möglich. Wenn die Software grundsätzlich alles groß genug darstellen kann, ist auch gegen sehr hohe Auflösungen natürlich nichts einzuwenden. In der Praxis (Windows + Standard-Software) sieht es allerdings anders aus, da meistens nicht konsequent alles mitskaliert wird.


    Nach meinem persönlichen Empfinden sind folgende Auflösungen bei CRT's fürs Arbeiten unter Windows sinnvoll:


    15": 800x600
    17": 1024x768
    19": 1152x864, oder 1280x960
    21": 1280x960, oder 1400x1050
    22": 1400x1050 oder 1600x1200
    24": 1600x1200 oder mehr


    Aber letztendlich muß jeder für sich herausfinden, mit welcher Auflösung er am besten zurechtkommt. Es verbietet Dir auch niemand, mithilfe entsprechender Software (z.B. Powerstrip?) beliebige Zwischen-Auflösungen selbstzubasteln, also quasi Dein persönliches Optimum einzustellen.


    Viele Grüße
    Wilfried

    Hallo Girlykill,


    Hast Du im Gamma-Bildschirm auf den Grau-Verlauf am unteren Bildschirmrand geachtet? Waren, bevor Du den Gamma-Balken eingestellt hast, alle Rechtecke mit den verschiedenen Graustufen deutlich voneinander unterscheidbar?


    Bei vielen Monitoren scheinen die Einstellungen im OSD unterschiedlich zu wirken, was zu erheblicher Konfusion führt.


    Bei meinem Monitor ist es so, daß "Helligkeit" die Helligkeit des Backlights steuert, während "Kontrast" die Helligkeit der internen Darstellung des Bildes verändert. Wenn ich den Kontrast höher als 50% einstelle, werden die hellen Farben "übersteuert", d.h. verschiedene helle Grautöne sind nicht mehr unterscheidbar. Das darf natürlich für einen vernünftigen Test nicht sein.


    Ebenso sollten die dunklen Farben unterscheidbar sein. Wenn dies mit "Bordmitteln" des Monitors nicht erreichbar ist, muß vielleicht das Testprogramm angepasst werden...


    Viele Grüße
    Wilfried

    Hallo newboardmember,


    Zitat

    Original von newboardmember
    Ja vertragen schon, aber wo liegt denn so der mainstream?


    Tut mir leid, ich verstehe die Frage nicht. Wenn Du damit meinst, ob CRT-Monitore 1280x960 möglicherweise schlechter darstellen als 1280x1024: Nein, tun sie nicht. Für CRT's gibt es keine native Auflösung im Sinne eines TFT's.


    Für 21" Monitore wird an sich 1280x1024 als ergonomisch empfohlen. Solltest Du allerdings nicht allzu ernst nehmen. 1400x1050 ist z.B. eine sehr schöne Auflösung :)


    Viele Grüße
    Wilfried

    Hallo zusammen,


    Daß es so flackert liegt daran, daß das Scrolling nicht gleichmäßig, sondern schrittweise stattfindet. Wenn man am Scroll-Balken eines Web-Browsers scrollt, kommt dabei nun mal keine flüssige Bewegung mit 60 fps heraus... :) Es gab auch schonmal einen Thread zu diesem Thema.


    Würde dieselbe Hintergrund-Grafik flüssig mit 60 Bildern pro Sekunde hochgescrollt, sähe man nix flackern. Naja, so sollte es jedenfalls sein. Bei TFT's, deren Panel-Update-Frequenz nicht mit dem VSYNC der Grafikkarte synchronisiert wird, sieht's dann wahrscheinlich trotzdem noch ein bisschen flackerig oder ruckelig aus.


    Viele Grüße
    Wilfried

    Hallo newboardmember,


    Ich hab den ViewSonic VP201m.


    Was soll ich sagen: Schau Dir meinen User-Bericht-Thread zu meinem Viewsonic an. Den Schlieren-Test mit dem Gerät hab ich auch gemacht. Dann ist auch noch später ein neuer Pixelfehler dazugekommen.


    Die Fein-Einstellung der Vertikalfrequenz mittels Powerstrip habe ich auch gemacht, da die Panel-Update-Frequenz fix auf 60 Hz ist. So habe ich jetzt keine zyklischen Ruckler mehr bei flüssig laufenden Programmen und DVD-Wiedergabe.


    Zum Arbeiten ist der Monitor für mich wirklich in Ordnung.


    Über andere (neuere) Monitore von ViewSonic kann ich nichts berichten.


    Viele Grüße
    Wilfried

    Hallo newboardmember,


    Du kannst davon ausgehen daß jeder CRT grundsätzlich jede Auflösung verträgt, die innerhalb seiner Frequenz-Spezifikationen liegen. Festfrequenzmonitore sind heutzutage nicht mehr üblich. Mit 1280x960 werden 957p und 1100p garantiert keine Probleme haben.


    Selbst viele TFT's sind recht großzügig in dieser Hinsicht, sogar mit DVI. Bei DVI darf allerdings der Pixeltakt normalerweise nicht höher als 165 Mhz sein, weil das sonst die TMDS Chips nicht mehr mitmachen. Generell sind TFT's bei DVI scheinbar zickiger als mit Analogansteuerung. Nicht nur was die hohen Auflösungen angeht, sondern scheinbar auch bei DOS-Boxen u.ä.


    Viele Grüße
    Wilfried

    Hallo newboardmember,


    Naja, 800x600 ist allerdings auch keine Auflösung :). Sag bloß, Du findest die Darstellung in dieser Auflösung klein? Ja, bei dieser Auflösung hast Du mehr als 0.34 mm Pixelabstand. Allerdings kann ich mich an ein früheres Posting von Dir erinnern, in dem Du die Schärfe Deines jetzigen Bildschirmes nicht sehr vorteilhaft dargestellt hast. Das macht enorm viel aus. Auf einem CRT könnte ich meine 1600x1200 auch nicht ertragen. Aber wenn jeder Pixel präzise und gestochen scharf dargestellt wird, ist es was ganz anderes. Da macht es (mir jedenfalls) nicht mehr so viel aus, daß die Darstellung insgesamt kleiner ist.


    Ich denke, die Bilddarstellung auf Deinem 17" TFT war keineswegs optimal. Du hast selbst von deutlich sichtbaren Schatten in der Nenn-Auflösung berichtet. Daß Du die Darstellung in der interpolierten Auflösung 1024x768 genial gut fandest, kann ich, von Deiner Warte aus betrachtet, gut nachvollziehen. Bei anständiger Interpolation kann das immer noch ganz ordentlich aussehen. Und Dein jetziger Bildschirm ist ja offensichtlich eine Katastrophe.


    Ich denke, Du solltest Dir einen richtig guten 15" TFT zulegen. Da hast Du noch die größten TFT-Pixel. Und niedrige Auflösungen empfindest Du ja scheinbar als recht angenehm ;) Und wenn möglich, gleich DVI verwenden. Dann hast Du auch keine Probleme mit Schatten und / oder korrekter Einstellung von Phase & Clock.


    Davon mal abgesehen: Was hindert Dich eigentlich, in einer eher verkaufsruhigen Stunde in einen Media Markt (o.ä.) zu spazieren, einen Verkäufer an Land zu ziehen und Dir mal ein paar TFT's in aller Ruhe vorführen zu lassen? Dann siehst Du genau wie groß die Darstellung ist. Wenn Du den richtigen (Verkäufer) findest und nett fragst, wird er die TFT auch einzeln an Vorführrechner anschließen, und vielleicht sogar ein paar Testprogramme starten. Hab ich damals auch gemacht.


    Viele Grüße
    Wilfried

    Hallo zusammen,


    Weideblitz: Stimmt schon, er ist monochrom. Daher hat er auch keine Konvergenzfehler ;). Ok, Scherz beiseite: Amiga fand ich ja auch wirklich toll, aber ich war schon immer allergisch gegen Flackern (mein Vater auch...). Und da hatte Atari mit dem SM124 einen ganz dicken Pluspunkt. Farbe fand ich damals nicht so wichtig. Obwohl ich dann doch auch mal ein paar kleine Spielchen auf dem Atari programmiert habe. Übrigens: Das Pixeln von Monochromgrafiken ist eine relativ dankbare Sache. Manchmal können Beschränkungen auch was positives haben :)


    Was das Amiga-Basic angeht: Schlechter als ST-Basic wird es wohl kaum gewesen sein :rolleyes:. Aber zum Glück gab's ja GFA. Ach ja, später wurde ST-Basic offiziell abgeschafft und durch das wesentlich bessere Omikron-Basic ersetzt.


    @SirGorash: Ich bring das einfach nicht über mich, meine Schätzchen zu verkaufen. Ich hab auch noch nen C64 (den ich später als den ST hauptsächlich aus nostalgischen Gründen gebraucht gekauft hatte) samt Monitor und Floppy-Laufwerk :). Aber mit dem hatte ich bei weitem nicht so viel gemacht wie mit dem ST.


    Eine Festplatte hab ich nie für nötig gehalten. Der ST hatte ja sooo viel Speicher (1 MB), das brauchte man sowieso nicht alles. Da hab ich halt eine (resetfeste) Ramdisk benutzt. Die hat auch handfeste Abstürze überlebt :). Und selbstgeschriebene Dateien waren sowieso immer klein genug für Disketten.


    Viele Grüße
    Wilfried