Posts by 0xdeadbeef

    Wie gesagt: die Tastköpfe brauchst Du für diesen Fall nicht unbedingt. Sie machen u.U. das Handling eher schwieriger und ein billiger BNC-Anschluß mit flexibler Litzenleitung ist nicht nur preiswerter, sondern auch weniger fummelig, wenn Du den Sensor irgendwie vor dem Monitor drapierst.


    Wobei die Teile vermutlich ok sind. Ich hatte mal Lookalikes davon bei einem Owon-Chinascope und die waren ok. Aber bei den Chinesen weiß man halt nie: Nachbauten von Nachbauten von ordentlichen Nachbauten und irgendwann kommt plötzlich völliger Schrott raus.

    Ich sag ja: das ist bei ELV-Bausätzen immer etwas eigenartig. Ich hatte bisher nur welche, bei denen viele Schritte in der Aufbauanleitung nicht nötig/möglich waren, weil alles sehr viel weiter vorgefertigt war als beschrieben. Speziell bei diesem Teil schwabulieren Kunden auf der ELV-Seite von Lötlupen rum. Möglicherweise gibt es von den Bausätzen auch verschiedene Stadien: am Anfang soll man wirklich alles selber machen, aber bei den ersten Rückläufern und Kundenbeschwerden wird dann immer mehr vorbestückt oder so...
    Aber nochmal zur Warnung: ich habe dieses Teil in einer Minute recherchiert. Ich selber habe es nie gesehen und die Software sieht auf den Screenshots reichlich schlicht aus. Immerhin sind die Kritiken relativ positiv und man kann es eventuell später nochmal für was anderes nutzen. Wobei man bei Elektronikbasteleien ganz schnell mindestens zwei Kanäle braucht.


    Was den Tastkopf mit Helligkeitssensor angeht: sicher wird es sowas kommerziell geben, aber vermutlich nicht zu Preisen, die Du zu bezahlen bereit bist. Helligkeitsmessungen per Scope sind halt schon ein recht kleines Feld, also eher kleine Stückzahlen, möglicherweise sogar manueller Aufbau -> teuer. Ich habe jetzt zwar nicht recherchiert, aber ich würde jetzt mal schätzen, daß Du da ganz schnell bei ein paar hundert Euro bist, selbst wenn der Materialwert vielleicht nur 20€ oder so ist. Und bei solchen sehr speziellen Elektrotechnikteilen ist es oft sogar schwer, überhaupt jemanden zu finden, der einen als Privatperson beliefert.
    Insofern bist Du da mit einem Eingenbau gut beraten. Du braucht übrigens ja keinen richtigen Tastkopf. Kauf Dir einfach 'ne BNC-Buchse mit Lötanschluß und bastel da die Schaltung mit der Photodiode dran. Brauchst dann ja auch keine Schutzschaltzung mehr. Nur noch die Spannungsversorung per billigem Steckernetzteil oder Batterie (z.B. ein 9V-Block).

    Ich würde lieber beim Line-In bleiben. Die Spannung am Mic-Eingang ist eher hinderlich und der Eingang ist noch empfindlicher.


    Nebenbei: um den Eingang wirklich sicher zu schützen, kann man antiparallele Dioden benutzen. Speziell rote Leuchtdioden haben üblicherweise eine Vorwärtsspannung von 1.6V~2V, was als Schutz ausreichen sollte.
    Hier ist auch noch mal eine Beschreibung von Schutzschaltung für Line-In- und Mic-Eingang:


    Was ich noch vergessen hatte zu erwähnen: leider sind die Eingänge von Soundkarten üblicherweise kapazitiv gekoppelt. Dadurch kann man keine Gleichspannungssignale messen und der Gleichanteil von getakteten Signalen wird auch nicht richtig dargestellt.
    Um die Taktung der Hintergrundbeleuchtung auszumessen dürfte es trotzdem reichen.
    Ansonsten bliebe nur ein preiswertes USB-Oszilloskop. Im Prinzip würde sowas reichen, ist aber leider ein Bausatz (und bei ELV weiß man nie so genau, ob man da jetzt wirklich SMD löten oder nur zusammenschrauben muß):

    Sehr viel mehr als 150€ würde ich für ein USB-Scope nicht ausgeben wollen, auch wenn es auf dem Papier tolle Daten hat.
    Für unter 300€ bekommt man schon einigermaßen brauchbare China-Scopes mit 50MHz/1Gsa/s:


    Was Deinen Strom angeht: wenn Du maximal 50µA erreichst, dann wäre theoretisch ein 30kOhm-Widerstand nötig, um bei maximalem Lichteinfall 1.5V Spannungsabfall zu messen. Durch den Einfluß der Vorwärtsspannung können das aber auch 2V sein. Ich würde das aber halt erstmal mit einem Multimeter messen.

    Solange kein Licht auf die Diode scheint, verhält sie sich wie jede andere Diode in Sperrichtung und läßt (quasi) keinen Strom durch (bzw. nur einen minimalen "Dunkelstrom" von einigen nA). Solange bestimmt also der Widerstand gegen Masse das Potential. Theoretisch liegt dann der Ausgang (hinter der Diode) auf Massepotential. In der Praxis sorgt der Dunkelstrom (über den hochohmigen Widerstand) immer für eine kleine Spannung am Ausgang (z.B. 10nA an 1MOhm -> 10mV).
    Um so mehr Licht auf die Diode fällt, um so höher wird der Strom und um so höher wird deshalb die Spannung, die über dem Widerstand abfällt.
    Dabei wird die Diode aber nie wirklich niederohmig, aber wenn z.B. 5µA durch die Diode fließen, fallen an einem 1MOhm-Widerstand trotzdem 5V ab.
    Wobei 5µA halt z.B. auch nur dann durch die Diode fließen, wenn die anliegende Spannung hoch genug ist.
    In erster Näherung muß ja die Energieerhaltung gelten mit der kleinen Anmerkung, daß in einer Photodiode halt Photonen für eine Ladungstrennung sorgen, wodurch die Ausgangsspannung halt um die (natürlich wieder lichtabhängige) Leerlaufspannung der Photodiode höher liegen als die Eingangsspannung.

    Der Widerstand zu Messung des Stroms und die Diode bilden eigentlich selber einen Spannungsteiler. Wie gesagt kannst Du auch einfach diesen Widerstand so anpassen, daß Deine Ausgangsspannung die 1.5V nicht übersteigt.
    Wenn Du ihn durch zwei Widerstände bzw. durch z.B. ein 1MOhm-Poti mit mittlerem Abgriff ersetzt, kannst Du natürlich die Ausgangsspannung ändern, ohne das Frequenzverhalten zu verändern.
    Weiß aber nicht, ob es das wirklich wert ist.

    Ohne äußere Spannung in Durchlassrichtung funktioniert die Diode wie eine kleine Solarzelle, liefert aber nur ein schwaches Signal mit viel thermischem Rauschen und ist sehr langsam. Als langsamer Helligkeitssensor ist sie so nutzbar, aber nicht, um Schwankungen im kHz-Bereich zu messen.


    In Sperrichtung arbeitet die Photodiode als Stromquelle, wobei der Strom proportional zur Lichtleistung (aber immer noch sehr klein) ist.
    Um diesen kleinen Strom messen zu können, benutzt man einen hochohmigen Widerstand als Mess-Shunt. Und weil der Strom halt sehr klein ist, braucht man einen hohen Widerstandswert, um einen brauchbaren Pegel zu bekommen. Wenn man also 100kOhm statt 1MOhm benutzt, bekommt man bei gleichem Strom halt auch nur ein Zehntel der Ausgangsspannung raus (also z.B. 0.5V statt 5V). Da die angelegte Spannung nur einen geringen Einfluß auf den Strom hat, der durch die Diode fließt (lediglich auf deren Sperrschichtkapazität und damit auf die Geschwindigkeit), kann man den Widerstand nicht beliebig klein machen. Aber wenn Du eh auf 1.5V runter willst, kannst du den Widerstand natürlich so weit reduzieren, daß am Ende bei der maximal möglichen Helligkeit nur 1.5V rauskommen. Dazu müßte man aber ein exaktes Datenblatt einer Diode haben (was nicht ganz so einfach ist) oder den Wert halt experimentell bestimmen (z.B. per Multimeter).


    Was die Grenzfrequenz angeht. An diesem Punkt ist die Amplitude (in einer logarithmischen Darstellung) um 3dB gefallen. Das heißt aber nicht, daß man höhere Frequenzen nicht mehr messen kann: wie Du schon richtig annimmst, wird lediglich die Amplitude von höherfrequenten Anteilen gesenkt. Um allerdings Mißverständnisse zu vermeiden: ein Rechtecksignal mit 8kHz besteht aus einer harmonischen/sinusförmigen Grundschwingung und höherfrequenten Anteilen, die in den steilen Flanken stecken. Bei 8kHz Grenzfrequenz ist ein 8kHz-Recktecksignal damit praktisch auf einen Sinus verschliffen und selbst z.B. ein 1kHz-Rechtecksignal hat schon viel von seiner "Rechteckigkeit" eingebüßt.


    Wobei die 8kHz jetzt ein Beispiel für eine Diode bei einer bestimmten Spannung ist (die Sperrschichtkapazität ist abhängig von der Diode und der anliegenden Spannung).
    Nebenbei: bei einer Soundkarte, die eh nur mit 22kHz oder 44kHz abtasten kann, wäre eine wesentlich höhere Bandbreite als 8kHz sowieso weitestgehend sinnlos. Nach Shannon/Nyquist muß die Abtastfrequenz mindestens das Doppelte der Signalfrequenz sein, um einen Sinus rekonstruieren zu können. In der Praxis ist (je nach Signal) ein Faktor >=10 aber eher brauchbar.
    Wenn Du also wirklich (warum auch immer) wesentlich höhere Bandbreiten als ein paar kHz im Auge hast, dann brauchst Du nicht nur die Schaltung mit dem Transimpedanzverstärker (denn man auf 100kHz oder so bringen können sollte), sondern auch ein entsprechendes (USB-)Oszilloskop, das eine Abtastrate im Bereich von 1MSa/s oder so hat. Eine Soundkarte reicht da jedenfalls nicht mehr.


    Die maximale Ausgangsspannung ist halt I * R und der Strom hängt von der Diode und der Lichtstärke ab. Andererseits kann die Spannung unterhalb der Diode natürlich auch nie (wesentlich) größer sein als die angelegte Spannung (weil die Photodiode auch in Sperrichtung noch eine Photodiode bleibt, kann die Ausgangsspannung etwas höher sein als die Eingangsspannung, z.B. 5.5V statt 5V bei extrem starkem Lichteinfall).


    Wie gesagt: am besten eine Photodiode besorgen, die im sichtbaren Bereich empfindlich ist und dann bei konstanter Maximalhelligkeit solange mit den Widerständen rumspielen, bis der Ausgangspegel im gewünschten Bereich ist.

    Da es nur um niedrige Frequenzen geht, reicht eine Soundkarte als Oszi-Ersatz aus. Da gibt es diverse kostenlose Programme .. nur mal so als Beispiel:


    Dann braucht man halt noch 'ne Photodiode mit ein bißchen Schaltung drumherum:


    Im Prinzip müßte die "Konstantstromquelle mit Arbeitswiderstand" für diese Zwecke reichen. Ansonsten halt die Version mit Operationsverstärker.


    Aber wenn Du keine Motte oder sowas bist, sollten Dich eigentlich eh nur Frequenzen im Bereich unter 300Hz oder so beunruhigen.

    Na ja. Oben heißt es noch, Du kennst die Details nicht, aber fragst einen Techniker und jetzt ist es plötzlich ein Betriebsgeheimnis.
    Wenn Ihr Eure Meßmethoden geheim halten wollt, dann sag das doch einfach gleich...


    Wobei Ihr natürlich alles Recht der Welt auf Geheimniskrämerei habt, aber ohne irgendwelche Informationen zu Eurem Ansatz und solange nichts dafür spricht, daß Ihr Equipment für eine exakte direkte Messung habt, muß man halt im Zweifel davon ausgehen, daß Eure Messungen genauso unzuverlässig sind wie bei alle anderen indirekten Methoden auch. Bin mir nicht sicher, ob diese Strategie dem Vertrauen in Eure Ergebnisse wirklich dienlich ist. Aber ok.

    Ich bin ehrlich gesagt ein bißchen überrascht, daß die Frage nicht einfach zu beantworten ist. Wenn nicht direkt gemessen wird, muß ja mit einem Tool wie SMTT gemessen werden. Die Details dazu wären natürlich auch interessant, um einschätzen zu können, wie genau diese Messungen unter den geänderten Bedingungen überhaupt sein können, aber zunächst mal geht es doch um die Frage, ob der Lag direkt oder indirekt über ein Tool gemessen wird.
    Wobei ja eigentlich schon klar ist, daß eine direkte Messung ohne entsprechendes Highend-Scope nicht möglich ist .. ich hätte es nur gerne bestätigt.


    Wobei mich wundert, daß noch niemand auf die Idee gekommen ist, einen relativ günstigen Signalgenerator aus FPGA und Displayport-Transmitter zu basteln, der auf einem Pin ein VSync-Signal ausgibt (aus z.B. in der Abtastlücke high, sonst low). Damit wäre eine indirekte Messung für ein paar hundert Euro möglich. Wobei ich jetzt zugegebenermaßen auf die Schnelle nur FPGA-Boards mit HDMI-Transmittern (bzw. ganz ohne Transmitter) gefunden habe, die eine zu niedrige Bandbreite für 2560x1440 haben.

    Typischerweise sind das immer Elektrolytkondensatoren im Schaltnetzteil oder in seinem Umfeld. Meist kann man sie schon optisch identifizieren (aufgeblähter oder teils geöffneter Deckel, eventuell hellbraune Verkrustungen, u.U. stechender "Elektronikgeruch"). Die Bauteilkosten sind gering, aber bei den heutigen Relation von Arbeitskosten vs. Neuanschaffung lohnt sich eine Reparatur in einer kommerziellen Werkstatt vermutlich eher nicht. Und eine offizielle, vom Hersteller empfohlene Werkstatt wird gleich das gesamte Netzteil tauschen und zusätzlich auf die Rechnung setzen. Für ambitionierte Bastler sieht es natürlich anders aus, aber die Löterei an Netzteilen (große Kupferflächen, teils innenliegende Masselayer, alles auf gute Hitzeableitung optimiert) ist ohne gutes Equipment etwas anstrengend und bei SMD-Elkos wird es noch haariger.

    In der Reportage "Inputlag" wurde eine Methode zur Messung vorgestellt, die ein 100k€ Scope mit 13GHz Bandbreite benötigte, das nur für den Zeitraum der Reportage leihweise zur Verfügung stand. Das wirft die Frage auf, wie die Messungen jetzt eigentlich durchgeführt werden.


    Ein wesentlich preiswerteres Scope ist nicht ausreichend, um auf TMDS-Bitmuster zu triggern. Dazu kommt, daß die Methode so nur für HDMI/DVI funktioniert, bei DualLink (für hohe Auflösungen benötigt) wird es schon komplizierter (weil Daten abwechselnd auf die Links verteilt werden), bei Displayport noch mehr (mehrere LVDS-Lanes, die nicht mehr direkt Pixeln zugeordnet sein müssen). Dazu muß die gewählte Art der vertikalen Abtastlücke ("reduced blanking" oder CEA-861 usw.) berücksichtigt werden, weil das die Messung beeinflussen kann.


    Da bei neueren Tests von 27-Zöllern mit 2560x1440 Pixeln die Latenz laut Beschreibung bei nativer Auflösung und Zuspielung über Displayport gemessen wird, wären Details zur aktuellen Meßmethode aufschlußreich. Nicht zuletzt, weil die Meßergebnisse teils deutlich von denen anderer Seiten abweichen und die Behauptung im Raum steht, daß die Prad-Messungen exakt (weil direkt gemessen) seien. Dazu müßte aber die in der Reportage vorgestellte Meßmethode entsprechend angepaßt worden sein und es müßte ein Highend-Scope mit >10GHz Bandbreite und komplexen Triggeroptionen dauerhaft zur Verfügung stehen.


    Irgendwie beschleicht mich aber der Verdacht, daß das nicht der Fall ist - zumal in den Testberichten Latenz und Schaltzeit immer getrennt gemessen und am Ende aufaddiert werden. Bei einer direkten Messung wäre das ja genau umgekehrt: man würde die Gesamtverzögerung vom Ende der Abtastlücke bis zum Anstieg der Helligkeit messen und dann über Subtraktion der Schaltzeit die reine Latenz ausrechnen.

    Das Problem bei LEDs ist, dass die Umschaltzeiten extrem kurz sind (rechteckiges Signal) und dadurch das Flimmern viel aggressiver ist als bei analogen Signalen.
    Also nicht mit einem mechanischen Verschluss zu vergleichen...


    ---> "Akustischer Bereich" ist sowieso quatsch - schon mal was von Netzbrummen (50 Hz) gehört?

    Wirklich rechteckige Signale gibt es in der Realität nicht, weil darin unendlich hohe Frequenzanteile stecken würden. Oder andersrum gedeutet gibt es immer irgendwelche parasitäre Kapazitäten und/oder Induktivitäten. Insofern ist eine PWM-Ansteuerung natürlich auch nur in erster Näherung rechteckig. Und ein mechanischer Verschluß kann ähnlich "digital" sein wie ein elektrisches Signal. Dort sind es halt Massenträgheit, Reibung, begrenzte Geschwindigkeit, die die Flankensteilheit minimieren. Der mechanische Verschluß eines Kinoprojektors ist jedenfalls sehr viel digitaler (im Sinne von: er hat im Wesentlichen nur zwei Zustände mit steilen Übergängen) als beispielsweise das das Dimmen einer CCFL-Beleuchtung.


    Was die 50Hz angeht: natürlich liegt das auch schon im akustischen Bereich, aber eben im irrelevanten. Bei 50Hz braucht man extrem viel mechanische bzw. elektrische Leistung, um nennenswerten Schalldruck zu erzeugen. Und das gilt auch noch für 100Hz und darüber. Daher ist das auch eine Domäne der Subwoofer mit fetten Leistungsendstufen. Um es dagegen im Kilohertz-Bereich unangenehm laut fiepsen zu lassen, braucht es nur sehr wenig Energie.
    Das Brummgeräusch, daß man oft nicht ganz zutreffend als "Netzbrummen" tituliert, besteht in Wirklichkeit aush höherfrequenten Oberwellen, die bei der Schwingung von Kernblechen, Eisenteilen, Spulen usw. als Nebeneffekt der 50Hz-Schwingung entstehen.

    das sehen die Studien oben anders...

    Da geht es meines Erachtens aber nicht um flächiges Flimmern und damit ist das für eine Backlight-Diskussion irrelevant ... selbst wenn man den Studien in allen Details glauben will. Fragwürdige Studien, die fragwürdige Dinge zu untermauern scheinen, findet man allerdings immer. Papier ist geduldig und so. Behauptungen, daß Menschen oder andere höhere Säugetiere ein Flimmern mit mehreren Kilohertz wahrnehmen können, sind aus physiologischer Sicht zumindest extrem unplausibel und das entspricht auch einfach jeder Lebenserfahrung.
    Analoge Kinoprojektoren haben z.B. einen mechanischen Verschluß, der das Bild ca. 72 mal in der Sekunde abdunkelt. Bekommt man im Kino unerträgliche Kopfschmerzen von einem flackernden Bild? Eher nicht, oder?
    Ist natürlich alles eine Frage der Helligkeit, des Tastverhältnisses, des Hell-Dunkel-Kontrasts usw. aber mit >200Hz dürfte man in jedem Fall auf der sicheren Seite sein. Mehrere Kilohertz braucht es da definitiv nicht, zumal man dann auch schnell in den akustischen Bereich kommt (Brummern/Pfeifen durch die Schaltvorgänge).
    Es ist sicher übertrieben, PWM-Backlights grundsätzlich zu verdammen, weil die gepulste Ansteuerung halt auch Vorteile hat (Lichtausbeute <-> Energieverbrauch, Farbtreue).

    Aber nur bei Fernsehern. Das macht mein mehrere Jahre alter Sony-TV auch: zonenweises Dimming und das kurze Ausschalten der LEDs während des Umschaltens. Das simuliert quasi die impulsartige Bilderzeugung einer Röhre, was in erster Linie die Schärfe der Bewegungsdarstellung verbessern soll. Das man damit einen Teil der Overdrive-Überschwinger ausblendet, ist dann wohl eher ein netter Nebeneffekt.
    Allerdings geht diese "black frame insertion" natürlich auch in die Richtung Flimmergefahr. Um so länger die dunkle Phase, um so schärfer wirken bewegte Bilder, aber um so höher wird die Flimmergefahr.


    Wobei das Flimmerthema ja gerade schon ein ganz klein bißchen hochgekocht wird. Bei Frequenzen über 100Hz ist das menschliche Auge auch bei großen Helligkeitsunterschieden eigentlich nicht mehr in der Lage, ein flächiges Flimmern überhaupt wahrzunehmen. Man darf nicht vergessen, daß das Nervensystem auf Ionen basiert, nicht auf Elektronen. Beim (besonders flotten) Sehnerv reden wir z.B. von Signalleitgeschwindigkeiten von nur ca. einem Meter pro Sekunde. Und mit zunehmendem Alter sinkt die Frequenz, bis zu der man Flächenflimmern wahrnehmen kann - quasi analog zum Hörverlust.
    Selbst Vögel und Stubenfliegen dürften jenseits von 300Hz kein Flimmern mehr wahrnehmen. Da jetzt also gleich mehre Kilohertz zu verlangen, ist schon ein bißchen übers Ziel hinaus.

    Soweit ich das verstehe, ist "backlight control" ein Feature des Display-Ports bzw. der "VESA Embedded DisplayPort Specification 1.2".
    Gedacht ist das wohl in erster Linie für Notebooks. Ich würde mal davon ausgehen, daß die meisten Monitore diese Informationen komplett ignorieren. Und wenn man keinen Displayport-Anschluß benutzt, kann es eigentlich eh grundsätzlich nicht funktionieren.
    Ansonsten hat das Backlight erstmal gar nichts mit dem Panel zu tun. Das gleiche Panel kann man theoretisch jeder möglichen Art der Hintergrundbeleuchtung betreiben. Und natürlich kann jeder Hersteller eine andere Dimming-Strategie einsetzen. Wobei ich jetzt mal davon ausgehen würde, daß man bei einer PWM-Steuerung üblicherweise ein Vielfaches der Panelfrequenz anstreben wird. Aber selbst das scheint nicht immer gegeben zu sein.