HDCP-TV + PC

  • Hi, ich plane einen TFT-TV mit HDCP-Support an meinem PC (Multimedia Center) anzuschließen und alles über den PC zu fahren (weil einfach bessere Qualität).
    Meine Grafikkarte ist eine GeForce 6800GT.


    Nun sagte man mir im Laden, es könnte Probleme mit den beiden Geräten geben, da der PC kein HDCP auf dem DVI-Ausgang unterstützt.


    Ich habe bereits ein DVI-D/HDMI-Adapterkabel hier und hatte vor mir die Tage einen TV zu kaufen, allerdings nur, wenn das auch funktioniert.


    Wäre super, wenn mir jemand was dazu sagen könnte.

    hört sich blöd an, ist aber so...

  • mit HDCP ist das so eine Sache...


    Fakt ist deine Grafikkarte ist nicht HDCP fähig, soweit erstmal kein Problem, ein Problem hast du erst dann wenn HDCP scharf gestellt wird von der Filmindustrie (weil die entscheiden letztendlich ob HDCP verwendet wird oder nicht) doch weiß das bislang noch keiner so 100%.


    Mit einer HDCP fähigen Grafikkarte wärste auf der sicheren Seite, aber die kannste auch später eh immer noch schnell nachrüsten.....

  • Was passiert denn dann, wenn ich eine HDCP-HDDVD in den PC reinschiebe?
    Ich habe bereits Die Gebrüder Grimm als HDDVD mit Kopierschutz

    hört sich blöd an, ist aber so...

  • dann wirste kein bild bekommen, oder ein bild mit einer runtergerechneten auflösung.


    meinst du diese WMV DVDs????

  • das sind ja keine richtigen HDDVD, sondern ganz normale DVDs wo nur WMV als komprimierung eingesetzt wird.
    Die verwenden den Kopierschutz nicht (glaub ich zumindest)


    Die kannst du problemslos gucken in voller auflösung, auch ohne HDCP Grafikkarte

  • Dann ist ja gut. Aber wie erkennt nachher die DVD, dass der Fernseher HDCP unterstützt und die GFX nicht?
    Oder erkennt er nur, dass die GFX kein HDCP unterstützt und macht grundsätzlich dicht?! Das kann ja auch nicht sein.

    hört sich blöd an, ist aber so...

  • die HDDVD oder bluery disk hat eine spezielle elektronische kennzeichnung, die dem abspielenden gerät sagt, dass HDCP verwendet werden muss. Darauf hin wird geprüft ob Grafikkarte (oder HDDVD player) und Monitor HDCP kompatibel sind, (die können untereinander kommunizieren) falls ja, ist alles kein problem, falls einer von beiden kein HDCP kann, siehste nix, oder nur mit niedriger auflösung

  • mal wieder ein total unsinniges kopierschutzverfahren... trotz kaktus data shield und wie sie alle heißen kannst auch heute jede DVD kopieren... uh man. Es ist doch hirnrissig MPEG4 zu dekodieren und in einem anderen Gerät zu encodieren. Ist doch Qualitätsverlust hoch 3.


    *kopfschüttel*


    Nehm ich halt den Komponentenausgang, wenn ich will... da gibts keinen Kopierschutz *lol*


    Aber wenn ich mir wegen dem Mist ne neue GFX kaufen muss bin ich sauer.

    hört sich blöd an, ist aber so...

  • caktus data shield hat damit aber nix zu tun, HDCP soll nur verhindern, dass man den digitalen stream quasi am gerät abgreifen kann, die neuen HDDVDs werden noch weitere kopierschütze haben....


    Man kann aber heute nur jede DVD kopieren, weil damals geschlammt wurde, die neuen Kopierschütze werden weitaus schwieriger zu umgehen sein.


    HDCP hat allerdings keinen qualitätsverlust zur folge, weil dein PC dann den mpeg4 stream decodiert und ihn dann verschlüsselt und das tv gerät ihn wieder entschlüsselt.... darunter leidet die bildqualität nicht.


    Du kannst den Komponentenausgang vorerst noch nutzen, da sind aber auch schon erste pläne aufgetaucht, diesen dicht zumachen, oder darüber nur ein runtergerechnetes Bild auszugeben.



    wenn du nur die grafikkarte austauschen musst kannst froh sein, wenns hart kommt, müssen manch andere ihren ganzen Monitor austauschen, obwohl dieser technisch in der lage wäre HDTV darzustellen

    Einmal editiert, zuletzt von Rach78 ()

  • Es ist aber ein Qualitätsverlust, wenn du MPEG4 dekodierst und wieder encodierst, da der Encoder sehr unwahrscheinlich den gleichen Algorithmus zum encodieren verwendet.


    Spätestens nach der 4 Kopie dürfte das übelst auffallen.


    Ja ich habe auch nen DELL Widescreen aufm Tisch der ebenfalls kein HDCP hat. Geht der dann nicht mehr sobald die GFX das kann oder was?

    hört sich blöd an, ist aber so...

  • Zitat

    Es ist aber ein Qualitätsverlust, wenn du MPEG4 dekodierst und wieder encodierst, da der Encoder sehr unwahrscheinlich den gleichen Algorithmus zum encodieren verwendet.


    Spätestens nach der 4 Kopie dürfte das übelst auffallen.


    das stimmt, aber bei HDCP wird ja nur verschlüsselt, und da hat man kein qualitätsverlust


    Wenn du nen .rar archiv hast und dadrin ne mpeg4 datei hast und die mit nem passwort versiehst. ist es zwar verschlüsselt, aber hat keinen qualitätsverlust und genauso ist das bei HDCP

  • Aber per DVI bzw. HDMI wird laut Spezifikation ja nur ein dekodiertes (und eventuell durch HDCP verschlüsseltes) digitales Bild übertragen.


    D.h. würde man nicht den Originaldatenstrom abgreifen, der sich auf der Scheibe befindet ist es eh schon schlechter, weil halt bereits das MPEG4 dekodiert wurde.


    Btw. Bei Ebay kann man von Spatz und anderen Firmen "HDCP-Löschdrosseln" kaufen. Sogar ganze D-Boxen.. :D

    hört sich blöd an, ist aber so...

  • das was über HDMI und DVI übertragen wird ist alles unkomprimiert!
    (höchstens verschlüsselt wenn HDCP aktiv ist)


    Auf der Scheibe befindet sich dann der komprimierte datenstrom (geht ja auch nicht anders, weil der unkomprimierte datenstrom zu groß ist um ihn auf einem Medium (DVD,HDDVD) zu speichern.


    Diesen musst du eh irgendwann decodieren, das kannst du nicht umgehen.


    Du merkst nacher keinen unterschied ob HDCP verwendet wird oder nicht (sofern du die passenden geräte hast) auch einen qualitäsverlust haste net

  • Genau das wollte ich mit meinem letzten Beitrag ausdrücken.


    Aber ich kann beruhigt sein. Gerade lief bei mir die Information auf, dass nahezu alle Bildschirme die ausschließlich einen DVI-Eingang haben, nur HDCP-Dummis benutzen, bzw es abschaltbar ist - oder noch garnicht hardwareseitig aktiviert.


    Na denn hab ich ja Schwein gehabt mit meiner Bildschrimwahl.

    hört sich blöd an, ist aber so...

  • Noch was leckeres....


    HDCP-fähige Grafikkarten können auf Clone-Modus zwei unterschiedliche HDCP-fähige Eingänge bedienen. Splitting geht also schonmal :D

    hört sich blöd an, ist aber so...


  • Da wird es keinen Qualitätsverlust (durch HDCP) geben, weil MPEG4 nur für die platzsparende Übertragung bzw. Speicherung der Daten zuständig ist.
    HDCP sorgt dann mittels Verschlüsselung und Authorisierung dafür, daß niemand an die Bild- & Tondaten kommt. Dabei sind die gesicherten Daten nicht immer im MPEG4-Format. Die Graka z.B. übermittelt ihre Bilddaten unkomprimiert an das Display nachdem sie den MPEG4-Datenstrom decodiert hat. Damit nun kein "Pirat" den Film am Grafikkartenausgang abgreifen kann (um ihn dann wieder codiert in Umlauf zu bringen) werden auch diese Daten mit HDCP verschlüsselt, wenn das Display HDCP unterstützt. Tut es das nicht, dann übermittelt die Graka den Film in reduzierter Auflösung an das Display (wenn der Filmehersteller denn so will, ansonsten bleibt's dunkel).


    Der Komponentenausgang wird auch vom Filmehersteller kontrolliert. Er kann ihn mittels HDCP zulassen oder abschalten.


    Mit HDCP kann man sogar ganze Geräte außer Gefecht setzen. Sollte es jemanden mal gelingen, wegen eines Implementierungsfehlers in einem Produkt, auf die HDTV-Daten zuzugreifen, können sie nach und nach die Geräte zu "Schrott" werden lassen (auf den neuen HD-DVD/BR-Scheiben können sie das entsprechend definieren).


    Und heutige DVDs kann man kopieren, weil sie nur einen schwachen Kopierschutz darauf implementiert haben und die ersten Cracker (DeCSS) durch einen Fehler in einem Software-DVD-Player an dessen CSS-Key gekommen sind. Generell knackt man Verschlüsselungen entweder durch brutale Rechengewalt (Brute Force) oder man findet Fehler in der Implementierung, die man ausnutzen kann.

    Gemein, nicht? :)


    Da aber vorallem in den USA schon ne Menge HDTV-Geräte ohne HDCP im Umlauf sind, geht man davon aus, daß die Industrie die ersten paar Jahre auf HDCP verzichten wird (die Hersteller werden aber immer seltener Geräte ohne HDCP auf den Markt bringen). Sobald sie aber der Meinung sind, daß genug HDCP-fähige Geräte im Umlauf sind, können sie es aktivieren.


    Ich hoffe diese grobe Info brachte etwas Licht ins dunkel.


    Mechkilla

  • Na dann wird das hier bei mir ja noch sicher interessant mit meinen 4 Displays, wenn nur der Fernseher HDCP unterstützt. Wenn ich dann kein HDTV mehr aufm PC-Display schauen...na das wollen wir doch mal sehen *HDCP den Krieg erklär*


    Funktioniert dann eigentlich noch der analoge d-Sub?

    hört sich blöd an, ist aber so...

    Einmal editiert, zuletzt von Möhre ()