Ich versuchs mal obwohl ich von der Kamera keine Ahnung habe.
Grundsätzlich sollte das so funktionieren: Der Bildschirm sagt welche Modi er kann, und die Kamera wählt dann aus, was sie davon benutzen möchte. Nun hat HDMI eine Menge Videomodi zu bieten, die die meisten PC Monitore nicht können.
Ich vermute einfach mal, der Samsung kann kein 1080i. Das ist ja auch kein echtes FullHD sondern so ein interlaced Signal.
Dazu kommt dann noch die Frequenz, die nicht bekannt ist? Also 1080p60 wäre das was ein Monitor gewöhnlich braucht.
Datenblätter und Handbücher angucken, welche Modi unterstützt werden, wäre also meine Empfehlung.
Am PC kann man die sogenannte EDID Information des Bildschirms auslesen, da hat mans dann sicher, was der Monitor sagt.
Da gibts Tools für, die das können.