Es wurde schon lange die Bit-Zahl in der Bewertung von Monitoren besprochen und ich selbst habe für die beste Darstellung u.a. darauf geachtet (z.B. im Vergleich mit dem Detailgrad von hochwertigen TVs, selbst CRTs).
Allerdings scheint sie erst seit kurzem explizit in der Diskussion von Grafikkarten aufzutauchen, besonders mit dem Aufkommen von HDR (das ich bis dahin auch noch nie gehört oder wirklich angenommen hatte).
Und so scheint es auch ganz explizit von den Grafikkarten, oder zuallermindest vom Treiber-Support, abzuhängen, ob man überhaupt 10 Bit oder 8 Bit im normalen Windows-Betrieb oder OpenGL (also nicht nur DirectX) nutzen kann.
Oder hat das doch nichts mit der LUT zu tun? Und weiß jemand zufällig, ob Nvidias Pascal-Grafikkarten AMDs Polaris (und in 2017 Vega) in 10 Bit Farbdarstellung in nichts nachstehen? Nvidia scheint in solchen Dingen immer ein weniger restriktiver zu sein, auch wenn sie sich als die High-End-Front geben wollen.