Frage Berechnung benötigter Bandbreite für Bildausgabe

Smiguel

Mitglied
Mitglied seit
Jan 21, 2021
Beiträge
31
Bewertungspunkte
6
Punkte
8
Moin liebe Community,

ich arbeite aktuell an einem Problem und finde leider bereits seit Wochen weder eine Lösung, noch eine Erklärung.

Es geht darum, dass ein bekannter von mir eine Sapphire Vapor-X R9 290 Tri-X gekauft hat.
Diese soll einen Lenovo Legion Y27Q-20 befeuern.
Wahlweise mit 165Hz oder zumindest 144Hz.

Die Karte hat einen DP 1.2 Ausgang und der Monitor einen DP 1.4 Eingang.
Mit DP 1.2 steht eine Bandbreite von 17,28 GBit zur Verfügung.
Sollte also für SDR 2560x1440@165 ausreichen (2560x1440x3x8x165=14,6 GBit).
Oder für HDR (mit FRC) 2560x1440@144 (2560x1440x3x10x144=15,93 GBit).

Hier nun das Problem:
In WQHD ist die maximal einstellbare Frequenz bei 120Hz und per Default empfiehlt das AMD-Tool für den WQHD Monitor 3840x2160 als Auflösung (what the hell?!).
Bei Einstellung einer benutzerdefinierten Auflösung funktioniert SDR 2560x1440@144 (2560x1440x3x8x144=12,74 GBit).
Paradoxerweise gibt es bei der benutzerdefinierten Auflösung einen Unterschied zwischen "Timing Total" und "Timing Anzeige".
Während "Timing Anzeige" mit Horizontal 2560 und Vertikal 1440 der Auflösung entspricht, ist bei "Timing Total" 2720x1525 angegeben.
Und bei der Suche nach Antworten bin ich auf diesen Rechner gekommen, der für SDR 2560x1440@144 auf 16,31 GBit kommt.
Extron
Nach diesem Rechner würden sich auch die maximal 120 Hz bei HDR erklären, da er da auch 16,8 GBit kommt.
Aber ich verstehe nicht, wie der Rechner auf diese Zahlen kommt.
Darunter ist ein Schema, dass ich aber nicht interpretieren kann.

Kann mir einer erklären, was an meinen Berechnungen für die Pixelübertragungsbandbreite falsch ist und was dieser Online-Rechner rechnet?!
Bin für jeden Hinweis dankbar!

Bevor Lösungsvorschläge à la "neues Kabel kaufen" kommen:
- anderes Kabel getestet
- Kabel an HD 630 getestet
- Monitor an anderem Rechner mit 2080Super getestet
- Treiber neu installiert
- Treiber gedowngraded
- Windows und alle Treiber neu installiert

Es bleibt dabei, dass das AMD Tool 3840x2160 als Auflösung empfiehlt und bei HDR 2560x1440 nur 120Hz möglich sind.
Für 144Hz muss eine benutzerdefinierte Einstellung mit 8bit eingestellt werden.

Edit: Sorry, hatte den Link vergessen...
Und vllt. relevant: Der Fan-Off-Modus, der über einen kleinen On/Off-Schalter an der Platine der Karte gesteuert wird scheint ebenfalls nicht zu funktionieren.
 
Zuletzt bearbeitet :
Da scheint es irgendein Problem im Handshake (hardwareseitig nehme ich mal an) zwischen GPU und Windows/Monitor zu geben.

Dass das AMD Tool 3840x2160 empfiehlt, verwundert vor diesem Hintergrund nicht. DP 1.2 hat als maximal unterstützte Resolution nämlich 3840x2160 Pixelchen á 60Hz. Wenn die Software der Grafikkarte also nicht korrekt die Resolution des Monitors übermittelt bekommt, gibt sie im Zweifel eben das rechnerisch größstmögliche an.

HDR kann übrigens nicht funktionieren. Das HDR (10) Protokoll wird von DP 1.2 nicht unterstützt. Die Unterstützung ist erst mit 1.4 dazugekommen. Das heißt, wenn das Display hier hardwarebasiertes HDR möchte, die Grafikkarte aber nur ein software-matsch pendant vom Display maximal unterstüt, das Display aber vermutlich garkein software basiertes HDR anbietet, weil es eben "echtes" HDR anbietet, erklärt das vielleicht, warum das AMD Tool rumspinnt.

Am besten mal schauen, ob sich auf dem Monitor HDR komplett deaktivieren lässt und dann nochmal über das AMD Tool nachprüfen.

Bezüglich Deiner Rechnung: Richtig ist in jedem Fall, dass DP 1.2 mehr als WQHD 120 Hz unterstützen kann. Das gängige WQHD 144Hz sollte die Karte in jedem Fall anbieten.
 
Zuletzt bearbeitet :
HDR kann übrigens nicht funktionieren. Das HDR (10) Protokoll wird von DP 1.2 nicht unterstützt. Die Unterstützung ist erst mit 1.4 dazugekommen. Das heißt, wenn das Display hier hardwarebasiertes HDR möchte, die Grafikkarte aber nur ein software-matsch pendant vom Display maximal unterstüt, das Display aber vermutlich garkein software basiertes HDR anbietet, weil es eben "echtes" HDR anbietet, erklärt das vielleicht, warum das AMD Tool rumspinnt.

Paradoxerweise scheint die Grafikkarte aber in HDR zu übertragen. Zumindest eben die vom Monitor unterstützte Version mit FRC.
Aktuell läuft WQHD jedenfalls mit 10bit auf 120Hz und nur auf 8bit sind 144Hz möglich. Allerdings laufen auf 8bit auch keine 165Hz, was gem. meiner Berechnung ebenfalls möglich sein müsste...

Von den Testergebnissen der benutzerdefinierten Auflösungseinstellungen spricht leider immer mehr dafür, dass der Extron-Rechner mit seinen Bandbreiten richtig liegt, aber ich finde nirgends eine Erklärung, wieso das so ist 😭
 
Habe einen weiteren Bandbreitenrechner gefunden der nochmal auf einen anderen Wert kommt.
Diesmal von KramerAV
Hier liegt die Bandbreite für HDR 2560x1440@144 bei 19,11 GBit 😅
So langsam fühle ich mich verarscht. Überall rechnen die was anderes.

@Igor Wallossek HIIIIIILFEEEEE 🥺
 
So langsam fühle ich mich verarscht. Überall rechnen die was anderes.
Die ganze Videotechnik ist etwas komplex, da sie sich aus Fernsehtechnik mit Bildröhren über die Jahrzehnte immer wieder weiter entwickelt hat. Dabei hat man aber nicht einfach mal alles auf den aktuellen Stand der Technik gebracht, sondern Stück für Stück etwas dazu erweitert und dabei versucht zu den älteren Standards halbwegs kompatibel zu bleiben.

Wenn man die Technik versteht, kann man sich die Datenraten auch selbst berechnen. Ich kenne aber auch nicht alle Details, die dazu nötig sind. Also gehen wir die Technik mal durch.

Bei den meisten Datenübertragungsarten wird eine Bandbreite in Bit/s angegeben. Bei jedem übertragenen Byte werden aber 1 oder 2 Kontrollbits zusätzlich übertragen, damit Fehler in der Übertragung bemerkt würden und ein datenpacket nochmals angefordert werden kann. Bei der Videoübertragung sind es üblicherweise 2 Kontrollbits. Somit werden pro 10 bit Datenübertragungsrate nur 8 bit Daten übertragen.

Wenn Fehler auftauchen, werden Datenpakete nochmals gesendet und wenn zu viele Fehler auftauchen sogar die Geschwindigkeit gesenkt. Bei schlechter Verbindung kann die datenrate also deutlich sinken.

Die Hz, also die Anzahl Bilder pro Sekunde ist ziemlich klar.

Die Bildschirmauflösung ist etwas komplex. Bei alten Bildröhren fuhr der Lichtstrahl von links nach rechts über das Bild. Dann sauste er zurück und begann mit der 2. Zeile. Am Ende der Seite brauchte er noch etwas mehr Zeit, um von unten rechts wieder nach links oben zu kommen. In diesen Rücklaufzeiten konnten keine Pixel gesendet werden. Deshalb wird ein Bild mit einer höheren Auflösung gesendet und den Rand auf den Seiten blendet man einfach aus. Man nennt das Blanking.
Darum verwenden die Rechner, die du gefunden hast höhere Bildauflösungen. Wie weit das bei der Fernsehübertragung oder bei der Übertragung vom PC zum Bildschirm immer noch gemacht wird, weiss ich nicht. Nötig ist es eigentlich nicht mehr.

Die Anzahl Pixel für die 3 Farben ist eigentlich auch klar. Für höhere Farbqualität sind mehr Bits nötig. Da kommt es natürlich auch darauf an, welche HDR-Technik verwendet wird. Oft macht auch erst der Bildschirm aus 8 bit 10 bit, was keine höhere Übertragungsrate benötigt.

Mit diesen Informationen kann man dann, wie es die Rechner machen, die maximal nötige Datenrate berechnen. Dabei ist aber noch nicht berücksichtigt, dass durch Komprimierungsverfahren deutlich Datenmenge gespart werden kann. Je nach Verfahren (Subsampling, DCS) sinkt dabei auch die übertragene Bildqualität ein wenig.

Bei den angegebenen Datenraten und Auflösungen geht es meist nur darum, ungefähr zu zeigen, was möglich ist. In der Praxis ist es aber noch etwas komplizierter als man denkt.
 
Bei den meisten Datenübertragungsarten wird eine Bandbreite in Bit/s angegeben. Bei jedem übertragenen Byte werden aber 1 oder 2 Kontrollbits zusätzlich übertragen, damit Fehler in der Übertragung bemerkt würden und ein datenpacket nochmals angefordert werden kann. Bei der Videoübertragung sind es üblicherweise 2 Kontrollbits. Somit werden pro 10 bit Datenübertragungsrate nur 8 bit Daten übertragen.

Das heißt bei normaler Übertragung von SDR im RGB-Format hat man grundsätzlich immer 30 bit pro pixel, die von der Graka geschoben werden und bei HDR sind es 36 bit statt 30?

Mit diesen Informationen kann man dann, wie es die Rechner machen, die maximal nötige Datenrate berechnen. Dabei ist aber noch nicht berücksichtigt, dass durch Komprimierungsverfahren deutlich Datenmenge gespart werden kann. Je nach Verfahren (Subsampling, DCS) sinkt dabei auch die übertragene Bildqualität ein wenig.

Naja Subsampling dürfte doch bei PC-Monitoren grundsätzlich nicht relevant sein, da die Grafikkarten doch normalerweise das RGB-Farbmodell verwenden und nicht YUV.
Und DCS ist doch auch nur bei CMYK-Farbmodell anwendbar dachte ich.
Arbeiten Grafikkarten nicht mit RGB?!
 
Das heißt bei normaler Übertragung von SDR im RGB-Format hat man grundsätzlich immer 30 bit pro pixel, die von der Graka geschoben werden und bei HDR sind es 36 bit statt 30?
Ungefähr. Aber ich würde die Begriffe grundsätzlich auseinander halten und nicht vermischen.

Egal, was man an Daten überträgt (auch in Netzwerken), kommt auf jedes Byte 2 (oder mindestens 1) zusätzliche Kontrollbits. Dadurch ist die Übertragungsrate netto 20 % kleiner als die aus Frequenz und Anzahl Lanes berechnete Übertragungsrate in der Leitung. Oder man nimmt die gewünschte Datenmenge, die man übertragen muss und rechnet 25 % dazu.

24 bit x 1.25 = 30 bit
30 bit x 1.25 = 37.5 bit
Da 30 bit nicht auf ganze Bytes aufgeht, geht die Rechnung nicht auf Bits auf. Aber über die ganze Menge stimmt es dann im Durchschnitt.


Welche Komprimierungsverfahren wo verwendet werden, weiss ich leider nicht. Falls sich da jemand auskennt, nur her mit den Infos.
 
Arbeiten Grafikkarten nicht mit RGB?!
Ich habe gerade mal bei meiner GTX 1650 Super in der Nvidia-Systemsteuerung nachgeschaut. Standardmässig wird RBG verwendet. YCbCr 4:2:2 und YCbCr 4:4:4 kann man aber auch auswählen (je nach Bildschirm auch 4:2:0). Somit kann man die Qualität reduzieren, um eine höhere Bildfrequenz zu erreichen, wenn man das möchte.

Wenn man eine eigene Auflösung definiert, kann man auch das Blanking auswählen. Standard scheint reduziertes Blanking zu sein, bei dem bei 4K für die 3840 Pixel dann 4000 Pixel pro Zeile übertragen werden. Ohne reduziertes Blanking sind es über 5000 Pixel pro Zeile. Man kann auch auf manuell stellen und alles selbst einstellen. Was der Bildschirm da alles mit macht, weiss ich auch nicht.
 
Man kann auch auf manuell stellen und alles selbst einstellen. Was der Bildschirm da alles mit macht, weiss ich auch nicht.

Haben wir schon getestet. Leider bekommt man das Blanking dabei nicht weg.
Als wir versucht haben HTotal und VTotal auf 2560 respektive 1440 zu stellen hat Radeon Software die Änderung nicht akzeptieren wollen.

Da das Blanking alleine eigentlich nicht so viel ausmachen dürfte, dass die Bandbreite bereits ab > HDR 2560x1440@120 überschritten wird, vermute ich ein Zusammenspiel mit den von dir erwähnten Kontrollbits.
Schade ist, dass ich noch immer nirgends eine wirklich anwendbare Formel für die Bandbreitenberechnung gefunden habe 😔

Aber vielen Dank für die Hilfe und das Testen!
 
Oben Unten