Forum: Programmieren allgemein
by KodeZwerg,
13. Mai 2018
sqrt(sqr(3440 / 96) + sqr(1440 / 96)) = 38.84"
sqrt(sqr(3440 / 96) + sqr(1440 / 96)) * 2.54 = 98.67 cm
Die Formel funktioniert so nicht.
Tatsächliche Dimension: 34" = 86.36 cm, so aufgeteilt 796.63 mm x 333.46 mm
edit
Andersrum funktioniert es die Diagonale zu berechnen: sqrt(sqr(796.63) + sqr(333.46)) / 10 = 86.36 cm
Forum: Programmieren allgemein
by KodeZwerg,
13. Mai 2018
Ja, per DPI = Skalierung der Pixel.
Das wäre ja dann die Lochmaske/Pixel-Pitch, die bestimmt ja die physikalischen Dimensionen eines Pixels.
Ich glaube nicht das ich jemals irgendwo (abseits von Treiber intern selbst) etwas gelesen habe das mir diesen Wert ermittelt, wozu auch, Display-Dimensionen sind für uns wichtig.
Forum: Programmieren allgemein
by KodeZwerg,
13. Mai 2018
Ich habe mal etwas rumexperimentiert aber komme auf keinen grünen Zweig
Bei mir lt. Panel-Beschreibung: 34" = 86.36 cm, so aufgeteilt 796.63 mm x 333.46 mm
pixels-x-to-centimeters-conversion
3440 px ergibt 91.02 cm
1440 px ergibt 38.10 cm
Ich komme hier auf keinen Nenner. Ich vermute die Lochmaske/Pixel-Pitch bestimmt die tatsächliche Dimension des Panels wobei man dann noch das Gehäuse...
Forum: Programmieren allgemein
by KodeZwerg,
13. Mai 2018
Guten Morgen, wach werden ^_^
Ich geh mal von 1980x1080 aus hehe
Forum: Programmieren allgemein
by KodeZwerg,
13. Mai 2018
34" @ 21:9 @ 3440x1440 @ 96dpi
Es ist wahrscheinlich noch etwas früh aber wie wende ich jetzt genau Deine Formel an um als Ergebnis = 34 zu erhalten?