monitorkabel verlängern und auflösung ist weg

Du kommst mit der Installation nicht voran oder willst noch was nachfragen? Schau auch in den "Tipps und Tricks"-Bereich.
Antworten
Benutzeravatar
sys_op
Beiträge: 672
Registriert: 17.09.2007 19:10:47
Lizenz eigener Beiträge: GNU General Public License

monitorkabel verlängern und auflösung ist weg

Beitrag von sys_op » 29.12.2007 17:39:41

eine interessante endeckung habe ich heute gemacht.
wenn ich mein monitor kabel verlängere (kvm switch ist angedacht), wird meine auflösung von 1600x1200 auf 640x480 gesetzt und der installierte nvidia treiber wuird wohl nicht geladen (zumindest ist kein nvidia bildschirm zu sehen).
klemme ich den monitor wieder direkt an, ist alles wieder normal.

woher weiss Debian, dass ich das kabel verlängert habe und wieso kann es dann mit meinem installierten treiber nicht umgehen ?

Benutzeravatar
cirrussc
Beiträge: 6582
Registriert: 26.04.2007 19:47:06
Lizenz eigener Beiträge: MIT Lizenz

Beitrag von cirrussc » 29.12.2007 18:12:31

Hi,

was steht denn im xorg log wenn der nvidia Treiber wegen dem Kabel nicht geladen werden kann?

Debian wird das nicht wissen, nur die Treiber module und eventuell der x-server.
Wie er das raus bekommt, darüber bringen vielleicht die Logs Aufschluss.
Fakt ist schon mal das die Signale durch lange oder schlecht geschirmte Kabel gedämpft werden.
Gruß cirrussc
--------------------
„Der Mensch steigert zur Zeit die Nutzung dessen, was seiner Willkür unterliegt - und kommt sich sehr klug dabei vor.“ H. Gruhl

Benutzeravatar
sys_op
Beiträge: 672
Registriert: 17.09.2007 19:10:47
Lizenz eigener Beiträge: GNU General Public License

Beitrag von sys_op » 29.12.2007 18:36:18

hallo

das kabel ist gut geschirmt und die länge sollte durch das netzteil am kvm eigentlich keine rolle spielen.
lt logs werden die modi nicht gefunden:

Code: Alles auswählen

mit verlängerung:

(II) NVIDIA(0): NVIDIA GPU GeForce4 MX 440 at PCI:1:0:0 (GPU-0)
(--) NVIDIA(0): Memory: 65536 kBytes
(--) NVIDIA(0): VideoBIOS: 04.17.00.45.91
(II) NVIDIA(0): Detected AGP rate: 4X
(--) NVIDIA(0): Interlaced video modes are supported on this GPU
(--) NVIDIA(0): Connected display device(s) on GeForce4 MX 440 at PCI:1:0:0:
(--) NVIDIA(0):     CRT-0
(--) NVIDIA(0): CRT-0: 350.0 MHz maximum pixel clock
(II) NVIDIA(0): Assigned Display Device: CRT-0
(WW) NVIDIA(0): No valid modes for "1600x1200"; removing.
(WW) NVIDIA(0): No valid modes for "1280x1024"; removing.
(WW) NVIDIA(0): No valid modes for "1024x768"; removing.
(WW) NVIDIA(0): No valid modes for "832x624"; removing.
(WW) NVIDIA(0): No valid modes for "800x600"; removing.
(WW) NVIDIA(0): No valid modes for "720x400"; removing.
(II) NVIDIA(0): Validated modes:
(II) NVIDIA(0):     "640x480"

Code: Alles auswählen

ohne verlängerung

(II) NVIDIA(0): NVIDIA GPU GeForce4 MX 440 at PCI:1:0:0 (GPU-0)
(--) NVIDIA(0): Memory: 65536 kBytes
(--) NVIDIA(0): VideoBIOS: 04.17.00.45.91
(II) NVIDIA(0): Detected AGP rate: 4X
(--) NVIDIA(0): Interlaced video modes are supported on this GPU

hier die abweichung

(--) NVIDIA(0): Connected display device(s) on GeForce4 MX 440 at PCI:1:0:0:
(--) NVIDIA(0):     PHILIPS 109B4 (CRT-0)
(--) NVIDIA(0): PHILIPS 109B4 (CRT-0): 350.0 MHz maximum pixel clock


(II) NVIDIA(0): Assigned Display Device: CRT-0
(II) NVIDIA(0): Validated modes:
(II) NVIDIA(0):     "1600x1200"
(II) NVIDIA(0):     "1280x1024"
(II) NVIDIA(0):     "1024x768"
(II) NVIDIA(0):     "832x624"
(II) NVIDIA(0):     "800x600"
(II) NVIDIA(0):     "720x400"
(II) NVIDIA(0):     "640x480"
(II) NVIDIA(0): Virtual screen size determined to be 1600 x 1200
(--) NVIDIA(0): DPI set to (112, 112); computed from "UseEdidDpi" X config
(
der bildschirm wird also nicht korrekt gefunden.

komisch, da ich wie gesagt, das signal über den kvm verstärke

Benutzeravatar
cirrussc
Beiträge: 6582
Registriert: 26.04.2007 19:47:06
Lizenz eigener Beiträge: MIT Lizenz

Beitrag von cirrussc » 29.12.2007 19:00:06

Hmm, ohne Kabel wird der Monitor direkt über ddc erkannt und dessen mögliche Mode ebenfalls.
Mit langem Kabel nicht!
Wie lang ist das Kabel denn?
Ach ist'n VGA Kabel?

Soweit ich weis wird ddc mittels IIC (I2C) übertragen, was gewöhnlich nicht für große Distanzen taugt.
Das kann nur am Kabel liegen.
Das nvidia Modul scheint aber in beiden Fällen geladen zu werden.
Gruß cirrussc
--------------------
„Der Mensch steigert zur Zeit die Nutzung dessen, was seiner Willkür unterliegt - und kommt sich sehr klug dabei vor.“ H. Gruhl

Spasswolf
Beiträge: 3472
Registriert: 30.11.2005 10:32:22
Lizenz eigener Beiträge: MIT Lizenz
Wohnort: Wald

Beitrag von Spasswolf » 29.12.2007 19:47:40

Versuchs mal mit

Code: Alles auswählen

Section  "Device"
...
 Option "DDC" "off"
...
EndSection
in der xorg.conf.

Antworten