Beitrag
von LittleBoy » 05.05.2004 14:43:21
Beim "schneller machen" stellt sich ja immer die Frage, WAS am System nun gerade langsam ist. Hat man z.B. Arbeitsspeicher genug (gibts solche Rechner überhaupt?) dann bringt es nix, den Kernel zu modularisieren. Läuft die Festplatte hingegen im PIO-Modus kann man sich auf den Kopf stellen, und das Teil wird ewig bei 100% Auslastung rumkeuchen...
Aus meinen bisherigen Erfahrungen würde ich sagen, dass am häufigsten die Festplatte bzw. der Disk-Zugriff das größte Übel ist. Nach einer Optimierung mit hdparm (DMA-Modus an, read-ahead auf max) bleibt einem da auf Softwareseite nur noch wenig zu tun (man könnte z.B: beim Nutzen von P2P Filmbörsen ein FS verwenden, welches nicht so stark fragmentiert wie ext2 od. reiserFS, dazu sollte immer genug freier Platz auf dem FS bleiben, man kann ein tmpfs für /tmp verwenden). Danach kommt der Arbeitsspeicher: Wenn der Rechner anfängt zu swappen, dann ist der Arbeitsspeicher zu klein - da kann man dann den Kernel modularisieren, Programme dynamisch linken usw. - aber wenn der Arbeitsspeicher wirklich knapp wird, hilft letztlich nur mehr Speicher.
Am Schluß bleibt noch die CPU - wenns wirklich daran liegen sollte, können speziellen Compiler-Optionen was bringen. Manche Anwendungen (z.B: Rechenanwendungen, Kryptographieanwendungen) profitieren sehr stark davon, andere wiederum nicht. Das hängt aber auch sehr stark davon ab, inwieweit die Kollegen intern bereits eine CPU Erkennung machen (wie z.B: Mplayer)
Die Startzeit kann man verkürzen, indem man überflüssige Init-Skripte rausschmeisst, den Kernel NICHT modularisiert (dafür aber nur das wirklich notwendige einkompilieren), auf Hardware-Erkennung (discover) verzichtet und keine initrd verwendet. Zusätzlich kann man sich am Software-Suspend versuchen (aber dafür muss man wirklich sehr mutig sein(!) - bei mir kriege ich damit zumindest einen Systemcrash hin)