Linux Schwächen bei Prozessoren?

Warum Debian und/oder eine seiner Spielarten? Was muss ich vorher wissen? Wo geht es nach der Installation weiter?
Antworten
Benutzeravatar
Rebell
Beiträge: 997
Registriert: 14.01.2003 20:36:53
Wohnort: Dresden

Linux Schwächen bei Prozessoren?

Beitrag von Rebell » 30.10.2003 17:37:38

Hallo Leute,

hab mich vor ein paar Tagen mit jemandem unterhalten der zwar von Linux keine Ahnung hat, aber auf Arbeit mit Solaris zu tun hat. Er findet Unix besser als Linux, da er mal den Intel Xeon 64 Bit Prozessor auf Solaris am Laufen hatte und sich über die Performance freute. Sein Argument gegen Linux sei, dass es die Prozessorarchitektur nicht zu nutzen wüsste und nicht die volle Leistung bringe.

Ich hab aber noch nie davon gehört dass Linux Performanceprobleme hätte, höchstens bei 100Mbit Netzwerkkarten auf einem alten Kernel (Bug bereits gefixt).

Also stimmt die Aussage des jemandem und wo kann ich suchen falls ich solche Informationen brauche?
come to daddy, windowlicker!
get m:ke - http://get-mike.de

Benutzeravatar
abi
Beiträge: 2219
Registriert: 20.12.2001 19:42:56
Wohnort: München
Kontaktdaten:

Beitrag von abi » 30.10.2003 17:41:15

jaja, hat man solaris mittlerweile nicht auf slowlaris umbenannt? :lol: :lol:

Benutzeravatar
pdreker
Beiträge: 8298
Registriert: 29.07.2002 21:53:30
Lizenz eigener Beiträge: MIT Lizenz
Wohnort: Nürnberg

Beitrag von pdreker » 30.10.2003 18:03:05

Also die Sache mit dem 100MBit/s Ethernet kann ich nicht bestätigen, wir nutzen seit Ewigkeiten GigE und das war nie problematisch. Es war allerdings auch nicht so schnell, wie es sein könnte (ca. 30-40 Megabyte/s, mit Intel Karten bis zu 60 Megabyte/s). Mittlerweile geht es mit bis zu 80 oder 90 Megabyte/s allerdings nur mit PCI64 (PCI kann eh' nur ein theoretisches Maximumum von 133MB/s...

Was meint Dein Kollege mit 64-Bit Xeon? Xeon sind alle 32 Bit (P3 und P4), die bei uns problemlos laufen. Ich denke 'mal er meinte IA64 (Itanium). Linux läuft auf beiden Itanium (1 und 2) HP liefert sogar Rechner mit genau der CPU/Betriebsystem Kombo aus. Auf AMD64 lief Linux schon lange bevor es die CPU überhaupt gab.... (Auf einem AMD CPU Simulator)...

IMHO ist Dein Kollege einfach nur FUD aufgesessen... Nicht vergessen: eingefleischte Sun Admins sind mindestens so radikal, wie eingefleischte Linux User...

Und: ja, Solaris heisst schon lange Slowlaris...

Patrick
Definitely not a bot...
Jabber: pdreker@debianforum.de

init 0
Beiträge: 673
Registriert: 21.10.2003 19:40:28

Beitrag von init 0 » 30.10.2003 18:15:13

Da kann ich nur lachen und zwar aus mehreren Gründen.
Hat er Linux auf dem gleichen Rechner auch ausprobiert? Kriegt er Treiber für die einzellnen PC Bausteine. Ich rede hier nichtmal von der Soundkarte oder Grafik. Nur z.B. vom USB HUBoder AGP. Kann er sein Solariskernel auf einen Prozessor zuschneiden (AMD,Intel,PPC...). Nein aber auf Linux geht das. Mal davon abgesehen dass ich Trotz eines Sun Gold Vertrages vor mehr als 3 Monaten einen Call aufmachen musste wegen:
http://www.heise.de/newsticker/data/dab-30.10.03-001/. Die haben sehr lange gebraucht bis sie einen Patch raushatten und wir hatten das Problem nicht als erste. Die kannten das schon. Vergleiche mal die Hardwarepreise. Ja die Hardware die die Jungs liefern ist 1A aber zu welchem Preis. Er mag Recht haben mit seiner Behauptung aber nur solange er Solaris/SPARC meint. Kein Wunder da Betriebssystemhersteller und Chiphersteller der Selbe ist. In dem Momment wo sie sich in den PC Haifischbecken reinwagen haben sie Probleme auch für ihren Solaris/Intel. Den Leuten laufen die Kunden weg und das Merken sie auch. Ich sage nur CATIA V5. Da können sie mit einer Intel Maschine nicht mithalten. Ich rede hier von Rechenleistung und noch nicht vom Preis. Schade dass die Software auf Linux nicht verfügbar ist. IBM/Dassault schlafen wohl auf dem Ohr. Lass ihn reden.

Benutzeravatar
Rebell
Beiträge: 997
Registriert: 14.01.2003 20:36:53
Wohnort: Dresden

Beitrag von Rebell » 30.10.2003 18:17:37

Kann sein dass es der Itanium war, kenn mich da überhaupt nicht aus - leider. Also gibts Xeon nur als 32Bit Variante?

Zu Slowlaris:
Ich meinte eigentlich, dass Linux Probleme hat das Maximum aus den Itanium/Xeon Prozessoren herrauszuholen (Behauptung des Bekannten).

Anderes Thema:
Er meinte auch, dass MS ein dynamisches Dateisystem in Arbeit hat, mit dem es keine festen Clustergrößen mehr geben wird und dass Speicherplatz sozusagen nicht mehr verschlissen wird.

Und mich stört daran, dass ich trotzdem regelmäßiger Besuche auf heise.de und pro-linux.de nichts davon gehört hab. Das ist ja ein interessantes Thema das Dateisystem und ich komm mir wie ein Computer-Laie vor wenn ich noch nichteinmal was davon gehört habe. Leider konnten mir diese 2 Experten, die das erzählt haben keine Quellen nennen... Weder Zeitschrift noch Internet Seite. Sie meinten sie hätten das irgendwo mal gehört.
come to daddy, windowlicker!
get m:ke - http://get-mike.de

Indy500
Beiträge: 380
Registriert: 18.04.2003 05:03:40

Beitrag von Indy500 » 30.10.2003 19:18:38

Er meint wohl WinFS, kommt mit Longhorn. Das kannst du aber fast überall nachlesen. Vielleicht solltest du mal gründlicher Lesen statt zu überfliegen. :wink:

Benutzeravatar
abi
Beiträge: 2219
Registriert: 20.12.2001 19:42:56
Wohnort: München
Kontaktdaten:

Beitrag von abi » 30.10.2003 23:15:56

Indy500 hat geschrieben:Er meint wohl WinFS, kommt mit Longhorn. Das kannst du aber fast überall nachlesen. Vielleicht solltest du mal gründlicher Lesen statt zu überfliegen. :wink:
hängt da dann nicht eine MSSQL Datenbank im Hintergrund? :lol: :lol: :lol: :lol: :lol:

Benutzeravatar
Rebell
Beiträge: 997
Registriert: 14.01.2003 20:36:53
Wohnort: Dresden

Beitrag von Rebell » 31.10.2003 01:22:44

Ja, hab mal danach gegoogelt. Aber das ganze klingt nicht so interessant wie es sich anhört. Da werden Daten im XML an einen Server geschickt der es dann an das NTFS-Dateisystem weiterleitet. Aber dass Neuerungen an NTFS geplant sind konnte ich nicht nachvollziehen. Wobei das tatsächliche physische Dateisystem für solche Sachen wie dynamische Clustergröße relevant wäre.

Gut klingt aber das Schlagwort XML, was in meinem Ohr einen Hauch von Platfformunabhängigkeit erhoffen lässt.
come to daddy, windowlicker!
get m:ke - http://get-mike.de

Benutzeravatar
pdreker
Beiträge: 8298
Registriert: 29.07.2002 21:53:30
Lizenz eigener Beiträge: MIT Lizenz
Wohnort: Nürnberg

Beitrag von pdreker » 31.10.2003 20:44:48

Gut klingt aber das Schlagwort XML, was in meinem Ohr einen Hauch von Platfformunabhängigkeit erhoffen lässt.
Nur 'mal so am Rande: Die neueren MS Office Pakete speichern Ihren Kram auch als XML... Von Plattformunabhängigkeit ist da aber nicht viel zu sehen... Warum? Ganz einfach: XML File ohne frei zugängliches Stylesheet oder Schema = nutzlose Textdatei... Genauso wird's bei WinFS sein...

Patrick
Definitely not a bot...
Jabber: pdreker@debianforum.de

DavidJ
Beiträge: 767
Registriert: 31.05.2003 12:23:58

Beitrag von DavidJ » 04.11.2003 19:40:16

>Er meinte auch, dass MS ein dynamisches Dateisystem in Arbeit hat, mit dem es keine festen Clustergrößen mehr geben wird und dass Speicherplatz sozusagen nicht mehr verschlissen wird.

ReiserFS hat bspw. dynamische Verwaltung der Inodes, keine Ahnung ob NTFS sowas nicht auch schon hat.


http://www.namesys.com/v4/v4.html
Reiser4 is in final testing, and will ship soon!
Geil! Ich kann mir zwar nicht vorstellen dass es wirklich so stabil sein wird wie ext3 und ReiserFS 3 zur Zeit sind aber das sind richtig gute Neuigkeiten.

Und zum Thema Speicherplatz sparen:
Sharing Blocks Saves Space

If nodes are of equal size, how do we store large objects? We chop them into pieces. We call these pieces items. Items are sized to fit within a single node.

Conventional filesystems store files in whole blocks. Roughly speaking, this means that on average half a block of space is wasted per file because not all of the last block of the file is used. If a file is much smaller than a block, then the space wasted is much larger than the file. It is not effective to store such typical database objects as addresses and phone numbers in separately named files in a conventional filesystem because it will waste more than 90% of the space in the blocks it stores them in. By putting multiple items within a single node in Reiser4, we are able to pack multiple small pieces of files into one block. Our space efficiency is roughly 94% for small files. This does not count per item formatting overhead, whose percentage of total space consumed depends on average item size, and for that reason is hard to quantify.

Aligning files to 4k boundaries does have advantages for large files though. When a program wants to operate directly on file data without going through system calls to do it, it can use mmap() to make the file data part of the process's directly accessible address space. Due to some implementation details mmap() needs file data to be 4k aligned, and if the data is already 4k aligned, it makes mmap() much more efficient. In Reiser4 the current default is that files that are larger than 16k are 4k aligned. We don't yet have enough empirical data and experience to know whether 16k is the precise optimal default value for this cutoff point, but so far it seems to at least be a decent choice.

MFG, David

Benutzeravatar
Rebell
Beiträge: 997
Registriert: 14.01.2003 20:36:53
Wohnort: Dresden

Beitrag von Rebell » 04.11.2003 20:00:26

Gut, ich hatte schon Angst, die Linux Gemeinde hängt Microsoft hinterher.
come to daddy, windowlicker!
get m:ke - http://get-mike.de

kosta
Beiträge: 20
Registriert: 22.10.2003 16:59:02

Beitrag von kosta » 15.11.2003 13:46:04

Falls ich mich nicht irre, geht es bei dem neuen M$-Filesystem darum, dass bei den kommenden Generationen von Festplatten, im ein- und zweistelligen TB Bereich, ein Suchvorgang nach einer Datei ein paar Stunden dauern könnte. Deshalb wird eine versteckte Datenbank aufgebaut, die wie eine Suchmaschine, google, schnell Suchergebnisse liefert. Das ganze hat also keinen direkten Bezug zum Filesystem, und könnte auch auf anderen Filesystems benutzt werden.

Zu der Prozessor-Unterstützung: Ich glaube nicht dass Intel oder sonst ein Porzessor Hersteller nicht dafür sorgt dass seine Prozessoren Linux unterstützen! Die ganzen arschteueren und hochleistungsfähigen Prozessoren gehen für Superserver und Supercomputer weg wie warme Semeln. Und welcher Chiphersteller will sich da das Geschäft versauen?

Die Hardwareprobleme von Linux sind auf den Desktop beschränkt, nicht auf den Servern.

Antworten