csv file spltten

Warum Debian und/oder eine seiner Spielarten? Was muss ich vorher wissen? Wo geht es nach der Installation weiter?
Antworten
BrianFFM
Beiträge: 222
Registriert: 21.04.2004 11:54:33
Wohnort: L.A. in Hessen

csv file spltten

Beitrag von BrianFFM » 04.12.2009 00:11:56

ich habe einen csv file der viel zu groß ist. da gibt es doch sicher eine möglichkeit aus einem uB 10 zu machen oder ??

liebe Grüße, Brian
Debian GNU Linux testing
Toffifee Sattelite 5200/902

Hast du keine Probleme?
Dann kauf dir einen Computer !

.

Benutzeravatar
hikaru
Moderator
Beiträge: 13983
Registriert: 09.04.2008 12:48:59

Re: csv file spltten

Beitrag von hikaru » 04.12.2009 00:19:49

Schau dir mal die Manpage zu split an!

severin
Beiträge: 481
Registriert: 26.04.2005 13:30:43

Re: csv file spltten

Beitrag von severin » 04.12.2009 09:31:47

viel zu groß für was? Wenn Du das Ding nicht auf bestimmte Datenträger kriegst, würde ich es einfach zippen. csv ist ascii, da müsste ein Faktor 10 locker drin sein

Benutzeravatar
trompetenkaefer
Beiträge: 1767
Registriert: 24.09.2007 09:40:16
Kontaktdaten:

Re: csv file spltten

Beitrag von trompetenkaefer » 04.12.2009 09:45:24

Den Einsatz von split und das anschließende zusammenfügen der Dateien auf dem Zielsystem hab ich in meinem Blog schon mal beschrieben:

http://trompetenkaefer.wordpress.com/20 ... aufteilen/
Grüße
trompetenkaefer - Mein Blog http://trompetenkaefer.wordpress.com/

Benutzeravatar
hikaru
Moderator
Beiträge: 13983
Registriert: 09.04.2008 12:48:59

Re: csv file spltten

Beitrag von hikaru » 04.12.2009 10:47:03

severin hat geschrieben:viel zu groß für was? Wenn Du das Ding nicht auf bestimmte Datenträger kriegst, würde ich es einfach zippen. csv ist ascii, da müsste ein Faktor 10 locker drin sein
Ich ging jetzt eher davon aus, dass es Probleme bei der Verarbeitung gibt. Ich erinnere mich an ein Projekt in dem ich CSV-Dumps aus einer DB parsen musste um sie in eine PostgreSQL-DB zu importieren. Wenn die Dumps mehrere GB groß waren, war es performanter die CSV-Datei zu splitten um sie in Einzelteilen durch den Parser zu schicken, da das Ganze auf der DB-Server-Maschine laufen musste und bei zu großen Dateien zu sehr auf die Geschwindigkeit der PostgreSQL-DB drückte.

Antworten