LACP Bonding 2 Server

Einrichten des lokalen Netzes, Verbindung zu anderen Computern und Diensten.
Antworten
murmel23
Beiträge: 10
Registriert: 09.02.2012 08:15:10

LACP Bonding 2 Server

Beitrag von murmel23 » 16.01.2015 10:10:17

Hallo,

ich habe 2 Server mit jeweils eine Quad-Nic Karte: Intel Corporation 82571EB

Ich möchte gerne über diese Nics LACP Bonding betreiben, um hohe Transferdaten zu erreichen.

Konfiguration:

Code: Alles auswählen


iface eth2 inet manual
iface eth4 inet manual
iface eth5 inet manual
iface eth6 inet manual

auto bond0
iface bond0 inet manual
        slaves eth2 eth4 eth5 eth6
        bond_mode 802.3ad
        bond_miimon 100
        bond-xmit-hash-policy layer2+3

auto vmbr1
iface vmbr1 inet static
        address 192.168.6.62
        netmask 255.255.255.0
        bridge_ports bond0
        bridge_stp off
        bridge_fd 0
Auf dem Switch HP-Procurve sind 2 LACP Trunks konfiguriert.

Leider erfolgt der Traffic immer nur über eine NIC, warum?

Danke & Gruß

PatrickOliver
Beiträge: 70
Registriert: 03.04.2014 10:54:32

Re: LACP Bonding 2 Server

Beitrag von PatrickOliver » 16.01.2015 10:25:11

Leider erfolgt der Traffic immer nur über eine NIC, warum?
802.3ad verteilt die Last EINER Anfrage nicht auf alle Nics im Bond.
802.3ad kann die Last UNTERSCHIEDLICHER Anfragen auf alle Nics in einem Bond verteilen (*).
Bei Ausfall einer Nic in einem Bond können andere Nics aus diesem Bond dessen Aufgabe automagisch übernehmen.

Nachtrag:
* Nach meiner Beobachtung wird immer nur eine Nic zwischen zwei Teilnehmern verwendet.
So muss sich ein FTP-Upload und ein gleichzeitiger HTTP-Download von deiner Workstation zu deinem Web-Server eine Nic teilen.
Ein weiterer Besucher wird u.U. mit einer anderen Nic aus dem serverseitigen Bond verbunden, sodass in der Summe eine Vervielfachung der Bandbreite möglich ist.

murmel23
Beiträge: 10
Registriert: 09.02.2012 08:15:10

Re: LACP Bonding 2 Server

Beitrag von murmel23 » 16.01.2015 10:34:04

Vielen Dank! Gibt es eine andere Möglichkeit die NICs so zu nutzen, das der Traffic über alle Interfaces verteilt wird?

PatrickOliver
Beiträge: 70
Registriert: 03.04.2014 10:54:32

Re: LACP Bonding 2 Server

Beitrag von PatrickOliver » 16.01.2015 10:39:13

Round Robin.
Nutzt du zwei Karten im Bond und eine fällt aus, hast du allerdings 50% Datenverlust Paketverluste ;-)

winne
Beiträge: 4
Registriert: 08.02.2015 14:26:17

Re: LACP Bonding 2 Server

Beitrag von winne » 08.02.2015 14:47:13

Hi,

ich setze mich derzeit auch mit Debian und LACP auseinander. Mit einem zweifach Bond komme ich jedoch nie über 1GBit/s - in den verschiedensten Konstellationen.

Folgende Szenarien habe ich getestet:
1. Intel S1200RPL mit aktuellem Debian amd64, Cisco SG300-52
Hier bekomme ich auch mit mehrere Partnern nicht über 1Gbit/s hinaus. Partner waren: Clients mit Intel NIC, Server mit S2600 Board und 4x NIC (ebenfalls per LACP am gleichen Switch, allerdings Windows 2012 R2 - hier funktioniert der Bond!), QNAP NAS.
2. Altes System mit einem Tyan S2925 - hier habe ich es sowohl mit den beiden onboard NICs und auch mit einer dual Intel 82571EB versucht. Netgear GS724Tv3 und ein QNAP TS-653 Pro (ebenfalls per LACP dran).

In letztem Szenario habe ich auch mit iperf getestet - auch hier komme ich nicht über 1GBit/s hinaus. Sei es mit mehreren Clients oder mit mehreren Streams zwischen dem NAS und Debian. ABER: Wenn ich von verschiedenen Clients auf den iperf-Server auf dem NAS teste, komme ich über 1GBit/s hinaus.

Mittlerweile vermute ich hier einen totalen Denkfehler meinerseits oder einen Fehler bei Debian. Ich sehe keine Gemeinsamkeiten zwischen den System, die Hardware ist total unterschiedlich. Beide Systeme wurden jedoch vor einigen Jahren installiert. Das erste System ist kürzlich erst von einem alten Phenom-System zum jetzigen gewechselt.

Ich bin ein wenig verzweifelt :-(

Code: Alles auswählen

$ cat /etc/network/interfaces
# This file describes the network interfaces available on your system
# and how to activate them. For more information, see interfaces(5).
# The loopback network interface
auto lo
iface lo inet loopback

auto bond0
iface bond0 inet static
    address 192.168.0.99
    netmask 255.255.255.0
    gateway 192.168.0.1
    bond_xmit_hash_policy layer2+3
    slaves none
    bond_mode 4
    bond_miimon 100
    bond_downdelay 200
    bond_updelay 200

auto eth2
        iface eth2 inet manual
        bond-master bond0

auto eth3
        iface eth3 inet manual
        bond-master bond0

Code: Alles auswählen

$ cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: IEEE 802.3ad Dynamic link aggregation
Transmit Hash Policy: layer2+3 (2)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 200
Down Delay (ms): 200

802.3ad info
LACP rate: slow
Min links: 0
Aggregator selection policy (ad_select): stable
Active Aggregator Info:
        Aggregator ID: 1
        Number of ports: 2
        Actor Key: 17
        Partner Key: 52
        Partner Mac Address: e0:91:f5:c7:f4:c8

Slave Interface: eth2
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 2
Permanent HW addr: 00:15:17:94:00:24
Aggregator ID: 1
Slave queue ID: 0

Slave Interface: eth3
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 3
Permanent HW addr: 00:15:17:94:00:25
Aggregator ID: 1
Slave queue ID: 0

Code: Alles auswählen

$ lsmod | grep bond
bonding                79169  0

Code: Alles auswählen

Debian 3.2.65-1+deb7u1 x86_64
Paket: ifenslave-2.6
Zustand: Installiert
Automatisch installiert: nein
Version: 1.1.0-20

winne
Beiträge: 4
Registriert: 08.02.2015 14:26:17

Re: LACP Bonding 2 Server

Beitrag von winne » 07.03.2015 15:44:43

*bump*

Die einzige Gemeinsamkeit, die mir einfällt: Die System existieren schon etwas längern und wurden durch versch. Debianversionen geupdatet - ist da evtl. irgendwo irgendwas hängen geblieben o.ä.? :cry:

Colttt
Beiträge: 3012
Registriert: 16.10.2008 23:25:34
Wohnort: Brandenburg
Kontaktdaten:

Re: LACP Bonding 2 Server

Beitrag von Colttt » 08.03.2015 21:47:19

Was ist jetzt genau das Problem?

All die Modi die existieren arbeiten in der Regel pro Verbindung! Das heißt du baust eine Verbindung auf und dabei wird dir eine NIC zu gewiesen.. Dadurch wirst du immer nur 1GB erreichen.. Davon abgesehen wie hast du getestet, hatte dein notebook evtl auch nur eine NIC? Das was du evtl suchst ist das pro Paket die NIC wechselt, was aber IMHO nicht geht da evtl die Daten unterschiedlich schnell ankommen und evtl nicht mehr korrekt zusammengebaut werden können was wieder performance kostet..

Am besten gleich 10GB nehmen..
Debian-Nutzer :D

ZABBIX Certified Specialist

winne
Beiträge: 4
Registriert: 08.02.2015 14:26:17

Re: LACP Bonding 2 Server

Beitrag von winne » 10.03.2015 01:34:33

Mein Problem ist, dass auch in der Summe nicht über 1GBit hinaus komme. Dabei ist es egal, ob ich mit iperf und mehreren Verbindungen zwischen 2 Partnern (jeweils 2x1GBit mit LACP) teste oder mit 2 Clients parallel zum Server.

Ein letztes Szenario, welches ich noch nicht getestet habe, wäre beide Partner direkt - ohne Switch - zu verbinden.

Colttt
Beiträge: 3012
Registriert: 16.10.2008 23:25:34
Wohnort: Brandenburg
Kontaktdaten:

Re: LACP Bonding 2 Server

Beitrag von Colttt » 10.03.2015 08:02:57

wie gesagt du wirst immer nur bei 1GB bleiben! hier nochmal das was ich schon gesagt habe: http://serverfault.com/questions/569060 ... 125#569125 evtl verstehst du es ja dann besser :)

die einzige moeglichkeit wäre noch mode-0 also balance-rr.. wenn es dort beim ersten mal nicht klappt, evtl mal die MTU höher setzen (Bsp 9000)
Debian-Nutzer :D

ZABBIX Certified Specialist

winne
Beiträge: 4
Registriert: 08.02.2015 14:26:17

Re: LACP Bonding 2 Server

Beitrag von winne » 11.03.2015 19:23:44

Eine Verbindung wird nicht über 1GBit kommen - das ist mir bewusst. Ich komme jedoch in Summe (2 Clients greifen gleichzeitig auf den doppelt angebunden Server) nicht über 1GBit hinaus.

(Sorry, wenn ich mich hier bislang unverständlich ausgedrückt habe)

Colttt
Beiträge: 3012
Registriert: 16.10.2008 23:25:34
Wohnort: Brandenburg
Kontaktdaten:

Re: LACP Bonding 2 Server

Beitrag von Colttt » 11.03.2015 19:55:50

Ninja tcpdump anschmeissen und gucken auf welche nic nichts ankommt.. Evtl wird über lacp grade nur eine NIC genutzt..
Debian-Nutzer :D

ZABBIX Certified Specialist

Antworten