Linus Nordberg linus@nordberg.se writes:
Bägge korten (med två portar var) identifieras som "Intel(R) PRO/1000 Legacy Network Connection 1.0.3". Enligt pciconf så är de två "on board" av typen 82541EI och instickskortet 82546EB.
Jag tror 82541EI är bra. (Därmed inte sagt att 82546EB är dålig eller sämre, jag har inte bra koll på alla varianter.)
Några som har utrett detta är bifrostfolket, t ex Olof Hagsand.
Den övervägande största mängden trafik tar vi in och ut på samma kort, olika VLAN. Jag undrar om det är icke-optimalt. Vi har en ledig port på instickskortet som man skulle kunna flytta vårt eget nät till. Det kostar dock en port i switchen, vilket är en bristvara f.n.
Vet inte om VLAN kostar.
Eget interface för skötsel anske är en poäng just för att alltid komma in, även vid extrem last?
Men är problem vid 100 kilopaket/s konstigt? Hur stora är paketen? Jag antar att en stor andel är contents, och därför nära MTU. Antar man att alla är MTU-stora och MTU=1500 så blir det 1.2 Gb/s som är ganska mycket på ett Gb-snöre... Är det inte contents som dominerar kanske CPUerna är lastade av RSA-räkningar och därför obenägna att hämta paket från nätverkskortet?
En annan sak: jag tror Intelkorten vill ha custom-kernel för polling. Man kan också vilja sätta HZ=1000 även med storbuffriga nätverkskort. (Detta kan ha blivit inaktuellt med senare FreeBSD-kernel.)
options DEVICE_POLLING options HZ=1000