Собсна, вот. Давненько хотелось помучить несколькопортовые сетевухи, но ценники в отечественных лабазах вызывали из потаённых глубин подсознания хтоническое животное-жабу, которая сразу начинала душить. А тут углядел на Али вот прям чисто китайское народное творчество под названием Winyao E575T2 Dual-port PCI-E X1 Gigabit Ethernet Network Card. Т.е. это не китайская подделка какой-нибудь Intel® PRO/1000, а какбэ китайская разработка на интеловском чипсете. И совсем занедорого. Вобчем, взял одну на попробовать. Через две недели пришло вот такое:
В магазине про сетевуху написано, что она умеет
Link Aggregation and Load Balancing
Но при этом не пишут про поддержку 802.3ad. Хотя, на том же чипсете есть более другая модель с явным указанием на поддержку всяких плюшек в виде 802.3ad, GEC/FEC и др. Но и стоит она слегка подороже. В прочем, 802.3ad мне пока не нужно.
На обратной стороне платы имеется наклейка с каким-то кодом. Как оказалось, этот код можно вбить на офсайте Winyao и проверить подлинность изделия. Моя сетевуха оказалось настоящей.
Воткнул девайс в мамку, включил. Седьмая копейкоось выдала следующее:
# lspci | grep Eth
01:00.0 Ethernet controller: Intel Corporation 82575EB Gigabit Network Connection (rev 02)
01:00.1 Ethernet controller: Intel Corporation 82575EB Gigabit Network Connection (rev 02)
04:00.0 Ethernet controller: Realtek Semiconductor Co., Ltd. RTL8111/8168/8411 PCI Express Gigabit Ethernet Controller (rev 11)
(На Realtek внимания не обращаем, эта фигня уже была на борту)
Стало быть, вроде как работает и вроде как даже Intel внутрях.
А дальше делаем bridge из двух портов, втыкаем в каждый порт по компу и начинаем гонять iperf во всех направлениях.
Если долбиться с одного клиента на сервер, то как бы ничего интересного:
iperf -c 192.168.200.1 -t 10 -i 2
------------------------------------------------------------
Client connecting to 192.168.200.1, TCP port 5001
TCP window size: 85.0 KByte (default)
------------------------------------------------------------
[ 3] local 192.168.200.11 port 54320 connected with 192.168.200.1 port 5001
[ ID] Interval Transfer Bandwidth
[ 3] 0.0- 2.0 sec 226 MBytes 950 Mbits/sec
[ 3] 2.0- 4.0 sec 222 MBytes 930 Mbits/sec
[ 3] 4.0- 6.0 sec 224 MBytes 938 Mbits/sec
[ 3] 6.0- 8.0 sec 223 MBytes 935 Mbits/sec
[ 3] 8.0-10.0 sec 222 MBytes 932 Mbits/sec
[ 3] 0.0-10.0 sec 1.09 GBytes 937 Mbits/sec
Во всех направления одно и то же — 930-950 Mbits/sec
Попробуем сразу с двух клиентов:
Отчёт сервера:
[root@pdp-11 rtks15]# iperf -s
------------------------------------------------------------
Server listening on TCP port 5001
TCP window size: 85.3 KByte (default)
------------------------------------------------------------
[ 4] local 192.168.200.1 port 5001 connected with 192.168.200.11 port 54380
[ 5] local 192.168.200.1 port 5001 connected with 192.168.200.10 port 49377
[ ID] Interval Transfer Bandwidth
[ 4] 0.0-20.0 sec 1.63 GBytes 698 Mbits/sec
[ 5] 0.0-20.0 sec 1.63 GBytes 699 Mbits/sec
Клиент 1:
d:\iperf>iperf -c 192.168.200.1 -t 20 -i 1
------------------------------------------------------------
Client connecting to 192.168.200.1, TCP port 5001
TCP window size: 208 KByte (default)
------------------------------------------------------------
[ 3] local 192.168.200.10 port 49377 connected with 192.168.200.1 port 5001
[ ID] Interval Transfer Bandwidth
[ 3] 0.0- 1.0 sec 81.4 MBytes 683 Mbits/sec
[ 3] 1.0- 2.0 sec 81.1 MBytes 681 Mbits/sec
[ 3] 2.0- 3.0 sec 81.2 MBytes 682 Mbits/sec
[ 3] 3.0- 4.0 sec 81.4 MBytes 683 Mbits/sec
[ 3] 4.0- 5.0 sec 81.4 MBytes 683 Mbits/sec
[ 3] 5.0- 6.0 sec 81.0 MBytes 679 Mbits/sec
[ 3] 6.0- 7.0 sec 80.5 MBytes 675 Mbits/sec
[ 3] 7.0- 8.0 sec 81.0 MBytes 679 Mbits/sec
[ 3] 8.0- 9.0 sec 81.0 MBytes 679 Mbits/sec
[ 3] 9.0-10.0 sec 80.6 MBytes 676 Mbits/sec
[ 3] 10.0-11.0 sec 81.0 MBytes 679 Mbits/sec
[ 3] 11.0-12.0 sec 80.8 MBytes 677 Mbits/sec
[ 3] 12.0-13.0 sec 80.9 MBytes 678 Mbits/sec
[ 3] 13.0-14.0 sec 81.0 MBytes 679 Mbits/sec
[ 3] 14.0-15.0 sec 81.0 MBytes 679 Mbits/sec
[ 3] 15.0-16.0 sec 80.4 MBytes 674 Mbits/sec
[ 3] 16.0-17.0 sec 81.0 MBytes 679 Mbits/sec
[ 3] 17.0-18.0 sec 80.9 MBytes 678 Mbits/sec
[ 3] 18.0-19.0 sec 97.4 MBytes 817 Mbits/sec
[ 3] 19.0-20.0 sec 113 MBytes 945 Mbits/sec
[ 3] 0.0-20.0 sec 1.63 GBytes 699 Mbits/sec
Клиент 2:
rtks15-02@pdp-11-02:~$ iperf -c 192.168.200.1 -t 20 -i 1
------------------------------------------------------------
Client connecting to 192.168.200.1, TCP port 5001
TCP window size: 85.0 KByte (default)
------------------------------------------------------------
[ 3] local 192.168.200.11 port 54344 connected with 192.168.200.1 port 5001
[ ID] Interval Transfer Bandwidth
[ 3] 0.0- 1.0 sec 83.9 MBytes 704 Mbits/sec
[ 3] 1.0- 2.0 sec 81.4 MBytes 683 Mbits/sec
[ 3] 2.0- 3.0 sec 80.0 MBytes 671 Mbits/sec
[ 3] 3.0- 4.0 sec 82.4 MBytes 691 Mbits/sec
[ 3] 4.0- 5.0 sec 81.0 MBytes 679 Mbits/sec
[ 3] 5.0- 6.0 sec 80.8 MBytes 677 Mbits/sec
[ 3] 6.0- 7.0 sec 80.9 MBytes 678 Mbits/sec
[ 3] 7.0- 8.0 sec 80.5 MBytes 675 Mbits/sec
[ 3] 8.0- 9.0 sec 81.5 MBytes 684 Mbits/sec
[ 3] 9.0-10.0 sec 80.8 MBytes 677 Mbits/sec
[ 3] 10.0-11.0 sec 81.2 MBytes 682 Mbits/sec
[ 3] 11.0-12.0 sec 80.4 MBytes 674 Mbits/sec
[ 3] 12.0-13.0 sec 81.8 MBytes 686 Mbits/sec
[ 3] 13.0-14.0 sec 80.4 MBytes 674 Mbits/sec
[ 3] 14.0-15.0 sec 81.4 MBytes 683 Mbits/sec
[ 3] 15.0-16.0 sec 81.1 MBytes 681 Mbits/sec
[ 3] 16.0-17.0 sec 81.1 MBytes 681 Mbits/sec
[ 3] 17.0-18.0 sec 83.6 MBytes 701 Mbits/sec
[ 3] 18.0-19.0 sec 112 MBytes 935 Mbits/sec
[ 3] 19.0-20.0 sec 112 MBytes 935 Mbits/sec
[ 3] 0.0-20.0 sec 1.65 GBytes 708 Mbits/sec
Ну и наконец проверим связь между клиентами:
rtks15-02@pdp-11-02:~$ iperf -c 192.168.200.10 -t 20 -i 1
------------------------------------------------------------
Client connecting to 192.168.200.10, TCP port 5001
TCP window size: 85.0 KByte (default)
------------------------------------------------------------
[ 3] local 192.168.200.11 port 34756 connected with 192.168.200.10 port 5001
[ ID] Interval Transfer Bandwidth
[ 3] 0.0- 1.0 sec 111 MBytes 934 Mbits/sec
[ 3] 1.0- 2.0 sec 112 MBytes 935 Mbits/sec
[ 3] 2.0- 3.0 sec 111 MBytes 934 Mbits/sec
[ 3] 3.0- 4.0 sec 111 MBytes 931 Mbits/sec
[ 3] 4.0- 5.0 sec 111 MBytes 932 Mbits/sec
[ 3] 5.0- 6.0 sec 111 MBytes 930 Mbits/sec
[ 3] 6.0- 7.0 sec 111 MBytes 932 Mbits/sec
[ 3] 7.0- 8.0 sec 111 MBytes 933 Mbits/sec
[ 3] 8.0- 9.0 sec 110 MBytes 925 Mbits/sec
[ 3] 9.0-10.0 sec 111 MBytes 933 Mbits/sec
[ 3] 10.0-11.0 sec 111 MBytes 930 Mbits/sec
[ 3] 11.0-12.0 sec 111 MBytes 934 Mbits/sec
[ 3] 12.0-13.0 sec 112 MBytes 935 Mbits/sec
[ 3] 13.0-14.0 sec 111 MBytes 931 Mbits/sec
[ 3] 14.0-15.0 sec 112 MBytes 936 Mbits/sec
[ 3] 15.0-16.0 sec 111 MBytes 932 Mbits/sec
[ 3] 16.0-17.0 sec 111 MBytes 934 Mbits/sec
[ 3] 17.0-18.0 sec 111 MBytes 934 Mbits/sec
[ 3] 18.0-19.0 sec 111 MBytes 929 Mbits/sec
[ 3] 19.0-20.0 sec 111 MBytes 933 Mbits/sec
[ 3] 0.0-20.0 sec 2.17 GBytes 933 Mbits/sec
Выводы.
Железяка вроде как рабочая. За такую цену надо брать ещё.
З.Ы. Кот фотографироваться отказался.
UPD 1 Кратенько.
Два процесса iperf на разных портах прироста скорости не дали. При одновременном подключении двух клиентов наблюдаем то же падение скорости до 680-690 Mbits/sec. Видимо, имеет место упирание в потолок пропускной способности самой сетевухи в 2,5 GTs (про 5 GTs китайцы
нагло сбрехнули слегка приукрасили). В прочем, оно и так хорошо получается.
Что касается нагрузки на проц. top сообщает, что два процесса iperf нагружают нещастный Целерон J1800 на 21% (один процесс с двумя клиентами так же). Как-нибудь попозжа проверю на реальной нагрузке в виде скачивания по SMB и NFS.
UPD 2 PXE и все-все-все.
Если включить на мамке PXE Boot в режиме UEFI only, в загрузке появляются два адаптера. При выборе какого-либо из них, происходит попытка загрузки по сети с фейлом в конце, т.к. загружаться-то и неоткуда. Если мне будет не сильно лень, к концу недели подниму чего-нибудь загрузочного на сервере. Входа в BIOS самой сетевухи не обнаружил. После старта матери на экране на секунду появляется сообщение о проверке соединения и потом ребут. Ну, а что вы хотели от сетевой карты за двадцать условных единиц?
Тепрь про прерывания драйвера и др.
# ethtool enp1s0f1
Settings for enp1s0f1:
Supported ports: [ TP ]
Supported link modes: 10baseT/Half 10baseT/Full
100baseT/Half 100baseT/Full
1000baseT/Full
Supported pause frame use: Symmetric
Supports auto-negotiation: Yes
Advertised link modes: 10baseT/Half 10baseT/Full
100baseT/Half 100baseT/Full
1000baseT/Full
Advertised pause frame use: Symmetric
Advertised auto-negotiation: Yes
Speed: Unknown!
Duplex: Unknown! (255)
Port: Twisted Pair
PHYAD: 1
Transceiver: internal
Auto-negotiation: on
MDI-X: off (auto)
Supports Wake-on: pumbg
Wake-on: g
Current message level: 0x00000007 (7)
drv probe link
Link detected: no
# ethtool -i enp1s0f0
driver: igb
version: 5.3.0-k
firmware-version: 1.77, 0x880e0000
expansion-rom-version:
bus-info: 0000:01:00.0
supports-statistics: yes
supports-test: yes
supports-eeprom-access: yes
supports-register-dump: yes
supports-priv-flags: no
# grep enp1 /proc/interrupts
88: 0 0 PCI-MSI-edge enp1s0f0
89: 5 219 PCI-MSI-edge enp1s0f0-rx-0
90: 140 84 PCI-MSI-edge enp1s0f0-rx-1
91: 5 219 PCI-MSI-edge enp1s0f0-tx-0
92: 140 84 PCI-MSI-edge enp1s0f0-tx-1
96: 0 0 PCI-MSI-edge enp1s0f1
97: 140 84 PCI-MSI-edge enp1s0f1-rx-0
98: 5 219 PCI-MSI-edge enp1s0f1-rx-1
99: 140 84 PCI-MSI-edge enp1s0f1-tx-0
100: 5 219 PCI-MSI-edge enp1s0f1-tx-1
В статистике, опосля всех манипуляций с бриджами и прочим, пусто и нули, потому вывод показывать не стал.
В каментах в самом магазине товарищ отписался о том, что карта работает в VMware последних версий. Вот только не уточнил, речь про Workstation или ESXi.
а если уже заговорили об mini-itx, есть у кого опыт использования разделителя PCIe-X16 в например 2 X1 и т.д.
на счет разделителя — думаю заработает, т.к. на этой карте вроде как тоже стоит pci-e разветвитель.
ДОМА.
ps. например бэкап, ежедневный=)
А вообще, учитывая как вы тестировали адаптер, мне кажется, вам он не нужен. Могли бы и реалтек встроенный использовать.
Есть варианты добиться увеличения скорости в режиме хост-хост, но все они достаточно геморройные, проще на 10G с DAC кабелем перейти. Тем более что для агрегации ещё и свич с поддержкой последней должен быть.
А LACP проще оставить для того, для чего его и разрабатывали — линки между свичами и свичами и серваком, к которому ломится куча клиентов.
Несколько соединений FTP + балансировка по L4 = profit
объединял 2 компа c drbd напрямую через 3 линка ~ 280 мбайт/с только в путь.
транки это не только lacp
Он как сетевая хранилка всего попало
Вообще 2 порта нужны для разных целей. Что сразу пришло в голову, это сервер. Потом — заточенный под конкретные нужды файрволл, и т.д., и т.п.
Да ещё за 22 доллара!
Берётся на работе ДАРОМ 2-3 гигабитные старые севухи и втыкаются в НАСТОЯЩУЮ материнку.Покупается за 5 долларов 4х портовый хаб и усё.
Ах да, если у вас не материнка а кастрат-обрезок… то вы сами себе злой Буратино.
теперь возьмите свои старые сетевухи, которые покупались по принципу дешевле-лучше воткните в полноразмерую атх плату штук 5 и положите проц в кому при загрузке сетевух трафиком.
Ну-да -ну да.Сначала экономим на плате и месте, потом извращаемся.
Это для дома то: микро атх увеличит этот показатель до 13-14 портов, а на полноформатной матери не проблема запилить 25-26 портов??? Гы-гы…
НАХРЕНА? Киску купите.
Тут разговор о 2х+1 порта.Спокойно обхожусь встроенной гигабитной сетевухой +1 на каждом из 4х своих ПК и гоняю файлы куда угодно.ЗАДАРОМ.
Зачем дома 10-20-30 портов внятно ответить сможете?
Да ещё по цене ПК+7х22$ или ПК+13х22$?
но есть странные = покупают самолет, вертолет, яхту — вот дураки, зачем, не делайте так!
я говорю есть возможность сделать так на любой мамке, хоть mini-itx. Кто хочет делает, кто не хочет делает по-другому. Есть такая возможность, без многопортовых сетевух — её бы не было.
что не понятно?
Есть слово возможность и есть слово необходимость, разницу объяснять не надо? Или вот есть очень точное определение для этого случая в английском языке: кейс.
«Ах да, если у вас не материнка а кастрат-обрезок…» — я вам нормально объяснил, что такие материнки лишь в вашем воображении. На ЛЮБОЙ можно сделать роутер, если не делать, так как хотели вы, старыми сетевухами по 5 баксов.
Тут есть несколько моментов:
1. Не все воруют на работе, в отличии от вас.
2. Не все работают в офисе и соответственно не все просто физически могут украсть.
3. Есть страны в которых воровство не считается нормальным и в которых за него сажают.
Это хлам отработавший все сроки и списанный.
Давно уже стоят маршрутизаторы, вайфай точки итд.
Самое смешное ни ОДИН СПИСИЛИСТ не ответил зачем ДОМА 30 или 14 портов как в ОФИСЕ.
Я вам отвечу зачем.КАК РАЗ ВОРОВАТЬ трафик и раздавать соседям за деньги или в офис на фирмочку.
Раньше я сталкивался с таким подходом -воровали вечерние телефонные линии для офисов.Теперь воруют трафик у провайдера.
Быдлота обычно берёт вайфай роутер и раздаёт соседям свой канал за деньги.Практически в каждом доме можно обнаружить.
Никакому домашнему насу 14 портов НЕ НУЖНЫ для семьи.Ну разве что у вас цыганская семья из 30 человек.
И на один из двух роутеров, в который приходит два аплинка от разных провайдеров. И на отдельный линк с LTE модемом, который выступает третьим резервным провайдером.
Никому ничего не раздаю ни за деньги ни бесплатно.
Зачем мне всё это? Хочу, могу, интересно. Кто-то развлекается бутылочкой виски с сигаретой, кто-то с удовольствием возится с сетевыми железками.
iperf на Realtek
Загрузку проца, опять же, потом померю.
ebay.com/itm/132109584737
ebay.com/itm/252658658085
Цены не настолько уж и выше, а Броадком даже дешевле, и при этом он внезапно круче обозреваемого старого интела (поддерживает раздельные очереди прерываний и их раскидывание по ядрам CPU).
Но это только под линукс и подобные ОС, сомневаюсь что на неё найдутся виндовые драйвера.
Дык, вроде как пропускной способности шины должно с запасом хватать на два гигабитных порта.
А 4х у меня на мамке и нету, только три штуки 1х.
250 Мбайт/c для 1.0 и 800 для 3.0 хватит.
правда с оговорками для 1.0
В спеках у него указано: «PCIe v2.0 (2.5GT/s)»
ark.intel.com/products/50281/Intel-82575EB-Gigabit-Ethernet-Controller
Согласно en.wikipedia.org/wiki/PCI_Express, 2.5 GT/s это и есть 250 МБ/сек.
Похоже что хоть он и совместим с 2.0 стандартом, скорость работы по факту используется прежняя.
Кстати, как более дешевая альтернатива I350 — Broadcom 5720 можно посмотреть.
гигабит явно мало ~100 мбайт\сек для SSD дисков издевательски медленно
auto bond0
iface bond0 inet manual
slaves eth0 eth1
bond_miimon 100
bond_mode balance-rr
bond_xmit_hash_policy 0
auto bond1
iface bond1 inet static
slaves eth2 eth3
bond_miimon 100
bond_mode balance-rr
address 10.0.0.12
netmask 255.255.255.0
mtu 9000
А через большинство коммутаторов получится только «bond_mode 802.3ad», Cisco вот не хочет уметь round robin
А в такой конфигурации легко имеем 2Gbps на каждую пару портов (в примере выше).
— ну правда и ликбез нужен кажется баальшой)
И — соглашусь, на 1х-шине путёво только aggregation
PS обновил, прочитал дописанное; следует читать «ликбез ему», я хотел было взятбся…
Жаль, понимания кажется не возникает, bye.
Сетевуха не может не поддерживать вланы. Заголовок 802.3q специально проектировался так, чтобы устройства не знающие о его существовании тоже могли работать. Поэтому использовать или не использовать вланы — это уровень и прерогатива ОС.
В применении к Windows, вопрос должен был звучать так: «Разрешил ли господин использовать вланы на этой сетевухе?»
хотя зачем — не знаю, чего стоит байтик к пакету прилепить для современного компьютера)
Но вопрос «Разрешил ли господин использовать вланы на этой сетевухе?» для ОС Microsoft Windows ©™, вполне разумен и имеет место быть. Потому что там это делается через какие-то волшебные «драйвера».
.
А в Linux:
# vconfig add eth0 333
# ifconfig eth0.333 up
# vconfig add eth0.333 444
# ifconfig eth0.333.444 10.1.2.3/24 up
Вот вам QinQinQ…
выключить в винде на этом адаптере все протоколы, кроме «virtualbox ndis6 bridged networking driver»,
а в виртуалке запустить линукс/бсдю и в винду завести траффик уже по хост-онли сетям virtualbox'а :)
у меня подобным образом бекап маршрутизатора работает в виртуалке, из влана с провайдерской сетью раздаёт в вланы-локалки
Лет 10-12 назад в сорцах текущей на тот момент фряхи видел комментарий, что-то вроде: «Это худший чип за всю историю сетевых карт. У него есть DMA, но сделан он через жопу».
Впрочем это не противоречит утверждению: любая (подразумевается по умолчанию: работоспособная) карта поддерживает вланы. В отношении 8139 в определенные моменты времени это утверждение не противоречило, а просто не выполнялось, ввиду её карты не полной работоспособности.
В итоге все получилось просто. Сервером выступает пк, который дружит с роутером через кабель. Доступ с телефона, планшета, проектора по вайфай стабильный.
eth2 — заменить на нужный интерфейс.
и что с прерываниями?
Да, еще. Не затронута тема с поддержкой гипервизоров. (ESXi, etc..)
интересен именно этот экземпляр. китайцы что угодно напишут, лижбы продать.
Проблема же в том, что ядро это по мере развития их гипервизора, всё меньше страновится совместимо со стоковым ядром, особенно в сетевой части, где всё было перепахано для поддержки разграничения сетевых ресурсов ещё до появления штатных решений, на базе которых строился тот же KVM
нужно для того чтобы исключить один роутер
местный провайдер блокирует ростелеком
что-бы была возможность завести в комп 2 кабеля от разных провайдеров
82546 Chip PCI Dual Port RJ45 Ethernet PCI Desktop Adapter Card — FERN 233504301
Dispatch: Ships on Feb 3 Discount: 18% OFF $14.99
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии.