9.2-RELEASE FreeBSD 9.2-RELEASE #0 r255898: Thu Sep 26 22:50:31 UTC 2013 root@bake.isc.freebsd.org:/usr/obj/usr/src/sys/GENERIC amd64
сервер с двумя сетевыми интерфейсами
em0: <Intel(R) PRO/1000 Network Connection 7.3.8> port 0x4040-0x405f mem 0xc2400000-0xc241ffff,0xc2470000-0xc2470fff irq 19 at device 25.0 on pci0
em0: Using an MSI interrupt
em1: <Intel(R) PRO/1000 Network Connection 7.3.8> port 0x2000-0x201f mem 0xc2300000-0xc231ffff,0xc2320000-0xc2323fff irq 16 at device 0.0 on pci2
em1: Using MSIX interrupts with 3 vectors
em1 смотрит в мир, 100 MBit full-duplex
em0 смотрит во внутреннюю подсеть, 1000 MBit full-duplex, подключен к SG 300-20 20-Port Gigabit Managed Switch
поднят nfsd, на который через em0 ходят 3 аппликейшн сервера. Нагрузки почти нет (в пике доходит до 10 МБит/сек)
Иногда (был один день, когда это произошло 4 раза, были пару дней, когда это происходило по разу в день) em0 отваливается - с сервера не пингуются внутренние сервера, как и обратно - с внутренних не пингуется этот сервер.
В логах сервера и циски ничего нет. Статус интерфейса в этот момент active. Через минуту-три пинг и связь возвращается.
Из-за того что проблема возникает непредсказуемо, максимум, что смог посмотреть в этот момент, это вывод netstat -m:
Код: Выделить всё
2146/3614/5760 mbufs in use (current/cache/total)
2060/2820/4880/25600 mbuf clusters in use (current/cache/total/max)
2046/1794 mbuf+clusters out of packet secondary zone in use (current/cache)
0/779/779/12800 4k (page size) jumbo clusters in use (current/cache/total/max)
0/0/0/6400 9k jumbo clusters in use (current/cache/total/max)
0/0/0/3200 16k jumbo clusters in use (current/cache/total/max)
4656K/9659K/14316K bytes allocated to network (current/cache/total)
0/0/0 requests for mbufs denied (mbufs/clusters/mbuf+clusters)
0/0/0 requests for mbufs delayed (mbufs/clusters/mbuf+clusters)
0/0/0 requests for jumbo clusters delayed (4k/9k/16k)
0/0/0 requests for jumbo clusters denied (4k/9k/16k)
0/0/0 sfbufs in use (current/peak/max)
0 requests for sfbufs denied
0 requests for sfbufs delayed
0 requests for I/O initiated by sendfile
0 calls to protocol drain routines