Так сложилось что наш каталист выполняет функции и граничника и ядра локальной сети. Эти функции были разнесены в разные vrf. В глобал не было ничего.
Какое-то время все нормально работало, но настала необходимость принять full-view от аплинка и вылезли очень интересные грабли - коммутатор начинал дропать трафик, отваливалось управление, в консоли все жестко тупило.
Wardenclyffe#sh mls cef maximum-routes
FIB TCAM maximum routes :
=======================
Current :-
-------
IPv4 + MPLS - 512k (default)
IPv6 + IP Multicast - 256k (default)
как бы все нормально - ~350k full-view и до 20k остальных маршрутов - все должно влезать.
Но, как оказалось маршруты в vrf занимают сразу несколько ячеек ткам:
Wardenclyffe#show platform hardware capacity | begin L3 Forwarding Resources
L3 Forwarding Resources
FIB TCAM usage: Total Used %Used
72 bits (IPv4, MPLS, EoM) 524288 14547 3%
144 bits (IP mcast, IPv6) 262144 8 1%
detail: Protocol Used %Used
IPv4 9275 2%
MPLS 5271 1%
EoM 1 1%
т.е. при приеме фулл-вью получаем переполнение ткам.
Решается просто - вынес из vrf в глобал все что относится к граничнику и проблема ушла.
Подписаться на:
Комментарии к сообщению (Atom)
1 комментарий:
Вводится скрытая команда "mpls label mode all-vrfs protocol bgp-vpnv4 per-vrf" и после этого проверяем "show ip vrf detail" на предмет label mode per-vrf, вместо per-prefix по умолчанию.
Отправить комментарий