Так сложилось что наш каталист выполняет функции и граничника и ядра локальной сети. Эти функции были разнесены в разные vrf. В глобал не было ничего.
Какое-то время все нормально работало, но настала необходимость принять full-view от аплинка и вылезли очень интересные грабли - коммутатор начинал дропать трафик, отваливалось управление, в консоли все жестко тупило.
Wardenclyffe#sh mls cef maximum-routes
FIB TCAM maximum routes :
=======================
Current :-
-------
IPv4 + MPLS - 512k (default)
IPv6 + IP Multicast - 256k (default)
как бы все нормально - ~350k full-view и до 20k остальных маршрутов - все должно влезать.
Но, как оказалось маршруты в vrf занимают сразу несколько ячеек ткам:
Wardenclyffe#show platform hardware capacity | begin L3 Forwarding Resources
L3 Forwarding Resources
FIB TCAM usage: Total Used %Used
72 bits (IPv4, MPLS, EoM) 524288 14547 3%
144 bits (IP mcast, IPv6) 262144 8 1%
detail: Protocol Used %Used
IPv4 9275 2%
MPLS 5271 1%
EoM 1 1%
т.е. при приеме фулл-вью получаем переполнение ткам.
Решается просто - вынес из vrf в глобал все что относится к граничнику и проблема ушла.
суббота, 8 октября 2011 г.
воскресенье, 10 апреля 2011 г.
D-Link DGS-3610-26G Dhcp relay
Для поднятия релея нужно в глобал-кнфиге указать адрес сервера DHCP командой:
где 172.17.192.254 - адрес сервера
Однако этого мало, необходимо включить саму службу DHCP:
ip helper-address 172.17.192.254
где 172.17.192.254 - адрес сервера
Однако этого мало, необходимо включить саму службу DHCP:
service dhcp
вторник, 15 марта 2011 г.
среда, 23 февраля 2011 г.
ESXi изменение размера блока
При установке ESXi и создании хранилища по умолчанию устанавливается размер блока равный 1М, что не позволяет создавать диски более 256 Гигабайт.
После часа гугления и нескольких попыток был найден самый простой способ:
1. Cтавим ESXi
2. Перегружаемся
3. В консоли через fdisk удаляем нужный раздел с файловой системой VMFS, не забываем записать изменения на диск (w)
4. Перегружаемся
5. Подключаемся через vSphere и создаем новый датастор с нужными параметрами.
После часа гугления и нескольких попыток был найден самый простой способ:
1. Cтавим ESXi
2. Перегружаемся
3. В консоли через fdisk удаляем нужный раздел с файловой системой VMFS, не забываем записать изменения на диск (w)
4. Перегружаемся
5. Подключаемся через vSphere и создаем новый датастор с нужными параметрами.
суббота, 12 февраля 2011 г.
Установка ESXi на сервере Intel Xeon
Вчера начал ставить VMWare ESXi на новом сервере - упорно зависало на этапе Initializing scheduler... Перерыл весь БИОС, ничего не помогло. Нашел в гугле трик - если используется USB мышь или клавиатура, то на время загрузки их нужно отключить, а по окончанию подключить назад. Как ни странно помогло. Мда...
пятница, 4 февраля 2011 г.
Cisco Per IP policer
Дано:
В пределах одного VLAN имеем несколько BGP сессий к провайдеру. Нужно ограничить грубо говоря входящую скорость каждой сессии.
железо: Catalyst 6509 Sup720-BXL
Софт:
Cisco IOS Software, s72033_rp Software (s72033_rp-ADVIPSERVICESK9_WAN-M), Version 12.2(33)SXI4a, RELEASE SOFTWARE (fc2)
Создаем access-list'ы и class-map'ы на сети клиентов, по которым будем идентифицировать трафик:
access-list 105 permit ip any 91.224.xx.0 0.0.0.255
access-list 106 permit ip any 193.58.yy.0 0.0.0.255
class-map match-all UAIX_Client1
match access-group 106
class-map match-all UAIX_Client2
match access-group 105
Теперь собственно сам полисер:
policy-map UAIX_OUT
class UAIX_Client1
police 100000000 3125000 conform-action transmit exceed-action drop
class UAIX_Client2
police 80000000 2500000 conform-action transmit exceed-action drop
Одному клиенту нарезаем 100М, второму 80М.
И последнее, вешаем эту полиси на нужный vlan:
interface Vlan221
service-policy output UAIX_OUT
В пределах одного VLAN имеем несколько BGP сессий к провайдеру. Нужно ограничить грубо говоря входящую скорость каждой сессии.
железо: Catalyst 6509 Sup720-BXL
Софт:
Cisco IOS Software, s72033_rp Software (s72033_rp-ADVIPSERVICESK9_WAN-M), Version 12.2(33)SXI4a, RELEASE SOFTWARE (fc2)
Создаем access-list'ы и class-map'ы на сети клиентов, по которым будем идентифицировать трафик:
access-list 105 permit ip any 91.224.xx.0 0.0.0.255
access-list 106 permit ip any 193.58.yy.0 0.0.0.255
class-map match-all UAIX_Client1
match access-group 106
class-map match-all UAIX_Client2
match access-group 105
Теперь собственно сам полисер:
policy-map UAIX_OUT
class UAIX_Client1
police 100000000 3125000 conform-action transmit exceed-action drop
class UAIX_Client2
police 80000000 2500000 conform-action transmit exceed-action drop
Одному клиенту нарезаем 100М, второму 80М.
И последнее, вешаем эту полиси на нужный vlan:
interface Vlan221
service-policy output UAIX_OUT
Подписаться на:
Сообщения (Atom)