Расширение сети и использование искусственного интеллекта при эксплуатации сети

Использование ИИ при эксплуатации сети

Extreme Networks недавно купил компанию, у которой было хорошо разработано облако. Именно облачное решение по управлению и мониторингом инфраструктурой. Вендор это назвал Extreme Cloud IQ. Сейчас идет работа по интеграции программного и аппаратного портфолио в эту облачную систему. Далее изображен скриншот (из графического интерфейса в облако).

Эта облачная система третьего поколения, т.е. внутри облака работает искусственный интеллект и машинное обучение. Это возможно за счет того, что это облако используют и тысячи других заказчиков. Соответственно, в этом облаке хранится огромное количество статистической информации относительно беспроводного и проводного сегментов. Используя машинное обучение, система может автоматически реагировать на какие-то нестандартные ситуации в сети. Например, в сети появился какой-то Wi-Fi клиент, у которого плохая пропускная способность. Облачная система может посмотреть в своей базе знаний, есть ли примеры того, как с такими клиентами общаться другие пользователи. Как нужно изменить радиоэфир, чтобы у клиента появилось более качественное соединение. К примеру, облачная система находит в своей базе данных, что примерно месяц назад была схожая ситуация у другого заказчика, и она была разрешена за счет Wi-Fi настройки вот таким образом. Облачная система может эти настройки применить автоматически и в этой сети. Таким образом радиоокружение автоматически изменится. И в большинстве случаев вы даже не заметите, как что-то изменилось в вашем радиоокружении, а этот клиент будет подключен на более высоких скоростях, и этим проблемы будут автоматически решены. Это как раз облако третьего поколения со встроенным искусственным интеллектом, машинным обучением и так называемым Big Data, потому что облако хранит информацию о всех заказчиках, которые используют или использовали это облако.

Дополнительные механизмы

Теперь расскажем о дополнительных механизмах, которые позволят начать дизайн сети с Extreme Networks. Первый механизм под названием Extreme IRIS. Это программа-конфигуратор, которая устанавливается на компьютер.

Она имеет доступ в Интернет, и в этой программе можно в графическом виде создать дизайн небольшой сети. Слева изображено дерево компонентов, из которых можно построить сеть. Это дерево автоматически обновляется через Интернет, т.е. при появлении каких-то новых продуктов в портфолио вендора, автоматически этот продукт попадет в это дерево.

Справа дан один из результатов, где изображена небольшая сеть, где автоматически к каждому устройству подтягивается необходимый сервис, причем сервисы можно выбрать разного типа. У компании Extreme Networks есть Extreme Works, Partner Works. Можно использовать графический интерфейс, чтобы в реальности нарисовать небольшую сеть. Здесь можно и большими сетями заниматься.  Интерес в том, что система все время проверяет, правильно ли создается дизайн. Скажем, она не даст соединить, скажем, оптический порт с каким-нибудь медным портом, не даст запитать коммутатор неправильным блоком питания. Она обнаруживает многие типичные ошибки при построении сети. В данном примере система предупреждает, что мы «повесили» слишком много точек доступа на один коммутатор и у него не хватает PoE-бюджета, чтобы запитать все эти точки.

Соответственно таких проверок происходит очень много при дизайне сети. Эта программа доступна для всех дистрибьютеров и партнеров Extreme Networks. Соответственно эта программа довольно удобная для перепроверки себя, правильно ли мы сделали дизайн, правильно ли мы сделали квотирование того или иного проекта.

Помочь при дизайне могут и несколько документов. Они называются Extreme Validated Solutions или Extreme Validated Design.

Это технические документы, посвященные той или иной технологии. В этих документах описывается, для чего технология используется, какие проблемы она решает, в них есть непосредственная конфигурация оборудования для того, чтобы та или иная технология «взлетела». Повторяя инструкцию step by step из этих документов можно прямо у себя в правильном виде собрать ту или иную технологию. Внизу дана ссылка, где можно сейчас скачать актуальные документы.

Расширение сети

Тема сегодняшнего мероприятия, посвященного системному дизайну - «Расширение сети», ведет его Павел Денисов, системный инженер московской компании Extreme Networks. Это мероприятие можно считать продолжением того, что коллеги Павла начали с азов по сетевому дизайну и построению сети, они говорили о том, как построить небольшую сеть, каким вопросам нужно при этом уделять внимание, какое оборудование и технологии можно при этом использовать. Сегодня речь пойдет о том, что нужно делать если сеть растет, каким путем ее можно развивать и как это сделать наиболее просто и эффективно.

Для начала напомним, что у вендора есть русскоязычный сайт https:\\ru.extremenetworks.com, являющийся разделом основного англоязычного сайта.

Сегодня речь пойдет о том, как открывается кампус, какие наиболее оптимальные пути по построению и масштабированию кампусной инфраструктуры предлагает вендор и поддерживает в своих продуктах, как решать в этих сетях задачи по авторизации абонентов, по изоляции трафика пользователей, по построению различных схем маршрутизации.

Поговорим, как сохранить сервисы, доступные в кампусных сетях при объединении нескольких сетей посредством глобальных каналов связи или услуг операторов.

В общем случае кампусная инфраструктура может состоять из нескольких площадок, из нескольких сайтов.

Эти площадки могут иметь разную топологию, иметь разные размеры, разное количество пользователей и подключений. С точки зрения сетевого дизайна принято выделять в сетевой инфраструктуре несколько уровней. Это центр обработки данных (ЦОД), выполняющий функции ядра, это уровень доступа и распределения, использование удаленных площадок, которые могут быть подключены с использованием как собственных каналов связи, так и услуг оператора. Причем, операторские услуги могут выглядеть как VPN-ны, либо как L2 сервисы операторов. Естественно по мере роста сети нужно не только добавлять новые устройства и оборудование, но и новые каналы связи, нужно управлять всеми этими решениями и с этой задачей может помочь справиться дополнительные программные компоненты Extreme и система управления Extreme Management Center. Она позволяет решать задачи по быстрой настройке системы, по поддержанию ее работоспособности, по выполнению текущих задач по управлению сетевой инфраструктурой. И она сочетает в себе несколько компонентов, которые позволяют не только управлять сетевым оборудованием, но также отвечает за авторизацию при подключении пользователей к локальной сети, за назначение политик информационной безопасности, а также за аналитику сетевого трафика.

Начнем с сетевой инфраструктуры

На этом слайде изображен классический двухуровневый сетевой дизайн с уровнем доступа (в верхней части слайда).

Коммутаторы доступа и подключенные через проводную инфраструктуру к ним пользователи. Тут же расположены точки беспроводного доступа, которые также обеспечивают подключение клиентов к сети. В нижней части слайда есть серверы, коммутаторы, которые обеспечивают подключение серверов. И в середине слайда пара коммутаторов, которые образуют ядро сетевой инфраструктуры. Классический пример дизайна: коммутаторы уровня доступа подключаются к ядру с использованием резервируемых каналов связи. От каждой группы коммутаторов доступа в ядро ведет два линка. В данном случае они используются для обеспечения резервирования и распределения нагрузки между коммутаторами ядра. В ядре используются технологии MLAG, которые позволяют обеспечивать резервированное подключение коммутаторов доступа в режиме active-active к двум коммутаторам ядра.

MLAG - это наиболее простая и хорошо проработанная технология для решения задачи одновременного использования нескольких путей передачи трафика (напомню, что протокол STP, дабы избежать зацикливания трафика, «замораживает» часть канальных ресурсов, оставляя активным только один путь между двумя узлами).

 

Что здесь еще как правило используется? Тут еще используются VLAN на коммутаторы доступа, растянутые до нужного количества VLANов.

VLAN (Virtual Local Area Network) — топологическая («виртуальная») локальная компьютерная сеть, представляет собой группу хостов с общим набором требований.

Каждому VLANу соответствует свой subnet.

subnet (подсеть) — это логическое разделение сети IP. IP адрес разделён маской подсети на префикс сети и адрес хоста. Хостом в данном случае является любое сетевое устройство (именно сетевой интерфейс этого устройства).

Все эти subnet сходятся соответственно на коммутаторах уровня распределений ядра Backbone коммутаторов, которые является для пользователей этих VLANов шлюзами по умолчанию. Соответственно для того, чтобы этот шлюз по умолчанию работал отказоустойчиво, используется протокол VRRP.

VRRP (Virtual Router Redundancy Protocol) — сетевой протокол, предназначенный для увеличения доступности маршрутизаторов, выполняющих роль шлюза по умолчанию.

Два коммутатора третьего уровня, стоящих в ядре, выполняют роль основного и резервного шлюза по умолчанию для пользовательских VLANов. Аналогичная инфраструктура построена для серверов. Здесь тоже есть свой набор VLANов. И также маршрутизаторы ядра являются шлюзами по умолчанию для серверов и осуществляют маршрутизацию как пользовательских данных между VLANами, так и пользовательских данных в сторону серверов и в обратную сторону.

По мере роста нашей сети, что может происходить?

Может увеличиваться количество устройств на уровне доступа, может увеличиваться количество серверов и сайтов и, соответственно, растет сетевая инфраструктура и есть возможность использовать технологию MLAG и увеличить сеть, как показано на этой схеме.

Остальные же части сетевого дизайна не меняются, по-прежнему используется VLAN, по-прежнему используется VRRP и маршрутизация данных между различными сетевыми сегментами.

Технология Extreme Fabrica

Есть другая технология, которая позволяет заметно лучше масштабировать сетевые решения, делать это более гибко и не обращать особого внимания на топологию и связанность в ядре.

Эта технология называется Extreme Fabrica, она построена на технологии Extreme Fabric Connect, которая работает в ядре сетевой инфраструктуры. Если возвращаться к схеме, то здесь было бы целесообразно использовать эту архитектуру в зависимости от устройств. Есть несколько подходов по использованию именно Extreme Fabric. Если Fabric хочется начать непосредственно с устройства доступа, мы можем использовать соответствующие модели коммутаторов и начать фабрику непосредственно с коммутаторов доступа, т.к. это показано на слайде. Здесь Fabric работает от коммутаторов доступа и до коммутаторов серверной фермы, т.е. все коммутаторы на этой схеме поддерживают технологию SPBm, что есть основа технологии Extreme Fabric. И все они являются участниками Fabric. Такое решение дает возможность более гибко распределять пользователей, дает возможность по построению и выбору VLANов, по выбору схем адресации для VLANов. Кстати, у нас нет ни одного линка в этой сети, на котором бы работала классическая технология Ethernet.

Фабрика позволяет решить красиво и достаточно эффективно задачу по балансировке нагрузки между разными линками и по отсутствию петель в топологиях. Для чего она, собственно и предназначена.

Можно такую же архитектуру собрать и по другой схеме.

На этой схеме изображено все почти то же самое. Единственно меняется технология на уровне доступа. В ядре сети в серверной ферме по-прежнему используется технология Fabric Connect, а на уровне доступа используется другая технология. Если раньше Fabric начиналась с коммутатора уровня доступа, то сейчас на доступе используются классические технологии. Мы можем их использовать на линках, идущих от коммутаторов доступа к ядру сети, здесь не используются SPBm, а только классический Ethernet и мы вынуждены вернуться к использованию классических схем по агрегации каналов, чтобы избежать ситуации с блокировкой линков. Здесь опять используется LSP группировка линков. В этом случае шире выбор сетевых устройств. Мы можем на уровне доступа не использовать устройства с поддержкой Fabric, а использовать любые коммутаторы доступа, в том числе и коммутаторы серии Extreme EXOS либо ERS, и другие модели, которые не поддерживают Fabric.

Если используются коммутаторы EXOS или ERS, то можно на этих L2-каналах, использующих классический Ethernet и обеспечивающих подключение доступа к ядру, использовать дополнительную технологию, которая называется Fabriс Attach, она позволяет автоматизировать подключение пользователей на уровне доступа и обеспечить им в том числе автоматическое назначение виртуального контента Fabriс.

Одно из основных преимуществ использования технологии Extreme Fabric Connect при построении кампусной инфраструктуры заключается в большом запасе по масштабированию этого решения и по сути независимости, т.е. технология Fabric отлично работает при любых топологиях. Вы можете добавлять уровни, можете использовать классические схемы, которые по традиции используются в кампусной инфраструктуре типа двойная звезда, а можете использовать какие-то другие схемы связанности. И все они одинаково хорошо будут работать с точки зрения фабрики.

На этой схеме добавились два уровня. Появились коммутаторы агрегации в ЦОДах, появились коммутаторы агрегации в системе подключения пользователей, осталось два коммутатора ядра. Но фабрика прекрасно справляется с этой топологией. В данном случае мы вернулись к доступу к фабричным коммутаторам. У нас везде работают SPBm. И на всех линках работает технология Extreme Fabric Connect.

Extreme Fabric Connect простая технология, несмотря на кажущуюся ее сложность. Она позволяет решать много различных задач, но настраивается все достаточно просто, нужно сделать всего лишь несколько действий. Во-первых, создать так называемые Backbone VLAN, которые будут работать на всех каналах, так называемых NNI (Network to Network Interface) links, которые объединяют коммутаторы между собой. На этих интерфейсах работают Backbone VLAN технологии SPBm. Кроме этого нужно включить SPBm, задать имя устройства, задать систему ID-устройства, включить маршрутизацию IS-IS, которая работает вместе с SPBm и обеспечивает передачу данных внутри фабрики. Этого будет достаточно для того, чтобы начать работать Fabric.

Если мы используем другую сетевую архитектуру и идем в сторону использования технологии Fabriс Attach на уровне доступа, у нас соответственно меняется схема взаимодействия коммутаторов доступа с ядром.

Однако логика остается той же самой. Мы по-прежнему в ядре сети (в нижней части слайда, закрашенной серым цветом) используем технологию Extreme Fabric Connect, настраиваем все, как было показано на предыдущем слайде, а на верхних уровнях используем классические сетевые технологии.

Сеть растет

Предположим, что сеть продолжает расти и серверы не вмещаются в одно здание, значит появляется необходимость поместить часть сети в другом здании, расположенном недалеко и мы еще можем использовать оптику для связи между этими зданиями. Самый простой вариант, это сделать так, как показано на следующем слайде.

Здесь можно собирать почти симметричные архитектуры, они, конечно, будут отличаться по количеству и типу используемых коммутаторов, по количеству коммутаторов доступа. Но основное - это связка между коммутаторами ядра осуществлена с использованием технологии Extreme Fabric Connect, которая позволяет таким образом «растянуть» сетевое решение на два здания и использовать одинаковый набор сервисов для этих архитектур. Настраивается все точно так же, как и на прошлом слайде. По-прежнему существуют Backbone VLAN, общая фабрика объединяет два сетевых сегмента и все настраивается ровно также, как настраивалось в случае одного здания.

Построение маршрутизации

Если нам нужно в такой распределенной сети построить маршрутизацию, то в здании, расположенном слева, есть свой ЦОД, в ЦОДе есть серверы, которые размещены в разных виртуальных сетях и VLANах.

У нас справа есть второй ЦОД, предположим, он используется, как резервный, у него есть свои VLANы. Для того, чтобы все правильно работало, надо обеспечить миграцию виртуальных маршей между основным и резервным ЦОДам. Чтобы сервис мог плавно и незаметно для пользователей переехать из одного ЦОДа в другой, нужно обеспечить связность на втором уровне между этими ЦОДами. Это, как говорят, нужно растянуть VLAN между этими ЦОДами.

Такую схему достаточно просто реализовать. Если мы не используем фабрику, то можем взять в этой магистрали один и тот набор VLANов, который приходит на оба сервера, и использовать классическую схему с VLANами и маршрутизацией. Такая схема решит задачу с точки зрения растягивания широковещательного домена между двумя знаниями, но она чревата возникновением других проблем, одна из них показана на слайде.

В чем проблема заключается? Здесь дан пример, когда пользователи имеют доступ к серверу через интерсайт. Даже если сервер будет стоять на этой же площадке, а основные и резервные маршрутизаторы будут в паре работать на другой площадке, трафик пойдет очень сложной петлей между двумя хостами.

Есть специальные термины в архитектурах сетевого дизайна, описывающие такой сценарий, скажем, Data Tromboning. Есть решение, которое позволяет избежать такой несимметричной загрузки межсайтового линка, и заключаются они в использовании фабрики, и дополнительных технологий, которые на эта фабрика позволяет реализовать.