Главная
АИ #52 (234)
Статьи журнала АИ #52 (234)
Обеспечение эффективной работы современных дата-центров посредством методов упра...

Обеспечение эффективной работы современных дата-центров посредством методов управления качеством обслуживания

Рубрика

Информационные технологии

Ключевые слова

качество обслуживания
QoS
IntServ
DiffServ
IEEE 802.1Q
программно-определяемые сети
виртуализация сетевых функций
задержка
джиттер
пропускная способность
сетевые технологии
управление трафиком
искусственный интеллект

Аннотация статьи

Качество обслуживания (QoS) является неотъемлемым элементом современных сетей, обеспечивающим эффективное управление сетевыми ресурсами и приоритизацию трафика для удовлетворения требований критически важных приложений. В статье анализируются основные механизмы QoS, включая IntServ, DiffServ и IEEE 802.1Q, а также рассматриваются преимущества и недостатки каждого подхода. Особое внимание уделяется проблемам внедрения QoS, таким как сложность настройки, межоперабельность оборудования и влияние на производительность сети. Рассматриваются перспективы использования передовых технологий, включая машинное обучение, искусственный интеллект, программно-определяемые сети (SDN) и виртуализацию сетевых функций (NFV), для повышения гибкости и эффективности реализации QoS. Приведенные экспериментальные результаты демонстрируют влияние QoS на ключевые метрики производительности сети, такие как задержка, джиттер и пропускная способность, в условиях различных нагрузок. Сделан вывод о том, что дальнейшее развитие QoS играет ключевую роль в поддержании надежности сетей в условиях растущих требований цифровой инфраструктуры.

Текст статьи

В современных условиях стремительного развития цифровых технологий и роста объемов сетевого трафика обеспечение стабильной, эффективной и качественной работы сетей становится приоритетной задачей. Усложнение сетевых архитектур, внедрение облачных вычислений, Интернета вещей (IoT) и сетей пятого поколения (5G) требует более надежных и гибких решений для управления сетевыми ресурсами. В этой связи качество обслуживания (QoS) выступает важнейшим компонентом сетевой инфраструктуры, способствующим приоритизации трафика, оптимизации ресурсов и обеспечению бесперебойной работы критически важных приложений.

В условиях цифровой трансформации центры обработки данных играют ключевую роль в хранении, обработке и управлении огромными объемами информации. Такие центры представляют собой специализированные объекты, где размещаются многочисленные серверы, системы хранения данных и сетевое оборудование. Это позволяет эффективно обрабатывать, хранить и распределять данные в больших масштабах [1, с. 732-794; 2, с. 468-473]. Эти инфраструктурные комплексы оказывают критическое влияние на широкий спектр сервисов, включая облачные вычисления, аналитику больших данных и корпоративные приложения, которые сегодня составляют основу бизнес-процессов и цифровых услуг [3, с. 7-18; 4; 5, с. 293-314].

Современные сети центров обработки данных представляют собой высокоинтегрированные и сложные системы, созданные для передачи больших объемов данных с высокой скоростью и эффективностью [6; 7, с. 189-200; 8, с. 92-99; 9, с. 63-74]. Они обеспечивают стабильное взаимодействие между различными устройствами и системами, поддерживая необходимый поток данных для множества приложений и услуг. Нарушение работы таких сетей может привести к значительным сбоям, что отрицательно сказывается на непрерывности и производительности бизнеса [10, с. 63-74; 11, с. 39-50].

Поддержание стабильности в таких системах предполагает применение стратегий, направленных на обеспечение надежной и бесперебойной работы сети и ее компонентов. Для этого применяются такие методы, как избыточность, балансировка нагрузки и механизмы отказоустойчивости [12, с. 1912-1926; 13, с. 49-60; 14, с. 821-830; 15, с. 225-238; 16, с. 85-96]. Избыточность заключается в создании дополнительных маршрутов передачи данных, что позволяет минимизировать риск сбоев. Балансировка нагрузки равномерно распределяет трафик между серверами или сетевыми путями, избегая перегрузок отдельных элементов. Отказоустойчивость, в свою очередь, обеспечивает продолжение работы системы даже при сбое оборудования или программного обеспечения благодаря автоматическому переключению на резервные ресурсы и репликации данных.

Управление качеством обслуживания (QoS) [17, с. 6-27; 18, с. 6-14] является важным элементом сетевого администрирования и включает методы для приоритизации и оптимизации сетевых ресурсов. QoS позволяет добиться надежной и эффективной передачи данных, отвечающей специфическим требованиям различных приложений. Для этого применяются механизмы классификации трафика [19, с. 281-286], формирования [20, с. 482-501], контроля [21, с. 90-109], а также использования очередей и предотвращения перегрузок [22; 23, с. 45-51; 24, с. 1-14; 25, с. 47-57].

Современные достижения в области программно-определяемых сетей (SDN), виртуализации сетевых функций (NFV) и методов искусственного интеллекта (ИИ) открывают новые перспективы для совершенствования механизмов QoS. Эти технологии позволяют адаптировать управление сетью к меняющимся требованиям пользователей и условий эксплуатации, создавая более масштабируемые и интеллектуальные решения.

Настоящая статья посвящена анализу существующих проблем внедрения QoS, изучению перспектив ее развития и оценке возможностей применения передовых технологий для повышения качества обслуживания в современных сетевых системах. Исследование направлено на выявление ключевых факторов, влияющих на производительность сети, и разработку рекомендаций для их учета при построении и эксплуатации сетевой инфраструктуры. Полученные результаты могут быть полезны как для научного сообщества, так и для практиков в области сетевой инженерии.

Центр обработки данных (дата-центры)

Центры обработки данных (дата центры) представляют собой специализированные объекты, где размещаются разнообразные вычислительные ресурсы, включая серверы, системы хранения данных и оборудование для обеспечения сетевого взаимодействия. Их основное предназначение – централизованное хранение, обработка и управление значительными объемами информации. Такие центры играют ключевую роль в поддержке широкого спектра приложений и услуг, включая облачные технологии, анализ больших данных и корпоративные ИТ-решения [26, с. 2939-2965]. Благодаря высоким стандартам безопасности, надежности и масштабируемости центры обработки данных обеспечивают бесперебойное выполнение критически важных бизнес-операций, составляя основу современной цифровой инфраструктуры. Их использование охватывает такие области, как веб-хостинг, электронная почта, финансовые транзакции и научные исследования.

Сетевые системы в центрах обработки данных формируют сложную структуру соединений, которая связывает все устройства и компоненты, обеспечивая их эффективное взаимодействие и надежную передачу данных [27, с. 640-656; 28, с. 23-33]. Эти сети создаются с учетом необходимости обработки значительных объемов трафика при минимальной задержке и максимальной надежности. Обычно они разделены на несколько уровней: уровень ядра, уровень агрегации и уровень доступа. Каждый из этих уровней выполняет определённые задачи, способствуя бесперебойному потоку данных [10, с. 63-74; 29, с. 892-901; 30, с. 161-172]. Уровень ядра отвечает за высокоскоростные соединения с большой пропускной способностью, уровень агрегации собирает данные из различных точек доступа, а уровень доступа обеспечивает подключение серверов и других устройств к сети.

Современные технологии, такие как программно-определяемые сети (SDN) [31, с. 14-76] и виртуализация сетевых функций (NFV) [32, с. 90-97], активно внедряются для повышения гибкости, эффективности и удобства управления сетями центров обработки данных.

Стабильность сети в контексте центров обработки данных определяется способностью поддерживать надежную и непрерывную производительность на протяжении времени. Она предполагает, что сеть должна адаптироваться к изменению нагрузки без возникновения значительных простоев или ухудшения рабочих характеристик. Одной из ключевых проблем является наличие сетевых помех, которые возникают из-за различных факторов, таких как перекрестные помехи между кабелями и конкуренция между рабочими нагрузками за доступ к общим сетевым ресурсам [33, с. 201-213; 34; 35]. Эти факторы могут привести к таким последствиям, как потеря данных, увеличение задержек и общее снижение производительности сети [36, с. 1-13; 37, с. 1-32].

В условиях работы центра обработки данных минимизация сетевых помех становится критически важной задачей для обеспечения надежного функционирования приложений и сервисов. Основные стратегии для устранения подобных проблем включают использование экранированных кабелей, правильную организацию заземления, а также создание физического разделения между кабелями и электронным оборудованием. Дополнительно, применение современных методов управления сетью, таких как механизмы качества обслуживания (QoS), позволяет приоритизировать важнейший трафик, уменьшая негативное влияние помех на работу сети.

Эффективное управление стабильностью сети и устранение помех являются важными аспектами работы современных центров обработки данных. Эти элементы играют ключевую роль в поддержании необходимого уровня производительности, надежности и эффективности, соответствующих растущим требованиям цифровой эпохи. Использование передовых технологий и передового опыта позволяет организациям обеспечить стабильность работы центров обработки данных и удовлетворять изменяющиеся потребности пользователей и приложений.

Качество обслуживания (QoS)

Качество обслуживания (QoS) является ключевым понятием в сетевой инженерии, охватывающим технологии и методы управления сетевыми ресурсами для обеспечения эффективной обработки различных типов трафика. QoS позволяет отдавать приоритет определенным потокам, что особенно важно для критически важных сетевых сервисов. Основная цель QoS заключается в поддержании высокой производительности для таких приложений, как видеоконференции, VoIP (передача голоса по интернет-протоколу) и онлайн-игры, даже в условиях сетевой перегрузки, которая может негативно сказаться на пользовательском опыте и выполнении критически важных операций [38, с. 1239-1258].

Механизмы QoS обеспечивают контроль над такими параметрами сетевой производительности, как пропускная способность, задержка, джиттер и потеря пакетов. За счет их регулирования QoS способствует эффективному функционированию приложений с высокими требованиями к производительности сети даже в сложных условиях.

Механизмы QoS включают несколько основных элементов:

  1. Классификация трафика. Этот процесс включает идентификацию и категоризацию сетевого трафика на основе заранее определенных критериев, таких как тип приложения, пользователь или данные. После классификации трафиком можно управлять в соответствии с его приоритетом.
  2. Формирование трафика. Данный метод контролирует объем данных, поступающих в сеть, предотвращая ее перегрузку. Это достигается за счет задержки пакетов, превышающих установленный лимит скорости, сглаживания всплесков трафика и обеспечения равномерного потока.
  3. Управление политиками. Политики QoS регулируют скорость входящего трафика, отбрасывая или помечая пакеты, превышающие установленные ограничения. Это помогает предотвратить перегрузку сети и поддерживать соответствие трафика установленным требованиям.
  4. Организация очередей и планирование. Различные типы трафика распределяются по очередям в зависимости от их приоритета. Алгоритмы планирования, такие как Weighted Fair Queuing (WFQ) и Priority Queuing (PQ), определяют порядок обработки пакетов. Высокоприоритетный трафик получает преимущество перед низкоприоритетным, что обеспечивает критически важным приложениям необходимую пропускную способность.
  5. Предотвращение перегрузки. Механизмы, такие как Random Early Detection (RED), активно управляют сетевой нагрузкой, отслеживая состояние трафика и упреждающе отбрасывая пакеты при обнаружении риска перегрузки [39, с. 397-413]. Это помогает сохранять стабильную производительность сети и минимизировать риски критических сбоев.

Перед внедрением QoS сети часто сталкиваются с проблемами высокой задержки, джиттера и потерь пакетов, что особенно критично для приложений реального времени, таких как видеоконференции и VoIP. Для иллюстрации улучшений, которые QoS может привнести, была проведена оценка ключевых метрик производительности сетей с использованием механизмов QoS и без них. Результаты наглядно показывают, что QoS значительно снижает задержки и потери пакетов, одновременно улучшая пропускную способность, что подтверждает важность применения QoS в современных сетевых архитектурах (рис. 1).

image.png

Рис. 1. Влияние QoS на производительность сети (составлено автором на основании источника [39, с. 397-413])

Протоколы

IEEE 802.1Q

Известный как протокол тегирования VLAN, стандарт IEEE 802.1Q предоставляет механизм для добавления информации о виртуальной локальной сети (VLAN) в кадры Ethernet. Он включает поле приоритета, которое позволяет задавать уровень важности для различных VLAN и связанных с ними данных. Традиционный Ethernet, созданный для общей передачи данных, не удовлетворяет требованиям современных приложений из-за использования недетерминированного метода управления доступом CSMA-CD, что может приводить к непредсказуемым задержкам. Для устранения этих недостатков проводится оценка производительности стандартного Ethernet (IEEE 802.3) и усовершенствованных методов, использующих приоритизацию трафика (IEEE 802.1Q), в условиях различной сетевой нагрузки [40, с. 956-961].

Исследования включают анализ таких показателей, как пропускная способность, задержка и джиттер, при использовании простых концентраторов, стандартных коммутаторов и коммутаторов с поддержкой приоритета. В экспериментах используется сеть, включающая станции реального времени и рабочие станции, генерирующие трафик с распределением Пуассона при уровнях нагрузки от 10% до 60%. Результаты демонстрируют значительное улучшение производительности при использовании коммутаторов с поддержкой приоритетов. Эти устройства эффективно снижают джиттер и задержки отклика, особенно в условиях высокой загрузки сети, что делает их подходящими для промышленных приложений и процессов реального времени.

С увеличением сетевой нагрузки задержка и джиттер становятся критическими проблемами для работы приложений. Применение стандарта IEEE 802.1Q позволяет значительно улучшить показатели задержки, что особенно заметно при высокой загрузке сети. Диаграмма (рис. 2) показывает сравнительный анализ задержки при разных уровнях нагрузки с использованием и без использования QoS, подтверждая эффективность внедрения данного стандарта для поддержки сетей в условиях интенсивного трафика.

image.png

Рис. 2. Задержка при различных уровнях нагрузки сети (составлено автором на основании источника [40, с. 956-961])

Интегрированные услуги (IntServ)

Архитектура Integrated Services (IntServ) обеспечивает гарантированное качество обслуживания (QoS) для отдельных потоков данных, что отличает её от агрегированных методов, таких как Differentiated Services (DiffServ). IntServ использует протокол RSVP (Resource Reservation Protocol) для резервирования полосы пропускания для конкретных сеансов. Каждый маршрутизатор на пути сохраняет информацию о состоянии потока, что позволяет точно управлять ресурсами, но снижает масштабируемость системы. IntServ наиболее подходит для приложений, где важны строгие гарантии полосы пропускания и минимальной задержки, таких как видеоконференции и VoIP [41].

IntServ направлена на расширение возможностей Интернета для предоставления как услуг реального времени, так и не реального времени, чтобы удовлетворять потребности современных приложений, включая телеконференции, дистанционное обучение и распределённое моделирование. Архитектура представляет собой значительный шаг в направлении адаптации Интернета к требованиям новых приложений, обеспечивая справедливое и эффективное использование сетевых ресурсов.

Кодовая точка дифференцированных услуг (DSCP)

Поля DSCP в заголовке IP позволяют маршрутизаторам классифицировать трафик и принимать решения о приоритетах обработки на основе заданного типа обслуживания (ToS). Это более детализированная версия IP Precedence, обеспечивающая больше уровней приоритизации трафика.

Differentiated Services (DiffServ) представляет собой масштабируемую модель QoS, которая устраняет ограничения IntServ и RSVP, особенно в условиях крупных сетей, таких как магистральные сети Интернета [42, с. 255-273]. Вместо управления отдельными потоками DiffServ применяет агрегированный подход, где пакеты маркируются байтом DS, определяющим их приоритет. Это обеспечивает управление ресурсами на уровне всей сети без необходимости обрабатывать каждый поток по отдельности.

Модель DiffServ предлагает несколько подходов, таких как Premium Service и Assured Service. Premium Service обеспечивает выделение фиксированной полосы пропускания для агрегированных потоков, подобно частным каналам связи, а Assured Service, хотя и не гарантирует пропускную способность, обеспечивает высокую вероятность доставки пакетов с высоким приоритетом.

Механизмы DiffServ включают маркировку пакетов, управление поведением на маршрутизаторах и реализацию стратегий управления трафиком. Несмотря на преимущества масштабируемости, успех DiffServ зависит от тщательного проектирования сети, чтобы гарантировать достаточность ресурсов для обработки приоритетного трафика, что остаётся серьёзной задачей для сетевых инженеров.

Разные подходы к реализации QoS, такие, как IntServ, DiffServ и IEEE 802.1Q, обладают своими преимуществами и ограничениями. Например, IntServ обеспечивает гарантии на уровне потоков, но плохо масштабируется, тогда как DiffServ предлагает агрегированный подход, более подходящий для крупных сетей. Стандарт IEEE 802.1Q оптимизирует управление трафиком внутри VLAN. Для лучшего понимания их различий представлена сравнительная диаграмма (рис. 3), оценивающая масштабируемость и соответствие каждого метода требованиям современных сетей.

image.png

Рис. 3. Сравнение методов QoS (составлено автором на основании источников [40, с. 956-961; 41; 42, с. 255-273])

Проблемы при внедрении QoS

Реализация QoS в сетях сталкивается с рядом вызовов. Одной из ключевых проблем является сложность настройки и управления политиками QoS. Для эффективного внедрения сетевые администраторы должны обладать глубокими знаниями о характере сетевого трафика и специфических требованиях приложений. Это требует значительных временных и интеллектуальных затрат.

Вторая проблема связана с межоперабельностью оборудования различных производителей. Протоколы и механизмы QoS могут существенно различаться у различных поставщиков, что приводит к несовместимостям. Это осложняет обеспечение сквозного QoS в гетерогенных сетевых средах и увеличивает риск ошибок при настройке.

Кроме того, внедрение QoS может вызывать дополнительные задержки и накладные расходы. Процессы классификации, формирования и постановки трафика в очередь требуют значительных вычислительных ресурсов. При неэффективном управлении это может негативно сказаться на производительности сети, увеличивая время отклика и снижая пропускную способность.

Перспективы будущего для QoS в сети

С развитием сетевых технологий значение QoS будет только увеличиваться. Рост использования облачных вычислений, Интернета вещей (IoT) и внедрение сетей пятого поколения (5G) создают новые вызовы для управления трафиком. Эти технологии генерируют разнообразные типы данных с уникальными требованиями, что потребует более интеллектуальных и адаптивных механизмов QoS.

Одной из ключевых технологий будущего станет использование машинного обучения и искусственного интеллекта (ИИ) в QoS. ИИ-ориентированные механизмы смогут анализировать трафик в реальном времени, предсказывать возможные перегрузки и автоматически настраивать политики QoS для оптимизации производительности. Такой подход обеспечит более гибкое и точное управление сетевыми ресурсами.

Дополнительно, переход к программно-определяемым сетям (SDN) и виртуализации сетевых функций (NFV) расширяет перспективы реализации QoS. Эти технологии разделяют управление и передачу данных, что упрощает централизованное управление сетью. Благодаря этому QoS может быть более гибко настроена, что обеспечит эффективное использование сетевых ресурсов и повышение производительности в сложных сетевых средах.

Заключение

Качество обслуживания (QoS) является важным компонентом современных сетевых систем, гарантируя надежность и эффективность передачи данных для различных приложений и услуг. В данной статье проанализированы ключевые подходы к реализации QoS, включая IntServ, DiffServ и IEEE 802.1Q, а также их преимущества и ограничения. Представленные данные подтвердили, что применение механизмов QoS способствует значительному снижению задержки, джиттера и потерь пакетов, одновременно повышая пропускную способность сети.

Особое внимание было уделено проблемам внедрения QoS, включая сложность настройки политик, межоперабельность оборудования различных поставщиков и потенциальные накладные расходы на производительность. Эти аспекты требуют дальнейших исследований и разработки адаптивных решений, которые могли бы минимизировать эти недостатки.

Перспективы развития QoS связаны с интеграцией технологий искусственного интеллекта и машинного обучения, а также переходом к программно-определяемым сетям (SDN) и виртуализации сетевых функций (NFV). Эти подходы открывают возможности для создания более интеллектуальных, масштабируемых и гибких сетей, способных адаптироваться к изменениям трафика в режиме реального времени.

Полученные результаты подтверждают, что QoS остается критически важным элементом для обеспечения надежности и производительности сетей, особенно в условиях внедрения облачных технологий, Интернета вещей (IoT) и сетей 5G. Развитие и совершенствование QoS в ближайшие годы будут играть ключевую роль в удовлетворении требований цифровой инфраструктуры и обеспечении высокого уровня обслуживания пользователей.

Список литературы

  1. Dayarathna M., Wen Y., Fan R. Data center energy consumption modeling: A survey // IEEE Communications Surveys & Tutorials. 2015. Vol. 18, No. 1. P. 732-794.
  2. Di S., Kondo D., Cappello F. Characterizing cloud applications on a Google data center // 2013 42nd International Conference on Parallel Processing. IEEE, 2013. P. 468-473.
  3. Zhang Q., Cheng L., Boutaba R. Cloud computing: State-of-the-art and research challenges // Journal of Internet Services and Applications. 2010. Vol. 1. P. 7-18.
  4. Buyya R., Broberg J., Goscinski A. M. Cloud computing: Principles and paradigms. John Wiley & Sons, 2010.
  5. Fan J., Han F., Liu H. Challenges of big data analysis // National Science Review. 2014. Vol. 1, No. 2. P. 293-314.
  6. Greenberg A., Hamilton J., Maltz D. A., Patel P. The cost of a cloud: Research problems in data center networks, 2008.
  7. Kang Y., Wang X., Lan Z. Q-Adaptive: A multi-agent reinforcement learning based routing on dragonfly network // Proceedings of the 30th International Symposium on High-Performance Parallel and Distributed Computing. 2021. P. 189-200.
  8. Benson T., Anand A., Akella A., Zhang M. Understanding data center traffic characteristics // ACM SIGCOMM Computer Communication Review. 2010. Vol. 40, No. 1. P. 92-99.
  9. Alizadeh M., Greenberg A., Maltz D. A., Padhye J., Patel P., Prabhakar B., Sengupta S., Sridharan M. Data center TCP (DCTCP) // Proceedings of the ACM SIGCOMM 2010 Conference. 2010. P. 63-74.
  10. Al-Fares M., Loukissas A., Vahdat A. A scalable, commodity data center network architecture // ACM SIGCOMM Computer Communication Review. 2008. Vol. 38, No. 4. P. 63-74.
  11. Mysore R.N., Pamboris A., Farrington N., Huang N., Miri P., Radhakrishnan S., Subramanya V., Vahdat A. Portland: A scalable fault-tolerant Layer 2 data center network fabric // Proceedings of the ACM SIGCOMM 2009 Conference on Data Communication. 2009. P. 39-50.
  12. Guo Z., Yang Y. Exploring server redundancy in nonblocking multicast data center networks // IEEE Transactions on Computers. 2014. Vol. 64, No. 7. P. 1912-1926.
  13. Cao J., Xia R., Yang P., Guo C., Lu G., Yuan L., Zheng Y., Wu H., Xiong Y., Maltz D. Per-packet load-balanced, low-latency routing for Clos-based data center networks // Proceedings of the Ninth ACM Conference on Emerging Networking Experiments and Technologies. 2013. P. 49-60.
  14. Wang X., Mubarak M., Kang Y., Ross R.B., Lan Z. Union: An automatic workload manager for accelerating network simulation // 2020 IEEE International Parallel and Distributed Processing Symposium (IPDPS). IEEE, 2020. P. 821-830.
  15. Ghorbani S., Yang Z., Godfrey P.B., Ganjali Y., Firoozshahian A. Drill: Micro load balancing for low-latency data center networks // Proceedings of the ACM SIGCOMM 2017 Conference. 2017. P. 225-238.
  16. Walraed-Sullivan M., Vahdat A., Marzullo K. Aspen trees: Balancing data center fault tolerance, scalability and cost // Proceedings of the Ninth ACM Conference on Emerging Networking Experiments and Technologies. 2013. P. 85-96.
  17. Campbell A., Coulson G., Hutchison D. A quality of service architecture // ACM SIGCOMM Computer Communication Review. 1994. Vol. 24, No. 2. P. 6-27.
  18. Zhu H., Li M., Chlamtac I., Prabhakaran B. A survey of quality of service in IEEE 802.11 networks // IEEE Wireless Communications. 2004. Vol. 11, No. 4. P. 6-14.
  19. Erman J., Arlitt M., Mahanti A. Traffic classification using clustering algorithms // Proceedings of the 2006 SIGCOMM Workshop on Mining Network Data. 2006. P. 281-286.
  20. Georgiadis L., Guérin R., Peris V., Sivarajan K.N. Efficient network QoS provisioning based on per-node traffic shaping // IEEE/ACM Transactions on Networking. 1996. Vol. 4, No. 4. P. 482-501.
  21. Bates L., Soole D., Watson B. The effectiveness of traffic policing in reducing traffic crashes // Policing and Security in Practice: Challenges and Achievements. 2012. P. 90-109.
  22. Jain R., Ramakrishnan K., Chiu D.M. Congestion avoidance in computer networks with a connectionless network layer // arXiv preprint cs/9809094. 1998.
  23. Turkovic B., Kuipers F., van Adrichem N., Langendoen K. Fast network congestion detection and avoidance using P4 // Proceedings of the 2018 Workshop on Networking for Emerging Applications and Technologies. 2018. P. 45-51.
  24. Kang Y., Wang X., Lan Z. Study of workload interference with intelligent routing on Dragonfly // SC22: International Conference for High Performance Computing, Networking, Storage and Analysis. IEEE, 2022. P. 1-14.
  25. Garetto M., Towsley D. Modeling, simulation and measurements of queuing delay under long-tail internet traffic // ACM SIGMETRICS Performance Evaluation Review. 2003. Vol. 31, No. 1. P. 47-57.
  26. Kant K. Data center evolution: A tutorial on state of the art, issues, and challenges // Computer Networks. 2009. Vol. 53, No. 17. P. 2939-2965.
  27. Xia W., Zhao P., Wen Y., Xie H. A survey on data center networking (DCN): Infrastructure and operations // IEEE Communications Surveys & Tutorials. 2016. Vol. 19, No. 1. P. 640-656.
  28. Kang Y., Wang X., Lan Z. Workload interference prevention with intelligent routing and flexible job placement on Dragonfly // Proceedings of the 2023 ACM SIGSIM Conference on Principles of Advanced Discrete Simulation. 2023. P. 23-33.
  29. Leiserson C.E. Fat-trees: Universal networks for hardware-efficient supercomputing // IEEE Transactions on Computers. 1985. Vol. 100, No. 10. P. 892-901.
  30. Kang Y., Wang X., McGlohon N., Mubarak M., Chunduri S., Lan Z. Modeling and analysis of application interference on Dragonfly+ // Proceedings of the 2019 ACM SIGSIM Conference on Principles of Advanced Discrete Simulation. 2019. P. 161-172.
  31. Kreutz D., Ramos F.M.V., Verissimo P.E., Rothenberg C.E., Azodolmolky S., Uhlig S. Software-defined networking: A comprehensive survey // Proceedings of the IEEE. 2014. Vol. 103, No. 1. P. 14-76.
  32. Han B., Gopalakrishnan V., Ji L., Lee S. Network function virtualization: Challenges and opportunities for innovations // IEEE Communications Magazine. 2015. Vol. 53, No. 2. P. 90-97.
  33. Smith S.A., Lowenthal D.K. Jigsaw: A high-utilization, interference-free job scheduler for fat-tree clusters // Proceedings of the 30th International Symposium on High-Performance Parallel and Distributed Computing. 2021. P. 201-213.
  34. Kang Y. Workload Interference Analysis and Mitigation on Dragonfly Class Networks. PhD thesis. Illinois Institute of Technology, 2022.
  35. Smith S., Lowenthal D., Bhatele A., Thiagarajan J., Bremer P., Livnat Y. Analyzing inter-job contention in Dragonfly networks, 2016.
  36. Chunduri S., Harms K., Parker S., Morozov V., Oshin S., Cherukuri N., Kumaran K. Run-to-run variability on Xeon Phi based Cray XC systems // Proceedings of the International Conference for High Performance Computing, Networking, Storage and Analysis. 2017. P. 1-13.
  37. De Sensi D., Di Girolamo S., Hoefler T. Mitigating network noise on Dragonfly networks through application-aware routing // Proceedings of the International Conference for High Performance Computing, Networking, Storage and Analysis. 2019. P. 1-32.
  38. Pitsillides A., Lambert J. Adaptive congestion control in ATM-based networks: Quality of service and high utilization // Computer Communications. 1997. Vol. 20, No. 14. P. 1239-1258.
  39. Floyd S., Jacobson V. Random early detection gateways for congestion avoidance // IEEE/ACM Transactions on Networking. 1993. Vol. 1, No. 4. P. 397-413.
  40. Valentim R.A. de M., Morais A.H.F., Brandão G.B., Guerreiro A.M.G. A performance analysis of the Ethernet nets for applications in real-time: IEEE 802.3 and 802.1Q // 2008 6th IEEE International Conference on Industrial Informatics. IEEE, 2008. P. 956-961.
  41. Braden R., Clark D., Shenker S. Integrated services in the internet architecture: An overview. 1994.
  42. Baumgartner F., Braun T., Habegger P. Differentiated services: A new approach for quality of service in the Internet // High Performance Networking: IFIP TC-6 Eighth International Conference on High Performance Networking (HPN ‘98) Vienna, Austria, September 21–25, 1998. Springer, 1998. P. 255-273.

Поделиться

25

Финкер М. К. Обеспечение эффективной работы современных дата-центров посредством методов управления качеством обслуживания // Актуальные исследования. 2024. №52 (234). URL: https://apni.ru/article/10924-obespechenie-effektivnoj-raboty-sovremennyh-data-centrov-posredstvom-metodov-upravleniya-kachestvom-obsluzhivaniya

Обнаружили грубую ошибку (плагиат, фальсифицированные данные или иные нарушения научно-издательской этики)? Напишите письмо в редакцию журнала: info@apni.ru

Другие статьи из раздела «Информационные технологии»

Все статьи выпуска
Актуальные исследования

#53 (235)

Прием материалов

28 декабря - 3 января

осталось 7 дней

Размещение PDF-версии журнала

8 января

Размещение электронной версии статьи

сразу после оплаты

Рассылка печатных экземпляров

17 января