Птс утеря: Что делать, если потерял ПТС :: Autonews

Содержание

Потерял ПТС: что делать? Как восстановить? Восстановление ПТС при утере

Восстановление ПТС, который содержит основные технические характеристики машины, – это обязательная юридическая процедура, через которую проходит каждый автомобилист, утративший паспорт. Как бы занят не был водитель, потерявший документ, ему стоит срочно посетить отделение ГИБДД для решения вопроса о выдаче нового ПТС.

Меры при утере ПТС. Что делать

Для начала автомобилисту необходимо довести до сведения регистрационного органа, что он потерял ПТС. Что делать в такой ситуации, ему подскажет дежурный инспектор. Восстановление ПТС при утере предполагает подачу заявления от лица, в собственности или владении которого находится автотранспортное средство, либо его представителя.

Еще до выдачи дубликата орган принимает решение о признании потерянного документа недействительным. Водителю стоит помнить, что выдать новый паспорт может отделение ГИБДД, где его автомобиль был поставлен на учет.

Потерял ПТС. Как восстановить

Восстановление ПТС подразумевает предъявление таких документов как:

  1. Паспорт гражданина.
  2. Полис ОСАГО.
  3. Свидетельство о регистрации транспортного средства.
  4. Документы, подтверждающие право собственности на транспорт.
  5. Документ, подтверждающий оплату пошлины за предоставление государственной услуги.
  6. Генеральная доверенность, которая необходима в том случае, если о выдаче дубликата ходатайствует представитель хозяина автомобиля.

Восстановление ПТС требует от лица заполнения не только заявления, но и объяснительной, где фиксируются обстоятельства утраты документа на машину. Если у водителя сохранилась копия потерянного паспорта транспортного средства, то ее тоже стоит приложить к документации.

Срок замены

Замена ПТС, которая производится на основании заявления владельца или собственника машины, как правило, происходит в день обращения лица.

Существуют случаи, когда от органов ГИБДД требуется проведение дополнительных проверок транспорта заявителя. В таких ситуациях срок выдачи дубликата паспорта транспортного средства может продлиться до 30 дней с момента подачи заявления о восстановлении документа.

Что получает автомобилист

Итоговый пакет документов, выданный заявителю должностными лицами, представляет собой:

  1.  Дубликат паспорта транспортного средства, что подтверждается в разделе об особых отметках документа.
  2.  Новое свидетельство о регистрации автомобиля.

Проблемы с дубликатом ПТС

Отмечается, что водителям, которые имеют автомобили с дубликатов паспортов, предстоит преодолеть сложности при продаже своего транспортного средства. Покупатели будут выражать сомнения, касающиеся юридической чистоты предлагаемого автомобиля.

Сделки по продаже машин, которые имеют дубликат ПТС, зачастую могут принести немало проблем покупателям. Так, некоторые недобросовестные автомобилисты могут продавать машины с дубликатами, когда оригинал ПТС находится в банке в качестве обеспечения выплаты заемных средств. Когда обман раскрывается, то приобретатель машины узнает, что она стала предметом залога.

Также ряд страховых компаний, которые занимаются страхованием в рамках КАСКО, зачастую отказывают владельцам автомобилей с дубликатами паспортов транспортного средства в выдаче страхового полиса.

Наличие дубликата вместо оригинального ПТС дает покупателю и органу государственной власти лишний повод заподозрить водителя такого автомобиля в его незаконном приобретении. В таких ситуациях автомобилистам придется доказывать подлинность предъявленного дубликата паспорта.

Таким образом, отмечается, что процедура получения дубликата паспорта транспортного средства довольно проста и не занимает большого количества времени. Водителю не нужно обращаться в органы полиции или требовать от должностных лиц каких-либо дополнительных справок, чтобы подать в регистрирующие органы заявление о восстановлении документа.

Еще больше материалов по теме в рубрике: «ПТС на авто». 

Наименование государственной пошлиныНазначение пошлиныСумма

Госпошлина за регистрацию ТС

18810807141011000110
Изменение регистрационных данных в связи с изменением собственника с сохранением государственных регистрационных знаков (автомобиль)

С выдачей государственных регистрационных знаков «Транзит»

850
Изменение регистрационных данных в связи с изменением собственника с заменой государственных регистрационных знаков (автомобиль)

С выдачей государственных регистрационных знаков «Транзит» с заменой паспорта транспортного средства

2850
Изменение собственника транспортного средства по наследству (автомобиль)

С заменой государственных регистрационных знаков

2850
Изменение собственника транспортного средства по наследству (автомобиль)

С сохранением государственных регистрационных знаков

850
Изменение собственника транспортного средства по наследству (мототранспорт, прицепы)

С заменой государственных регистрационных знаков

2350
Изменение собственника транспортного средства по наследству (мототранспорт, прицепы)

С сохранением государственных регистрационных знаков

850
Регистрация транспортного средства, замена или утеря государственного регистрационного знака (мототранспорт, прицепы)

Без выдачи паспорта транспортного средства

2350
Регистрация транспортного средства, замена или утеря государственного регистрационного знака (мототранспорт, прицепы)

С выдачей паспорта транспортного средства

2800
Изменение регистрационных данных в связи с изменением собственника с сохранением государственных регистрационных знаков (мототранспорт, прицепы)
850
Изменение регистрационных данных в связи с изменением собственника с заменой государственных регистрационных знаков (мототранспорт, прицепы)

Без выдачи паспорта транспортного средства

2350
Регистрация транспортного средства, замена или утеря государственного регистрационного знака (автомобиль)

Без выдачи паспорта транспортного средства

2850
Выдача свидетельства о соответствии конструкции транспортного средства требованиям безопасности дорожного движения800
Регистрация транспортного средства, замена или утеря государственного регистрационного знака (автомобиль)

С выдачей паспорта транспортного средства

3300
Утеря регистрационных документов т/с, внесение изменений в регистрационные документы

Замена двигателя, цвета и т.д. без выдачи паспорта транспортного средства

850
Утеря регистрационных документов т/с, внесение изменений в регистрационные документы

Замена двигателя, цвета и т.д. с выдачей паспорта транспортного средства

1300
Снятие с учета с выдачей государственных регистрационных знаков «Транзит»

Без выдачи паспорта транспортного средства

700
Выдача или замена государственного регистрационного знака «Транзит»700

Госпошлина за выдачу (замену) ВУ

18810807141011000110
Выдача международного водительского удостоверения, в том числе взамен утраченного или пришедшего в негодность

Выдается сроком на 3 года без сдачи экзаменов на основании национального водительского удостоверения для выезда за рубеж

1600
Выдача национального водительского удостоверения, в том числе взамен утраченного или пришедшего в негодность

Изготавливается из расходных материалов на пластиковой основе

2000

Госпошлина за выдачу (замену) ВУ (при обращении через многофункциональные центры)

18810807141018000110
Выдача национального водительского удостоверения, в том числе взамен утраченного или пришедшего в негодность (при обращении через многофункциональные центры)

Выдача национального водительского удостоверения, в том числе взамен утраченного или пришедшего в негодность (при обращении через многофункциональные центры)

2000
Выдача международного водительского удостоверения, в том числе взамен утраченного или пришедшего в негодность (при обращении через многофункциональные центры)

Выдача международного водительского удостоверения, в том числе взамен утраченного или пришедшего в негодность (при обращении через многофункциональные центры)

1600

Сайт о ГИБДД Екатеринбурга и Свердловской области

Наименование государственной пошлиныНазначение пошлиныСумма

Госпошлина за регистрацию ТС

18810807141011000110
Изменение регистрационных данных в связи с изменением собственника с сохранением государственных регистрационных знаков (автомобиль)

С выдачей государственных регистрационных знаков «Транзит»

850
Изменение регистрационных данных в связи с изменением собственника с заменой государственных регистрационных знаков (автомобиль)

С выдачей государственных регистрационных знаков «Транзит» с заменой паспорта транспортного средства

2850
Изменение собственника транспортного средства по наследству (автомобиль)

С заменой государственных регистрационных знаков

2850
Изменение собственника транспортного средства по наследству (автомобиль)

С сохранением государственных регистрационных знаков

850
Изменение собственника транспортного средства по наследству (мототранспорт, прицепы)

С заменой государственных регистрационных знаков

2350
Изменение собственника транспортного средства по наследству (мототранспорт, прицепы)

С сохранением государственных регистрационных знаков

850
Регистрация транспортного средства, замена или утеря государственного регистрационного знака (мототранспорт, прицепы)

Без выдачи паспорта транспортного средства

2350
Регистрация транспортного средства, замена или утеря государственного регистрационного знака (мототранспорт, прицепы)

С выдачей паспорта транспортного средства

2800
Изменение регистрационных данных в связи с изменением собственника с сохранением государственных регистрационных знаков (мототранспорт, прицепы)850
Изменение регистрационных данных в связи с изменением собственника с заменой государственных регистрационных знаков (мототранспорт, прицепы)

Без выдачи паспорта транспортного средства

2350
Регистрация транспортного средства, замена или утеря государственного регистрационного знака (автомобиль)

Без выдачи паспорта транспортного средства

2850
Выдача свидетельства о соответствии конструкции транспортного средства требованиям безопасности дорожного движения800
Регистрация транспортного средства, замена или утеря государственного регистрационного знака (автомобиль)

С выдачей паспорта транспортного средства

3300
Утеря регистрационных документов т/с, внесение изменений в регистрационные документы

Замена двигателя, цвета и т.д. без выдачи паспорта транспортного средства

850
Утеря регистрационных документов т/с, внесение изменений в регистрационные документы

Замена двигателя, цвета и т.д. с выдачей паспорта транспортного средства

1300
Снятие с учета с выдачей государственных регистрационных знаков «Транзит»

Без выдачи паспорта транспортного средства

700
Выдача или замена государственного регистрационного знака «Транзит»700

Госпошлина за выдачу (замену) ВУ

18810807141011000110
Выдача международного водительского удостоверения, в том числе взамен утраченного или пришедшего в негодность

Выдается сроком на 3 года без сдачи экзаменов на основании национального водительского удостоверения для выезда за рубеж

1600
Выдача национального водительского удостоверения, в том числе взамен утраченного или пришедшего в негодность

Изготавливается из расходных материалов на пластиковой основе

2000

Госпошлина за выдачу (замену) ВУ (при обращении через многофункциональные центры)

18810807141018000110
Выдача национального водительского удостоверения, в том числе взамен утраченного или пришедшего в негодность (при обращении через многофункциональные центры)

Выдача национального водительского удостоверения, в том числе взамен утраченного или пришедшего в негодность (при обращении через многофункциональные центры)

2000
Выдача международного водительского удостоверения, в том числе взамен утраченного или пришедшего в негодность (при обращении через многофункциональные центры)

Выдача международного водительского удостоверения, в том числе взамен утраченного или пришедшего в негодность (при обращении через многофункциональные центры)

1600

Что такое потеря пакетов? — Twilio

Потеря пакетов означает, что пакеты не достигают места назначения в сети. Потеря пакетов чаще всего является следствием перегрузки сети и обычно вызывается отключением сетевого оборудования, игнорированием, неправильной доставкой или отбрасыванием пакетов.

Симптомы потери пакетов в основном зависят от приложения — некоторые варианты использования более устойчивы к потере пакетов, чем другие. Потеря пакетов особенно сильно влияет на два приложения: сетевые игры и сетевые сеансы связи.

В интернет-играх потеря пакетов может вызывать «скачкообразные» или «рывковые» движения при сетевых событиях. Это потенциально вызывает странное поведение с тайм-аутами и любыми типами счетчиков, из-за чего игры становятся неиграбельными, что похоже на высокую задержку.

В телекоммуникациях большие потери пакетов могут быть особенно неприятными — и даже вызывать полные сбои связи. Отброшенные пакеты могут вызывать эффект «робота» при заикании голоса (при звонках или видео). В видео потеря пакетов также приводит к зависанию кадров и заиканию.

Некоторые случайные потери пакетов неизбежны в сетях с коммутацией пакетов. Тем более, что количество пакетов, перемещающихся по сети, увеличивается, узлы могут столкнуться с большим количеством данных, чем они могут обработать. В этот момент трафик будет отклонен или сброшен по истечении времени ожидания. Беспроводные сети (WiFi) особенно подвержены потере пакетов.

Различные продукты Twilio используют TCP / IP или UDP для трафика (некоторые из них можно настраивать). Мы кратко обсудим, как обрабатывается потеря пакетов с трафиком TCP / IP и UDP.

Потеря пакетов с TCP / IP

В протоколе управления передачей / Интернет-протоколе (TCP / IP) все отброшенные пакеты автоматически повторно передаются — либо после уведомления (быстрая повторная передача TCP), либо после тайм-аута (повторная передача TCP). Схема повторной передачи задокументирована в RFC 3366. Кроме того, контроль перегрузки TCP изложен в RFC 2581, а время повторной передачи — в RFC 2988.

Определение того, когда прекратить отправку пакетов, зависит от реализации, но после определенного количества неподтвержденных или отброшенных пакетов хост считается отключенным.

Потеря пакетов с UDP

При использовании протокола пользовательских дейтаграмм (UDP) автоматическая передача потерянных пакетов отсутствует. UDP используется в приложениях потоковой передачи в реальном времени, которые могут иметь дело с некоторой потерей пакетов (или приемом вне очереди). Если приложению требуется повторная передача UDP, оно должно реализовать это самостоятельно или переключиться на TCP / IP.

Программируемый голос

Twilio имеет набор инструментов, которые могут контролировать сеть и качество связи. Мы называем этот пакет Voice Insights.

Insights может предупреждать (и регистрировать) большие потери пакетов, а также другие распространенные причины плохого качества связи, такие как задержка или дрожание. Он также вычисляет мета-оценки, такие как отброшенные звонки и средние оценки мнений. Подробнее о Voice Insights читайте здесь.

Если вам нужна помощь в настройке Twilio, чтобы исправить слишком большое количество отброшенных пакетов или другие проблемы, обратитесь в службу поддержки. Наши специалисты могут помочь вам оптимизировать настройку голоса или видео.

Влияние потери пакетов и времени приема-передачи на пропускную способность

Потеря пакетов и время приема-передачи

Потеря пакетов и время приема-передачи — два важных показателя производительности сети, которые влияют на пропускную способность TCP-соединений.Мониторинг этих двух значений в режиме реального времени в глобальной сети или Wi-Fi может помочь вам быстро определить медлительность, с которой сталкиваются конечные пользователи и приложения. В этой статье я продемонстрирую, как потеря пакетов и время приема-передачи влияют на пропускную способность TCP.

Потеря пакетов рассчитывается как процент пакетов, которые были получены с неправильным форматом или вообще не получены. Этот ключевой показатель производительности является хорошим показателем качества сети, поскольку он точно отражает надежность сети.Потеря пакетов вызвана получением неверно сформированных пакетов адресатом или, что еще хуже, отсутствием приема пакетов.

Время приема-передачи представляет собой время, которое требуется пакету данных для перемещения туда и обратно в определенное место назначения. Значение времени приема-передачи зависит от длины всех пройденных сетевых ссылок, а также от задержки, возникающей на каждом переходе, включая хост назначения.

Пропускная способность и математическое уравнение

Пропускная способность — это объем данных, успешно переданных между источником и целевым хостом.Это значение не следует путать с полосой пропускания или скоростью передачи данных. Полоса пропускания, как и скорость передачи данных, является максимальной пропускной способностью, достижимой в сети или канале, и обычно устанавливается с помощью технологий мультимедиа и кодирования. Пропускная способность — это фактическая скорость передачи данных между отправителем и получателем.

Поскольку протокол TCP широко используется для просмотра веб-сайтов в Интернете и загрузки файлов, показатели производительности сети, которые определяют его производительность, очень важны для восприятия опыта конечного пользователя.

Уравнение Матиса

На пропускную способность TCP-соединения влияют три основных показателя: время приема-передачи ( RTT, ), потеря пакетов ( p ) и максимальный размер сегмента ( MSS ). Хорошей моделью, описывающей взаимосвязь этих трех переменных производительности, является уравнение Матиса. Уравнение Матиса утверждает, что максимальная пропускная способность, достигаемая TCP-соединением, может быть рассчитана путем деления MSS на RTT и умножения результата на 1 над квадратным корнем из p , где p представляет потерю пакетов.

Лабораторный сценарий с потерей пакетов

Я записал демонстрационное видео, в котором я провел тест iperf TCP как с потерей пакетов, так и без нее, и сравнил полученную пропускную способность (ссылка ниже). Вы можете перейти к минуте 1:48 видео, если не хотите просматривать начальную деку слайдов:

При передаче TCP без потери пакетов получена пропускная способность приблизительно 94 Мбит / с (минуты 3:20 в видео). Передача TCP с 10% вернула пропускную способность 2.88 Мбит / с (5:35 минут). Это прямая демонстрация уравнения Матиса.

Тестирование уравнения Матиса с iperf и tc

Вы можете протестировать уравнение Матиса независимо, чтобы увидеть влияние потери пакетов и увеличения времени приема-передачи на пропускную способность TCP. Для проведения такой лабораторной работы вам понадобятся два хоста Linux (вы также можете использовать виртуальные машины vBox на своем ноутбуке) с установленным iperf для генерации пропускной способности TCP между двумя узлами и tc, утилитой управления трафиком Linux, чтобы ввести потерю пакетов и увеличьте время приема-передачи на одном из двух хостов (здесь мы выберем клиента).

Чтобы проверить уравнение Матиса, вы можете запустить следующие сценарии:

  • Тест 1: Пропускная способность TCP без потери пакетов и без увеличения времени приема-передачи.
  • Тест 2: Пропускная способность TCP только с потерей пакетов.
  • Тест 3: Пропускная способность TCP только с увеличенным временем приема-передачи.

Тест 1. Запустите простой тест пропускной способности TCP с помощью iperf.

Запустите сервер iperf на одном хосте Linux с помощью этой команды:
iperf -s

Запуск клиента iperf на другом хосте Linux с помощью этой команды:
iperf -c SERVER_IP

Test 2 — Увеличьте потерю пакетов до 10 % на клиенте

Чтобы увеличить потерю пакетов на клиенте iperf, просто выполните следующую команду:
tc qdisc add dev eth0 root netem loss 10%

Затем запустите сервер и клиент iperf, как показано в тесте 1.После завершения теста вы можете удалить правило с помощью следующей команды:
tc qdisc del dev eth0 root

Test 3 — Увеличьте время приема-передачи на клиенте

Чтобы увеличить время приема-передачи до 200 мс на клиенте Клиент iperf просто запустите следующую команду:
tc qdisc add dev eth0 root netem delay 200ms

Затем запустите сервер и клиент iperf, как показано в тесте 1. После завершения теста вы можете удалить правило с помощью следующей команды:
tc qdisc del dev eth0 root

Заключение

Потеря пакетов и время приема-передачи — два важных показателя производительности сети, которые влияют на пропускную способность TCP-соединений.Мониторинг этих двух значений в проводной сети и сети Wi-Fi очень важен для обнаружения проблем, влияющих на работу конечных пользователей и приложений.

Объяснение потери пакетов — причины и лучшие решения

Полное руководство по пониманию, мониторингу и устранению потери сетевых пакетов.

Введение — потеря сетевых пакетов

Объединенные коммуникации и сотрудничество (UCC) меняют мир и то, как мы работаем. Эти изменения возможны благодаря всемирному внедрению VoIP и видео в качестве основных коммуникационных решений.Но все новые технологии сопряжены с проблемами, и одним из основных препятствий, с которыми сталкиваются ИТ-команды, является потеря сетевых пакетов.

Потеря пакетов описывает пакеты данных, которые не достигают места назначения после передачи по сети. Потеря пакетов обычно вызвана перегрузкой сети, проблемами с оборудованием, ошибками программного обеспечения и рядом других факторов, которые мы подробно обсуждаем ниже.

Он входит в тройку двух других основных проблем производительности сети: задержка и джиттер.

Это подробное руководство объяснит все, что вам нужно знать о причинах потери пакетов в компьютерных сетях.

Мы подробно рассмотрим проблемы потери пакетов, причины потери пакетов в сети и способы устранения потери сетевых пакетов.

Загрузите копию руководства по оптимизации сети в формате PDF

Что такое потеря интернет-пакетов?

В любой сетевой среде данные отправляются и принимаются по сети небольшими блоками, называемыми пакетами.Это относится ко всему, что вы делаете в Интернете, от отправки по электронной почте, загрузки или скачивания изображений или файлов, просмотра, потоковой передачи, игр — до голосовой и видеосвязи. Согласно опросу Statista, проведенному в 2017 году, в 2017 году 24% опрошенных компаний заявили, что простои обходятся им в 301–400 тысяч долларов. В большинстве случаев эти простои могли возникнуть из-за, казалось бы, простой проблемы, которая переросла в серьезные неудачи.

Когда один или несколько из этих пакетов прерываются в пути, это называется потерей пакетов.Протокол управления передачей (TCP) разделяет файл на пакеты эффективного размера для маршрутизации. Каждый пакет пронумерован отдельно и включает интернет-адрес получателя. Каждый отдельный пакет может перемещаться по разному маршруту, и по прибытии они восстанавливаются в исходный файл TCP на принимающей стороне.

Что вызывает потерю пакетов?

1. Перегрузка сети

Основной причиной потери сетевых пакетов является перегрузка. Все сети имеют ограниченное пространство, поэтому, говоря простым языком, перегрузка сети очень похожа на трафик в часы пик.

Подумайте об очередях на дороге в определенное время дня, например, рано утром или в конце рабочего дня. Слишком большое скопление транспорта на одной и той же дороге может стать узким местом, когда она попытается объединиться, и в результате она не достигнет пункта назначения вовремя.

В часы пик, когда сетевой трафик достигает своего максимального предела, пакеты отбрасываются и должны ждать доставки. К счастью, большая часть программного обеспечения предназначена либо для автоматического получения и повторной отправки этих отброшенных пакетов, либо для снижения скорости передачи.

2. Проблемы сетевого оборудования

Скорость, с которой оборудование устаревает или становится избыточным в наши дни, является еще одной серьезной проблемой для вашей сети. Оборудование, такое как межсетевые экраны, маршрутизаторы и сетевые коммутаторы, потребляет много энергии и может значительно ослабить сетевые сигналы. Иногда организации упускают из виду необходимость обновления оборудования во время расширений или слияний, и это может способствовать потере пакетов или сбоям в подключении.

3. Ошибки программного обеспечения

С неисправным оборудованием тесно связано ошибочное программное обеспечение, работающее на сетевом устройстве.Ошибки или сбои в вашей системе иногда могут быть причиной нарушения производительности сети и предотвращения доставки пакетов. Аппаратные перезагрузки и исправления могут исправить ошибки.

4. Устройства с повышенным налогом

Когда сеть работает с большей пропускной способностью, чем она была предназначена для обработки, она ослабевает, становится неспособной обрабатывать пакеты и отбрасывает их. Большинство устройств имеют встроенные буферы для назначения пакетов шаблонам хранения до тех пор, пока они не будут отправлены.

5. Потеря пакетов Wi-Fi и потеря пакетов при беспроводном подключении

Как правило, в беспроводных сетях больше проблем с потерей пакетов, чем в проводных.Радиочастотные помехи, более слабые сигналы, расстояние и физические препятствия, такие как стены, могут привести к тому, что беспроводные сети отбрасывают пакеты.

В проводных сетях неисправные кабели могут быть причиной нарушения прохождения сигнала по кабелю.

6. Угрозы безопасности

Если вы замечаете необычно высокие темпы отбрасывания пакетов, проблема может заключаться в нарушении безопасности. Киберпреступники взламывают ваш маршрутизатор и приказывают ему сбрасывать пакеты. Еще один способ, которым хакеры могут вызвать потерю пакетов, — это выполнить атаку отказа в обслуживании (DoS), не позволяющую законным пользователям получить доступ к файлам, электронной почте или онлайн-учетным записям, заполнив сеть слишком большим объемом трафика, который необходимо обработать.Во время полноценной защиты может быть трудно исправить потерю пакетов.

7. Неудовлетворительная инфраструктура

Это подчеркивает важность комплексного решения для мониторинга сети. Некоторые инструменты внепакетного мониторинга не были разработаны для работы, которую им поручили выполнять, и имеют ограниченную функциональность.

Единственный способ эффективно справиться с проблемами потери пакетов — это развернуть бесшовную платформу мониторинга сети и устранения неполадок, которая может просматривать всю вашу систему из одного окна.Короче говоря, комплексное решение для мониторинга сети = исправление потери пакетов.

Пинг и потеря пакетов

Когда дело доходит до определения того, что представляет собой надежное интернет-соединение и уменьшения случайной потери пакетов, необходимо учитывать три фактора: скорость загрузки, скорость загрузки и пинг.

Скорость загрузки

Это скорость, с которой вы можете отправлять данные другим. Загрузка используется при отправке больших файлов по электронной почте или при использовании видео для общения с другими людьми.Скорость загрузки измеряется в мегабитах в секунду (Мбит / с).

Скорость загрузки

Это скорость, с которой вы можете получать данные с сервера к вам. По умолчанию соединения предназначены для более быстрой загрузки, чем для загрузки. Скорость загрузки также измеряется в Мбит / с.

Пинг

Это время реакции вашего соединения или то, как быстро вы получите ответ после отправки запроса. Быстрый пинг означает более быстрое соединение, и это особенно важно в приложениях реального времени, таких как игры, голосовые и видеозвонки.Пинг измеряется в миллисекундах (мс).

Все, что пинг ниже 20 мс, считается идеальным, а значение, превышающее 150 мс, приведет к заметной задержке.

Даже если у вас хороший пинг, у вас все еще могут быть проблемы с потерей пакетов. потому что, хотя данные отправляются и в конечном итоге быстро принимаются конечным сервером, некоторые данные могут не попасть туда правильно.

Последствия потери пакетов

Для пользователей потеря пакетов может быть более чем раздражающей, особенно в процессах реального времени, таких как VoIP и видеоконференцсвязь.Согласно руководству Cisco по QoS, потеря пакетов в трафике VoIP должна быть ниже 1% и от 0,05% до 5% в зависимости от типа видео.

Потеря пакетов по-разному влияет на разные приложения. Например, при загрузке файлов данных потеря 10% пакетов может добавить только одну секунду к десятисекундной загрузке. Если коэффициент потери пакетов выше или имеется большая задержка, это может привести к увеличению задержек.

Приложения реального времени, такие как голос и видео, более серьезно пострадают от потери пакетов.Такая небольшая потеря пакетов, как 2% -ная потеря пакетов, обычно весьма заметна для слушателя или зрителя и может сделать разговор неестественным и неразборчивым.

Эффекты потери пакетов также различаются в зависимости от приложения / протокола (TCP / UDP). Если пакет отброшен или не подтвержден, протокол TCP предназначен для его повторной передачи. Однако UDP не имеет возможности повторной передачи и, следовательно, не обрабатывает потерю пакетов.

Диагностика и устранение потери пакетов

Все сталкивались с потерей пакетов при голосовых вызовах.Здесь приходит на помощь комплексный мониторинг сети и устранение неполадок. Мониторинг сети может быстро и точно диагностировать и определять основные причины проблем с потерей пакетов, как показано в следующих примерах.

Пример 1:

Во время разговора по Skype качество ухудшается, становится искаженным и неоднородным или, в конечном итоге, полностью пропадает. Но даже если у Skype могут возникать проблемы, вы все равно сможете успешно общаться с помощью TeamSpeak, Google Hangouts или WhatsApp.Это связано с разницей в способе передачи каждой конкретной программы через Интернет и маршруте пакетов.

Пример 2:

Возможно, вы разговариваете по телефону с идеальным подключением к серверу в Спрингфилде, штат Иллинойс, но затем обнаруживаете, что испытываете исключительно высокую потерю пакетов при подключении к серверу в Ричмонде, штат Вирджиния. Это может указывать на проблемы с конвейером между вашим местоположением и сервером в Ричмонде.

Проведите эхо-тест

Ping-тест — это диагностический инструмент, который предоставляет данные о том, насколько хорошо подключенное к Интернету устройство взаимодействует с другой конечной точкой.Тест ping может оценить задержки или проблемы в сети, отправив пакет протокола управляющих сообщений Интернета (ICMP) — или ping — в определенное место назначения.

пакетов ICMP содержат очень мало информации, поэтому они не используют большую полосу пропускания. Когда эхо-запрос достигает устройства, это устройство распознает исходное устройство и отвечает на него. Общее время, затрачиваемое на прибытие и возврат эхо-запроса, записывается как «время пинга» или «время прохождения туда и обратно».

Если количество отправленных и полученных пакетов не равно, это означает, что некоторые пакеты никогда не приходили на ваш телефон или с него.Это неизбежно приводит к проблемам с качеством вызова, таким как прерывистые голоса, продолжительное молчание, беспорядочный звук и другие проблемы с качеством вызова.

Глубокая проверка пакетов

Любая организация с частной сетью будет иметь сотни или даже тысячи уникальных подключений и передач данных каждый день.

Deep Packet Inspection (DPI) — это углубленный способ изучения сетевого трафика и управления им. DPI — одна из важнейших задач, которые должны выполнять сетевые администраторы.Он находит, идентифицирует, блокирует или перенаправляет пакеты с определенными данными или кодом. Он проверяет содержимое пакетов, проходящих через заданную точку, и определяет, что содержится в пакете. Большинство сетевых пакетов делятся на три части:

Заголовок — содержащий инструкции о данных, переносимых пакетом, такие как длина, синхронизация, номер пакета, протокол, а также адреса отправителя и получателя.

Payload — фактическое содержимое данных или тело пакета.

Трейлер — также называемый нижним колонтитулом, сообщает принимающему устройству, что оно достигло конца пакета.

Потеря пакетов Traceroute и высокая задержка

Traceroute — это инструмент командной строки, который поставляется с Windows и другими операционными системами. Наряду с командой ping, это важный инструмент для понимания проблем с подключением к Интернету, включая потерю пакетов и высокую задержку.

Если у вас возникли проблемы с подключением к веб-сайту, traceroute сообщит вам, в чем проблема.Это также может помочь визуализировать путь трафика между вашим компьютером и веб-сервером.

Контроль потери пакетов

Каждая сеть испытывает некоторую потерю пакетов, но что допустимо? Самая важная вещь, о которой следует помнить, заключается в том, что при реализации решений для потери пакетов лучше предотвращение, чем лечение.

Мониторинг сети должен быть первой стратегией, которую вы используете для сохранения и поддержания целостности вашей сетевой среды. Регулярное сканирование ваших устройств гарантирует, что ваши маршрутизаторы способны обрабатывать пропускную способность, а ваша система оборудована для предотвращения потери данных.

Сводка — устранение потери сетевых пакетов

Это исчерпывающее руководство было создано для определения потери сетевых пакетов, а также для помощи в выявлении, понимании и устранении наиболее распространенных проблем, связанных с потерей пакетов в компьютерных сетях.

Ключевыми выводами являются то, что джиттер в сети, потеря сетевых пакетов и задержка являются основными препятствиями на пути четкой связи и могут повсеместно повлиять на ваше взаимодействие с пользователем. Для получения дополнительной информации о проблемах с производительностью сети загрузите наши дополнительные руководства с полным объяснением задержки, джиттера и потери пакетов:

›Что такое сетевой джиттер? Полное руководство по пониманию, мониторингу и устранению джиттера.

›Что такое задержка в сети? Полное руководство по пониманию, мониторингу и устранению задержки в сети.

Prognosis UC Assessor — это 100% программное решение, которое может находить и устранять проблемы перед миграцией без необходимости использования сетевых зондов.

Обеспечьте положительный опыт конечных пользователей с помощью устранения неполадок в один щелчок для всех сетевых проблем, влияющих на производительность объединенных коммуникаций. Развертывание и начало работы выполняются быстро, а аналитические данные можно получить в течение нескольких минут после установки на нескольких сайтах в вашей среде.

Вы можете повысить эффективность ИТ с помощью возможности управлять всей средой унифицированных коммуникаций от различных поставщиков и устранять неполадки с единой точки обзора.

Сократите дорогостоящие простои и перерывы в обслуживании с помощью автоматических интеллектуальных предупреждений.

С уверенностью планируйте, развертывайте и переносите новые технологии.

Загрузите копию руководства по оптимизации сети в формате PDF

Реакции TCP и UDP на потерю пакетов

UDP и TCP по-разному ведут себя при потере пакетов.UDP сам по себе не реагирует на потерю пакетов, потому что UDP не включает в себя какой-либо механизм, с помощью которого можно узнать, был ли потерян пакет. Однако отправители TCP снижают скорость отправки после обнаружения потери пакета. В отличие от UDP, TCP включает поле в заголовке TCP для нумерации каждого TCP

.

сегмент (порядковый номер) и другое поле, используемое получателем для подтверждения приема пакетов (номер подтверждения). Когда получатель TCP сообщает, что пакет не был получен, или если подтверждение не получено вообще, отправитель TCP предполагает, что пакет был потерян, и повторно отправляет пакет.Что еще более важно, отправитель также замедляет отправку данных в сеть.

TCP использует два отдельных размера окна, которые определяют максимальный размер окна данных, которые могут быть отправлены до того, как отправитель должен остановиться и дождаться подтверждения. Первая из двух различных оконных функций TCP использует поле Window в заголовке TCP, которое также называется окном получателя или объявленным окном. Получатель предоставляет отправителю право отправить x байтов данных до запроса подтверждения, задав значение x в поле Window заголовка TCP.С течением времени получатель предоставляет все большие и большие окна, достигая точки, в которой отправитель TCP никогда не прекращает отправку, с подтверждениями, поступающими непосредственно перед тем, как было отправлено полное окно трафика.

Второе окно, используемое TCP, называется окном перегрузки, или CWND, как определено в RFC 2581. В отличие от объявленного окна, окно перегрузки не передается между получателем и отправителем с использованием полей в заголовке TCP. Вместо этого отправитель TCP вычисляет CWND. Размер CWND изменяется намного быстрее, чем размер объявленного окна, поскольку он был разработан для реагирования на перегрузку в сетях.

Отправитель TCP всегда использует нижнее из двух окон, чтобы определить, сколько данных он может отправить до получения подтверждения. Окно получателя предназначено для того, чтобы получатель не позволял отправителю отправлять данные быстрее, чем получатель может их обработать. CWND позволяет отправителю реагировать на перегрузку сети, снижая скорость отправки. RED полагается на изменение CWND в ответ на потерянные пакеты.

Чтобы понять, как работает RED, вам необходимо понять процессы, с помощью которых отправитель TCP снижает и увеличивает CWND.CWND понижается в ответ на потерянные сегменты. CWND возникает на основе логики, определенной как алгоритмы медленного запуска TCP и предотвращения перегрузки TCP. Фактически, большинство людей используют термин «медленный старт» для описания обеих функций вместе, отчасти потому, что они работают вместе. Процесс работает так:

• Отправитель TCP не может вовремя получить подтверждение, что указывает на возможную потерю пакета.

• Отправитель TCP устанавливает CWND равным размеру одного сегмента.

• Другая переменная, называемая порогом медленного старта (SSTHRESH), установлена ​​на 50 процентов от значения CWND перед потерянным сегментом.

• После того, как CWND был понижен, медленный запуск определяет, насколько быстро CWND растет до тех пор, пока CWND не будет увеличен до значения SSTHRESH.

• После завершения фазы медленного запуска предотвращение перегрузки определяет, насколько быстро CWND растет после CWND> SSTHRESH.

Следовательно, когда отправитель TCP не может получить подтверждение, он уменьшает CWND до очень низкого значения (размер окна в один сегмент). Этот процесс иногда называют хлопком окна или закрытием окна.Отправитель постепенно увеличивает CWND, основываясь сначала на медленном запуске, а затем на предотвращении перегрузки. Читая этот текст, помните, что окна TCP на самом деле используют единицу байтов. Чтобы упростить обсуждение, я перечислил окна как несколько сегментов, что делает фактические числа более очевидными.

Медленный старт увеличивает CWND на максимальный размер сегмента для каждого пакета, для которого он получает подтверждение. Поскольку получатели TCP могут и обычно подтверждают сегменты задолго до того, как отправитель отправит полное окно, CWND растет с экспоненциальной скоростью во время медленного старта — на первый взгляд противоречащая концепция.Медленный старт получил свое название от того факта, что для CWND было установлено очень низкое значение в начале процесса, что означает, что он запускается медленно, но медленный старт действительно приводит к быстрому росту CWND.

На рис. 6-1 показан процесс отсутствия подтверждения, ограничения CWND до размера одного сегмента и медленного старта.

Рисунок 6-1 Кратковременное отключение CWND и процесс медленного запуска после отсутствия подтверждения

Отправитель

Приемник

Примечание: единицы CWND — это размер сегмента в этом примере

Отправитель

Приемник

Увеличивая CWND при получении каждого подтверждения, CWND фактически увеличивается с экспоненциальной скоростью.Итак, медленный старт лучше назвать медленным стартом, но быстрым восстановлением.

Предотвращение перегрузки — второй механизм, который определяет, насколько быстро увеличивается CWND после снижения. По мере роста CWND он начинает приближаться к исходному значению CWND. Если исходная потеря пакета была результатом перегрузки очереди, разрешение этому TCP-соединению вернуться к исходному CWND может вызвать ту же перегрузку, которая в первую очередь вызвала снижение CWND. Предотвращение перегрузки просто снижает скорость увеличения CWND по мере приближения к предыдущему значению CWND.Как только медленный запуск увеличил CWND до значения SSTHRESH, которое было установлено на 50 процентов от исходного CWND, логика предотвращения перегрузки заменяет логику медленного запуска для увеличения CWND. Для предотвращения перегрузки используется формула, позволяющая CWND расти медленнее, по существу, с линейной скоростью.

На рис. 6-2 показан график CWND только с медленным запуском и с медленным запуском и предотвращением перегрузки после истечения времени ожидания отправителя в ожидании подтверждения.

Рисунок 6-2 Графики CWND с медленным запуском и предотвращением перегрузки

CWND

CWND

До перегрузки

1 сегмент__

Размер

Рисунок 6-2 Графики CWND с медленным запуском и предотвращением перегрузки

CWND

До перегрузки

1 сегмент__

Размер

Время

Только медленный старт

Время

Только медленный старт

CWND> SSthresh

Медленный запуск и предотвращение перегрузки

Многие люди не понимают, что процесс медленного старта состоит из комбинации алгоритма медленного старта и алгоритма предотвращения перегрузки.При медленном запуске CWND понижается, но быстро растет. При предотвращении перегрузки значение CWND растет медленнее по мере приближения к предыдущему значению CWND.

Таким образом, UDP и TCP реагируют на потерю пакетов следующим образом:

• Отправители UDP не уменьшают и не увеличивают скорость отправки в результате потери пакетов.

• Отправители TCP снижают скорость отправки из-за потери пакетов.

• Отправители TCP решают использовать либо окно получателя, либо CWND, в зависимости от того, что меньше в данный момент.

• Медленный запуск TCP и предотвращение перегрузки определяют, насколько быстро увеличивается CWND после того, как окно было опущено из-за потери пакетов.

ПРИМЕЧАНИЕ В зависимости от обстоятельств TCP иногда сокращает CWND вдвое в ответ на потерянные пакеты, а в некоторых случаях снижает CWND до одного размера сегмента, как было описано в этом первом разделе. Более суровая реакция уменьшения окна до размера одного сегмента была показана в этом разделе для более полного описания медленного старта и предотвращения перегрузки.

Продолжите чтение здесь: Глобальная синхронизация Tail Drop и голодание TCP

Была ли эта статья полезной?

Характеристики потери пакетов UDP: влияние трафика TCP

Характеристики потери пакетов UDP: влияние трафика TCP

СОБИРАЕТСЯ

Общество истории информационных технологий (ITHS) — это всемирная группа, состоящая из более чем 500 членов, работающих вместе, чтобы помочь и продвигать документацию, сохранение, каталогизацию и исследование истории информационных технологий (ИТ).Мы предлагаем место, где отдельные лица, академики, корпоративные архивисты, кураторы государственных учреждений и любители могут собирать и обмениваться информацией и ресурсами. Этот каталог ресурсов, посвященных истории ИТ, является единственным в своем роде и представляет собой ценный ресурс как для историков ИТ, так и для архивистов.

ТАЙМЕРЫ

The Wayback Machine — https://web.archive.org/web/20160103125117/https://www.isoc.org/inet97/proceedings/F3/F3_1.HTM

Хиденари Савашима
Институт науки и технологий Нара
Япония

Ёсиаки Хори
Институт дизайна Кюсю
Япония

Hideki Sunahara
Yuji Oie
Nara Institute of Science and Technology
Japan

Аннотация

В глобальных сетях (WAN) UDP, вероятно, использовался для работы в реальном времени. приложения, такие как видео и аудио.Поставки UDP сведены к минимуму задержка передачи из-за пропуска процесса установки соединения, поток контроль и ретрансляция. Между тем более 80 процентов ресурсы WAN заняты протоколом управления передачей данных (TCP) трафик. В отличие от простоты UDP, TCP использует уникальный механизм контроля потока с раздвижными окнами. Следовательно, качество обслуживания (QoS) приложений реального времени, использующих UDP. трафиком TCP и механизмом управления потоком, когда TCP и UDP разделяет узкое место.

В данной статье исследуются характеристики потери пакетов UDP. посредством моделирования глобальных сетей, одновременно передающих трафик UDP и TCP. В частности, влияние управления потоком TCP на потерю пакетов аудио в реальном времени исследуются, чтобы узнать, как аудио в реальном времени должен передаваться с минимальной потерей пакетов, при этом конкурируя с TCP-трафиком за пропускную способность. Полученный результат было то, что потеря пакетов UDP происходит чаще и чаще, когда окна перегрузки TCP-соединений синхронизируются.Особенно в этом случае лучшая производительность звуковых приложений в реальном времени могут быть получены, когда они отправляют пакеты небольшого размера без уменьшения их скорости передачи.

Ключевые слова: потеря пакетов, UDP, TCP, WAN, связь в реальном времени.

Содержание

В глобальной сети многие приложения реального времени, такие как видео и аудио, доступны для экспериментального и практического использования. Активность в этой области, а также количество приложений реального времени быстро увеличивается.Однако механизм гарантии QoS для приложений реального времени в Интернете не установлено пока что; доступно только лучшее обслуживание. В результате приложения должен допускать некоторое ухудшение QoS с точки зрения потери пакетов, задержки и джиттер задержки для сообщений, передаваемых по сетям. IPv6 имеет механизмы поддержки приложений в реальном времени, но он будет не будет широко использоваться в течение нескольких лет.

Традиционно в качестве транспортного уровня использовался UDP, а не TCP. протокол для приложений реального времени.UDP — гораздо более простой протокол без задержек установки соединения, управления потоком и повторной передачи, обеспечение приложений с более простым интерфейсом к сети. Благодаря этой простоте UDP отвечает требованиям чувствительных к задержкам приложения реального времени, которые могут реализовать собственное управление потоком и схемы ретрансляции. Более того, UDP может выполнять многоадресную рассылку. коммуникации, что позволяет разрабатывать такие приложения как сетевая конференц-связь.

В настоящее время более 80 процентов интернет- пропускная способность [1] используется приложениями на основе TCP, такими как HTTP и FTP.TCP использует механизм управления потоком через скользящее окно. Под потоком TCP контроль, перегрузка сети распознается обнаружением пакета потеря. Когда это происходит, пакет передается повторно. В то же время TCP уменьшает размер окна перегрузки, эффективно уменьшая его скорость вывода, чтобы избежать дальнейшей перегрузки. В отсутствие перегрузка, TCP увеличивает размер окна перегрузки и выводит темп.

С другой стороны, UDP, который потребляет большую часть оставшейся Как упоминалось выше, пропускная способность Интернета не контролируется.Что есть, UDP передает сообщения через сеть только на указанный порт приемника.

Совместное использование пропускной способности Интернета по TCP и UDP вызывает присутствие одного, чтобы повлиять на производительность другого. Пакет UDP на потерю особенно влияет TCP-трафик и его управление потоком механизм. Это связано с тем, что управление потоком TCP продолжает увеличиваться. размер своего окна до тех пор, пока не произойдет потеря пакета, если объявленное окно размер достаточно большой.

Кроме того, когда TCP-соединения совместно используют узкий узел, эволюция их окон скопления вероятна синхронизировано; [2] Эта синхронизация TCP, а также другой синхронизирующий трафик из-за периодического обновления маршрутизации столы [3] вредны для использования в сети.Были предложены некоторые механизмы для избежания синхронизация. [4] Тем не мение, в настоящее время они не используются широко. Следовательно, UDP считается, что на потоки сильно влияет TCP-синхронизация.

Фактически в одном report, [5] Потеря пакета UDP и характеристики задержки проверяются с использованием результатов, фактически измеренных в Интернете, а также вопросы, связанные с эффектом синхронизации обсуждается трафик от периодических обновлений таблицы маршрутизации. В другой отчет, потеря пакетов UDP анализируется с помощью очереди модель, включая Интернет-поток и UDP-аудио транслировать.[6] В обоих случаях сообщается количество последовательных потерь пакетов. быть маленьким, когда Интернет не сильно загружен. Кроме того, FEC (Прямое исправление ошибок) также обсуждается как способ минимизировать влияние пакета потеря [7].

Тем не менее, потеря пакетов UDP в WAN должна быть изучена с учетом влиянию трафика TCP, особенно поведению управления потоком TCP. Также следует провести исследования того, как сообщения в реальном времени должны передаваться по необработанному протоколу UDP с минимальной потерей пакетов.

В этой статье мы исследуем характеристики пакетов UDP. потеря из-за моделирования потоков UDP и TCP, разделяющих узкое место узел в WAN. В частности, влияние TCP-синхронизации на потерю аудиопакета UDP. Конечная цель этой статьи состоит в том, чтобы исследовать способы минимизировать потерю пакетов в реальном времени аудио с использованием необработанного UDP. Для этого исследуется потеря пакетов UDP. как функция нескольких параметров, таких как количество существующих TCP-соединения, размер пакета UDP и скорость передачи UDP.

В разделе 2, сценарий моделирования описывается, а также параметры потоков TCP и UDP. Раздел 3 показаны результаты моделирования, сосредоточение внимания на влиянии синхронизации TCP на потерю пакетов UDP. Раздел 4 завершает эту статью обсуждение того, как должен передаваться звук в реальном времени UDP с минимальной потерей пакетов.

Потеря пакетов UDP происходит очень часто на узком месте из локальные сети (LAN) в WAN. Это потому, что интенсивное движение концентрируется на узком месте, вызывая перегрузку трафика против пропускной способности WAN.По этой причине наша сеть модель состоит из узкого места от LAN к WAN и источника-назначения пары через узел, как показано на рисунке 1. Симулятор для использовать ниже РЕАЛЬНО 4.0 [8] с нашими дополнительными реализация источника UDP.


Рисунок 1: Сценарий моделирования глобальных сетей

Доступная полоса пропускания фиксирована на уровне 10 Мбит / с для LAN и 1,5 Мбит / с. для WAN. Буфер узкого места основан на FIFO, и размер его буфера определен в 16 пакетов.Хотя буфер размер относительно небольшой по сравнению с размером в реальной сети шлюзов, характеристики потери пакетов UDP могут быть легко наблюдали и применяли.

Трафик UDP параметризуется в соответствии с аудиоприложениями Интернета. Таким образом, размер пакета UDP установлен на 80, 160 и 320 байтов с добавление заголовков UDP и IP. Скорость передачи установлена ​​на 16, 32 и 64 Кбит / с. Несколько комбинаций размера пакета и передачи скорость исследуются.

Версия TCP — 4.3BSD-Reno, который уменьшает текущую загруженность размер окна уменьшается вдвое при обнаружении перегрузки. TCP-трафик предполагается, что они генерируются приложениями FTP в глобальной сети. Это причина того, что примерно 70 процентов WAN-трафика занято по объемным данным TCP переводы, [1] и они могут можно смоделировать с помощью передачи данных FTP. Размер FTP-пакета 512 байты с добавленными заголовками TCP и IP. Размер буфера приемника указано в 16 пакетах.

Что касается количества существующих TCP-соединений, мы исследовали 3, 6, 9 и 12 вариантов подключения.В случае подключения 3 TCP, все соединения могут передавать свои пакеты с максимальным окном размер, потому что на узком месте не возникает перегрузки. Однако в случае 12 TCP-соединений некоторые соединения могут передавать только несколько пакетов, потому что серьезная потеря пакетов вызывает повторение таймауты. Поэтому результаты показаны для 6, 9 и 12 TCP-соединения.

Сетевая задержка для каждого соединения указана в следующих два случая: (1) однородный случай, в котором все связи ‘ сетевые задержки единообразны; и (2) неоднородный случай, в у которых все соединения разные.В однородном случае сетевые задержки всех подключений фиксированы на 52 мс, предполагая 1 мс на стороне отправителя LAN, 50 мс на WAN и 1 мс на стороне получателя LAN. В гетерогенном случае сеть задерживается на стороне отправителя. LAN и WAN фиксируются так же, как и в однородный случай, и задержки в LAN на стороне приемника следуют шаблон 1 мс, 3 мс, 5 мс, 7 мс и так далее, так что задержка раз увеличивается на 2 мс при каждом подключении. В некотором смысле однородная дело не очень реалистичное.Однако возможно, что какой-то FTP соединения устанавливаются в почти одинаковых сетях задержки или некоторых TCP-соединения устанавливаются на одной и той же паре хостов одновременно, как с HTTP.

Представленные ниже результаты основаны на проведенном моделировании. на 200 секунд моделирования. Эту продолжительность можно рассматривать как быть достаточно длинным, чтобы оценить характеристики потери пакетов UDP потому что мы не получили существенно отличающихся характеристик по результатам даже в течение 20000 секунд моделирования по предварительным экспериментам.

Характеристика потери пакетов UDP исследуется в терминах из следующих предметов:

  1. Эффект синхронизации TCP.
  2. Влияние количества существующих TCP-соединений.
  3. Влияние размера пакета UDP.
  4. Влияние скорости передачи UDP.

TCP синхронизация

Во-первых, мы исследуем поведение управления потоком TCP, когда только TCP ручьи несут.

На рисунке 2 показано изменение размера окна перегрузки для 6 TCP. соединений в гетерогенном случае, а на рисунке 3 показаны один в однородном случае.

Все цифры в этом подразделе показывают результаты за короткий промежуток времени. от 45 до 50 секунд по времени моделирования, потому что поведение во время другие части очень на них похожи.


Рисунок 2: Эволюция размера окна для 6 TCP-соединений (разнородных Корпус)


Рисунок 3: Изменение размера окна для 6 TCP-соединений (однородных Корпус)

На рисунке 2 некоторые TCP-соединения передают свои пакеты с максимальный размер окна, в то время как другие должны выдержать тайм-аут, тем самым уменьшение размера окна до одного пакета.Размеры окон связей не коррелируют друг с другом. Вместо этого, как показано на рисунке 3 никакое соединение не может увеличить размер окна до максимум. Кроме того, размер окна периодически изменяется. способ в некотором ограниченном диапазоне. То есть все окна размером Изображенные эволюции явно синхронизированы (то есть TCP-синхронизация).

На рисунке 4 показана длина очереди буфера узких мест в гетерогенный случай (несинхронизация TCP), а на рисунке 5 показано тот, что в однородном случае (TCP-синхронизация).


Рисунок 4: Изменение длины очереди буфера узла узкого места (Гетерогенный случай)


Рисунок 5: Изменение длины очереди буфера узла узкого места (Однородный случай)

В обоих случаях наблюдается некоторое колебание длины очереди. эволюция в буфере узких мест, но синхронизация TCP вызывает большие колебания, как показано на рисунке 5. В TCP В случае несинхронизации средняя длина очереди 9.3 пакета в буфере длиной 16 пакетов, а общая пропускная способность TCP-соединений составляет 1,37 Мбит / с (без учета заголовков). В ПТС случай синхронизации, средняя длина очереди 7,3 пакета а общая пропускная способность TCP-соединений снижается до 1,24 Мбит / с по следующим причинам: при синхронизации TCP, потеря пакетов происходит по всем TCP-соединениям почти на в то же время, что приводит к значительному уменьшению размеров всех окон как показано на рисунке 3. В результате весьма вероятно, что пропускная способность, используемая TCP-соединениями, почти не используется для некоторых продолжительность, а также буфер, как показано на рисунке 5.

Как упоминалось ранее, однородный случай является наихудшим случаем в ощущение, что сеть должна подвергаться TCP-синхронизации, которая резко ухудшает производительность. Кроме того, наши результаты показывают что длина очереди изменяется довольно циклично даже в гетерогенный случай.

На рисунках с 2 по 5 показан вариант подключения 6 TCP, но такое же поведение. наблюдаются в 9 и 12 случаях TCP-соединения. Когда число существующих TCP-соединений увеличиваются, размер окна TCP находится в более узком диапазоне, а средняя длина очереди и общая пропускная способность TCP-соединений уменьшается.

Характеристики потери пакетов UDP: влияние трафика TCP

Далее мы рассмотрим случай, когда потоки UDP и TCP передаются через Интернет, а характеристики UDP-пакета потери рассматриваются. В следующих симуляциях характеристики потери пакетов UDP оцениваются в двух случаях: Несинхронизация TCP случай и случай синхронизации TCP.

Размер пакета UDP и количество существующих TCP-соединений

В этом подразделе влияние размера пакета UDP и количества существующих TCP-соединений на предмет потери пакетов UDP.

UDP поток передается со скоростью 64 Кбит / с, с 6, 9, или 12 TCP-соединений, и коэффициент потери пакетов UDP в каждом случае рассматриваются. Коэффициент потери пакетов UDP определяется как отношение количество потерянных пакетов к общему количеству переданных пакеты. На рисунке 6 показана скорость потери пакетов UDP в неоднородной case (случай несинхронизации TCP) для пакетов UDP из 80, 160, и 320 байт. На рис.7 показан коэффициент потерь в однородной case (случай синхронизации TCP).


Рисунок 6: Влияние размера пакета на потерю пакетов UDP (TCP Несинхронизация)


Рисунок 7: Влияние размера пакета на потерю пакетов UDP (TCP Синхронизация)

Потеря пакетов UDP происходит очень часто из-за синхронизации TCP, особенно, когда пакеты UDP имеют размер 160 и 320 байтов, как показано на рисунке 7. Чтобы можно было детально изучить потерю пакетов, эволюция последовательно потерянных пакетов измеряется в случае 320-байтового UDP, передаваемого со скоростью 64 Кбит / с с 6 TCP-соединениями.Результат в случае несинхронизации TCP показан на рисунке. 8, а случай синхронизации TCP представлен на рисунке 9.


Рисунок 8: Динамика количества последовательно потерянных UDP Пакеты (несинхронизация TCP)


Рисунок 9: Динамика количества последовательно потерянных UDP Пакеты (синхронизация TCP)

В случае несинхронизации TCP (рисунок 8) потери пакетов единичны и нечасты. В лучшем случае теряется только два пакета последовательно.Однако в случае синхронизации TCP пакет убытки происходят последовательно и очень часто. В некоторых случаях 4 пакета теряются последовательно. Это означает перегрузку, вызванную TCP синхронизация не разрешается в течение времени, в течение которого UDP передает 4 пакета. Таким образом, синхронизация TCP вызывает потерю пакетов UDP. как последовательно, так и часто.

Что касается влияния количества существующих TCP-соединений, UDP потеря пакетов увеличивается, особенно при синхронизации TCP случае, поскольку количество существующих TCP-соединений увеличивается в рисунок 6 и рисунок 7.Причину этого можно описать как следует:

С увеличением количества TCP-подключений большее количество пакетов могут одновременно поступать в узел, тем самым делая буфер сильно перегружен, что приводит к потере пакетов чаще. В частности, в случае синхронизации TCP, это очень вероятно, что пакеты одновременно прибывают в узкое место узел из всех TCP-соединений. Это также ухудшает потерю пакетов UDP. производительность очень понравилась.

На рисунке 7 коэффициент потерь для пакетов UDP размером 80 байт не сильно зависит от синхронизации TCP по сравнению с пакетами UDP других размеров.Для пояснения мы покажем перегрузку TCP. изменение размера окна для случая 6 TCP-соединения для 320-байтового UDP на рисунке 10 и 80-байтовый UDP на рисунке 11.


Рисунок 10: Изменение размера окна для 6 TCP-соединений (TCP Синхронизация) с 320 Byte-UDP


Рисунок 11: Изменение размера окна для 6 соединений TCP (TCP Синхронизация) с 80 Byte-UDP

Хотя TCP-синхронизация происходит на обоих рисунках, окно размер изменяется в более широком диапазоне для пакетов UDP размером 320 байт, чем для тех, у кого 80 байт.Средний размер окна в 320-байтовом UDP case — 10,2 пакета, а общая пропускная способность TCP-соединений составляет 1,28 Мбит / с, а в случае 80-байтового UDP — 8,19 пакетов и 1,24 Мбит / с соответственно. Следовательно, пакеты UDP размером 80 байт снизить до некоторой степени пропускную способность TCP и уменьшить использование сети. Это объясняется в следующем абзаце.

UDP-пакетов здесь передаются со скоростью 64 Кбит / с, а 80-байтовые Пакеты UDP передаются со скоростью 100 пакетов / сек, тогда как 320-байтовый пакет UDP-пакета передается со скоростью всего 25 пакетов / сек.Что касается буфера узкого места, то пакет — это единица управления. независимо от его длины. Следовательно, когда пакеты UDP 80 байт, TCP-пакеты, приходящие на узел, могут найти буфер перегружены чаще, чем когда они имеют размер 320 байт. Для этого причина, размер окна TCP в случае 80-байтовых пакетов UDP составляет предотвращено получение такого размера, как в случае 320-байтового UDP пакеты. Пакеты UDP размером 320 байт в свою очередь страдают от перегрузки большой продолжительности из-за большого окна TCP.То есть малогабаритный Пакеты UDP приводят к лучшей производительности потери пакетов, но приводят к худшей производительности TCP. При определении подходящего размер для пакетов UDP, может быть компромисс между потерей пакетов UDP повышение производительности и снижение производительности пропускной способности TCP.

Влияние скорости передачи UDP

В этом подразделе влияние скорости передачи UDP на Потеря пакетов UDP проверяется на лучшую производительность UDP; в размер пакета составляет 80 байт.

На рисунке 12 показана скорость потери пакетов UDP для скоростей передачи. 64, 32 и 16 Кбит / с, в которых поток UDP и 12 соединений TCP поделитесь узлом.


Рисунок 12: Влияние скорости передачи на потерю пакетов UDP (UDP: 80 байт с 12 TCP-соединениями)

Как показано на рисунке 12, в случае несинхронизации TCP незначительные различия в показателях потери пакетов UDP для разных скоростей передачи. Напротив, в ПТС случай синхронизации, потеря пакетов резко снижается с увеличением скорости передачи и очень близка к что в случае несинхронизации TCP для скоростей передачи более 30 Кбит / с.

Это явление можно объяснить, как в разделе 3.2.1. А именно, передача UDP-пакетов с высокой скоростью предотвращает TCP-соединения от увеличения размеров окон до больших значений.

Изучены результаты контроля скорости видео в реальном времени. используя обратную связь от потери пакетов информация [9]. Управление скоростью, уменьшающее скорость в случае большой потери пакетов, является очень эффективен в смягчении перегрузки сети. Однако наш результаты показывают, что регулирование скорости не способствует снижению коэффициент потери пакетов в самом приложении реального времени.По факту, UDP с меньшей скоростью передачи страдал от потери пакетов в наши симуляции.

TCP-соединения настолько жадные, что пытаются использовать все буферная емкость, доступная на узком месте. Таким образом, если больше емкость буфера становится доступной, потому что передача UDP скорость снижается, TCP получает доступную пропускную способность, увеличивая размеры окон дальше. В результате объем доступной полосы пропускания в UDP уменьшается по мере уменьшения скорости передачи UDP.

Следовательно, в приложении реального времени, использующем UDP, управление скоростью должен давать противоположный эффект в уменьшении потери пакетов.Кроме того, увеличение скорости передачи UDP при небольшом размере пакета очень эффективный способ уменьшить потерю пакетов.

Были исследованы характеристики потери пакетов UDP, с точки зрения влияния управления потоком TCP на UDP и TCP сосуществование WAN со следующими результатами:

Во-первых, мы сосредоточились на случае, когда только TCP-соединения используют всю пропускную способность сети. В частности, когда сеть задержки подключений одинаковые, все окно перегрузки TCP размеры меняются синхронно (т.е.е., TCP-синхронизация). В этих случаях длина очереди буфера узкого места увеличивается. периодическим способом и может оставаться полным или почти пустым в течение относительно длительный срок.

Во-вторых, мы рассмотрели случай, когда потоки UDP добавляются в случай синхронизации TCP. Потеря пакетов UDP происходит чаще и последовательно в случае синхронизации TCP. Это потому что синхронизация TCP может сделать буфер узла заполненным на относительно длительное время многократно и периодически.Даже если узел заполнены пакетами, UDP-пакеты по-прежнему передаются постоянно и должны отбрасываться последовательно. Следовательно, поток UDP страдает вредные последствия TCP-синхронизации.

В-третьих, что касается влияния размера пакета UDP, скорость потери пакетов UDP является относительно низким, когда размер пакета UDP невелик. Особенно, пакеты небольшого размера очень эффективны в сдерживании тяжелых потеря пакетов из-за синхронизации TCP.

Далее, что касается влияния скорости передачи UDP, мы показали, что скорость потери пакетов не уменьшается при использовании более низкие скорости передачи.Эту особенность можно объяснить следующим образом. TCP-соединения могут совместно использовать всю доступную пропускную способность среди них, используя свой механизм управления потоком. Поэтому даже если поток UDP снижает скорость передачи, в результате доступная полоса пропускания будет немедленно использована TCP-соединениями. Вот почему снижение скорости передачи UDP-пакетов не поможет. способствовать повышению эффективности потери пакетов UDP.

В этой статье рассматривается один поток UDP с некоторыми параметрами. с, но мы провели моделирование в случае, когда больше чем один поток UDP и полученные результаты почти то же, что показано здесь, хотя некоторые потоки UDP часто влияют на друг с другом.

Из результатов нашего моделирования мы заключаем, что когда в реальном времени приложения используют UDP в качестве транспортного протокола, лучшая производительность можно получить, используя небольшие размеры пакетов при достаточно высокой передаче темп.

Однако следует отметить, что пакеты небольшого размера требуют относительно большие накладные расходы из-за заголовков UDP и IP. Это результаты в неэффективности использования сети. В этом смысле, чтобы отправлять трафик из приложений реального времени с хорошим качеством, много будет больше пропускной способности, чем генерируется приложениями. требуется, в то время как требуемое качество еще не гарантировано.

  1. http://www.nlanr.net/Flowsresearch/fixstats.21.6.html
  2. Л. Чжан и Д. Кларк, Колебательное поведение сетевого трафика: моделирование тематического исследования, межсетевое взаимодействие: Исследования и опыт, Vol. 1. С. 101-112, 1990.
  3. С. Флойд и В. Якобсон, Синхронизация периодических сообщений маршрутизации, ACM SIGCOMM’93, стр. 33-44, Сентябрь 1993 г.
  4. С. Флойд и В. Якобсон, На этапе движения эффекты в шлюзах с коммутацией пакетов, Межсетевое взаимодействие: Исследование и Опыт, т.3, стр. 115-156, сентябрь 1992 г.
  5. Д. Санги, А. К. Агравала, О. Гудмундсон и Б. Н. Джайн, Экспериментальная оценка сквозного поведения на Интернет, Материалы конференции по компьютерным коммуникациям, С. 867-874, март / апрель 1993 г.
  6. Дж-С. Bolot, сквозная задержка и потеря пакетов Поведение в Интернете, В Proc. ACM SIGCOMM93, стр. 289-298, Сентябрь 1993 г.
  7. Дж-С. Болот, А. Вега Гарсия, Механизмы управления для пакетного аудио в Интернете, Proc.IEEE Infocom’96, стр. 232-239, Март 1996 г.
  8. С. Кешав, REAL: сетевой симулятор, Tech. Представитель 88/472, факультет информатики, Калифорнийский университет, Беркли, 1988.
  9. И. Буссе, Б. Деффнер и Х. Шульцринн, Dynamic QoS-контроль мультимедийных приложений на основе RTP, Компьютер Communications, стр. 49-58, январь 1996 г.

rfc3042

 Сетевая рабочая группа М. Оллман
Запрос комментариев: 3042 NASA GRC / BBN
Категория: Стандарты Track H.Балакришнан
                                                                     Массачусетский технологический институт
                                                                С. Флойд
                                                                   ACIRI
                                                            Январь 2001 г.


          Улучшение восстановления после потерь TCP с помощью ограниченной передачи

Статус этого меморандума

   Этот документ определяет протокол отслеживания стандартов Интернета для
   Интернет-сообщество и просит обсуждения и предложения по
   улучшения.Пожалуйста, обратитесь к текущему выпуску "Интернет
   Официальные стандарты протокола »(STD 1) для состояния стандартизации
   и статус этого протокола. Распространение этой памятки не ограничено.

Уведомление об авторских правах

   Авторское право (C) The Internet Society (2001). Все права защищены.

Абстрактный

   В этом документе предлагается новый протокол управления передачей (TCP).
   механизм, который можно использовать для более эффективного восстановления потерянных сегментов
   когда окно перегрузки соединения маленькое, или когда большой
   количество сегментов теряется в одном окне передачи.В
   Алгоритм "Limited Transmit" требует отправки нового сегмента данных в
   ответ на каждое из первых двух повторяющихся подтверждений, что
   прибыть к отправителю. Передача этих сегментов увеличивает
   вероятность того, что TCP сможет восстановиться после единственного потерянного сегмента, используя
   алгоритм быстрой повторной передачи вместо использования дорогостоящей повторной передачи
   тайм-аут. Limited Transmit может использоваться как совместно с, так и
   в отсутствие механизма избирательного подтверждения TCP (SACK).1. Введение

   Ряд исследователей заметили, что восстановление потерь TCP
   стратегии не работают, когда окно перегрузки на TCP
   отправитель маленький. Это может произойти, например, потому что есть
   только ограниченный объем данных для отправки или из-за ограничения
   вызвано окном, объявленным получателем, или из-за
   ограничения, налагаемые сквозным контролем перегрузки для
   соединение с продуктом с небольшой задержкой полосы пропускания
   [Riz96, Mor97, BPS + 98, Bal98, LK98].Когда TCP обнаруживает отсутствие
   сегмент, он входит в фазу восстановления потерь, используя один из двух методов.



Allman, et al. Стандарты Track [Страница 1] 

RFC 3042 Улучшение восстановления после потери TCP, январь 2001 г.


   Во-первых, если подтверждение (ACK) для данного сегмента не получено
   через определенное время происходит тайм-аут повторной передачи и
   сегмент повторно отправлен [RFC793, PA00]. Во-вторых, «Быстрая ретрансляция»
   алгоритм повторно отправляет сегмент, когда три повторяющихся ACK поступают в
   отправитель [Jac88, RFC2581].Однако, поскольку дубликаты ACK из
   приемник также запускается переупорядочиванием пакетов в Интернете,
   Отправитель TCP ожидает трех повторяющихся ACK в попытке
   устранить неоднозначность потери сегмента из-за переупорядочения пакетов. Однажды в убытке
   на этапе восстановления, можно использовать ряд методов для повторной передачи потерянных
   сегменты, включая восстановление на основе медленного старта или быстрое восстановление
   [RFC2581], NewReno [RFC2582] и восстановление потерь на основе выборочного
   подтверждения (SACK) [RFC2018, FF96].

   Тайм-аут повторной передачи TCP (RTO) основан на измеренном цикле приема-передачи.
   раз (RTT) между отправителем и получателем, как указано в [PA00].Чтобы предотвратить ложную повторную передачу только задержанных сегментов
   и не потеряно, минимальный RTO консервативно выбран равным 1
   второй. Следовательно, отправителям TCP надлежит обнаруживать и восстанавливать
   от как можно большего количества потерь без длительного перерыва
   когда соединение остается незанятым. Однако если не хватает дубликата
   ACK поступают от получателя, алгоритм Fast Retransmit никогда не
   инициировано --- эта ситуация возникает, когда окно перегрузки маленькое
   или если потеряно большое количество сегментов в окне.Например,
   рассмотрим окно перегрузки (cwnd) из трех сегментов. Если один
   сегмент отбрасывается сетью, то не более двух повторяющихся ACK
   прибудет к отправителю. Поскольку требуется три дублирующих ACK
   для запуска Fast Retransmit потребуется тайм-аут для повторной отправки
   отброшенный пакет.

   [BPS + 97] обнаружил, что примерно 56% повторных передач, отправляемых через загруженную сеть
   сервера были отправлены после истечения срока действия RTO, в то время как только 44% были обработаны
   от Fast Retransmit. Кроме того, только 4% RTO на основе
   повторных передач можно было избежать с помощью SACK, что, конечно,
   должен продолжать отличать повторный заказ от реальной потери.В
   напротив, используя технику, описанную в этом документе и в
   [Bal98], 25% повторных передач на основе RTO в этом наборе данных будут
   скорее всего, удалось избежать.

   В следующем разделе этого документа описаны небольшие изменения в TCP.
   отправители, которые уменьшат зависимость от таймера повторной передачи,
   и тем самым улучшить производительность TCP, когда Fast Retransmit не
   срабатывает. Эти изменения не влияют отрицательно на производительность
   TCP и не взаимодействуют отрицательно с другими соединениями, в других
   обстоятельства.Allman, et al. Стандарты Track [Страница 2] 

RFC 3042 Улучшение восстановления после потери TCP, январь 2001 г.


1.1 Терминология

   В этом документе ключевые слова «ДОЛЖНЫ», «НЕ ДОЛЖНЫ», «ОБЯЗАТЕЛЬНО»,
   «ДОЛЖЕН», «НЕ ДОЛЖЕН», «ДОЛЖЕН», «НЕ ДОЛЖЕН», «РЕКОМЕНДУЕТСЯ», «МОЖЕТ»,
   И «НЕОБЯЗАТЕЛЬНО» следует интерпретировать, как описано в RFC 2119 [1] и
   укажите уровни требований для протоколов.

2 Алгоритм ограниченной передачи

   Если отправитель TCP ранее не отправлял данные в очередь на передачу
   он ДОЛЖЕН использовать алгоритм ограниченной передачи, который требует TCP
   отправитель для передачи новых данных по прибытии первых двух
   последовательные повторяющиеся ACK при выполнении следующих условий
   доволен:

     * Рекламируемое окно получателя позволяет передавать
       сегмент.* Объем невыполненных данных останется меньше или равен
       к окну скопления плюс 2 сегмента. Другими словами,
       отправитель может отправить только два сегмента за пределами окна перегрузки
       (cwnd).

   Окно перегрузки (cwnd) НЕ ДОЛЖНО изменяться, когда эти новые
   сегменты передаются. Предполагая, что эти новые сегменты и
   соответствующие ACK не отбрасываются, эта процедура позволяет отправителю
   для определения потерь с использованием стандартного порога Fast Retransmit из трех
   повторяющиеся ACK [RFC2581].Это более устойчиво к переупорядоченным пакетам
   чем если бы старый пакет был повторно передан на первом или втором
   дубликат ACK.

   Примечание. Если соединение использует выборочные подтверждения [RFC2018],
   отправитель данных НЕ ДОЛЖЕН отправлять новые сегменты в ответ на дублирование
   ACK, которые не содержат новой информации SACK, как некорректно работающий получатель
   может генерировать такие ACK, чтобы инициировать несоответствующую передачу данных
   сегменты. См. [SCWA99] для обсуждения атак путем неправильного поведения.
   приемники.

   Ограниченная передача следует за "сохранением пакетов" перегрузкой
   принцип управления [Jac88].Каждый из первых двух повторяющихся ACK
   означает, что сегмент покинул сеть. Кроме того,
   отправитель еще не решил, что сегмент был отброшен и
   поэтому нет оснований предполагать, что текущий контроль перегрузки
   состояние неточное. Следовательно, передача сегментов не
   отклоняться от духа принципов контроля перегрузки TCP.






Allman, et al. Стандарты Track [Страница 3] 

RFC 3042 Улучшение восстановления после потери TCP, январь 2001 г.


   [BPS99] показывает, что переупорядочивание пакетов - не редкое сетевое событие.[RFC2581] не предусматривает отправку данных по первым двум
   дубликаты ACK, которые приходят отправителю. Это вызывает взрыв
   сегменты, которые будут отправлены, когда ACK для новых данных действительно прибывает после
   переупорядочивание пакетов. Используя ограниченную передачу, пакеты данных будут
   синхронизируется входящими ACK, поэтому передача не будет
   как резкий.

   Примечание. Ограниченная передача реализована в симуляторе ns [NS].
   Исследователи, желающие исследовать этот механизм, могут это сделать.
   включив "singledup_" для данного TCP-соединения.3 Связанные работы

   Развертывание явного уведомления о перегрузке (ECN) [Flo94, RFC2481]
   может принести пользу соединениям с небольшими размерами окна перегрузки [SA00].
   ECN предоставляет метод индикации перегрузки для конечного хоста
   без сбрасывания сегментов. Хотя некоторые выпадения сегментов все еще могут происходить,
   ECN может позволить TCP работать лучше с небольшим окном перегрузки
   размеры, потому что отправитель может избежать многих быстрых повторных передач и
   Время ожидания повторной передачи, которое в противном случае потребовалось бы для обнаружения
   отброшенные сегменты [SA00].Когда TCP-трафик с поддержкой ECN конкурирует с TCP без ECN
   трафик, трафик с поддержкой ECN может получить до 30% больше полезной пропускной способности.
   Для массовых переводов относительное преимущество ECN в производительности составляет
   наибольший, когда в среднем каждый поток имеет 3-4 невыполненных пакета в течение
   время каждого приема-передачи [ZQ00]. Это должна быть хорошая оценка для
   влияние на производительность потока с использованием ограниченной передачи, поскольку как ECN
   и ограниченная передача уменьшают зависимость от таймера повторной передачи
   для сигнализации перегрузки.Алгоритм управления перегрузкой, снижающий скорость вдвое [MSML99], использует форму
   ограниченная передача, поскольку она требует передачи сегмента данных на
   каждую секунду дубликат ACK, который приходит отправителю. Алгоритм
   отделяет решение о том, что отправлять, от решения о том, когда
   Отправить. Однако, как и в случае ограниченной передачи, алгоритм всегда будет
   отправить новый сегмент данных на втором дублированном ACK, который поступает в
   Отправитель.

4 соображения безопасности

   Дополнительные последствия для безопасности изменений, предлагаемых в этом
   document, по сравнению с текущими уязвимостями TCP, минимальны.Потенциальные проблемы с безопасностью возникают из-за подрыва сквозной
   контроль перегрузки из «ложных» дублирующих ACK, где «ложь»
   дублированный ACK - это дублированный ACK, который фактически не подтверждает
   приемник TCP получил новые данные. Ложные дубликаты ACK могли



Allman, et al. Стандарты Track [Страница 4] 

RFC 3042 Улучшение восстановления после потери TCP, январь 2001 г.


   результат дублирования ACK, которые сами дублируются в
   сети, или от некорректных приемников TCP, отправляющих ложные дубликаты
   ACK для подрыва сквозного контроля перегрузки [SCWA99, RFC2581].Когда получатель данных TCP согласился использовать опцию SACK, TCP
   отправитель данных имеет достаточно сильную защиту от ложного дублирования
   ACK. В частности, с SACK, дублирующий ACK, который подтверждает
   новые данные, поступающие на приемник, сообщают порядковые номера
   эти новые данные. Таким образом, с помощью SACK отправитель TCP может проверить, что
   получение дубликата ACK подтверждает данные, которые отправитель TCP
   фактически отправлено, и для которого не было предыдущего подтверждения
   получен перед отправкой новых данных в результате этого подтверждения.Для дополнительной защиты отправитель TCP может вести учет пакетов.
   границы для передаваемых пакетов данных и распознают не более одного
   действительное подтверждение для каждого пакета (например, первое подтверждение
   подтверждение получения всех порядковых номеров в этом
   пакет).

   Можно представить себе некоторую ограниченную защиту от ложного дубликата.
   ACK для TCP-соединения без SACK, когда отправитель TCP сохраняет
   запись количества переданных пакетов и распознает не более
   одно подтверждение на пакет, которое будет использоваться для запуска отправки
   новых данных.Однако этот учет переданных пакетов и
   признано, потребует дополнительного состояния и дополнительной сложности в
   отправитель TCP, и не кажется необходимым.

   Самая важная защита от ложных дубликатов ACK исходит от
   ограниченный потенциал дублирования ACK в подрыве сквозного
   контроль перегрузки. Следует рассмотреть два отдельных случая: когда
   отправитель TCP получает меньше порогового количества дубликатов
   ACK, и когда отправитель TCP получает по крайней мере пороговое количество
   дубликаты ACK.В последнем случае TCP с ограниченной передачей будет
   ведут себя практически так же, как TCP без ограниченной передачи, в этом
   окно перегрузки будет уменьшено вдвое, а период восстановления
   быть инициированным.

   Когда отправитель TCP получает количество дубликатов меньше порогового
   ACK некорректно работающий получатель может послать два повторяющихся ACK после каждого
   обычный ACK. Можно представить, что отправитель TCP отправит на
   в три раза превышающую допустимую скорость отправки. Однако с помощью Limited
   Передавать, как указано в разделе 2, отправителю разрешено только
   превышать окно перегрузки меньше, чем дублированный порог ACK
   (из трех сегментов), и поэтому не будет отправлять новый пакет для каждого
   получен дубликат ACK.Allman, et al. Стандарты Track [Страница 5] 

RFC 3042 Улучшение восстановления после потери TCP, январь 2001 г.


Благодарности

   Билл Феннер, Джамшид Махдави и рабочая группа транспортного района
   предоставил ценные отзывы о ранней версии этого документа.

использованная литература

   [Bal98] Хари Балакришнан. Проблемы надежной передачи данных
             по гетерогенным беспроводным сетям. Кандидат наук. Тезис,
             Калифорнийский университет в Беркли, август 1998 г.[BPS + 97] Хари Балакришнан, Венката Падманабхан, Шринивасан Сешан,
             Марк Стемм и Рэнди Кац. Поведение TCP в загруженной сети
             Сервер: Анализ и улучшения. Технический отчет
             UCB / CSD-97-966, август 1997 г. Доступно по адресу
             http://nms.lcs.mit.edu/~hari/papers/csd-97-966.ps. (Также
             в Proc. Конференция IEEE INFOCOM, Сан-Франциско, Калифорния, март
             1998г.)

   [BPS99] Джон Беннетт, Крейг Партридж, Николас Шектман. Пакет
             Изменение порядка не является патологическим поведением сети.IEEE / ACM
             Транзакции в сети, декабрь 1999 г.

   [FF96] Кевин Фолл, Салли Флойд. Сравнения на основе моделирования
             Тахо, Рино и SACK TCP. Связь с компьютером ACM
             Обзор, июль 1996 г.

   [Flo94] Салли Флойд. TCP и явное уведомление о перегрузке.
             ACM Computer Communication Review, октябрь 1994 г.

   [Jac88] Ван Якобсон. Предотвращение перегрузки и контроль. ACM
             SIGCOMM 1988.

   [LK98] Донг Линь, Х.Т. Кунг. Стратегии быстрого восстановления TCP:
             Анализ и улучшения.Материалы InfoCom, март
             1998 г.

   [MSML99] Мэтт Матис, Джефф Семке, Джамшид Махдави, Кевин Лэхи. В
             Алгоритм сокращения вдвое, 1999. URL:
             http://www.psc.edu/networking/rate_halving.html.

   [Mor97] Роберт Моррис. Поведение TCP с множеством потоков. Труды
             Пятой Международной конференции IEEE по сети
             Протоколы. Октябрь 1997 г.

   [NS] Ns сетевой симулятор. URL: http://www.isi.edu/nsnam/.





Allman, et al.Стандарты Track [Страница 6] 

RFC 3042 Улучшение восстановления после потери TCP, январь 2001 г.


   [PA00] Паксон В. и М. Оллман, "Вычисление повторной передачи TCP
             Таймер », RFC 2988, ноябрь 2000 г.

   [Riz96] Луиджи Риццо. Проблемы при реализации селективной
             Благодарности за TCP. Январь 1996 г. URL:
             http://www.iet.unipi.it/~luigi/selack.ps

   [SA00] Хади Салим, Дж. И У. Ахмед, «Оценка эффективности
             Явное уведомление о перегрузке (ECN) в IP-сетях », RFC
             2884, июль 2000 г.[SCWA99] Стефан Сэвидж, Нил Кардуэлл, Дэвид Ветеролл, Том
             Андерсон. Контроль перегрузки TCP с некорректным поведением
             Получатель. Обзор компьютерных коммуникаций ACM, октябрь
             1999 г.

   [RFC793] Постел, Дж., «Протокол управления передачей», STD 7, RFC
             793, сентябрь 1981 г.

   [RFC2018] Mathis, M., Mahdavi, J., Floyd, S. и A. Romanow, "TCP
             Варианты выборочного подтверждения ", RFC 2018, октябрь 1996 г.

   [RFC2119] Брэднер, С., «Ключевые слова для использования в RFC для обозначения
             Уровни требований », BCP 14, RFC 2119, март 1997 г.[RFC2481] Рамакришнан, К. и С. Флойд, «Предложение о добавлении явного
             Уведомление о перегрузке (ECN) для IP ", RFC 2481, январь
             1999 г.

   [RFC2581] Оллман, М., Паксон, В. и У. Стивенс, «Перегрузка TCP.
             Control », RFC 2581, апрель 1999 г.

   [RFC2582] Флойд, С. и Т. Хендерсон, "Модификация NewReno для
             Алгоритм быстрого восстановления TCP », RFC 2582, апрель 1999 г.

   [ZQ00] Инь Чжан и Лили Цю, понимание сквозного
             Влияние RED на производительность в неоднородной среде,
             Технический отчет Cornell CS 2000-1802, июль 2000 г.URL
             http://www.cs.cornell.edu/yzhang/papers.htm.












Allman, et al. Стандарты Track [Страница 7] 

RFC 3042 Улучшение восстановления после потери TCP, январь 2001 г.


Адреса авторов

   Марк Оллман
   НАСА Исследовательский центр Гленна / BBN Technologies
   Льюис Филд
   21000 Brookpark Rd. МС 54-5
   Кливленд, Огайо 44135

   Телефон: + 1-216-433-6586
   Факс: + 1-216-433-8705
   Электронная почта: [email protected]
   http: //roland.grc.nasa.gov/~mallman


   Хари Балакришнан
   Лаборатория компьютерных наук
   545 Площадь Технологий
   Массачусетский Институт Технологий
   Кембридж, Массачусетс 02139

   Электронная почта: [email protected]
   http://nms.lcs.mit.edu/~hari/


   Салли Флойд
   Центр интернет-исследований AT&T при ICSI (ACIRI)
   1947 Центральная улица, офис 600
   Беркли, Калифорния 94704

   Телефон: + 1-510-666-2989
   Электронная почта: [email protected]
   http://www.aciri.org/floyd/



















Allman, et al. Стандарты Track [Страница 8] 

RFC 3042 Улучшение восстановления после потери TCP, январь 2001 г.


Полное заявление об авторских правах

   Авторское право (C) The Internet Society (2001).Все права защищены.

   Этот документ и его переводы могут быть скопированы и предоставлены
   другие и производные работы, которые комментируют или иным образом объясняют это
   или помочь в его реализации могут быть подготовлены, скопированы, опубликованы
   и распространяется, полностью или частично, без ограничения каких-либо
   любезно, при условии, что указанное выше уведомление об авторских правах и этот абзац являются
   включены во все такие копии и производные работы. Однако это
   сам документ не может быть изменен каким-либо образом, например, путем удаления
   уведомление об авторских правах или ссылки на Internet Society или другие
   Интернет-организации, за исключением случаев, когда это необходимо для
   разработка интернет-стандартов, в этом случае процедуры для
   авторские права, определенные в процессе разработки стандартов Интернета, должны быть
   следовали, или по мере необходимости перевести его на другие языки, кроме
   Английский.Ограниченные разрешения, предоставленные выше, являются бессрочными и не будут
   аннулировано Интернет-сообществом, его правопреемниками или правопреемниками.

   Этот документ и содержащаяся в нем информация размещены на
   Основа "КАК ЕСТЬ" и ИНТЕРНЕТ-ОБЩЕСТВО И ИНТЕРНЕТ-ИНЖИНИРИНГ
   TASK FORCE ОТКАЗЫВАЕТСЯ ОТ ВСЕХ ГАРАНТИЙ, ЯВНЫХ ИЛИ ПОДРАЗУМЕВАЕМЫХ, ВКЛЮЧАЯ
   НО НЕ ОГРАНИЧИВАЕТСЯ НИКАКОЙ ГАРАНТИЕЙ, ЧТО ИСПОЛЬЗОВАНИЕ ИНФОРМАЦИИ
   ЗДЕСЬ НЕ НАРУШАЕТ НИКАКИХ ПРАВ ИЛИ ПОДРАЗУМЕВАЕМЫХ ГАРАНТИЙ
   КОММЕРЧЕСКАЯ ЦЕННОСТЬ ИЛИ ПРИГОДНОСТЬ ДЛЯ ОПРЕДЕЛЕННОЙ ЦЕЛИ.Подтверждение

   Финансирование функции редактора RFC в настоящее время обеспечивается
   Интернет-общество.



















Allman, et al. Стандарты Track [Страница 9]
 

Измерение и анализ падения пропускной способности TCP в кластерных системах хранения данных

Измерение и анализ падения пропускной способности TCP в Кластерные системы хранения

Amar Phanishayee, Эли Креват, Виджай Васудеван,


Дэвид Г.Андерсен, Грегори Р. Гангер, Гарт А. Гибсон, Сринивасан Сешан

Университет Карнеги-Меллона

Абстрактный

Кластерные системы хранения и системы хранения на основе iSCSI полагаются на стандартные TCP / IP-over-Ethernet для клиентского доступа к данным. К несчастью, когда данные распределяются по нескольким сетевым узлам хранения, клиент может столкнуться с падением пропускной способности TCP, что приводит к гораздо более низкая пропускная способность чтения, чем должна быть обеспечена доступные сетевые ссылки.Концептуально эта проблема возникает потому что клиент одновременно читает фрагменты блока данных из нескольких источников, которые вместе отправляют достаточно данных для перегрузки коммутатор буферизует клиентскую ссылку. В данной статье анализируется это Incast проблема, исследует ее чувствительность к различным параметры системы и исследует эффективность альтернативных Стратегии на уровне TCP и Ethernet для смягчения последствий TCP коллапс пропускной способности.

1 Введение

Кластерные системы хранения становятся все более популярными. важная цель как для исследований, так и для промышленности [ 1 , 36 , 15 , 24 , 14 , 8 ].Эти системы хранения состоит из сетевого набора небольших серверов хранения, с данными распределить по этим серверам, чтобы повысить производительность и надежность. Построение этих систем с использованием стандартного TCP / IP и Сети Ethernet привлекательны своей невысокой стоимостью и простота использования, а также желание разделить пропускную способность кластер хранения на нескольких вычислительных кластерах, визуализация системы и персональные машины. Кроме того, не-IP-хранилище сети не хватает некоторых зрелых возможностей и широты услуги, доступные в IP-сетях.Однако строительство хранилища системы на TCP / IP и Ethernet создают несколько проблем. В этом документ, мы анализируем один важный барьер на пути к высокой производительности хранение через TCP / IP: проблема Incast [ 24 ].

Incast — катастрофическое падение пропускной способности TCP, которое происходит как количество серверов хранения, отправляющих данные клиенту увеличивается сверх способности коммутатора Ethernet к буферизации пакеты. Как мы исследуем далее в § 2, проблема возникает из-за тонкого взаимодействие между ограниченными размерами буфера коммутатора Ethernet, шаблоны связи, распространенные в кластерных системах хранения, и механизмы восстановления потерь TCP.Короче говоря, чередование данных объединяет поведение нескольких серверов хранения, поэтому система ограничено временем выполнения запроса самого медленного узел хранения [ 7 ]. Малые буферы Ethernet истощены одновременным потоком трафика со многих серверов, что приводит к потере пакетов и одному или нескольким тайм-аутам TCP. Эти таймауты приводят к задержке в сотни миллисекунд – порядка по величине больше, чем типичная выборка данных раз — значительно снижая общую пропускную способность.

В этом документе представлены три статьи. Сначала мы исследуем подробно описать основные причины проблемы Incast , характеризуя его поведение в различных условиях (буфер пространство, разное количество серверов и т. д.). Мы находим, что Incast является общим препятствием для увеличения количества исходные узлы в кластерной системе хранения. При увеличении количество доступного буферного пространства может задержать начало Incast , любая конфигурация коммутатора будет иметь какое-то максимальное количество серверов, которые могут отправлять одновременно до того, как произойдет коллапс пропускной способности.

Во-вторых, мы исследуем эффективность существующих вариантов TCP. (например, Reno [ 3 ], NewReno [ 13 ], SACK [ 22 ] и ограниченные передача [ 2 ]), предназначенная для улучшения надежность восстановления потерь TCP. Пока мы обнаруживаем, что ход от Reno до NewReno существенно улучшает производительность, ни один из дополнительные улучшения помогают. По сути, когда TCP проигрывает все пакета в своем окне или теряет повторную передачу, нет могут помочь умные алгоритмы восстановления потерь.

В-третьих, мы исследуем набор техник, которые умеренно эффективно маскирует Incast , например, резко снижает Таймер таймаута повторной передачи TCP. С некоторыми из этих решений построение высокопроизводительной масштабируемой кластерной системы хранения поверх TCP / IP и Ethernet могут быть практичными. К сожалению, пока эти методы могут быть эффективными, ни одна из них не лишена недостатков. Наш окончательный вывод состоит в том, что ни одно из существующих решений полностью не достаточно, и ясно указаны дальнейшие исследования для разработки принципиальное решение проблемы Incast .

2 Фон

В кластерных системах хранения данные хранятся во многих серверы хранения для повышения надежности и производительности. Обычно их сети имеют высокую пропускную способность (1-10 Гбит / с) и низкую задержка (время прохождения туда и обратно от десятков до сотен микросекунд) с клиентами, отделенными от серверов хранения одним или несколькими переключатели.

В этой среде блоки данных разбиты на несколько серверы, так что каждый сервер хранит фрагмент блока данных, обозначается как Server Request Unit (SRU) , как показано на Рисунок 1.Клиент запрашивает данные блок отправляет пакеты запросов на все серверы хранения содержащие данные для этого конкретного блока; клиент просит следующий блок только после того, как он получил все данные для текущий блок. Мы называем такие чтения синхронизированными. читает .

Эта простая среда абстрагирует многие детали реального системы хранения, такие как несколько полос на блок данных, несколько невыполненных запросов блока от клиента и несколько клиенты на одном коммутаторе, отправляющие запросы через общее подмножество серверов.Однако это самый основной представитель настройка, в которой может произойти Incast , и упрощает нашу анализ.

Необходимость в высокопроизводительной среде, поддерживающей параллельные операции, такие как синхронизированное чтение, особенно важно из-за таких недавних проектов, как Parallel NFS (pNFS) . pNFS является составной частью NFSv4.1 , который поддерживает параллельную передачу данных и данных чередование нескольких файловых серверов [ 37 , 28 , 18 ].

Рисунок 1. Простое хранилище на основе кластера среда с одним клиентом, запрашивающим данные от нескольких серверов через синхронизированное чтение.

Большинство сетей настроены таким образом, чтобы пропускная способность канала связи клиента с коммутатор является узким местом пропускной способности любых параллельных данных передача [ 16 , 21 ]. К сожалению, при выполнении синхронизированного чтения для блоков данных на все большем количестве серверов клиент может наблюдать Падение пропускной способности TCP на один или два порядка ниже ее пропускная способность канала.Фигура 2 иллюстрирует это падение производительности в кластерном хранилище. сетевой среде, когда клиент запрашивает данные всего из семи серверы.

Рисунок 2: Пропускная способность TCP свертывание для приложения синхронизированного чтения выполнено на кластере хранения.

Ранние проекты параллельных сетевых хранилищ, такие как NASD проект [ 15 ], наблюдалось падение пропускной способности TCP в кластерных системах хранения при синхронных данных переводы.Это было задокументировано как часть более крупного документа Нэгла. и другие. [ 24 ], который назвал проблему Incast и приписал его нескольким отправителям подавляющее большинство буфер переключения фиксированного размера. Однако, хотя Нэгл продемонстрировал проблема и предложила альтернативную реализацию TCP показывает небольшое улучшение, полный анализ и измерение проблема не была решена, и не было возможных решений представлен.

Incast до конца не изучен.Текущие системы попытаться избежать коллапса пропускной способности TCP, ограничив количество серверов, участвующих в передаче блоков, или искусственно ограничение скорости передачи данных. Эти решения, однако, как правило, относятся к одной конфигурации (например, количество серверов, размеры блоков данных, пропускная способность каналов и т. д.), и таким образом не устойчивы к изменениям в сети хранения среда.

3 Экспериментальная установка

В этом разделе мы описываем моделирование и реальную систему среды, в которых мы измеряем влияние Incast и соответствующие рабочие нагрузки, которые мы используем в обеих настройках.

3.1 Среда моделирования

Во всех наших симуляциях используется нс-2 [ 27 ], управляемый событиями сетевой симулятор, моделирующий сетевые приложения на гранулярность пакета. Наша конфигурация моделирования по умолчанию состоит из одного клиента и нескольких серверов, подключенных к одному и тому же переключатель, как показано на рисунке 1.

Таблица 1 показывает параметры и соответствующие им значения по умолчанию, которые мы меняем моделирование. Мы выбираем размер по умолчанию SRU 256 КБ для моделирования система хранения продукции [ 9 ].Из нашего моделирования мы получаем глобальная и поточная статистика TCP, такая как события повторной передачи, события тайм-аута, размеры окна TCP и другие параметры TCP для помощи в нашем анализе Incast .

Параметр По умолчанию
Количество серверы
SRU Размер 256 КБ
Пропускная способность канала 1 Гбит / с
Время туда и обратно (RTT) 100 мкс
Портовый коммутатор размер выходного буфера
Реализация TCP: Reno, NewReno, SACK NewReno
Limited Передача отключен
Порог дублирования-ACK ( da обмолота ) 3
Медленно Старт включен
RTO мин 200 мс
Таблица 1: Параметры моделирования с настройки по умолчанию.

Наше тестовое приложение выполняет синхронизированное чтение по TCP в ns-2 для моделирования данных типичной чередующейся файловой системы операция передачи. Клиент запрашивает блок данных у n серверов, отправив пакет запроса каждому серверу для один SRU данных. Когда клиент получает всю блок данных n · SRU всего байта, это немедленно отправляет пакеты запроса для следующего блока.Каждый измерения выполняются в течение 20 секунд смоделированного времени, передача достаточно данных для точного расчета пропускной способности.

3.2 Кластерная среда хранения

В наших экспериментах используется группа сетевых серверов хранения в качестве настраивается в производственных системах хранения. Наше приложение выполняет тот же протокол синхронизированного чтения, что и при моделировании и измеряет достигнутую пропускную способность. Все системы имеют 1 Гбит / с ссылки и время приема-передачи от клиента к серверу (RTT) примерно 100 мкс.Мы оценили три разных хранилища кластеры:

  • Procurve: Один или несколько HP Procurve 2848 коммутаторов Ethernet, сконфигурированных в виде древовидной иерархии, подключают клиент до 64 серверов, каждый из которых работает под управлением Linux 2.6.18 SMP.
  • S50: A Переключатель Force10 S50 соединяет 48 машин Redhat4 Linux 2.6.9-22 на одном коммутаторе (1 клиент, 47 серверов).
  • E1200: A Переключатель Force10 E1200 с 672 портами с буфером вывода не менее 1 МБ на порт.Этот коммутатор соединяет 88 машин Redhat4 Linux 2.6.9-22 (1 клиент, 87 серверов).

Для нашей рабочей нагрузки и анализа мы сохраняем размер SRU исправлено, пока мы масштабируем количество серверов, неявно увеличивая размер блока данных с количеством серверов.

4 Воспроизведение Incast

В этом разделе мы сначала продемонстрируем наличие Incast в нескольких реальных кластерных средах хранения. С использованием моделирование, мы затем показываем, что Incast является общей проблемой и выявить причины ошибки Incast .Мы обнаруживаем, что результаты, полученные с помощью нашей экспериментальной установки, подтверждают наши Результаты симуляции. Наконец, мы показываем, что попытки смягчить Incast путем изменения параметров, таких как размер буфера переключения и SRU размера — неполные решения, которые можно масштабировать плохо или вводить неэффективность системы при взаимодействии с система хранения.

(a) HP Procurve 2848 (б) Force10 S50
Рисунок 3: Incast наблюдается на разных конфигурациях коммутатора с QoS и без него служба поддержки.Отключение поддержки QoS имеет лишь небольшой эффект для (а) HP Procurve 2848, но значительно задерживает начало Incast для (б) Force10 S50.

4,1

Incast в реальных системах

Чтобы убедиться, что падение пропускной способности показано в Рисунок 2 не является изолированным Например, мы изучаем Incast на трех кластерах хранения описано в §3.2. Рисунок 3 показывает, что оба Среды Procurve и S50 работают до порядка снижение значимости полезной производительности (пропускная способность, по данным заявление).Однако E1200 не продемонстрировал никакой пропускной способности. drop для 87 доступных серверов, которые мы относим к большой объем буферного пространства, доступного на коммутаторе.

В нашем анализе мы используем оценки размеров выходного буфера. собраны у сетевых администраторов и из спецификаций коммутаторов. К сожалению, мы не можем определить точное количество портов. размеры буфера на этих переключателях. Эта информация недоступно, потому что большинство коммутаторов динамически выделяют каждый выходной буфер ссылки из общего пула памяти.Кроме того, когда QoS очереди включены, объем памяти, выделенной очередям зависит от реализации конкретного поставщика. Однако наш оценки размеров выходного буфера подтверждены симуляцией полученные результаты.

Многие коммутаторы обеспечивают поддержку QoS, чтобы обеспечить приоритизацию разные виды трафика. Обычная техника реализации для обеспечение QoS заключается в разделении очереди вывода для каждого класса услуга. В результате отключение QoS увеличивает эффективный размер. выходных очередей, хотя величина этого увеличения варьируется у разных производителей и коммутаторов.Как показано в Рисунок 3 (а), отключение QoS в среде Procurve существенно не влияют на пропускную способность — обвал все равно происходит около 7 серверы. Напротив, на рисунке 3 (b) показано, что отключение QoS на Force10 S50 значительно задерживает начало действия Incast . Эти результаты показывают, что Force10 S50 выделяет относительно больший объем буферного пространства и переключение ресурсов на поддержку QoS по сравнению с Procurve 2848. Размер буфера переключателя играет важную роль в смягчении последствий Incast , как мы оцениваем в §4.3.

4.2 Проверка и анализ в Симулятор

Чтобы определить, насколько общий проблема Incast предназначена для кластерного хранилища поверх TCP / IP / Ethernet, мы также воспроизводим Incast в ns-2 сетевой симулятор. На рисунке 4 показано Incast в моделировании с коллапсом порядка величины примерно на 8 серверах и более. Эти результаты очень похожи на те из среды Procurve. Различия между результаты, включая разницу в поведении ниже 3 серверов, есть несколько возможных причин.Во-первых, смоделированные исходные узлы служат данные так быстро, как сеть может обрабатывать, в то время как реальные системы часто бывают другие небольшие задержки. Мы относим нижнюю производительность реальной системы между 1-3 серверами к этим различия. Кроме того, моделирование не моделирует коммутацию Ethernet. поведение, которое может снизить время и производительность различия.

Несмотря на эти различия, реальные эксперименты подтверждают наши результаты моделирования, показывающие, что удар Incast практически идентична как в реальных измерениях системы, так и в моделирование.

Рисунок 4: Сравнение Incast в симуляции и в реальной жизни мировые кластерные настройки.

Анализ трассировки TCP, полученной при моделировании, показывает что таймауты повторной передачи TCP являются основной причиной Incast (Рисунок 5). Когда производительность ухудшается, большинство серверов по-прежнему отправляют свои SRU быстро, но на одном или нескольких других серверах истекло время ожидания потерям пакетов.Серверы, завершившие передачу, не получить следующий запрос от клиента, пока клиент получает полный блок данных, что приводит к недоиспользованию ссылка.

Рисунок 5: Мгновенная полезная производительность, усредненная с интервалами 5 мс. Таймауты являются основной причиной ошибки Incast и одного остановка потока во время передачи блока приводит к простоям длительность связи около 200 мс.События тайм-аута указывают когда поток начинает восстанавливаться.
4.2.1 Почему возникают тайм-ауты

Остальная часть документа предполагает знакомство с терминами TCP и концепции. Чтобы освежить в памяти TCP, мы отсылаем читателя к аппендикс.

Чтение блоков данных приводит к одновременной передаче пакеты с серверов. Поскольку буферное пространство, связанное с выходной порт коммутатора ограничен, эти одновременные передачи могут перегрузить буфер, что приведет к потерям.TCP восстанавливается от потерь путем повторной передачи пакетов, которые у него есть обнаружен как потерянный. Это обнаружение потерь осуществляется либо на основе данных. или основан на тайм-ауте пакета у отправителя.

Отправитель TCP назначает порядковые номера передаваемым пакетам. и ожидает подтверждения TCP (ACK) для отдельных пакетов от ресивера. Получатель TCP подтверждает последний пакет он получил в порядке. Пакеты не по порядку генерируют дубликаты ACK для последнего полученного пакета по порядку.Получение нескольких дублирование ACK для пакета указывает на потерю — это обнаружение потерь на основе данных. Таймауты используются как резервный вариант при отсутствии достаточной обратной связи и обычно это признак сильной заложенности.

На Рисунке 3 (а), мы видим первоначальное падение с 900 Мбит / с до 500 Мбит / с между 3-5 серверов на Procurve. Анализ журналов TCP показывает, что это падение пропускной способности вызвано задержкой ACK механизм [ 3 ]. В спецификации отложенного ACK подтверждение должно генерироваться как минимум каждую секунду пакет и должен быть сгенерирован в течение 200 мс после прибытия первый неподтвержденный пакет.Большинство реализаций TCP ждут только 40 мс перед генерацией этого ACK. Эта задержка 40 мс вызывает «Мини-тайм-аут», приводящий к незадействованной ссылке емкость аналогична обычному таймауту. Однако обычные таймауты ответственны за коллапс по порядку величины за пределами 5 серверов в Incast . Мы исследуем решения на уровне TCP, чтобы избежать тайм-ауты и уменьшить штраф за тайм-ауты подробно в §5.

Находка Расположение
Incast вызвано слишком малые выходные буферы переключателя: увеличение размера буфера может облегчить ситуацию. §4.3

TCP NewReno и SACK значительно улучшают производительность через TCP Reno, но не помешает Incast .

§5.1.1

Улучшения в восстановлении потерь TCP с использованием Limited Передача или уменьшение порога дублирования ACK не помощь.

§5.1.2

Уменьшение штрафа тайм-аута за счет уменьшения минимальное значение ретрансляции может существенно помочь, но ставит вопросы безопасности и универсальности.

§5.2

Включение управления потоком Ethernet действует только в самая простая настройка, но не для более распространенных многопозиционные системы.

§ 6
Таблица 2: Сводка основных Полученные результаты.

4.3 Снижение потерь: более крупный переключатель Буферы

Поскольку таймауты являются основной причиной ошибки Incast , мы пытаемся для предотвращения основной причины тайм-аутов — потери пакетов — для смягчения Incast за счет увеличения доступного буферное пространство, выделенное на коммутаторе Ethernet.В §4.1 упоминалось, что больший буфер переключения размер задерживает начало Incast . На рисунке 6 показано, что удвоение размера буфера выходного порта коммутатора в симуляция удваивает количество серверов, которые могут передавать до система испытывает Incast .

Рисунок 6: Влияние изменяющийся размер буфера переключателя — удвоение размера буфер выходного порта коммутатора удваивает количество серверы, которые могут поддерживаться до системы опыт Incast .

При достаточно большом буферном пространстве Incast можно избежать для определенного количества серверов, как показано на рисунке 6. Это подтверждается тем фактом, что мы не могли наблюдать Incast с 87 серверами на коммутаторе Force10 E1200, который имеет очень большие буферы. Но на рисунке 6 показано, что для Буфер 1024 КБ, 64 сервера используют только около 65% клиентских пропускная способность канала, а удвоение количества серверов только улучшает хорошая пропускная способность до 800 Мбит / с.

К сожалению, коммутаторы с большим буфером обычно стоят дороже. (коммутатор E1200 стоит более 500000 долларов США), принудительная система дизайнеры могут выбирать между избыточным выделением ресурсов, будущим масштабируемость и аппаратные бюджеты. Кроме того, переключатель производителям может потребоваться перейти на более быстрые и дорогие память (например, SRAM) при переходе на 10 Гбит / с и выше. Этот ход оказывает ценовое давление на производителей, чтобы они оставались небольшими размерами буферов. Следовательно, более экономичное решение, чем увеличение буфера размеры обязательны.

Хотя вышеупомянутые эксперименты проводятся в контролируемой среда, в которой только один клиент читает данные со многих серверов, реальная среды хранения, вероятно, более сложные, со многими клиенты делают несколько одновременных запросов к разным наборам серверы. Поскольку объем доступного буферного пространства для каждого клиента запрос, вероятно, уменьшается в общем переключателе разделяемой памяти архитектур (и не увеличивается в противном случае), мы ожидаем общая производительность будет хуже в этих более сложных среды.

4.4 Сокращение времени простоя соединения за счет увеличения

SRU Размер

Рисунок 7 показывает, что увеличение размера SRU улучшает общая полезная производительность. С 64 серверами, размер 1000KB SRU работает на два порядка быстрее, чем размер 10KB SRU бег. Рисунок 8 показывает, что настоящие переключатели, в данном случае Force10 S50, ведут себя сходным образом.

TCP хорошо работает в настройках без синхронизированного чтения, который может быть смоделирован бесконечным размером SRU .Простой Тесты пропускной способности TCP в netperf не показывают Incast [ 24 ]. Для больших размеров SRU , серверы будут использовать свободную пропускную способность канала, предоставленную любым остановлен поток в ожидании события тайм-аута; это эффективно уменьшает соотношение времени ожидания и времени передачи.

Большой размер SRU помогает максимально эффективно использовать головку диска на читает. К сожалению, SRU размером даже 8 МБ — это довольно непрактично: большинство приложений запрашивают данные небольшими порциями, соответствует диапазону размеров SRU 1-256 КБ.Для Например, при запросе блока размером 8 МБ из системы хранения хотелось бы разделить этот блок на столько серверов, сколько нужно было пропитать ссылку. Кроме того, более крупный SRU размер может увеличить конфликт блокировок из-за перекрывающихся записей, что приводит к снижению производительности записи в файловой системе реализации [ 9 ].

Рисунок 7: Влияние изменения SRU Размер — для заданного количества серверов более крупный SRU улучшает производительность.
Рисунок 8: Влияние изменения SRU Размер для Force10 S50 с поддержкой QoS включено.

На рисунке 9 показан альтернативная модель масштабирования в симуляции, где размер блока данных фиксируется и количество серверов хранения увеличено, размещая верхняя граница объема закрепленной памяти ядра на запрос в клиенте.Эта модель масштабирования больше похожа на то, как файл системы запрашивают данные. Быстрое падение полезной производительности наблюдается для фиксированный размер блока по мере увеличения количества серверов. Потому что размер блока данных фиксированный, количество серверов увеличивается уменьшает размер SRU . Таким образом, эффект увеличения количество серверов усугубляется уменьшенным размером SRU и приводит к еще более низкой производительности.

Рисунок 9: Для фиксированный размер блока данных, в отличие от фиксированного SRU размер, увеличение количества серверов также снижает SRU Размер запрошен с каждого сервера и приводит к еще более низкая производительность.

5 решений на уровне TCP

Поскольку таймауты TCP являются основной причиной того, что Incast снижает пропускную способность, мы анализируем решения на уровне TCP, предназначенные для уменьшить как количество тайм-аутов, так и штрафы за них. Мы выполняем это анализ с использованием моделирования нс-2 .

5.1 Как избежать тайм-аутов

В этом разделе мы анализируем три различных подхода к как избежать тайм-аутов:

  • Повышение устойчивости TCP к общим схемы потерь за счет использования альтернативных реализаций TCP;
  • Устранение недостатка достаточного обратная связь на основе данных;
  • Снижение скорости загрузки трафика экспоненциально растущие окна TCP во время медленный старт [ 3 ].

Метод анализа — производительность и тайм-аут Категоризация: Для каждого подхода мы задаем два вопроса: 1) насколько этот подход улучшает производительность и 2) если таймауты все еще возникают, почему? Чтобы ответить на второй вопрос, смотрим на количество повторяющихся ACK, полученных в момент, когда поток время ожидания (счетчик DART ). Цель этот анализ предназначен для категоризации ситуаций, при которых тайм-ауты, чтобы понять, мог ли тайм-аут быть избегали.

Существует три типа тайм-аутов, которых нельзя избежать с помощью большинство реализаций TCP. Первый возникает, когда все окно данных потеряно и нет обратной связи для TCP для использования при восстановлении, что приводит к нулевому значению DART . Мы классифицируем этот вид тайм-аута как полное окно . Убыток .

Второй тип возникает, когда последний пакет SRU сброшен, и в этом блоке больше нет доступных данных запрос на восстановление на основе данных.Мы классифицируем этот тип тайм-аут в случае Last Packet Loss case. Однако мы находим, что имеется относительно немного случаев Last Packet Loss .

Последняя неизбежная ситуация тайм-аута возникает, когда повторно переданный пакет, инициированный механизмом восстановления потерь TCP и упало. Поскольку отправитель не может знать, отброшен ли этот повторно переданный пакет, отправитель время ожидания перед повторной передачей пакета.Мы классифицируйте этот неизбежный тайм-аут как Lost Retransmit . Подсчет DART не помогает при классификации Lost Ретранслировать случая; мы исследуем файлы трассировки TCP, чтобы определить эти ситуации.

5.1.1 Альтернативные реализации TCP — Reno, NewReno и SACK
Рисунок 10: NewReno превосходит показатели Рино и Мешок
(а) Рино (б) NewReno (c) NewReno с da обмолота = 1.
Рисунок 11: Распределение Дублированные подтверждения получены по истечении времени ожидания ( DART ) записано для 20-секундного прогона с 16 серверами, 64-пакетный буфер коммутатора, размер SRU 256 Кбайт.
Рино NewReno NewReno + da обмолота = 1
(рис.11 (а)) (Рис.11 (б)) (Рис.11 (c))
блоков данных передан 49 89 84
тайм-аут событий 589 442 349
полное окно потери 464 362 313
потеряно ретранслирует 61 2 41
потерянные ретрансляции при DART ≥ da обмолота 0 0 34
потерянные ретрансляции при DART < da обмолота 61 2 7
последних пакетов упал 2 5 2
Таблица 3: Категоризация события тайм-аута в различных сценариях TCP (соответствует рисунку 11)

Многие варианты TCP помогают сократить дорогостоящие тайм-ауты за счет использования подтверждения для более точной идентификации пакета потери [ 19 , 3 , 13 , 22 ].А хорошо задокументированная проблема с классическим алгоритмом TCP Reno что он плохо восстанавливается после нескольких потерь в окне, оставляя он подвержен потерям, которые вызывают тайм-аут [ 13 ]. Например, с размером окна из шести, Reno будет всегда испытывать таймаут, когда теряются первые два пакета окна.

Самыми популярными решениями этой проблемы являются улучшенные алгоритмы ретрансляции в TCP NewReno [ 13 ] и выборочный схема подтверждений в TCP SACK [ 22 ].TCP NewReno, в отличие от Reno, не выходит из режима быстрого восстановления и быстрой повторной передачи при получении частичный ACK (указание на другую потерю в оригинале window), но вместо этого немедленно передает следующий пакет обозначается частичным ACK. TCP SACK использует выборочную схема подтверждения для указания конкретных пакетов в окно, которое необходимо отправить повторно [ 12 ].

Рисунок 10 показывает, что TCP NewReno и TCP SACK превосходят TCP Reno. Обратите внимание, что TCP NewReno предлагает на порядок лучше производительность по сравнению с TCP Reno в этом примере.К несчастью, ни одна из реализаций TCP не может устранить большой штраф к хорошему результату вызвано Incast .

Рисунок 11 (а) и (b) показывает распределение DART для TCP Reno и NewReno, а в таблице 3 представлена ​​категоризация события тайм-аута. Общее количество тайм-аутов на блок данных составляет намного ниже для NewReno, что частично объясняет хорошую производительность улучшение по сравнению с Рино. Хотя большинство тайм-аутов можно отнести к категории Полная потеря окна случая или Потеря повторной передачи случая, есть еще 78 тайм-аутов, которые не попадают в эти случаи: они возникают, когда потоки получают около , но недостаточно обратная связь для запуска восстановления после потери данных.Далее мы исследуем две схемы, разработанные для улучшения этих оставшихся случаев.

5.1.2 Устранение недостатка достаточного Обратная связь — ограниченная передача и сокращение дублирования ACK Порог

Когда у потока маленькое окно или когда достаточно большое количество пакетов в большом окне потеряно, ограничено Передача [ 2 ] пытается убедиться, что достаточно пакеты отправляются для запуска 3 повторяющихся ACK, необходимых для восстановление на основе данных. В качестве альтернативы мы можем уменьшить дубликат Порог ACK ( da thresh ) от 3 до 1 до автоматически запускать быструю повторную передачу и быстрое восстановление при получение любых дублирующих подтверждений.

На рисунке 12 показано, что ни один из этих механизмов не обеспечивает любой пропускной способности преимущество над TCP NewReno. Строим распределение DART для настройки да обмолота = 1 дюйм Рисунок 11 (в). В вариант с уменьшенной повторной передачей успешно устраняет тайм-ауты, когда были получены только 1 или 2 дублирующих ACK. К сожалению, это улучшение не увеличивает производительность, потому что каждый блок данных передача по-прежнему испытывает хотя бы один тайм-аут.Эти оставшиеся таймауты в основном связаны с потерей полного окна или потерей повторные передачи, которые ни один из изученных нами вариантов TCP не может Устранить.

5.1.3 Отключение медленного запуска TCP
Рисунок 12: NewReno варианты, предназначенные для улучшения восстановления потерь, не обеспечивают выгода.
(a) Различные SRU размеры (b) Другой TCP реализации
Рисунок 13: Меньшее значение RTO ( RTO мин = 200 мкс) при моделировании повышает производительность на порядок значимости как для Reno, так и для NewReno. rto представляет пробеги с измененным RTO мин. ценить.

Наконец, мы отключаем TCP с медленным запуском , чтобы предотвратить сетевое перегрузка, вызванная потоками, которые экспоненциально увеличивают свои размеры окна для определения пропускной способности канала после тайм-аута (или начало передачи TCP). На рисунке 12 показано, что принуждение Потоки TCP для определения пропускной способности канала с использованием только аддитивного увеличения не облегчает ситуацию.Оставляем анализ даже более консервативные алгоритмы контроля перегрузки на будущее Работа.

5.2 Снижение наказания за тайм-ауты

Потому что многие TCP таймауты кажутся неизбежными (например, Full Window Loss , Lost Retransmit ), здесь мы исследуем сокращение времени ожидания на тайм-аут. Хотя такой подход может значительно улучшить goodput, к этому решению следует относиться с осторожностью, поскольку оно также увеличивает риск преждевременных тайм-аутов, особенно в широкая зона [ 4 ].Обсуждаем последствия этот эффект ниже.

Штраф за тайм-аут или время ожидания потока перед повторной передачей потерянного пакета без «быстрого ретрансляция », обеспечиваемая тремя дублированными ACK, является таймаут повторной передачи ( RTO ). Оценка правильности RTO Значение важно для своевременного реагирования на потери пакетов без преждевременных тайм-аутов. Преждевременный тайм-аут имеет два отрицательных эффекта: 1) он приводит к ложному ретрансляция; и 2) с каждым таймаутом TCP повторно входит медленный старт , хотя пакеты не были потеряны.С тех пор нет перегрузки, TCP, таким образом, недооценивает пропускную способность канала и пропускная способность пострадает. TCP имеет консервативный минимальный RTO ( RTO мин ) значение для защиты от ложных повторные передачи [ 29 , 19 ].

Популярные реализации TCP используют RTO мин. значение 200 мс [ 35 ]. К сожалению, эта величина на порядки больше, чем время приема-передачи в настройках SAN , которые обычно около 100 мкс для существующих сетей хранения данных Ethernet 1 Гбит / с, и 10 мкс для Infiniband и 10 Гбит / с Ethernet.Этот большой RTO мин. накладывает огромные потери на пропускную способность потому что время передачи для каждого блока данных значительно меньше RTO мин .

Рисунок 13 показывает, что уменьшение RTO мин от 200 мс до 200 мкс улучшает производительность на порядок от 8 до 32 серверы. В общем, для любого заданного размера SRU уменьшение RTO мин 909 От 10 до 200 мкс приводит к улучшение производительности на порядок с использованием TCP Reno (Рисунок 13 (а)).Рисунок 13 (б) показывает, что даже при агрессивном RTO мин. значение 200 мкс, TCP NewReno по-прежнему наблюдается 30% -ное снижение полезной производительности для 64 серверов.

К сожалению, установка RTO min на такую небольшое значение создает серьезные проблемы с внедрением и поднимает вопросы безопасности и универсальности.

Проблемы внедрения: Сокращение RTO мин 909 от 10 до 200 мкс требуется TCP дискретность тактовой частоты 100 мкс в соответствии со стандартным RTO алгоритм оценки [ 29 , 19 ].BSD TCP и Реализации TCP в Linux в настоящее время не могут предоставить это мелкозернистый таймер. Реализации BSD ожидают, что ОС обеспечит два грубых программных прерывания «сердцебиения» каждые 200 мс и 500 мс, которые используются для обработки внутренних таймеры на соединение [ 5 ]; Linux TCP использует часы TCP степень детализации от 1 до 10 мс. Таймер TCP в микросекундах требует либо аппаратная поддержка, которой не существует, либо эффективное программное обеспечение таймеры [ 6 ], которые недоступны в большинстве операционные системы.

Безопасность и универсальность: Даже если достаточно поддерживались мелкозернистые таймеры TCP, что уменьшало RTO мин. значение может быть вредным, особенно в ситуациях, когда серверы общаются с клиенты в обширной области. Allman et. al. [ 4 ] обратите внимание, что RTO min можно использовать для торговли «Своевременный ответ с преждевременными тайм-аутами», но есть нет оптимального баланса между ними в текущем TCP реализации: очень низкое RTO min значение увеличивает преждевременные тайм-ауты.Предыдущие исследования оценки RTO в аналогичных сетях ATM с высокой пропускной способностью и малой задержкой также показывают этот очень низкий RTO мин значений приводит к ложные повторные передачи [ 34 ] из-за изменения время приема-передачи в крупномасштабном конфликте со стандартным RTO короткая память RTT оценщика.

6 Управление потоком Ethernet

Некоторые коммутаторы Ethernet предоставляют механизм для каждого перехода для потока управление, которое работает независимо от управления потоком TCP алгоритм.Когда коммутатор, поддерживающий управление потоком Ethernet (EFC) перегружен данными, он может отправить «паузу» кадр к интерфейсу, отправляющему данные в перегруженный буфер, информирование всех устройств, подключенных к этому интерфейсу, о прекращении отправки или пересылка данных в течение определенного периода времени. Во время этого период, перегруженный переключатель может снизить давление на его очереди.

Находим, что EFC эффективен в простейшей конфигурации (т.е. все клиенты и серверы подключены к одному коммутатору), но не не работают более чем с одним переключателем, оказывает неблагоприятное воздействие на другие потоки во всех конфигурациях, и непоследовательно реализован на разных коммутаторах.

Рисунок 14: Включение Ethernet Управление потоком может смягчить Incast для однокоммутаторная сеть.

Мы измеряем эффект от включения управления потоком Ethernet на один коммутатор HP Procurve 2848, где один клиент и несколько серверы напрямую подключены к коммутатору. На рисунке 14 показано, что EFC может значительно повысить производительность. К сожалению, полезная пропускная способность TCP по-прежнему сильно варьируется и ниже, чем было бы без Инкаст .

Несмотря на потенциальные преимущества, наша простая сетевая топология и рабочая нагрузка скрывает неблагоприятные побочные эффекты, которые проявляются при включении EFC. используется в более крупных сетях с несколькими коммутаторами с большим количеством клиентов и активные потоки TCP. По многим из этих причин большинство поставщиков коммутаторов а сетевые операторы не активизируют EFC.

Самая серьезная проблема с EFC — это напор. блокировка, которая происходит, когда кадр паузы происходит от одного перегруженный интерфейс не позволяет нескольким другим потокам взаимодействовать одновременно.Эффекты блокировки главной линии могут быть особенно серьезно в условиях неоднородной полосы пропускания, где один медленная ссылка может привести к недоиспользованию других более быстрых ссылок. В другими словами, кадры паузы приостанавливают весь трафик , входящий в интерфейс, независимо от того, вызывает ли этот трафик скопление.

Из-за сложности блокировки первой линии, а также из-за того, что конкретное взаимодействие EFC на нескольких коммутаторах непоследовательно реализовано среди поставщиков коммутаторов, что позволяет использовать EFC эффективно через несколько переключателей может быть трудным или невыполнимая задача.Например, чтобы предоставить ссылку агрегация между двумя коммутаторами HP Procurve 2848, наша система была настроен виртуальный интерфейс для магистрали — a конфигурация, в которой коммутатор не поддерживает поток контроль.

Хотя Ethernet Flow Control в настоящее время отрицательно взаимодействует с другие потоки, ряд недавних инициатив Ethernet был введено, чтобы добавить управление перегрузкой с ограничением скорости поведение и улучшить функциональность паузы с более возможность детализации по каналам [ 39 ].Эти инициативы являются частью более крупное движение для создания версии без потерь и с управляемым потоком сети Ethernet, именуемой Data Center Ethernet , которая позволит объединить несколько коммуникационных фабрик (включая сети хранения с Fibre Channel) в единую Решение Ethernet.

Действительное поведение без потерь на уровне Ethernet является допустимым решение проблемы Incast , но для этого потребуется количество лет до того, как эти новые стандарты будут внедрены в переключатели, да и то нет никаких гарантий, что новые переключатели будут внедрять эти стандарты единообразно или что они будут такими же удобны и недороги, как современные коммутаторы Ethernet.

7 Связанные работы

Предоставление хранилища через набор серверов хранения сеть с использованием стандартных компонентов TCP / IP / Ethernet является все более популярный подход. Изучена проблема Incast всесторонне в этой статье было отмечено ранее несколько исследователей (например, [ 15 , 17 , 25 , 24 ]), а развитие этого кластерного подхода.

Nagle et al.кратко обсудили переполнение буфера коммутатора вызвано тем, что клиенты читают чередующиеся данные в синхронизированном схема трафика «многие к одному» [ 25 ]. Переход на лучшие переключатели одним из принятых решений было использование буфера большего размера. Они тоже упомянул возможность использования управления потоком на уровне ссылок, но выделить трудности такого подхода для разных нетривиальные топологии коммутаторов без включения высокоуровневых чередование информации, используемой системой хранения.

В более поздних работах Nagle et al.снова сообщить о последствиях Incast на масштабируемом кластерном файловом хранилище производительность [ 24 ]. В частности, они сообщают о экспериментирует с системой качества продукции, где один клиент читает файл последовательно, используя синхронизацию 8 МБ размер блока, распределенный по нескольким серверам хранения. Как число серверов хранения увеличивается для их системы, сохраняя все других переменных сетевой постоянной авторы наблюдают линейное масштабирование пропускной способности хранилища до 7 серверов хранения, устойчивое плато примерно до 14 серверов, а затем быстрое высадка.Основной причиной падения производительности было приписывается нескольким отправителям, превышающим размер буфера сетевой коммутатор. В этой предыдущей работе также было замечено, что Incast проблема не появляется при запуске потоковой передачи сетевой тест, например netperf. Следовательно падение производительности также связано с синхронизацией и координированное чтение в кластерной среде хранения. Нэгл и другие. также обсудите скромный прирост производительности при использовании SACK или сокращение времени ожидания повторной передачи TCP.Хотя это последняя точка не определяется количественно, они отмечают, что деградированные производительность по-прежнему сохраняется даже с этими изменениями.

На более высоком уровне проблема Incast является особой форма перегрузки сети, тема, которая была изучена широко в различных средах. Ранняя работа по перегрузке контроль в глобальной сети Ван Якобсоном адресовал Обвал из-за перегрузки TCP в Интернете примерно в 1985 году [ 19 ]. Принято как основу контроля перегрузки TCP, идея заключалась в том, чтобы обеспечить метод сетевого подключения для обнаружения и динамического настраиваться на доступную сквозную пропускную способность при передаче данные.Чиу и Джайн описывают, почему оконный механизм «Аддитивное увеличение / мультипликативное уменьшение» обеспечивает справедливость и стабильность в этой настройке [ 10 ].

К сожалению, контроль и предотвращение перегрузки TCP алгоритмы не применимы напрямую ко всем настройкам. Для например, у них есть проблемы с настройками беспроводной сети, где потери пакетов на самом деле не могут быть вызваны перегрузкой. TCP также имеет проблемы в сети с высокой задержкой и высокой пропускной способностью настройки [ 20 ].Проблема Incast предоставляет еще один пример настройки сети, в которой использование TCP может вызвать плохую работу.

Производительность и справедливость TCP, когда многие потоки разделяют то же самое узкое место изучал Моррис [ 23 ]. По количеству TCP-потоков через узкое место увеличивается до такой степени, что становится больше потоков, чем пакеты в произведении задержки полосы пропускания, существует все более высокий уровень потерь и изменение несправедливой пропускной способности распределение по потокам.В этой статье используются некоторые из методы и методы анализа для настройки синхронизированных чтений что производит Incast .

8 Заключение

Incast происходит, когда клиент одновременно получает короткий пакет данных из нескольких источников, перегружающий коммутатор буферы, связанные с его сетевым соединением, так что все исходные пакеты из некоторых источников отбрасываются. Когда это происходит, клиент не получает пакетов данных от этих источников и поэтому отправляет нет пакетов подтверждения, требующих тайм-аута источников и затем повторите передачу.Часто результатом этих тайм-аутов TCP является снижение полезной производительности на порядок.

К сожалению, такая схема трафика очень распространена для растущий класс кластерных систем хранения. Когда данные чередование нескольких узлов хранения, каждое чтение клиента создает этот шаблон и большие последовательные чтения создают его многократно (один раз для каждой полной полосы).

Будет ли Incast вызывать коллапс полезной пропускной способности в система зависит от деталей реализации TCP, сети переключатель (особенно размер буфера) и конфигурация системы (например,грамм., количество серверов, по которым чередуются данные). К несчастью, чтобы избежать коллапса, часто требуется ограничить разметку до небольшого количество серверов. Такие методы, как очень короткие тайм-ауты и управление потоком на уровне канала может смягчить влияние Incast в некоторых обстоятельствах, но есть свои недостатки. Нет существующих решение является полностью удовлетворительным, и необходимы дополнительные исследования. необходимо найти новые решения, опираясь на понимание предоставлено этой бумагой.

Благодарности

Мы благодарны Джеффу Батлеру, Эбби Мэтьюз и Брайану. Мюллер из Panasas Inc.за помощь в проведении экспериментов на их системы. Мы благодарим Майкла Строукена за его помощь в управлении кластер PDL. Мы благодарим нашего пастуха Рика Уиллера, Майкла Абд-Эль-Малеку и всем нашим рецензентам за их отзывы. Мы также благодарим участников и компании Консорциума PDL (включая APC, Cisco, EMC, Google, Hewlett-Packard, Hitachi, IBM, Intel, LSI, Microsoft, Сетевое устройство, Oracle, Seagate, и Symantec) за их интерес, идеи, отзывы и служба поддержки.

Этот материал основан на исследовании, частично спонсируемом Национальный научный фонд, грант # CNS-0546551, # CNS-0326453 и # CCF-0621499, Управление исследований армии под номер договора DAAD19–02–1–0389, Министерство энергетики под номером награды DE-FC02-06ER25767, а также DARPA по гранту № HR00110710025.Эли Креват поддерживается в часть стипендии NDSEG Министерства обороны.

Список литературы

[1]
Абд-Эль-Малек, М., II, В. В. К., Кранор, К., Гангер, Г. Р., Хендрикс, Дж., Клостерман, А. Дж., Менье, М., Прасад, М., Лосось, Б., Самбасиван, Р. Р., Синнамохидин, С., Странк, Дж. Д., Тереска, Э., Вакс, М., и Уайли, Дж. Дж. Малая Медведица: универсальное кластерное хранилище. В Proc. 4-я конференция USENIX по файлам и хранилищам Technologies (Сан-Франциско, Калифорния, дек.2005).
[2]
Оллман, М., Балакришнан, Х., Флойд, С. Увеличение потерь TCP Восстановление с использованием ограниченной передачи . Интернет-инженерная задача Force, январь 2001 г. RFC 3042.
[3]
Оллман, М., и Паксон, В. Контроль перегрузки TCP . Интернет Инженерная рабочая группа, апрель 1999 г. RFC 2581.
[4]
Оллман, М., и Паксон В. Об оценке сквозного сетевого пути Характеристики. SIGCOMM Comput. Commun. Ред. 31 , 2 приложение (2001).
[5]
Арон М. и Друшел, П. Усовершенствования реализации TCP для Повышение производительности веб-сервера. Tech. Rep. TR99-335, Рис Университет, июнь 1999 г.
[6]
Арон М. и Друшель, П. Мягкие таймеры: эффективное микросекундное программное обеспечение Поддержка таймера для сетевой обработки. транзакций ACM на Компьютерные системы 18 , 3 (2000), 197–228.
[7]
Арпачи-Дюссо, Р. Х., Арпачи-Дюссо, А. К. Фейл-Заик. Отказоустойчивость. В Proc. HotOS VIII (Замок Эльмау, Германия, май 2001 г.).
[8]
Браам, П. Дж. Файловые системы для кластеров из протокола Перспектива. https://www.lustre.org.
[9]
Батлер Дж. И Мюллер Б. Личное сообщение, март 2007 г.
[10]
Чиу, Д.-М., и Джайн, Р. Анализ увеличения и уменьшения Алгоритмы предотвращения перегрузки в компьютерных сетях. Компьютерные сети и системы ISDN 17 (1989), 1–14.
[11]
Комер, D. E. Межсетевое взаимодействие с TCP / IP, Том I: Принципы, протоколы и архитектура . Прентис Холл, Энглвуд Клиффс, штат Нью-Джерси, 2000.
[12]
Фолл, К., и Флойд, С. Сравнения Тахо, Рино, основанные на моделировании, и снимать ПТС. ACM Обзор компьютерных коммуникаций 26 , 3 (июль 1996 г.), 5–21.
[13]
Флойд, С., Хендерсон Т., Гуртов А. The NewReno Модификация алгоритма быстрого восстановления TCP . Интернет Инженерная рабочая группа, апрель 2004 г. RFC 3782.
[14]
Гемават, С., Гобиофф, Х., Люнг, С.-Т. Файловая система Google. В Proc. 19-й симпозиум ACM по принципам операционных систем (SOSP) (Лейк-Джордж, штат Нью-Йорк, окт.2003 г.).
[15]
Гибсон, Г. А., Нэгл, Д. Ф., Амири, К., Батлер, Дж., Чанг, Ф. В., Гобиофф, Х., Хардин, К., Ридель, Э., Рохберг, Д., и Зеленка, Дж. Экономичное хранилище с высокой пропускной способностью. Архитектура. В Proc. 8-я международная конф. на Архитектурная поддержка языков программирования и эксплуатации Systems ( ASPLOS ) (Сан-Хосе, Калифорния, окт. 1998).
[16]
Грайдер, Г., Чен, Х., Джунз., Дж., Пул, С., Вача, Р., Филдс, П., Мартинес, Р., Халса, С., Мэтьюз, А., Гибсон, Г. PaScal — новая масштабируемая параллельная серверная сеть ввода-вывода Инфраструктура для поддержки глобальных хранилищ / файловых систем в Кластеры Linux большого размера. В P р. 25-я IEEE I международная P производительность C производительность и C связь C связь, P Hoenix, AZ (апр.2006 г.).
[17]
Хаскин, R. Высокая производительность NFS. Панель: Высокопроизводительная NFS: Факты и вымыслы, SC’06.
[18]
Хильдебранд, Д., Ханиман П. и Адамсон У. А. pNFS и Linux: На пути к неоднородному будущему. В 8-й LCI Международная конференция по высокопроизводительному кластеру Computing (Озеро Тахо, Калифорния, май 2007 г.).
[19]
Якобсон, V. Предотвращение перегрузки и контроль.В Proc. ACM SIGCOMM (Ванкувер, Британская Колумбия, Канада, сентябрь 1998 г.), С. 314–329.
[20]
Катаби, Д., Хэндли, М., и Рорс, К. Контроль перегрузки на высоком уровне Продуктовые сети с задержкой полосы пропускания. В Proc. ACM SIGCOMM (Питтсбург, Пенсильвания, август 2002 г.).
[21]
Лейзерсон, C.E. Fat-tree: универсальные сети для Аппаратно эффективные суперкомпьютеры. транзакций IEEE на Компьютеры 34 (окт.1985), 892–901.
[22]
Матис, М., Махдави Дж., Флойд С. и Романов А. TCP Опции выборочного подтверждения . Интернет-инженерия Целевая группа, 1996. RFC 2018.
.
[23]
Моррис, R. Поведение TCP со многими потоками. В IEEE Международная конференция по сетевым протоколам ( ICNP ) (октябрь 1997 г.).
[24]
Нэгл, Д., Серени, Д., и Мэтьюз, А. Панасас ActiveScale Кластер хранения: предоставление масштабируемого хранилища с высокой пропускной способностью. В SC ’04: Материалы конференции ACM / IEEE 2004 г. Supercomputing (Вашингтон, округ Колумбия, США, 2004 г.).
[25]
Нэгл, Д. Ф., Гангер, Г. Р., Батлер, Дж., Гудсон, Г. и Сабол, C. Сетевая поддержка для сетевых хранилищ. В Hot Interconnects (Стэнфорд, Калифорния, 1999).
[26]
Нуреддин, В., и Тобаги, Ф. Протокол управления передачей: введение в tcp и исследовательский обзор. Tech. представитель, Стэнфорд Университет, 2002.
[27]
нс-2 сетевой симулятор. https://www.isi.edu/nsnam/ns/, 2000.
[28]
Павловский, Б., и Шеплер С. Версия 4 сетевой файловой системы (nfsv4) страница устава.
[29]
Паксон В. и Оллман, М. Вычисление повторной передачи TCP Таймер .Internet Engineering Task Force, ноябрь 2000 г. RFC 2988.
[30]
Петерсон, Л. Л. и Дэви Б. С. Компьютерные сети: Системный подход . Издательство Morgan Kaufmann, Сан Франциско, Калифорния, 2003.
[31]
Postel, г. J. B. Протокол дейтаграмм пользователя . Интернет Инженерная рабочая группа, август 1980 г. RFC 768.
[32]
Postel, г. J. B. Интернет-протокол .Интернет Инженерная рабочая группа, Институт информатики, Марина дель Рей, Калифорния, сентябрь 1981 г. RFC 791.
[33]
Postel, г. J. B. Протокол управления передачей . Internet Engineering Task Force, сентябрь 1981 г. RFC 793.
[34]
Романов, А., и Флойд, С. Динамика TCP-трафика в сетях ATM. ACM Computer Communications Review 24 , 4 (1994), 79–88.
[35]
Саролахти, П., и Кузнецов А. Контроль перегрузки в Linux TCP. В Proc. Ежегодная техническая конференция USENIX (Беркли, Калифорния, июнь 2002 г.).
[36]
Шмук, Ф., и Хаскин, Р. GPFS: файловая система с общим диском для больших Вычислительные кластеры. В Proc. Конференция USENIX по файлам и Storage Technologies (FAST) (Монтерей, Калифорния, янв. 2002).
[37]
Шеплер, С., Эйслер, М., и Новек, Д. Второстепенная версия NFSv4 1 — Проект стандарта.
[38]
Стивенс, W. R. TCP / IP Illustrated, Volume 1 . Эддисон-Уэсли, Рединг, Массачусетс, 1994.
[39]
Вадекар, M. Enhanced Ethernet для центра обработки данных: надежность, Направленный и надежный. В 15-м семинаре IEEE по локальным и Городские сети (июнь 2007 г.).

Приложение — TCP Грунтовка

Мы предлагаем читателю краткую информацию о TCP для для понимания терминов, используемых в этой статье.В то время как мы пропуская многие подробные нюансы TCP, мы отсылаем читателя к несколько хорошо известных ресурсов для получения дополнительных сведений о TCP [ 33 , 3 , 11 , 38 , 30 , 26 ].

Протокол управления передачей (TCP) [ 33 ] является протокол, ориентированный на соединение, который гарантирует надежную, упорядоченную служба передачи байтового потока между двумя процессами, в в отличие от доставки дейтаграмм без установления соединения услуга, предоставляемая протоколом пользовательских дейтаграмм (UDP) [ 31 ].И TCP, и UDP используют Интернет-протокол (IP) [ 32 ], лучший сервис дейтаграмм, нести свои сообщения. Использование TCP привлекательно для приложения, которые выполняют попарную коммуникацию, поскольку они предлагают следующие преимущества:

  • Надежность — работа с сообщениями потеря, дублирование, повреждение и задержка
  • Заказная доставка данных
  • Контроль потока и контроль перегрузки
  • Мультиплексирование и демультиплексирование в поддерживать несколько конечных точек на одном хосте за счет использования номера портов

TCP-соединение — это Full Duplex — один раз TCP соединение устанавливается между двумя конечными точками с использованием 3-х стороннего протокол рукопожатия, соединение поддерживает пару байтов ручьи, по одному в каждом направлении.TCP передает поток байтов по объединение смежных байтов в сегмент TCP или пакет.

TCP-пакет, инкапсулированный в IP-пакет, может быть отброшен. на пути к месту назначения по нескольким причинам, например: 1) буфер ядра отправителя заполнен, 2) буфер маршрутизатора на пути до переполнения места назначения, 3) ошибки маршрутизации или 4) буфер ядра получателя заполнен. TCP использует положительный схема подтверждения с повторными передачами для достижения надежной Обмен данными.Чтобы помочь в доставке данных в порядке получатель, отправитель TCP присваивает порядковый номер каждому байту данных, отправленных через TCP-соединение. Для данного пакета порядковый номер, присвоенный пакету, является порядковым номером первый байт в пакете. TCP использует кумулятивных схема подтверждения: пакет ACK содержит порядковый номер информирование отправителя о том, что он получил все байты до, но не включая этот порядковый номер. Пока TCP назначает последовательность числа основаны на байтах, для простоты мы обсуждаем последовательность номера на основе пакетов.

Рисунок 15: Иллюстрация механизма скользящего окна TCP с фиксированным окном размер.

Для эффективного использования ссылки TCP использует скользящее окно. алгоритм для удержания нескольких пакетов в полете. Окно определяет количество неподтвержденных пакетов: левый край в окне указывается, что первый пакет не подтвержден получатель.Например, как показано на рисунке 15, если окно отправителя имеет левый край порядковый номер 10 и размер окна 6, затем получатель подтвердил получение всех пакетов с последовательностью число меньше 10, и отправитель может передавать 10-15 пакетов все сразу. Когда пакеты 10 и 11 достигают получателя, получатель отправляет ACK для пакетов 11 и 12 соответственно. С левый край окна теперь начинается с 12, а размер окна равно 6, отправитель теперь может передавать пакеты 16 и 17.

Если пакет доставляется получателю TCP не по порядку, либо из-за переупорядочения, либо из-за потерь в сети приемник генерирует дублирующий ACK для последнего полученного пакета чтобы. Основываясь на приведенном выше примере, если пакет 12 был отброшен по сети, затем, получив пакет 13, получатель TCP генерирует ACK для пакета 12 вместо пакета 14, и левый край окна не выдвинут.

Отправитель TCP обнаруживает потерю пакета, используя две схемы описано ниже.После обнаружения потери пакета отправитель TCP восстанавливается после потери путем повторной передачи пакета.

Восстановление потерь из-за тайм-аута: Рассмотрим показанный случай на рисунке 16 (а). Пакеты с 1 по 5 отправленные отправителем все отбрасываются. Отправитель ждет определенное количество времени, определяемое таймаутом повторной передачи (RTO) перед событием тайм-аута указывает на возможную потерю пакет 1, после чего отправитель восстанавливается после потери повторная передача пакета 1. Значение RTO основано на цикле приема-передачи. время (RTT), которое является оценочным значением.

Восстановление потери данных на основе данных: Можно использовать дублирующий ACK как признак убытка, но он также может быть вызван переупорядочивание пакетов в сети. Чтобы отличить доброкачественные повторный заказ из-за фактической потери, отправители TCP обычно считают 3 дублирование ACK для пакета как указание на потерю. На рисунке 16 (б) показан случай, когда отправитель передает 5 пакетов, но второй пакет теряется. Пакеты 3, 4 и 5 генерируют повторяющиеся ACK, указывающие, что пакет 2 потерян.При получении 3 дублирующих ACK для пакета 2 отправитель предполагает, что пакет 2 потерян, и повторно передает его: это позвонил , быстрая ретрансляция . При получении пакета 2 приемник подтверждает пакет 6, следующий ожидаемый пакет по порядку Отправитель. Восстановление потерь на основе данных больше реагирует на потери быстрее, чем восстановление по таймауту.

TCP обеспечивает сквозное управление потоком , посредством чего получатель может контролировать объем данных, передаваемых отправителем. С участием каждый ACK, получатель возвращает размер окна, указывающий количество пакетов, которые отправитель может передать.

(а) Восстановление по таймауту
(b) Восстановление на основе данных.
Рисунок 16: Схемы восстановления в TCP

TCP является адаптивным — потоки используют доступную полосу пропускания зондирование сети.При запуске и по истечении тайм-аута TCP нет точной оценки пропускной способности сквозного пути, поэтому он вводит медленный старт , чтобы определить емкость. Для каждого Получен пакет ACKed, окно отправителя увеличивается на 1. Это приводит к экспоненциальному росту размера окна и, следовательно, в скорости отправки.

Перегрузка возникает, когда скорость отправки превышает доступную пропускная способность и пакеты отбрасываются. Различные алгоритмы TCP имеют были разработаны для борьбы с заторами — они делают это с помощью реагирование на перегрузку (обозначается потерей) путем регулирования скорости по которому отправитель передает данные.При потере данных восстановления, отправитель выполняет мультипликативное уменьшение на уменьшение окна вдвое (также сопровождается быстрого восстановления ) и начинается добавочное увеличение (или перегрузка избегание), где для каждого окна данных, подтвержденного получатель, отправитель увеличивает размер окна на 1. Под восстановление по таймауту, отправитель сокращает свое окно до 1, выполняет медленный старт до определенного порога, а затем входит фаза предотвращения перегрузки.


Этот документ был переведен с L A T E X по H E V E A .

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *