Передавая данные между Питтсбургом и Лос-Анджелесом с постоянной скоростью 101 Гбит/с (что эквивалентно трем DVD-фильмам за одну секунду), группа ученых High Energy Physics установила рекорд и победила в конкурсе Supercomputing Bandwidth Challenge, нацеленном на повышение быстродействия каналов связи для grid-вычислений.
Скорость в 101 Гбит/с группа поддерживала всего несколько минут в продолжение 90-минутной демонстрации, иногда приподнимаясь чуть выше этой отметки. Но "мы уверены, что сможем обеспечивать пропускную способность свыше 100 Гбит/с часами", - пишет в e-mail профессор физики Калифорнийского технологического института (Caltech) и руководитель группы Харви Ньюман. По его словам, возможны скорости передачи данных в 130-140 Гбит/с.
Исследование указывает путь к будущим приложениям с гораздо более высокими скоростями передачи аудио, видео и других данных. "Оно окажет также глубокое влияние на то, как можно объединить обмен информацией и аудиовизуальное общение в нашей повседневной жизни в невообразимых до сих пор масштабах и с невероятным качеством", - добавил Ньюман.
Группа состоит из специалистов по вычислительной технике, физиков и системотехников из Caltech, Fermilab, CERN, Манчестерского университета, а также университетов Кореи, Бразилии и других стран.
Прежний рекорд скорости передачи данных, установленный той же группой год назад, составлял 23,2 Гбит/с. По интернету данные удавалось перекачивать с максимальной скоростью около 4,23 Гбит/с, а рекорд для Internet2 составил 6,63 Гбит/с.
Отчасти рекордная скорость передачи данных достигнута благодаря разработанному профессором Caltech Стивеном Лоу протоколу Fast TCP, который лучше предотвращает скопление пакетов, чем стандартный ТСР. Последний определяет скопление по скорости отбрасывания пакетов данных. FAST TCP следит за задержкой пакетов в процессе их перемещения по сети.
Этот метод "обеспечивает более точное и более своевременное измерение скоплений по сравнению с отбрасыванием - источник трафика может отреагировать на скопление прежде, чем повышение его уровня приведет к переполнению буферов маршрутизаторов, и пакеты начнут отбрасываться", - пояснил в интервью по e-mail профессор Лоу.
Скорость передачи данных помогла повысить и построенная аппаратная инфраструктура - включающая несколько 10-гигабитных линий, четыре выделенные длины волны National LambdaRail (целиком оптической сети, связывающей американские университеты), программное обеспечение веб-сервисов и массу других технологий.
Целью эксперимента служит создание технологии, которая позволит физикам всего мира сотрудничать в рамках научных проектов, объединяя компьютеры, расположенные в разных частях света. Например, в 2007 году CERN начнет экспериментировать с частицами Хиггса, которые, как предполагается, ответственны за избыточную массу во Вселенной и другие явления. В исследования будут вовлечены свыше 2000 ученых из 160 институтов, которым придется обмениваться терабайтами данных в поисках необычных взаимодействий частиц.
Так как данные будут запрашивать множество пользователей во всем мире, передача массивных файлов должна совершаться не за дни, а за часы. Объем данных по этому проекту очень быстро достигнет нескольких петабайт. Кроме физики элементарных частиц, сетевая технология будет помогать исследователям в области биоинформатики, астрономии, моделирования глобального климата и геонаук.
Проблемой сокращения задержки в глобальных сетях занимается также PlanetLab, проект, возглавляемый Принстонским университетом, Intel и Калифорнийским университетом в Беркли. Другие ищут способы проведения интернет-канала к Марсу.
Для демонстрации своей технологии группа передавала имитируемые физические данные для обработки в CERN, Университет штата Флорида, Fermilab, Caltech, U.C. San Diego и Бразилию. Затем результаты собирались в Питтсбурге и передавались на визуальный дисплей данных. В другой демонстрации организация передавала большие объемы данных между Питтсбургом и Манчестером.