Российские ученые разработали уникальную методику сверхбыстрых расчетов
Что такое оптимизация? Если кратко, то это минимум затрат при максимальной пользе. Ограничения во времени, ресурсах, действиях привели к необходимости искать наиболее экономичные во всех отношениях решения. Застройщик возводит дом так, чтобы побыстрее и подороже продать в нем квартиры, рабочий располагает инструменты так, чтобы они в любой момент были под рукой, люди ищут пути для сокращения времени похода до работы.
Оптимизировать способен не только человеческий мозг, но и компьютер. Уровень сложности поставленной задачи оптимизации зависит от числа ограничивающих факторов и рассчитываемых величин. Иногда необходимо учесть только один фактор, а сама структура задачи проста (у нее одно минимальное значение, которое надо найти), с этим легко справляются традиционные математические методы локальной оптимизации.
Но в реальном мире при решении многих прикладных задач (инженерных, математических, задач управления) оптимизируемая функция может зависеть не от одного, а от многих параметров, и иметь не один, а много локальных минимумов. При этом часто возникает необходимость отыскания для такой задачи именно глобального оптимума, то есть общего наилучшего результата расчетов.
Возникает необходимость создания новых методов для решения задач глобальной оптимизации, поскольку традиционные алгоритмы с такими задачами не справляются. Одним из новых путей решения задачи глобальной оптимизации является диагональный подход. Идею диагональных методов предложил венгерский математик Янош Пинтер в 1996 году, а фундаментальное развитие подхода реализовал российский ученый Ярослав Сергеев, профессор кафедры математического обеспечения и суперкомпьютерных технологий Института информационных технологий, математики и механики Нижегородского государственного университета имени Н. И. Лобачевского. Результаты исследований за последние 20 лет были опубликованы в соавторстве с научным сотрудником того же института Дмитрием Квасовым в монографии "Детерминированная глобальная оптимизация: введение в диагональный подход". Она вышла в издательстве Springer при поддержке Российского научного фонда, сообщает РИА Новости. За выдающиеся достижения в области математики ученый получил в 2017 году премию имени Хорезми, которую называют "азиатским Нобелем".
В чем же состоит диагональный подход? Общий набор заданных параметров можно представить как многомерный гиперкуб. Любой предмет можно разбить на множество настолько мельчайших кубов, что из них можно будет собрать любую форму, в том числе и окружность. Представим, что мы делим яблоко на кусочки. Но каждый из них можно будет разрезать на множество кусочков еще много раз. В жизни мы ограничены толщиной ножа и глазомером, но в математике таких ограничений нет. Мы можем делить наш объект на сколь угодно малые части, пока не достигнем нужного результата.
Мы разбиваем яблоко на систему меньших гиперкубов, для каждого из них вычисляется числовая характеристика, значение которой определяет его перспективность в продолжении поиска. Далее из всех гиперкубов выбирается гиперкуб с наибольшей характеристикой, который вновь разбивается на множество гиперкубов, и процедура отбора повторяется. Например, если предположить, что все части яблока имеют разный вкус, мы бы отобрали самый сладкий или кислый (в зависимости от того, какой кусочек нам больше нравится).
Принципиальными моментами в этой схеме являются правило вычисления характеристики и способ разбиения наилучшего гиперкуба. В примере с яблоком данное исследование направлено на поиск способов нарезки и выбор самого вкусного фрагмента.
"Наш метод разбиения гиперкубов отличается от традиционных тем, что гиперинтервал разбивается на число подынтервалов, которое можно делить на три (при каждом разбиении возникают три, или девять, или 27 новых подынтервалов). Также диагонали этих гиперкубов вращаются в многомерном пространстве по предложенному нами правилу, в отличие от традиционных методов, где диагонали неподвижны и параллельны друг другу. Это вращение позволяет получить большее количество подынтервалов при уменьшении количества вычислений значений оптимизируемой функции," — поясняет Ярослав Сергеев, разработчик диагонального подхода глобальной оптимизации.
Еще одну особенность разработанного группой Ярослава Сергеева метода (диагонального подхода) можно описать следующим образом — они учитывают качественные особенности в поведении функции, в то время как в традиционном подходе всегда происходит ожидание худшего поведения.
Разработанные методы применялись при решении трудоемких реальных задач, например, по оптимизации топологии и обеспечения надежности функционирования коммутируемых сетей, по обработке изображений, оптимальному проектированию систем управления, фильтрации сигналов. Полученные результаты позволили кардинально увеличить эффективность функционирования устройств и систем, реализующих данные процессы.
В настоящее время Ярослав Сергеев с коллегами работает над созданием параллельных вариантов диагонального метода, которые позволят использовать мощные суперкомпьютерные системы для решения задач высокой степени сложности.
По информации https://scientificrussia.ru/news/rossijskie-uchenye-razrabotali-unikalnuyu-metodiku-sverhbystryh-raschetov