Новости науки "Русского переплета"
TopList Яндекс цитирования
Русский переплет
Портал | Содержание | О нас | Авторам | Новости | Первая десятка | Дискуссионный клуб | Чат Научный форум
Первая десятка "Русского переплета"
Темы дня:

Мир собирается объявить бесполётную зону в нашей Vselennoy! | Президенту Путину о создании Института Истории Русского Народа. |Нас посетило 40 млн. человек | Чем занимались русские 4000 лет назад? | Кому давать гранты или сколько в России молодых ученых?


Rambler's Top100
Портал | Содержание | О нас | Пишите | Новости | Книжная лавка | Голосование | Топ-лист | Регистрация | Дискуссия
Лучшие молодые
ученые России

Подписаться на новости

АВТОРСКИЕ НАУЧНЫЕ ОБОЗРЕНИЯ

"Физические явления на небесах" | "Terra & Comp" (Геология и компьютеры) | "Неизбежность странного микромира"| "Научно-популярное ревю"| "Биология и жизнь" | Теорфизика для малышей
Семинары - Конференции - Симпозиумы - Конкурсы

НАУКА В "РУССКОМ ПЕРЕПЛЕТЕ"
Проект поддержан Международной Соросовской Программой образования в области точных наук.
Новости из мира науки и техники
The Best of Russian Science and Technology
Страницу курирует проф. В.М.Липунов
"Русский переплет" зарегистрирован как СМИ. Свидетельство о регистрации в Министерстве печати РФ: Эл. #77-4362 от
5 февраля 2001 года. При полном или частичном использовании
материалов ссылка на www.pereplet.ru обязательна.

Тип запроса: "И" "Или"

17.03.2017
14:24

Машинное обучение может сослужить службу киберпреступникам

    Хитрые киберпреступники понемногу оборачивают алгоритмы машинного обучения против системы защиты, для которой они предназначены. Однако злоумышленников можно выбить из колеи намеренной кибердезориентацией.

    Машинное обучение — один из самых модных терминов, употребляемых в контексте кибербезопасности в 2017 г. Но достаточно хитрый противник может воспользоваться в злоумышленных целях результатами деятельности алгоритмов машинного обучения и таким образом снизить качество принимаемых решений.

    «В этой связи есть опасения, что в системах обработки больших данных злоумышленник сможет взять под контроль достаточно большой объем этих данных, чтобы ввести в заблуждение пользователей системы», — говорит доктор Дебора Фринке, глава Исследовательской дирекции Управления национальной безопасности США и Центральной службы безопасности (NSA/CSS).

    Враждебное машинное обучение, как окрестила его Фринке, — это «явление, которое мы понемногу наблюдаем на практике». У нас есть все основания полагать, что события и дальше будут развиваться по этому пути, считает она.

    Например, организация может решить применять машинное обучение для развития так называемого «самоощущения» своих собственных сетей и на этой основе разработать механизм для самостоятельного выявления и решения проблем. Но что если злоумышленник проникнет в сеть или — что хуже — уже будет находиться внутри сети еще до того, как начнется процесс машинного обучения?

    «В этом случае поведение хакера будет восприниматься как нормальное. Поэтому в каком-то смысле специалист по машинному обучению будет защищать этого внутреннего нарушителя. В этом вся проблема, — говорит Фринке. — Что еще примечательно в обработке и анализе данных, так это то, что при использовании алгоритмов на основе данных именно такие алгоритмы инициализируют методы машинного обучения, внедряемые специалистом. Если вы не сохраните исходные данные, вы не узнаете, какие параметры смещения вы заложили в свою реализацию машинного обучения. У вас не получится найти эту иголку в стоге сена, потому что вы фактически выбросите весь стог, и все, что у вас останется, — это нейронная сеть, веса синапсов внутри нее и т. п.».

    У машинного обучения есть еще и другие ограничения.

    К примеру, в 2016 г. профессор Университета Монаша Том Драммонд указал на то, что нейронную сеть — одну из фундаментальных методик машинного обучения — можно сбить с толку, если не «пояснить» ей, в чем она ошибается.

    Классический пример этой проблемы относится к 1980-м. Эту историю рассказал Нил Фрейзер в статье «Причуды нейронной сети», опубликованной в 1998 г. В Пентагоне пытались научить нейронную сеть обнаруживать возможные угрозы, например, вражеский танк, скрывающийся за деревом. Они натренировали нейронную систему с помощью одного набора фотографий, на которых были изображены танки, прячущиеся за деревьями, и второго набора фотографий, где были изображены только деревья, без танков. Но при попытке применить эти знания система безнадежно завалилась.

    «Со временем кто-то заметил, что в исходной выборке в 200 фотографий все снимки танков были сделаны в условиях облачности, тогда как все снимки без танков были сделаны в солнечный день, — писал Фрейзер. — Таким образом, армия стала гордым обладателем мейнфрейма стоимостью в несколько миллионов долларов, умевшего определять, солнечная ли погода на улице».

    На недавней конференции Australian Cyber Security Centre (ACSC) в г. Канберра Фринке хоть и указала на ограничения машинного обучения, но все же обрисовала и некоторые эффективные, с точки зрения NSA, оборонные стратегии.

    К примеру, организации могут создавать перевес сил в кибербезопасности на свою сторону, научившись обманывать противника или прятаться от него.

    По самой своей природе сетевая защита асимметрична. Такое неравновесие обычно объясняется тем, что защищающийся вынужден закрывать абсолютно все дыры в безопасности, а атакующему достаточно всего лишь раз сделать нужное действие.

    «На первый взгляд, мы вроде должны как-то с этим справляться. Дома ведь, как говорится, и стены помогают», — рассуждает Фринке.

    Исторически так сложилось, что организации пытаются сделать свои системы данных максимально рациональными. Так легче управлять сетью. Но, с точки зрения злоумышленника, так проще предсказать, что будет происходить в той или иной системе в заданный момент времени.

    А вот если применить прием защитной дезориентации, можно выделить дополнительные мощности и найти способ спроектировать эти мощности так, чтобы они работали в изменчивом режиме или вводили противника в заблуждение. При таком подходе злоумышленник не сможет определить, где именно находятся данные.

    Если ваши данные обрабатываются в облаке, тогда элементарным примером будет продублировать ваши данные на гораздо большем количестве узлов, чем обычно, и переключаться между ними. «Если кто-то попытается нарушить целостность данных, заменив данные, с которыми я работаю, то он не сможет определить, какой из, скажем, сотни таких узлов я использую. Либо же я могу иметь дело с набором таких узлов, допустим, с тремя, и хакер не знает, к каким именно я обращаюсь. Он конечно может попытаться изменить их все вместе, но ему это будет сделать гораздо труднее», — говорит Фринке.

    Исследования, проведенные NSA/CSS, показали, что такой прием увеличивает когнитивную нагрузку на хакеров и играет на их когнитивных предубеждениях. «Мы можем попытаться подтолкнуть их к ошибочным выводам. Другими словами, мы их выводим из равновесия. Мы пытаемся заставить их работать слишком старательно, искать зацепки там, где они им не нужны. И таким образом нам будет легче их обнаружить, — уверяет Фринке. — Это немного сродни старым добрым приманкам Honeypot или Honeynet в явном виде, только встроенным в систему в качестве неотъемлемого механизма ее работы, а не дополнительного модуля».

    Недостаток защитной дезориентации в том, что этим процессом сложнее управлять. «Мне приходится выполнять больше работы по проектированию и управлению системами, чтобы с полной уверенностью знать, какими тремя из сотни узлов мне нужно пользоваться, иначе я сама себе окажу медвежью услугу, особенно если речь идет о применении каких-либо изменений с целью дезориентировать злоумышленника», — подытожила Фринке.

    По информации https://www.pcweek.ru/security/article/detail.php?ID=193156

    Обозрение "Terra & Comp".

Помощь корреспонденту
Кнопка куратора
Добавить новость
Добавить новости
НАУКА В "РУССКОМ ПЕРЕПЛЕТЕ"

Если Вы хотите стать нашим корреспондентом напишите lipunov@sai.msu.ru

 

© 1999, 2000 "Русский переплет"
Дизайн - Алексей Комаров

Rambler's Top100


Rambler's Top100