Статьи рынка безопасности

События

  • выставка 22/10/2019

    INTERPOLITEX - 2019г. Москва

  • выставка 23/10/2019

    Hi-Tech Building 2019г. Москва

  • Вебинар 22/10/2019

    ZKTeco

Особенности обучения интеллектуальных компьютерных приложений в сфере безопасности

  • 01.07.2019
  • 68

Пока слишком рано говорить о том, найдёт ли обучение с подкреплением практическое применение в реальной жизни, но прогнозы довольно оптимистичны. Сегодня технологии искусственного интеллекта (ИИ) используются во многих сферах. По данным многочисленных опросов большинство руководителей считают, что ИИ играет определённую роль в улучшении показателей деятельности их компаний и предприятий. Проявления этого прогресса заметны и в повседневной жизни.

Интеллектуальные приложения сопровождают нас повсюду: соответствующее программное обеспечение встроено в камеры видеонаблюдения, дроны, беспилотные автомобили, а также в оборудование для медицинской диагностики. Что касается «начинки» этих интеллектуальных приложений, то в большинстве своём они разработаны на основе единой технологии – так называемой технологии глубокого обучения. И хотя в её разработке был достигнут значительный прогресс, возникает ряд вопросов: насколько передовой является эта технология? Не кладем ли мы «все яйца в одну корзину», замедляя, таким образом, прогресс в этой чрезвычайно важной отрасли науки?

Особенности обучения интеллектуальных компьютерных приложений в сфере безопасности

Принцип действия технологии глубокого обучения

Для того чтобы лучше понять существо данного вопроса, необходимо ознакомиться с принципами, лежащими в основе технологии глубокого обучения. Глубокое обучение – это технология, имитирующая работу нейронов и синапсов человеческого мозга. В отличие от последнего, являющегося творением природы, такая рукотворная форма обучения оказывается в достаточной степени управляемой.

Рассмотрим изложенное на примере алгоритма, применяемого в процессе глубокого обучения всякого приложения для обработки изображений. Вначале получают набор изображений для обучения модели. Этот набор данных будет состоять из файлов, связанных с названием того, что изображено (например, кот, собака и т.д.). Затем создают модель нейронной сети, достаточно условно имитирующей работу человеческого глаза: при этом используют различные нейронные слои для выполнения свёртки, определения основных особенностей изображения, субдискретизации и, наконец, классификации изображений.

Модель самообучается в процессе взаимодействия с подобранными таким образом обучающими наборами данных. Обучение проходит в несколько циклов, при этом нейронную сеть настраивают на повышение точности классификации изображений с помощью так называемой технологии обратного распространения ошибки. Получив положительную оценку, прошедшая обучение модель впоследствии используется в реальных условиях для обнаружения объектов, которые она обучена узнавать.

Ограничения при обучении обработке изображений

Хотя вышеуказанная технология хорошо работает с изображениями, аналогичными тем, на которых модель была обучена, со всеми прочими изображениями, не похожими на исходный набор обучающих данных, дело обстоит заметно хуже. Например, если обучение модели было направлено на обнаружение щенков, то она вряд ли обнаружит взрослых собак. Если же обучение модели было направлено на обнаружение собак, то вряд ли она будет способна распознать кота как животное, несмотря на очевидное внешнее сходство обоих видов – наличие четырёх лап и хвоста.

Хотя это и может быть допустимо в специализированных приложениях для обработки изображений, рассмотренная модель значительно уступает в интуиции и способности к эмпирическому обучению даже 2-летнему ребенку. Более того, создание универсального приложения для обработки изображений может потребовать колоссальных усилий. Безусловно, когда речь заходит о процессе обучения и о преодолении ограничений технологии глубокого обучения, преимущество остаётся за человеком.

В альтернативных методах акцент делается на эмпирическом опыте

Исследователи ИИ экспериментируют с другими методами разработки эмпирических подходов к обучению, аналогичных методикам обучения ребёнка. Одним из методов является обучение с подкреплением. Ключевыми элементами такой формы обучения являются агент, набор возможных действий, предпринимаемых агентом, искусственная среда, воспроизводящая условия реального мира, и система вознаграждения за выполненные задачи.

Агенту ставится задача для выполнения в среде. В любой момент времени агент может выбрать действие из набора возможных, после чего в конце каждой сессии агент получает вознаграждение при успешном выполнении поставленной задачи. Агент обучается методом проб и ошибок, а также посредством формирования в его памяти хронологии предпринятых действий и связанных с ними вознаграждений. Целью агента является получение максимального вознаграждения.

Эта технология часто используется в играх. Например, она была использована в приложении Google AlphaGo Zero, интеллектуальном ПО для игры в Го (сложная китайская логическая игра) с целью определения стратегии победы над лучшими игроками мира. В процессе обучения игре AlphaGo Zero начинает с нуля, использует случайные ходы и играет сама против себя.

Человеку свойственно ошибаться, но не в этом ли ключ ко всему?

Время от времени мы вспоминаем старинную поговорку «Человеку свойственно ошибаться» в оправдание наших неудач, но сегодня исследователи ИИ начинают понимать, что эта якобы исключительно человеческая черта вкупе с методом проб и ошибок может оказаться основой основ процесса компьютерного обучения. 

Пока слишком рано говорить о том, найдёт ли обучение с подкреплением практическое применение в реальной жизни, но прогнозы довольно оптимистичны. Что же касается глубокого обучения, то в настоящее время эта технология является «рабочей лошадкой» в деле обучения интеллектуальных приложений и, вероятно, как и сегодня, займёт достойное место в ближайшем будущем.

Поделиться:

Все права защищены
© ООО АДВ Секьюрити,
2003—2019
Яндекс.Метрика
Метрика cайта: новости: 7228 | компании: 521 | бренды: 412 | статьи: 867

О проекте / Контакты / Политика конфиденциальности и защиты информации

Techportal.ru в соц. сетях