« < Декабрь 2017 > »
Пн Вт Ср Чт Пт Сб Вс
27 28 29 30 1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

Случайное фото

Опрос

Самый сложный предмет в 10 семестре по вашему:

Авторизация






Забыли пароль?
 
счетчик посещений 


Экспорт новостей

Вопросы к экзамену по распознаванию образов. Печать E-mail
Автор Кулагин Артем   
02.06.2010 г.

Контрольные вопросы к экзамену по курсу «Распознавание образов»

Лектор: Гаврилов К.Ю.



  1. Основные этапы построения систем распознавания образов (РО). Задачи проектирования и примеры систем РО.
  2. Классификация систем PO. Понятие дискриминантных (решающих) функций. Геометрическая интерпретация процедуры распознавания.
  3. Виды решающих функций. Линейные решающие функции, оптимизация их параметров. Понятие пополненного пространства признаков и его геометрическая интерпретация.
  4. Классификация образов по минимуму расстояния до эталонов классов. Правила ближайшего соседа и q ближайших соседей при решении задач РО.
  5. Кластерный анализ. Алгоритмы выявления кластеров: простой алгоритм, алгоритм максиминного расстояния, алгоритм К внутригрупповых средних.
  6. Обучаемые классификаторы образов. Персептрон Розенблатта и алгоритм его обучения при произвольном числе классов. Примеры обучения персептрона Розенблатта и задача Xor («Исключающее ИЛИ»).
  7. Доказательство сходимости процедуры обучения персептрона Розенблатта (теорема Новикова).
  8. Метод потенциальных функций и пример его применения в случае линейно неразделимых классов образов.
  9. Применение Байесовского подхода (БП) для РО. Вид решающей функции и структурная схема классификатора при использовании БП.
  10. Методы максимума апостериорной вероятности (МАВ) и максимума функции правдоподобия (МФП) как частные случаи БП для РО. Виды решающих функций при использовании методов МАВ и МФП.
  11. Применение БП к РО в пространстве признаков, заданных в виде многомерной нормальной плотности распределения вероятностей.
  12. История развития искусственных нейронных сетей (НС). Физиологические основы НС. Классификация искусственных НС.
  13. Однослойные НС. Структурные схемы и функции активации. Правило обучения Хебба.
  14. Однослойные НС с линейной функцией активации. Правило обучения Видроу-Хоффа (дельта-правило).
  15. Многослойные НС (МНС): структура и основные определения. Теорема о существовании МНС для любых классов образов (теорема Колмогорова). МНС высокого порядка.
  16. Алгоритм обратного распространения ошибки (АОРО) при обучении МНС. Формулы для рекуррентного вычисления весовых коэффициентов в процессе обучения. Прямой и обратный проход вычислений при реализации АОРО.
  17. Скорость обучения, выбор функции активации и критерии останова процедуры обучения МНС при использовании АОРО. Последовательный и пакетный режимы обучения МНС.
  18. Алгоритмы обучения МНС, использующие метод Ньютона. Выбор параметров МНС и числа обучающих образов. Понятия «недообученной» и «переобученной» МНС.
  19. НС на основе радиальных базисных функций (RBF-сети): принципы построения, структурная схема и пример применения RBF-сети. Теорема о существовании RBF-сети, разделяющей линейно неразделимые классы образов (теорема Ковера).
  20. Построение RBF-сети как решение задачи интерполяции. Выбор базисных функций скрытого слоя и вычисление вектора весовых коэффициентов выходного слоя. Вычисление вектора весовых коэффициентов RBF-сети в случае плохо обусловленной задачи. Сходства и отличия RBF-сетей и МНС.
  21. Карты самоорганизации (КС): принципы построения и структурная схема. Обучение КС: конкуренция, кооперация, синоптическая адаптация.
  22. Нейродинамика. Временная обработка процессов с использованием сетей прямого распространения. Виды динамических нейронных сетей.
  23. Динамически управляемые рекуррентные нейронные сети (РНС). Архитектуры РНС. Сеть RMLP и сеть Элмана - структура и алгоритм обучения.
 
След. »
go to top