Машинное обучение и автоматическое образование понятий. 1. 2. 3. 4. 5. 6. Какие методы используются для реализации процедуры опознания элемента распознаваемого множества: Методы классической математики; Методы теории статистических решений; Имитационные методы. Какая методика обучения автомата в настоящее время наиболее целесообразна: когда процедура выбора признаков проходит в соответствии с указаниями учителя; когда процедура выбора признаков проходит в соответствии с возможностями автомата; когда процедура выбора признаков проходит произвольно. Являются ли треугольники и окружности в геометрическом смысле образами: нет; да; да, если рассматривать их как геометрические фигуры. Затрудняет ли разделение поверхности увеличение числа граничных точек: затрудняет; облегчает; никак не влияет. В случае неудачного исхода обучения автомата, когда автомат не сформировал достаточно эффективного подпространства: учитель должен сузить исходное пространство; учитель не может обучить данный автомат. учитель должен расширить исходное пространство; Процедура обучения автомата считается завершенной: когда сформировано пространство признаков; когда сформировано пространство признаков достаточной размерности; когда автомат обеспечивает надлежащую надежность распознавания. 7. 8. Исходная неопределённость выбранного множества при распознавании измеряется величиной: m' H i i 1 pi log pi ; где H – энтропия множества, Р – вероятность предъявления H i log pi ; где H – энтропия множества, Р – вероятность предъявления m' H i i 1 pi log pi ; где H – энтропия множества, Р – вероятность предъявления Минимальное подпространство признаков (одномерное) считается сформировано, если: I j H1; I j H1; I j H1; ,где I – количество информации, извлекаемое при использовании j-ого признака, Н – энтропия множества. 9. Если удается выделить признаки, инвариантные к различным группам преобразований, то обучение: существенно упрощается; усложняется; никак не зависит; 10. Возможны 2 типа алгоритмов обучения персептрона. При использовании какого из них достигается более высокое качество обучения: S-управляемая система (первый тип); R-управляемая система (второй тип); оба равноценны. 11. Структура персептрона содержит n сенсоров и m ассоциативных элементов. Каким в этом случает будет уравнение разделяющей гиперповерхности: n j 1 j j n j 1 j j ( x) 0 ; j ( x) 0 ; j ( x) 0 . m j 1 j m j 1 j ( x) 0 ; 12. В результате подключения выходов сенсоров к входам ассоциативных элементов персептрона были сформированы 5 плоскостей. Какой будет реакция такого персептрона на объект А: Штриховкой отмечены положительный стороны плоскостей A I II V IV III 2; 3; 0,4; 0,6. 13. Качество работы персептрона определяется: количество ассоциативных элементов качеством обучающей выборки сложностью конфигурации изображений символа принятым алгоритмом обучения + + + + + + + + + + + + + + + + + + 14. В читающем автомате реализован метод персептрона. Часть ассоциативных элементов отключили. В каком случае этот автомат окажется стойким к нарушениям его структуры, если они производились: до обучения; после обучения; в любом случае. 15. Реализации образа можно представить выпуклым множеством диаметра D. Такие множества разных образов не пересекаются и минимальное расстояние между ними равно ρ. Персептрон обучен распознаванию этих образов и при этом было произведено коррекций коэффициента λ не более чем … раз: D2 2 ; D ; D E ; D2 E 2 . 16. При реализации какого метода можно построить обучающийся читающий автомат с более высокими техническими характеристиками: метод персептрона; метод потенциалов; они равноценны. 17. Какой из методов не является методом обучения автомата: объяснение; обучение на примерах; тренировка. 18. При реализации какого принципа в задачах принятия решений отчетливо видно, ценой какой уступки в одном критерии приобретается выигрыш в другом: принцип последовательной уступки; принцип абсолютной уступки; принцип относительной уступки. 19. При каком способе нормализации наилучшим образом сохраняется равноправие критериев в задачах принятия решений? Если в качестве идеального вектора выбран вектор: заданных значений критериев; максимальных значений критериев; разбросов значений критериев. 20. В задачах принятия решений приоритет критериев проще и удобнее всего задавать с помощью: ряда приоритета; вектора приоритета; весового вектора. 21. Последовательность ситуаций в процессе моделирования образования понятий персептроном с указанием, к какому классу они относятся, называется; обучающей последовательностью; экзаменационной последовательностью; классовой последовательностью; 22. Множество примеров, относительно которых выясняется, к какому классу отнес данное качество учитель, называется: обучающей последовательностью; экзаменационной последовательностью; классовой последовательностью; 23. Способность к обучению не характеризуется: качеством получаемого решающего правила; надежностью получения решающего правила с заданным качеством; устойчивостью; 24. Какая из предложенных задач не стоит перед разработчиком обучающихся устройств: какой набор решающих правил заложить в обучающееся устройство; как среди множества решающих правил выбрать нужное; как повысить надежность. 25. Метод стохастической аппроксимации состоит в том, что для отыскания минимума по функционала R( ) Q( Z , ) p( Z )dZ используется рекуррентная процедура (i) (i 1) Г (i)q(Z i , (i 1)), ; (i) Г (i)q(Z i , (i 1)), ; (i) (i 1) q( Z i , (i 1)), . 26. Функционал, минимизация которого составляла суть задачи обучения распознаванию, имеет вид: P( ) ( F ( X , )) 2 P( , X )ddX ; P( ) F ( X , ) 2 P( , X )ddX ; P( ) ( F ( X , )) 2 P( , X )ddX ; . 27. Теорема Гливенко звучит так: со снижением объема выборки гистограмма сходится к функции распределения равномерно с ростом объема выборки гистограмма сходится к функции распределения равномерно 28. Какой из методов минимизации эмпирического риска не существует: метод обобщенного портрета; метод характеристических функций; метод последовательного перебора; 29. В чем заключается алгоритм метода обобщенного портрета: в построении разделяющей гиперплоскости, которая минимизирует число ошибок и расширяет материал обучающей последовательности; в построении разделяющей гиперплоскости, которая минимизирует эмпирический риск; в построении разделяющей гиперплоскости, которая минимизирует число ошибок на материале обучающей последовательности;