Какие фундаментальные свойства связаны с обучением по примерам
Главная / Искусственный интеллект и робототехника /
Проектирование систем искусственного интеллекта / Тест 4
Упражнение 1:
Номер 1
Что такое адаптация?
Ответ:
 (1) это процесс, в результате которого система постепенно приобретает способность отвечать нужными реакциями на определенные совокупности внешних воздействий 
 (2) это подстройка параметров и структуры системы с целью достижения требуемого качества управления в условиях непрерывных изменений внешних условий 
 (3) обучение, при котором дополнительная информация о верности реакции системе не сообщается 
Номер 2
Что такое обучение?
Ответ:
 (1) это процесс, в результате которого система постепенно приобретает способность отвечать нужными реакциями на определенные совокупности внешних воздействий 
 (2) это подстройка параметров и структуры системы с целью достижения требуемого качества управления в условиях непрерывных изменений внешних условий 
 (3) обучение, при котором дополнительная информация о верности реакции системе не сообщается 
Номер 3
Что такое самообучение
Ответ:
 (1) это процесс, в результате которого система постепенно приобретает способность отвечать нужными реакциями на определенные совокупности внешних воздействий 
 (2) это подстройка параметров и структуры системы с целью достижения требуемого качества управления в условиях непрерывных изменений внешних условий 
 (3) обучение, при котором дополнительная информация о верности реакции системе не сообщается 
Упражнение 2:
Номер 1
Чем самообучение отличается от обучения?
Ответ:
 (1) при обучении дополнительная информация о верности реакции системе сообщается 
 (2) при самообучении дополнительная информация о верности реакции системе не сообщается 
 (3) при обучении дополнительная информация о верности реакции системе не сообщается 
 (4) при самообучении дополнительная информация о верности реакции системе сообщается 
Номер 2
Кто впервые исследовал способность нейронной сети к обучению?
Ответ:
 (1) Маккалок 
 (2) Розенблатт 
 (3) Питт 
 (4) Норман 
Номер 3
Какие свойства присущи искусственным нейронным сетям?
Ответ:
 (1) обучение 
 (2) обобщение 
 (3) абстрагирование 
 (4) применимость 
Упражнение 3:
Номер 1
Какие нейронные сети относятся к сетям прямого распространения?
Ответ:
 (1) персептрон 
 (2) сеть Элмана 
 (3) сеть обратного распространения 
 (4) сеть встречного распространения 
 (5) сети Хопфилда 
 (6) карта Кохонена 
Номер 2
Какие нейронные сети относятся к рекуррентным сетям?
Ответ:
 (1) сеть Хопфилда 
 (2) сеть с обратной связью 
 (3) сеть Элмана 
 (4) сеть встречного распространения 
Номер 3
В чем преимущества сетей с обратной связью?
Ответ:
 (1) сложность обучения, вызванная большим числом нейронов для алгоритмов одного и того же уровня сложности 
 (2) простота их реализации и гарантированное получение ответа после прохождения данных по слоям 
 (3) наличие блоков динамической задержки и обратных связей, что позволяет им обрабатывать динамические модели 
Упражнение 4:
Номер 1
По направленности связей, нейронные сети бывают?
Ответ:
 (1) сети без обратных связей 
 (2) сети прямого распространения 
 (3) дендограмма 
 (4) кросс-таблица 
Номер 2
Какая главная функция искусственного нейрона?
Ответ:
 (1) рассчитывать выходной сигнал в зависимости от значения весовых коэффициентов 
 (2) поиск значения весовых коэффициентов 
 (3) формировать входной сигнал в зависимости от сигналов, поступающих на его выходной сигнал 
 (4) формировать выходной сигнал в зависимости от сигналов, поступающих на его входы 
Номер 3
Нейронная сеть прямого распространения сигнала – это
Ответ:
 (1) сети прямого распространения 
 (2) сети с обратными связями 
 (3) рекуррентные сети 
Упражнение 5:
Номер 1
При обучении с учителем необходимо?
Ответ:
 (1) знать значение выходных сигналов 
 (2) знать значение весовых коэффициентов 
 (3) знать значение входных сигналов 
Номер 2
При обучении нейронной сети без учителя, задаются следующие параметры?
Ответ:
 (1) выходные значения 
 (2) входные значения 
 (3) весовые коэффициенты 
Номер 3
Какие принципы определяют структуру нейронной сети?
Ответ:
 (1) возможности сети возрастают с увеличением числа ячеек сети, плотности связей между ними и числом выделенных слоев 
 (2) использование различных пороговых функций 
 (3) введение обратных связей наряду с увеличением возможностей сети поднимает вопрос о динамической устойчивости сети 
 (4) сложность алгоритмов функционирования сети 
Упражнение 6:
Номер 1
Какие фундаментальные свойства связаны с обучением по примерам?
Ответ:
 (1) емкость 
 (2) техническая характеристика образов 
 (3) сложность образцов 
 (4) вычислительная сложность 
Номер 2
Какие существуют правила обучения?
Ответ:
 (1) коррекция по ошибке 
 (2) правило Кохонена 
 (3) машина Больцмана 
 (4) правило Хеба 
 (5) обучение методом Элмана 
 (6) обучение методом соревнования 
Номер 3
Какие подходы выделяют к проблеме ОРО?
Ответ:
 (1) построение сложных разделяющих поверхностей в случайно выбранных пространствах 
 (2) построение простых разделяющих поверхностей в случайно выбранных пространствах 
 (3) центр тяжести проблемы переносится на достижение понимания принципов описания объектов, в рамках которого процесс распознавания чрезвычайно прост 
 (4) центр тяжести проблемы переносится на достижение понимания принципов описания объектов, в рамках которого процесс распознавания чрезвычайно сложен 
Упражнение 7:
Номер 1
Известно что весовые коэффициенты устанавливаются на шаге инициализации. Если размерность вектора весов для нейронов инициализируемого слоя равна 4, чему будет равняться W0?
Ответ:
 (1) 0,5 
 (2) 0,25 
 (3) 1,5 
 (4) 1,25 
Номер 2
Известно что весовые коэффициенты устанавливаются на шаге инициализации. Если размерность вектора весов для нейронов инициализируемого слоя равна 25, чему будет
равняться W0?
Ответ:
 (1) 1,04 
 (2) 0,04 
 (3) 0,2 
 (4) 1,2 
Номер 3
Известно что весовые коэффициенты устанавливаются на шаге инициализации. Если размерность вектора весов для нейронов инициализируемого слоя равна 8, чему будет
равняться W0?
Ответ:
 (1) 1,125 
 (2) 0,35 
 (3) 0,125 
 (4) 1,35 
Упражнение 8:
Номер 1
Известны следующие данные, что суммирующий элемент равен 2,7. Чему в этом случае будет равняться активационный элемент F(d)?
Ответ:
 (1) 1,03 
 (2) 0,94 
 (3) 0,995 
 (4) 1,04 
Номер 2
Известны следующие данные, что суммирующий элемент равен 1,8. Чему в этом случае будет равняться активационный элемент F(d)?
Ответ:
 (1) 0,76 
 (2) 0,54 
 (3) 0,94 
 (4) 0,86 
Номер 3
Известны следующие данные, что суммирующий элемент равен 2. Чему в этом случае будет равняться активационный элемент F(d)?
Ответ:
 (1) 0,88 
 (2) 1,43 
 (3) 0,64 
 (4) 2,34 
Упражнение 9:
Номер 1
На вход нейронной сети поданы следующие элементы: 2, 4, 5. Нейронной сетью были определенны следующие весовые коэффициенты: для 2= 0,5; для 4= 0,3; для 5= 0,1. Чему будет равняться Суммирующий элемент?
Ответ:
 (1) 2,7 
 (2) 0,9 
 (3) 11 
 (4) 11,9 
Номер 2
На вход нейронной сети поданы следующие элементы: 1, 2, 4. Нейронной сетью были определенны следующие весовые коэффициенты: для 1= 0,2; для 2= 0,6; для 4= 0,1. Чему будет равняться Суммирующий элемент?
Ответ:
 (1) 0,9 
 (2) 7 
 (3) 1,8 
 (4) 7,9 
Номер 3
На вход нейронной сети поданы следующие элементы: 3, 2, 5. Нейронной сетью были определенны следующие весовые коэффициенты: для первого – 0,1; для второго – 0,1; для третьего – 0,3. Чему будет равняться Суммирующий элемент?
Ответ:
 (1) 0,5 
 (2) 10 
 (3) 10,5 
 (4) 2 
Упражнение 10:
Номер 1
Чему равна степень полного описания на первом ряду селекции?
Ответ:
 (1) 1 
 (2) 2 
 (3) 3 
 (4) 4 
Номер 2
Чему равна степень полного описания на третьем ряду селекции?
Ответ:
 (1) 2 
 (2) 4 
 (3) 8 
 (4) 12 
Номер 3
Чему равна степень полного описания на втором ряду селекции?
Ответ:
 (1) 8 
 (2) 6 
 (3) 4 
 (4) 2 
Источник
Обучение
Способность к обучению является фундаментальным
свойством мозга. В контексте ИНС процесс обучения может рассматриваться как
настройка архитектуры сети и весов связей для эффективного выполнения специальной
задачи. Обычно нейронная сеть должна настроить веса связей по имеющейся
обучающей выборке. Функционирование сети улучшается по мере итеративной
настройки весовых коэффициентов. Свойство сети обучаться на примерах делает их
более привлекательными по сравнению с системами, которые следуют определенной
системе правил функционирования, сформулированной экспертами.
Для конструирования процесса обучения, прежде всего,
необходимо иметь модель внешней среды, в которой функционирует нейронная сеть –
знать доступную для сети информацию. Эта модель определяет парадигму обучения.
Во-вторых, необходимо понять, как модифицировать весовые параметры сети – какие
правила обучения управляют процессом настройки. Алгоритм обучения означает
процедуру, в которой используются правила обучения для настройки весов.
Существуют три парадигмы обучения: “с
учителем”, “без учителя” (самообучение) и смешанная. В первом
случае нейронная сеть располагает правильными ответами (выходами сети) на
каждый входной пример. Совокупность примеров, на которых проводится обучение,
называется обучающей выборкой (trainingset), множество
примеров, используемых для проверки качества работы сети, называется тестовой
выборкой (validationset). Типичным
представителем этой парадигмы являются многослойные перцептроны. Веса
настраиваются так, чтобы сеть производила ответы как можно более близкие к
известным правильным ответам. Усиленный вариант обучения с учителем
предполагает, что известна только критическая оценка правильности выхода
нейронной сети, но не сами правильные значения выхода. Обучение без учителя не
требует знания правильных ответов на каждый пример обучающей выборки. В этом
случае раскрывается внутренняя структура данных или корреляции между образцами
в системе данных, что позволяет распределить образцы по категориям. Типичным
представителем этой парадигмы являются самоорганизующиеся карты Кохонена. При
смешанном обучении часть весов определяется посредством обучения с учителем, в
то время как остальная получается с помощью самообучения.
Теория обучения рассматривает три фундаментальных
свойства, связанных с обучением по примерам: емкость, сложность образцов и
вычислительная сложность. Под емкостью понимается, сколько образцов может запомнить
сеть, и какие функции и границы принятия решений могут быть на ней
сформированы. Сложность образцов определяет число обучающих примеров, необходимых
для достижения способности сети к обобщению. Слишком малое число примеров может
вызвать “переобученность” сети, когда она хорошо функционирует на
примерах обучающей выборки, но плохо – на тестовых примерах, подчиненных тому
же статистическому распределению. Известны 4 основных типа правил обучения:
коррекция по ошибке, машина Больцмана, правило Хебба и обучение методом
соревнования.
Правило
коррекции по ошибке. При обучении с
учителем для каждого входного примера задан желаемый выход d. Реальный выход
сети y может не совпадать с желаемым. Принцип коррекции по ошибке при обучении
состоит в использовании сигнала (d-y) для модификации весов, обеспечивающей
постепенное уменьшение ошибки. Обучение имеет место только в случае, когда
перцептрон ошибается. Известны различные модификации этого алгоритма обучения .
Обучение
Больцмана. Представляет собой
стохастическое правило обучения, которое следует из информационных
теоретических и термодинамических принципов. Целью обучения Больцмана является
такая настройка весовых коэффициентов, при которой состояния видимых нейронов
удовлетворяют желаемому распределению вероятностей. Обучение Больцмана может
рассматриваться как специальный случай коррекции по ошибке, в котором под
ошибкой понимается расхождение корреляций состояний в двух режимах .
Правило
Хебба. Самым старым обучающим
правилом является постулат обучения Хебба . Хебб опирался на следующие
нейрофизиологические наблюдения: если нейроны с обеих сторон синапса
активизируются одновременно и регулярно, то сила синаптической связи
возрастает. Важной особенностью этого правила является то, что изменение
синаптического веса зависит только от активности нейронов, которые связаны
данным синапсом. Это существенно упрощает цепи обучения в реализации VLSI.
Обучение
методом соревнования. В отличие от
обучения Хебба, в котором множество выходных нейронов могут возбуждаться
одновременно, при соревновательном обучении выходные нейроны соревнуются между
собой за активизацию. Это явление известно как правило “победитель берет
все” (Winner Takes All -WTA). Подобное обучение имеет место в биологических
нейронных сетях. Обучение посредством соревнования позволяет кластеризовать
входные данные: подобные примеры группируются сетью в соответствии с
корреляциями и представляются одним элементом. При обучении модифицируются
только веса “победившего” нейрона. Эффект этого правила достигается
за счет такого изменения сохраненного в сети образца (вектора весов связей
победившего нейрона), при котором он становится чуть ближе к входному примеру.
Источник