Написание контрольных, курсовых, дипломных работ, выполнение задач, тестов, бизнес-планов
  • Не нашли подходящий заказ?
    Заказать в 1 клик:  /contactus
  •  
Главная \ Методичні вказівки \ Перелік питань, що охоплюють зміст робочої програми

Перелік питань, що охоплюють зміст робочої програми

« Назад

Перелік питань, що охоплюють зміст робочої програми 16.07.2014 20:41

  1. Алгоритм зворотного поширення помилки. Чи завжди збігається алгоритм зворотного поширення помилки для багатошарового персептрона?

  2. Асоціативний пошук інформації на основі мереж Хопфілда.

  3. Бiнарнi повнозв'язнi нейромережi Хопфiлда.

  4. Бiологiчнi нейрони. Математичнi моделi нейроелементiв.

  5. Багатошаровий персептрон: модель i принципи побудови архiтектури.

  6. Використання мереж зі зворотними зв’язками при вирішенні практичних задач.

  7. Вимоги до навчальних вибiрок даних.

  8. Властивостi штучних нейромереж.

  9. Градiєнтнi алгоритми навчання багатошарових нейромереж. Який з градієнтних методів навчання на основі зворотного поширення помилки Ви рекомендували б для застосування, якщо критерієм оптимальності навчання НМ є: а) швидкість навчання, б) простота обчислень, в) універсальність?

  10. Дайте визначення понять: нейронна мережа, метрика, асоціативна пам'ять, SOFM, LVQ.

  11. Дайте визначення понять: повнозв’язна мережа Хопфілда, функція обчислювальної енергії, асоціативна пам'ять, псевдоінверсне навчальне правило, проективний алгоритм настроювання ваг, ефект рознасичення (ефект Городничего), еталон.

  12. Доцільність та обмеження практичного використання мереж зі зворотними зв’язками.

  13. З якою метою проводиться масштабування даних?

  14. Загальна характеристика та основнi принципи побудови нейромереж.

  15. Загальна характеристика та принципи побудови нейромереж.

  16. Загальне уявлення про навчання нейромереж.

  17. Запропонуйте способи урахування апріорної інформації про значимість ознак при навчанні SOFM.

  18. Запропонуйте стратегію (алгоритм) визначення необхідної кількості нейронів конкуруючого шару LVQ.

  19. Застосування кластер-аналiзу при навчаннi радiально-базисних нейромерж.

  20. Застосування мереж SOFM для кластер-аналізу.

  21. Застосування мереж SOFM для планування експерименту.

  22. Застосування мереж SOFM для створення пошукових систем.

  23. Застосування мереж SOFM у картографії.

  24. Застосування мереж Кохонена для розпізнавання мови.

  25. Застосування мереж Кохонена у задачах кластер-аналiзу та геоiнформацiйних системах.

  26. Застосування мереж Кохонена у медичній діагностиці.

  27. Застосування мереж Кохонена у технічній діагностиці.

  28. Застосування нейромереж для асоціативного пошуку iнформацiї.

  29. Карти ознак самоорганiзацiї Кохонена: нейронна мережа SOFM.

  30. Класифiкацiя та види моделей нейромереж.

  31. Лінійна роздільність і лінійна нерозділеність класів.

  32. Машина Больцмана.

  33. Мережi Хопфiлда у задачах комбiнаторної оптимiзацiї.

  34. Метод найменших квадратiв як основа алгоритму Уiдроу-Хоффа. Чи завжди збігаються алгоритми навчання одношарового персептрона?

  35. Метод рознасичення синаптичної матрицi мережi Хопфiлда.

  36. Методи навчання радiально-базисних нейромереж.

  37. Моделi нейроелементiв у пакетi MATLAB.

  38. Моделi та принципи синтезу архiтектури радiально-базисних нейромереж.

  39. Можливостi i властивостi одношарових персептронiв. Які задачі можна вирішувати на основі одношарових персептронів, а які не можна? Чи доцільно застосовувати одношаровий персептрон для класифікації складно (нелінійно) роздільних образів? Обґрунтуйте і доведіть відповідь. Приведіть приклади.

  40. Наведіть структуру мережі Кохонена SOFM.

  41. Назвіть основні принципи створення навчальної вибірки.

  42. Нейромережа "SOFM-АЗП".

  43. Нейромережа Ельмана.

  44. Нейроннi мережi Кохонена SOFM та LVQ у пакетi MATLAB.

  45. Нейроннi мережi прямого поширення та градiєнтнi алгоритми навчання у пакетi MATLAB.

  46. Нейроннi мережi у пакетi MATLAB. Модуль Neural Network Toolbox.

  47. Нейроннi мережi Хопфiлда та Ельмана у пакетi MATLAB.

  48. Нейронна мережа LVQ.

  49. Нейронні мережі з латеральним гальмуванням.

  50. Обмеження мереж LVQ.

  51. Обмеження методів синтезу мереж Хопфілда та засоби їх подолання.

  52. Опишіть ефект Городничего і розгляньте перспективи його використання.

  53. Опишіть структуру мережі LVQ.

  54. Опишіть структуру мережі SOFM.

  55. Опишіть структуру мережі SOFM-АЗУ.

  56. Опишіть суть узагальненого градієнтного алгоритму. Окремі випадки узагальненого градієнтного алгоритму.

  57. Пакет Statistica Neural Networks.

  58. Переваги і недоліки радіально-базисних мереж.

  59. Поняття: бажаний і реальний вихід нейромережі, навчання нейромережі, класифікація, апроксимація, оцінювання, помилка навчання / класифікації, час навчання / класифікації, цільова функція навчання.

  60. Поняття: нейрон, нейромережа, нейрокомп'ютер, нейроінформатика.

  61. Поняття: формальний нейрон, синапс, вага (ваговий коефіцієнт), поріг, дискримiнантна (вагова) функцiя, функція активації, бажаний і реальний вихід нейромережі, навчання нейромережі, класифікація, апроксимація, оцінювання, помилка навчання / класифікації, час навчання / класифікації, цільова функція навчання.

  62. Поняття: формальний нейрон, синапс, вага (ваговий коефіцієнт), поріг, дискримiнантна (вагова) функцiя, функція активації.

  63. Порiвняння моделей та алгоритмiв навчання нейромереж прямого поширення.

  64. Порівняйте мережі Кохонена з бінарною мережею Хопфілда.

  65. Порівняйте мережі Кохонена з мережею Ельмана.

  66. Порівняйте мережі Кохонена з персептронами.

  67. Порівняйте мережі прямого поширення та мережі зі зворотними зв’язками.

  68. Порівняйте можливості SOFM, мереж Хопфілда та одношарового дискретного персептрона.

  69. Порівняйте можливості бінарних мереж Хопфілда і багатошарового персептрона.

  70. Порівняйте можливості бінарних мереж Хопфілда і дискретного одношарового персептрона.

  71. Порівняйте можливості бінарних мереж Хопфілда і радіально-базисних мереж.

  72. Порівняння мереж Хопфiлда та Ельмана

  73. Псевдоінверсне навчальне правило, проективний алгоритм настроювання ваг.

  74. Радiально-базиснi нейромережi у пакетi MATLAB.

  75. Розпізнавання зображень букв тексту за допомогою мереж Хопфілда.

  76. Розпізнавання образів: постановка задачі та можливість застосування мереж зі зворотними зв’язками.

  77. У чому подібність і відмінність біологічних і формальних нейронів?

  78. У чому подібність і відмінність радiально-базисних нейромереж і багатошарових нейромереж?

  79. У чому полягає метод навчання LVQ1?

  80. У чому полягає метод навчання LVQ2?

  81. У чому полягає метод навчання OLVQ?

  82. У чому полягає навчання без учителя?

  83. У чому полягає навчання з учителем?

  84. У чому полягає навчання мережі Кохонена LVQ?

  85. Характеристики процесу навчання нейромереж.

  86. Чи впливає величина кроку навчання на час навчання одношарового персептрона, багатошарової мережі? Відповідь обґрунтуйте теоретично та доведіть експериментально.

  87. Чи впливає кількість використаних ознак на швидкість навчання персептрона? Відповідь обґрунтуйте теоретично та доведіть експериментально.

  88. Чи впливає обсяг навчальної вибірки на швидкість навчання нейромереж?

  89. Чи впливає репрезентативність навчальної вибірки на точність класифікації екземплярів тестової вибірки?

  90. Чи впливає репрезентативність тестової вибірки на точність класифікації екземплярів тестової вибірки?

  91. Чи впливає репрезентативність тестової вибірки на точність навчання персептрона по навчальній вибірці?

  92. Чи впливає репрезентативність тестової вибірки на точність навчання мережі по навчальній вибірці?

  93. Чи дозволяє модель і традиційні методи навчання мереж Хопфілда побудувати на її основі асоціативний запам'ятовуючий пристрій, здатний запам'ятовувати стільки образів, скільки нейронів у мережі? Відповідь поясніть.

  94. Чи доцільно використовувати SOFM для попереднього аналізу даних у задачах діагностики і прогнозування?

  95. Чи доцільно застосовувати бінарні мережі Хопфілда для класифікації складно (нелінійно) роздільних образів?

  96. Чи доцільно застосовувати мережі Хопфілда при вирішенні задач, для рішення яких може використовуватися одношаровий персептрон?

  97. Чи доцільно застосовувати радiально-базисних нейромереж для класифікації складно (нелінійно) роздільних образів?

  98. Чи завжди збігаються алгоритми навчання радiально-базисних нейромереж?

  99. Чи завжди збігаються проекційні алгоритми навчання мережі Хопфілда?

  100. Чи залежить якість навчання нейромереж від якості та обсягу навчальної вибірки?

  101. Чи може дійсний багатошаровий персептрон моделювати функцію y = x12 + 0.5x1 + x2, якщо число його шарів дорівнює: а) 1, б) 2, в) 3? Відповіді обґрунтуйте і, якщо можливо, поясніть рисунками.

  102. Чи можливе використання неградієнтних методів багатовимірної безумовної оптимізації для настроювання ваг багатошарових нейромереж, і, якщо можливе, то наскільки це доцільно робити?

  103. Чи можна навчити бінарну НМ Хопфілда відновлювати за ключем 1101**** запам’ятовані набори кодових слів: a) 11011001, 01010010, 11001111, б) 11011001, 11011010, 01011111, в) 11011001, 11010010, 11011111? Відповідь поясніть.

  104. Чи можна навчити дискретний багатошаровий персептрон обчислювати значення функцій: 1) y = x1 and x2, 2) y = x1 xor x2, 3) y = not ((          not x1) and x2), а дійсний багатошаровий персептрон – обчислювати значення функцій: 1) y = 3x1 – 0,05x2, 2) y = sin(x1) + 0,3x2, 3) y = 0,5x1 + 2x2 - 2,5(x1 –    –x2) + 5,5, 4) y = x1 / (x2sin(π))? Відповіді обґрунтуйте і, якщо можливо, поясніть рисунками.

  105. Чи можна навчити дискретний одношаровий персептрон обчислювати значення функцій: y = (x1 and x2), y = (x1 xor x2), y = not ((not x1) and x2), а дійсний одношаровий персептрон – обчислювати значення функцій: y = 3x1 – - 0,05x2, y = sin(x1) + 0,3x2, y = 0,5x1 + 2x2 – 2,5(x1 – x2) + 5,5? Відповіді обґрунтуйте і, якщо можливо, поясніть рисунками.

  106. Чи можна навчити радiально-базисну нейромережу обчислювати значення функцій: 1) y = x1 and x2, 2) y = x1 xor x2, 3) y = not ((not x1) and x2), 4) y = 3x1 – 0,05x2, 5) y = sin(x1) + 0,3x2, 6) y = 0,5x1 + 2x2 - 2,5(x1 – x2) + 5,5,   7) y = x1 / (x2 sin(π))? Відповіді обґрунтуйте і, якщо можливо, поясніть рисунками.

  107. Чи повинна навчальна вибірка бути репрезентативною?

  108. Чи повинна тестова вибірка бути репрезентативною?

  109. Що означає термін "кластеризація"?

  110. Що таке генеральна сукупність, вибірка, екземпляр, ознака?

  111. Що таке нормалізація даних?

  112. Що таке репрезентативна вибірка даних?

  113. Як впливає репрезентативність навчальної вибірки на результат побудови мережі SOFM?

  114. Як впливають вид і параметри метрики на точність визначення центрів зосередження екземплярів. Відповідь поясніть і проілюструйте.

  115. Які задачі можна вирішувати на основі SOFM і LVQ, а які не можна? Обґрунтуйте і доведіть відповідь. Приведіть приклади.

  116. Які задачі можна вирішувати на основі багатошарових персептронів, а які не можна? Обґрунтуйте і доведіть відповідь. Приведіть приклади.

  117. Які задачі можна вирішувати на основі бінарних НМ Хопфілда, а які не можна? Обґрунтуйте і доведіть відповідь. Приведіть приклади.

  118. Які задачі можна вирішувати на основі радiально-базисних нейромереж, а які не можна? Обґрунтуйте і доведіть відповідь. Наведіть приклади.

  119. Які методи навчання багатошарових нейромереж Вам відомі? Дайте порівняльну характеристику відомих Вам методів навчання багатошарових нейромереж.

  120. Які метрики можна використовувати для побудови мереж SOFM?

  121. Які функції активації нейронів найчастіше використовують і чому? Чи впливає вид функції активації нейрона на тривалість навчання і роботи персептрона, величину помилки навчання і класифікації (оцінювання) і, якщо впливає, то яким чином?

 


Комментарии


Комментариев пока нет

Пожалуйста, авторизуйтесь, чтобы оставить комментарий.

Авторизация
Введите Ваш логин или e-mail:

Пароль :
запомнить