-
Алгоритм зворотного поширення помилки. Чи завжди збігається алгоритм зворотного поширення помилки для багатошарового персептрона?
-
Асоціативний пошук інформації на основі мереж Хопфілда.
-
Бiнарнi повнозв'язнi нейромережi Хопфiлда.
-
Бiологiчнi нейрони. Математичнi моделi нейроелементiв.
-
Багатошаровий персептрон: модель i принципи побудови архiтектури.
-
Використання мереж зі зворотними зв’язками при вирішенні практичних задач.
-
Вимоги до навчальних вибiрок даних.
-
Властивостi штучних нейромереж.
-
Градiєнтнi алгоритми навчання багатошарових нейромереж. Який з градієнтних методів навчання на основі зворотного поширення помилки Ви рекомендували б для застосування, якщо критерієм оптимальності навчання НМ є: а) швидкість навчання, б) простота обчислень, в) універсальність?
-
Дайте визначення понять: нейронна мережа, метрика, асоціативна пам'ять, SOFM, LVQ.
-
Дайте визначення понять: повнозв’язна мережа Хопфілда, функція обчислювальної енергії, асоціативна пам'ять, псевдоінверсне навчальне правило, проективний алгоритм настроювання ваг, ефект рознасичення (ефект Городничего), еталон.
-
Доцільність та обмеження практичного використання мереж зі зворотними зв’язками.
-
З якою метою проводиться масштабування даних?
-
Загальна характеристика та основнi принципи побудови нейромереж.
-
Загальна характеристика та принципи побудови нейромереж.
-
Загальне уявлення про навчання нейромереж.
-
Запропонуйте способи урахування апріорної інформації про значимість ознак при навчанні SOFM.
-
Запропонуйте стратегію (алгоритм) визначення необхідної кількості нейронів конкуруючого шару LVQ.
-
Застосування кластер-аналiзу при навчаннi радiально-базисних нейромерж.
-
Застосування мереж SOFM для кластер-аналізу.
-
Застосування мереж SOFM для планування експерименту.
-
Застосування мереж SOFM для створення пошукових систем.
-
Застосування мереж SOFM у картографії.
-
Застосування мереж Кохонена для розпізнавання мови.
-
Застосування мереж Кохонена у задачах кластер-аналiзу та геоiнформацiйних системах.
-
Застосування мереж Кохонена у медичній діагностиці.
-
Застосування мереж Кохонена у технічній діагностиці.
-
Застосування нейромереж для асоціативного пошуку iнформацiї.
-
Карти ознак самоорганiзацiї Кохонена: нейронна мережа SOFM.
-
Класифiкацiя та види моделей нейромереж.
-
Лінійна роздільність і лінійна нерозділеність класів.
-
Машина Больцмана.
-
Мережi Хопфiлда у задачах комбiнаторної оптимiзацiї.
-
Метод найменших квадратiв як основа алгоритму Уiдроу-Хоффа. Чи завжди збігаються алгоритми навчання одношарового персептрона?
-
Метод рознасичення синаптичної матрицi мережi Хопфiлда.
-
Методи навчання радiально-базисних нейромереж.
-
Моделi нейроелементiв у пакетi MATLAB.
-
Моделi та принципи синтезу архiтектури радiально-базисних нейромереж.
-
Можливостi i властивостi одношарових персептронiв. Які задачі можна вирішувати на основі одношарових персептронів, а які не можна? Чи доцільно застосовувати одношаровий персептрон для класифікації складно (нелінійно) роздільних образів? Обґрунтуйте і доведіть відповідь. Приведіть приклади.
-
Наведіть структуру мережі Кохонена SOFM.
-
Назвіть основні принципи створення навчальної вибірки.
-
Нейромережа "SOFM-АЗП".
-
Нейромережа Ельмана.
-
Нейроннi мережi Кохонена SOFM та LVQ у пакетi MATLAB.
-
Нейроннi мережi прямого поширення та градiєнтнi алгоритми навчання у пакетi MATLAB.
-
Нейроннi мережi у пакетi MATLAB. Модуль Neural Network Toolbox.
-
Нейроннi мережi Хопфiлда та Ельмана у пакетi MATLAB.
-
Нейронна мережа LVQ.
-
Нейронні мережі з латеральним гальмуванням.
-
Обмеження мереж LVQ.
-
Обмеження методів синтезу мереж Хопфілда та засоби їх подолання.
-
Опишіть ефект Городничего і розгляньте перспективи його використання.
-
Опишіть структуру мережі LVQ.
-
Опишіть структуру мережі SOFM.
-
Опишіть структуру мережі SOFM-АЗУ.
-
Опишіть суть узагальненого градієнтного алгоритму. Окремі випадки узагальненого градієнтного алгоритму.
-
Пакет Statistica Neural Networks.
-
Переваги і недоліки радіально-базисних мереж.
-
Поняття: бажаний і реальний вихід нейромережі, навчання нейромережі, класифікація, апроксимація, оцінювання, помилка навчання / класифікації, час навчання / класифікації, цільова функція навчання.
-
Поняття: нейрон, нейромережа, нейрокомп'ютер, нейроінформатика.
-
Поняття: формальний нейрон, синапс, вага (ваговий коефіцієнт), поріг, дискримiнантна (вагова) функцiя, функція активації, бажаний і реальний вихід нейромережі, навчання нейромережі, класифікація, апроксимація, оцінювання, помилка навчання / класифікації, час навчання / класифікації, цільова функція навчання.
-
Поняття: формальний нейрон, синапс, вага (ваговий коефіцієнт), поріг, дискримiнантна (вагова) функцiя, функція активації.
-
Порiвняння моделей та алгоритмiв навчання нейромереж прямого поширення.
-
Порівняйте мережі Кохонена з бінарною мережею Хопфілда.
-
Порівняйте мережі Кохонена з мережею Ельмана.
-
Порівняйте мережі Кохонена з персептронами.
-
Порівняйте мережі прямого поширення та мережі зі зворотними зв’язками.
-
Порівняйте можливості SOFM, мереж Хопфілда та одношарового дискретного персептрона.
-
Порівняйте можливості бінарних мереж Хопфілда і багатошарового персептрона.
-
Порівняйте можливості бінарних мереж Хопфілда і дискретного одношарового персептрона.
-
Порівняйте можливості бінарних мереж Хопфілда і радіально-базисних мереж.
-
Порівняння мереж Хопфiлда та Ельмана
-
Псевдоінверсне навчальне правило, проективний алгоритм настроювання ваг.
-
Радiально-базиснi нейромережi у пакетi MATLAB.
-
Розпізнавання зображень букв тексту за допомогою мереж Хопфілда.
-
Розпізнавання образів: постановка задачі та можливість застосування мереж зі зворотними зв’язками.
-
У чому подібність і відмінність біологічних і формальних нейронів?
-
У чому подібність і відмінність радiально-базисних нейромереж і багатошарових нейромереж?
-
У чому полягає метод навчання LVQ1?
-
У чому полягає метод навчання LVQ2?
-
У чому полягає метод навчання OLVQ?
-
У чому полягає навчання без учителя?
-
У чому полягає навчання з учителем?
-
У чому полягає навчання мережі Кохонена LVQ?
-
Характеристики процесу навчання нейромереж.
-
Чи впливає величина кроку навчання на час навчання одношарового персептрона, багатошарової мережі? Відповідь обґрунтуйте теоретично та доведіть експериментально.
-
Чи впливає кількість використаних ознак на швидкість навчання персептрона? Відповідь обґрунтуйте теоретично та доведіть експериментально.
-
Чи впливає обсяг навчальної вибірки на швидкість навчання нейромереж?
-
Чи впливає репрезентативність навчальної вибірки на точність класифікації екземплярів тестової вибірки?
-
Чи впливає репрезентативність тестової вибірки на точність класифікації екземплярів тестової вибірки?
-
Чи впливає репрезентативність тестової вибірки на точність навчання персептрона по навчальній вибірці?
-
Чи впливає репрезентативність тестової вибірки на точність навчання мережі по навчальній вибірці?
-
Чи дозволяє модель і традиційні методи навчання мереж Хопфілда побудувати на її основі асоціативний запам'ятовуючий пристрій, здатний запам'ятовувати стільки образів, скільки нейронів у мережі? Відповідь поясніть.
-
Чи доцільно використовувати SOFM для попереднього аналізу даних у задачах діагностики і прогнозування?
-
Чи доцільно застосовувати бінарні мережі Хопфілда для класифікації складно (нелінійно) роздільних образів?
-
Чи доцільно застосовувати мережі Хопфілда при вирішенні задач, для рішення яких може використовуватися одношаровий персептрон?
-
Чи доцільно застосовувати радiально-базисних нейромереж для класифікації складно (нелінійно) роздільних образів?
-
Чи завжди збігаються алгоритми навчання радiально-базисних нейромереж?
-
Чи завжди збігаються проекційні алгоритми навчання мережі Хопфілда?
-
Чи залежить якість навчання нейромереж від якості та обсягу навчальної вибірки?
-
Чи може дійсний багатошаровий персептрон моделювати функцію y = x12 + 0.5x1 + x2, якщо число його шарів дорівнює: а) 1, б) 2, в) 3? Відповіді обґрунтуйте і, якщо можливо, поясніть рисунками.
-
Чи можливе використання неградієнтних методів багатовимірної безумовної оптимізації для настроювання ваг багатошарових нейромереж, і, якщо можливе, то наскільки це доцільно робити?
-
Чи можна навчити бінарну НМ Хопфілда відновлювати за ключем 1101**** запам’ятовані набори кодових слів: a) 11011001, 01010010, 11001111, б) 11011001, 11011010, 01011111, в) 11011001, 11010010, 11011111? Відповідь поясніть.
-
Чи можна навчити дискретний багатошаровий персептрон обчислювати значення функцій: 1) y = x1 and x2, 2) y = x1 xor x2, 3) y = not (( not x1) and x2), а дійсний багатошаровий персептрон – обчислювати значення функцій: 1) y = 3x1 – 0,05x2, 2) y = sin(x1) + 0,3x2, 3) y = 0,5x1 + 2x2 - 2,5(x1 – –x2) + 5,5, 4) y = x1 / (x2sin(π))? Відповіді обґрунтуйте і, якщо можливо, поясніть рисунками.
-
Чи можна навчити дискретний одношаровий персептрон обчислювати значення функцій: y = (x1 and x2), y = (x1 xor x2), y = not ((not x1) and x2), а дійсний одношаровий персептрон – обчислювати значення функцій: y = 3x1 – - 0,05x2, y = sin(x1) + 0,3x2, y = 0,5x1 + 2x2 – 2,5(x1 – x2) + 5,5? Відповіді обґрунтуйте і, якщо можливо, поясніть рисунками.
-
Чи можна навчити радiально-базисну нейромережу обчислювати значення функцій: 1) y = x1 and x2, 2) y = x1 xor x2, 3) y = not ((not x1) and x2), 4) y = 3x1 – 0,05x2, 5) y = sin(x1) + 0,3x2, 6) y = 0,5x1 + 2x2 - 2,5(x1 – x2) + 5,5, 7) y = x1 / (x2 sin(π))? Відповіді обґрунтуйте і, якщо можливо, поясніть рисунками.
-
Чи повинна навчальна вибірка бути репрезентативною?
-
Чи повинна тестова вибірка бути репрезентативною?
-
Що означає термін "кластеризація"?
-
Що таке генеральна сукупність, вибірка, екземпляр, ознака?
-
Що таке нормалізація даних?
-
Що таке репрезентативна вибірка даних?
-
Як впливає репрезентативність навчальної вибірки на результат побудови мережі SOFM?
-
Як впливають вид і параметри метрики на точність визначення центрів зосередження екземплярів. Відповідь поясніть і проілюструйте.
-
Які задачі можна вирішувати на основі SOFM і LVQ, а які не можна? Обґрунтуйте і доведіть відповідь. Приведіть приклади.
-
Які задачі можна вирішувати на основі багатошарових персептронів, а які не можна? Обґрунтуйте і доведіть відповідь. Приведіть приклади.
-
Які задачі можна вирішувати на основі бінарних НМ Хопфілда, а які не можна? Обґрунтуйте і доведіть відповідь. Приведіть приклади.
-
Які задачі можна вирішувати на основі радiально-базисних нейромереж, а які не можна? Обґрунтуйте і доведіть відповідь. Наведіть приклади.
-
Які методи навчання багатошарових нейромереж Вам відомі? Дайте порівняльну характеристику відомих Вам методів навчання багатошарових нейромереж.
-
Які метрики можна використовувати для побудови мереж SOFM?
-
Які функції активації нейронів найчастіше використовують і чому? Чи впливає вид функції активації нейрона на тривалість навчання і роботи персептрона, величину помилки навчання і класифікації (оцінювання) і, якщо впливає, то яким чином?