МІНІСТЕРСТВО ОСВІТИ УКРАЇНИ
Національний університет “Львівська політехніка”
ДОСЛІДЖЕННЯ АЛГОРИТМІВ РОЗПІЗНАВАННЯ ОБРАЗІВ.ЗАДАЧА ВИЗНАЧЕННЯ КОЕФІЦІЕНТІВ ЛРФ ДЛЯ КІЛЬКОХ МНОЖИН ОБРАЗІВ
Методичні вказівки
до лабораторної роботи №6
з курсу “Основи проектування систем штучного інтелекту”
1.Мета роботи
Вивчити принципи алгоритмів побудови лінійних рішаючих функцій для кількох класів.
Написати програму реалізації алгоритму з графічним інтерфейсом користувача.
2. Короткі теоретичні відомості
2.1. Машина перцептрона. Перцептронний підхід до розпізнавання образів
Структура машини перцептрона була запропонована у 1957 році як модель машини, здатної до навчання.
Рис. 1. Структура машини перцептрона
Ця машина складається з наступних частин:
Сенсори (давачі), які сприймають зовнішню інформацію
Асоціативний шар. Кожен давач з'єднаний з кожним блоком асоціативного шару. Виходом цього шару є ознаки .
Блок вагових коефіціентів. За допомогою цього блоку ознаки зважуються ().
Загальний суматор - в ньому отримується значення реакції .
Блок рішення - сюди поступає значення реакції із загального суматора. По значенню визначається налажність образу до того чи іншого класу.
Якщо поступає образ класу (), а на виході отримується тоді коректуються вагові коефіціенти.
Значення вектора вважається знайденим правильно, якщо для будь-яких образів з класів і класифікація відбувається правильно.
Така машина є типовою архітектурою машини із здатністю до самонавчання. Алгоритм роботи машини перцептрона грунтується на ідеї "заохочення-покарання". Робота починається з де-якого початкового наближення . Нехай ми знаходимось на k-ому кроці і нехай ми перевіряємо якийсь k-ий образ з множини вибірки . Припустимо, що ми розглядаємо лінійну рішаючу функцію для двох класів і , причому значення лінійної рішаючої функції в класі більше нуля, а в класі - менше нуля. На k-ому кроці ми перевіряємо значення лінійної рішаючої функції для заданого вектора , причому . Якщо виконується умова тоді ніяких корекцій вагових коефіцентів робити непотрібно. Якщо ж тоді потрібно здійснювати корекцію вагових коефіцентів. Вона здійснюється за наступним алгоритмом:
, де - коректуючий приріст
В більшості випадків приймають .
Якщо ми вибираємо вектор з області тоді перевіряємо значення . Якщо тоді ніяких корекцій вагових коефіцентів робити непотрібно. Якщо ж тоді корекція здійснюється за наступним правилом:
Вагові коефіціенти вважаються знайденими правильно, якщо для всіх образів, що належать класам і правильно визначається знак лінійної рішаючої функції.
Існують наступні варіанти вибору коректуючого приросту :
Алгоритм фіксованого приросту: ,
Алгоритм корекції абсолютної величини: - по цій різниці здійснюють оцінку параметра . , ,
Алгоритм дробової корекції: - найбільше ціле число, яке не перевищує .
Алгоритм перцептрона збіжний лише в отму випадку, коли класи лінійно розділимі. Якщо ж класи лінійно нерозділимі, тоді алгоритм перцептрона зациклюється.
2.2. Процедура навчання класифікаторів для декількох класів
Нехай ми маємо класів. Тоді на k-ому кроці навчання в систему поступає образ , обчислюється значень лінійних рішаючих функцій:
Припустимо, що . Тоді, якщо виконується умова для будь-якого , тоді корекції вагових коефіціентів здійснювати непотрібно, тобто .
Нехай для деякого тоді потрібно виконати наступну корекцію:
для всіх решта векторів вагових коефіціентів .
Якщо класи лінійно розмежовані, тоді цей алгоритм збігається.
2.3. Вибір математичної моделі
Для простоти будемо розглядати двовимірний випадок, тобто вектор ознак є двокомпонентним. Також необхідно вибрати спосіб за яким буде визначатись належність образу до того чи іншого класу. Виберемо наступний варіант:
, тоді .
При проведенні корекції вектора вагових коефіціентів використовується коректуючий приріст , для вибору якого відомі де-кілька способів. Виберемо алгоритм корекції абсолютної величини:
.
2.4. Опис алгоритму
Нехай ми маємо класів. Тоді на k-ому кроці навчання в систему поступає образ , обчислюється значень лінійних рішаючих функцій:
Припустимо, що . Тоді, якщо виконується умова для будь-якого , тоді корекції вагових коефіціентів здійснювати непотрібно, тобто .
Нехай для деякого тоді потрібно виконати наступну корекцію:
для всіх решта векторів вагових коефіціентів .
Якщо класи лінійно розмежовані, тоді цей алгоритм збігається.
Специфікації
ЛРФ
лінйна рішаюча функція
А
Алфавіт класів
В
Множина реалізацій
вектор ознак
розширений вектор ознак
вектор вагових коефіціентів
розширений вектор вагових коефіціентів
рішаюча функція
коректуючий приріст
ОНР
область невизначених рішень
3. КОНТРОЛЬНІ ЗАПИТАННЯ
3.1. Основні поняття розпізнавання образів.
3.2. Представленням вхідних даних, котрі отримані як результати вимірювання для належного розпізнавання об'єкта.
3.3. Виділення характерних ознак або властивостей із отриманих даних і зниження розмірності вектора образів.
3.4. Відшукання оптимальних рішаючих процедур, котрі необхідні при ідентифікації і класифікації образів.
3.5. Поняття рішаючої функції та її застосування.
3.6. Лінійні рішаючі функції. Можливі застосування лінійних рішаючих функцій
3.7. Процедури навчання класифікаторів образів.
3.7. Задача визначення коефіціентів ЛРФ для двох множин образів.
4. ІНДИВІДУАЛЬНЕ ЗАВДАННЯ
Побудувати рішаючі функції із застосуванням алгоритму перцептрона для двох класів.
4.1. W1:{(1,-8)}, W2:{(7,10)}, W3:{(14,9)}.
4.2. W1:{(2,8)}, W2:{(9,12)}, W3:{(14,6)}.
4.3. W1:{(6,1)}, W2:{(11,5)}, W3:{(13,2)}, W4:{(14,7)}.
4.4. W1:{(7,2)}, W2:{(8,-2)}, W3:{(11,6)}, W4:{(13,2)}.
4.5. W1:{(-4,1)}, W2:{(0,1)}, W3:{(0,-3)}, W4:{(3,2)}.
4.6. W1:{(1,5)}, W2:{(8,12)}, W3:{(15,9)}.
4.7. W1:{(2,9)}, W2:{(9,11)}, W3:{(14,8)}.
4.8. W1:{(6,2)}, W2:{(11,6)}, W3:{(13,2)}, W4:{(14,8)}.
4.9. W1:{(7,3)}, W2:{(9,-2)}, W3:{(11,6)}, W4:{(13,3)}.
4.10. W1:{(-4,1)}, W2:{(0,0)}, W3:{(0,-3)}, W4:{(3,1)}.
4.11. W1:{(1,8)}, W2:{(8,11)}, W3:{(15,9)}.
4.12. W1:{(3,10)}, W2:{(3,11)}, W3:{(12,7)}.
4.13. W1:{(8,2)}, W2:{(11,6)}, W3:{(14,8)}.
4.14. W1:{(6,2)}, W2:{(9,-2)}, W3:{(13,2)}.
4.15. W1:{(-4,1)}, W2:{(0,0)}, W3:{(3,2)}.
4.16. W1:{(0,7)}, W2:{(7,10)}, W3:{(14,8)}.
4.17. W1:{(1,9)}, W2:{(8,-1)}, W3:{(14,8)}.
4.18. W1:{(6,1)}, W2:{(-1,6)}, W3:{(13,2)}, W4:{(14,8)}.
4.19. W1:{(8,2)}, W2:{(-9,2)}, W3:{(11,6)}, W4:{(13,2)}.
4.20. W1:{(-1,1)}, W2:{(0,-3)}, W3:{(3,2)}.
4.21. W1:{(0,8)}, W2:{(-8,9)}, W3:{(15,9)}.
4.22. W1:{(2,10)}, W2:{(3,10)}, W3:{(12,7)}.
4.23. W1:{(6,2)}, W2:{(10,-6)}, W3:{(14,8)}.
4.24. W1:{(-3,2)}, W2:{(9,-2)}, W3:{(13,2)}.
4.25. W1:{(-5,-1)}, W2:{(0,0)}, W3:{(5,2)}.
5. ЗМІСТ ЗВІТУ
5.1. Мета роботи.
5.2. Блок схема алгоритму перцептрона для M-х класів.
5.3. Лабораторне завдання.
5.4. Результати виконання індивідуального завдання.
5.5. Аналіз результатів та помилок, допущених при виконанні роботи.
5.6. Висновки.
6. Література
6.1. Ту Дж., Гонсалес Р. Принцыпы распознавания образов.М.,Мир,1978
6.2. Фор А. Восприятие и распознавание образов.М.,Машиностроение,1989
6.3. А.Л.Горелик, В.А.Скрипкин. Методы распознавания: Учеб. Пособие для вузов. 3-е изд., перераб. И доп.- М.: Высш.шк., 1989.-232 с.
6.4. А.Л.Горелик, В.А.Скрипкин. Некоторые вопросы построения систем распознавания. М., Сов. Радио, 1974, 224 с.
6.5. Нильсон Н. Искусственный интеллект. Методы поиска решений.М.,Мир, 1973.
6.6. Попов Э.В., Фридман Г.Р. Алгоритмические основы интеллектуальных роботов и искусственного интеллекта.М.,Наука,1976.
6.7. Слэйг Дж. Искусственный интеллект. Подход на основе эвристического програмирования.М.,Мир,1973.
6.8. Уинстон П. Искусственный интеллект.М.,Мир,1980.
6.9. Таунсенд К., Фохт Д. Проектирование и програмная реализация экспертных систем на персональных ЭВМ.М.,Мир,1990.
6.10. Нильсон Н. Принципы искусственного интеллекта.М.,Радио и связь,1985.
6.11. Левин Р., Дранг Д., Эделсон Б. Практическое введение в технологию искусственного интеллекта и экспертных систем с илюстрациями на Бейсике. М.,Финансы и статистика,1991.
6.12. Братко И. Програмирование на языке Пролог для искуственного интелекта: Пер. с англ. -М.: Мир, 1990.- 560 с., ил.