МІНІСТЕРСТВО ОСВІТИ І НАУКИ УКРАЇНИ
НАЦІОНАЛЬНИЙ УНІВЕРСИТЕТ «ЛЬВІВСЬКА ПОЛІТЕХНІКА»
Кафедра ЕОМ
/
Лабораторна робота №2
з дисципліни: «Технології штучного інтелекту в комп’ютерних та кіберфізичних системах»
на тему: «Дерева прийняття рішень»
Мета роботи : навчитися будувати дерева рішень на базі алгоритму ID3 тавирішувати проблему суперечливості даних у таблицях прийняття рішень.Теоретичні відомості Для проведення досліджень або для комерційних цілей часто створюються дужевеликі бази даних. Іноді ці бази даних стають настільки великими, що їх опрацювання йінтерпретація даних людиною майже не можлива. В наслідок цього утворюється розбіжність між появою нових даних і їх розумінням. Цю розбіжність можуть допомогти подолати інструменти й методи для виявлення нових, раніше невідомих закономірностей, схованих у даних. Ця проблематика спричинила розвиток нових галузей штучного інтелекту —дослідження даних (Data mining), видобування знань з баз даних (Knowledge dіscovery іndatabases) та машинного навчання (Machine learning).Крім цього постає велика кількість задач прийняття рішень, коли потрібно відноситинові об’єкти до певного класу. Такі задачі прийняття рішень щодо нових об’єктів вимагають пошуку правил, які дозволяють класифікувати об’єкт. Такий пошук правил належить докласу задач машинного навчання, і відбувається на основі вже наявної інформації прооб’єкти, яка представляється у вигляді таблиці прийняття рішень.
Дерева рішень (decision trees) Алгоритми дерев рішень – одні з найшвидших і ефективніших в області KDD, черезщо одержали значне поширення. Зазвичай їх використовують для задач класифікації данихабо для задач апроксимації заданої булівської функції. Їхня обчислювальна складністьвизначається головним чином типом критерія розщеплення. У багатьох випадках часзнаходження критерію розщеплення лінійно залежить від кількості полів. Залежність часурішення від кількості записів n часто лінійна, або близька до неї (n×log(n)).Переваги використання дерев рішень: – швидкий процес навчання; – генерування правил в областях, де експертові важко формалізувати свої знання;– побудова правил природною мовою; – інтуїтивно зрозуміла класифікаційна модель; – висока точність прогнозу, порівняно з іншими методами (статистичними, нейромережевими).Проте виразна сила дерев рішень часто недостатня для опису складних правил, щозустрічаються в реальних даних. Це приводить до неминучості побудови дуже великих (ітому незрозумілих) дерев. Інша характерна для систем KDD складність пов'язана з виборомкритерію для зупинки подальшого дроблення на групи. Дуже важко знайти компроміс міжточністю результуючого правила, що виходить, і його статистичною значимістю.Постановка задачі для використання алгоритмів побудови дерев прийняття рішеньможе приймати наступний вигляд. Необхідно створити економічну конструкцію , яка бописувала (булівську) функцію, що складається з множини випадків, кожен з якихописується кінцевим набором дискретних атрибутів.
Алгоритм ID3 ID3(A,S,J ) 1. Створити корінь дерева. 2. Якщо S виконується на всіх елементах А, поставити в корінь мітку 1 і вийти.3. Якщо S не виконується на жодному з елементів А, поставити в корінь мітку 0 і вийти.4. Якщо Q=0, то : а) якщо S виконується на половині чи більшій частині А, поставити в корінь мітку 1 івийти;б) якщо S не виконується на більшій частині А, поставити в корінь мітку 0 і вийти.5. Вибрати Q ÎJ , для якого Gain(A,Q)
Завдання: Ремонт квартири.
Виконання:
Нам відомо, що це залежить від наступних параметрів: n положення суперника у турнірній таблиці (вище або нижче); n чи вдома відбувається матч; n чи пропускає матч хтось із лідерів; n чи падає дощ. На базі цих параметрів була зібрана така статистика :Таблиця 1. Статистика попередніх ігор
/
Отже, інформацію про попередні ігри ми помістили у відношення, де атрибутами єпараметри, що впливають на якість гри. Атрибут Перемога називається атрибутомприйняття рішення. Спробуємо побудувати дерево використовуючи атрибути в порядку, як вони розміщені у таблиці. Тоді дерево прийме вигляд як на рис. 1.
/
Рис.1 Початковий варіант дерева прийняття рішень.
Дерево на рис.1 можна розглядати і як булівську функцію зведену до КНФ. У даномувипадку вона прийме наступний вигляд – ((Суперник=Нижче)^(Гра=Вдома))v((Суперник=Вище)^(Гра=Вдома)^(Лідери==Пропускають) v((Суперник=Вище)^(Гра=Вдома)^(Лідери на місці)^(Дощ =Ні))Отже, для того щоб дізнатись про результат матчу необхідно пройтися від вершини докінцевого листка, що й буде результатом. Звісно, що дане дерево є неповне і не охоплює всіх можливих випадків. Розглянемо випадок коли :
/
Якщо матч командою буде програний, то дерево міняти не потрібно, але якщо будевиграний, то дерево потрібно змінити до вигляду як на рис.2.
/
Рис.3 Оптимальне дерево рішень
У наведеному прикладі легко переконатися, що жоден атрибут сам по собі не можеідеально розділити значення функції , тому дерево на рис.3 є оптимальним ( але необов’язково єдиним). Булівська функція прийме вигляд -- ((Дощ=Так)^(Суперник=Нижче))v((Дощ=Так)^(Гра=Вдома)) .Перебирати всі атрибути, які б були вершинами дерева для пошуку оптимальногодерева прийняття рішення є не коректним. Існує механізм вибору атрибуту, що найкращехарактеризує цільову функцію. Ця вимога формалізується через ентропію. Для початкувведемо кілька визначень:
Def.1 Нехай є множина А , що складається з n елементів, m з яких володіють певноювластивістю S. Тоді ентропія множини А по відношенню до властивості S це/
Інакше кажучи, ентропія залежить від пропорції в якій ділиться множина. По мірізростання пропорції від 0 до ½ ентропія також зростає, а після ½ -- симетрично спадає. Коливластивість S не бінарна, а може приймати s різних значень, кожна з яких реалізується в miвипадках, то ентропія зводиться до виразу/
Грубо кажучи, ентропія це середня кількість бітів, яка необхідна для кодуванняатрибуту S в елемента множини А. Якщо ймовірність появи S рівна ½ , то ентропія рівна 1 іпотрібен повноцінний біт; а якщо S з’являється не рівноймовірно, то можна закодуватипослідовність елементів А ефективніше.Отже, при виборі атрибуту для класифікації, вибирати його потрібно так, щоб післякласифікації ентропія стала мінімальною( властивість S- потрібно розглядати як значенняцільової булівської функції). Def.2 Нехай є множина елементів А , деяким з них притаманна властивість S,класифіковано по атрибуту Q, що приймає q можливих значень. Тоді приріст інформаціївизначається:/
де, Ai -- множина елементів А, на яких атрибут Q приймає значення і.На кожному кроці жадібний алгоритм вибирає той атрибут, для якого приріст ємаксимальний.
Як приклад проведемо розрахунок ентропії та приросту інформації для рис.1Обчислимо вихідну ентропію ( для максимізації приросту цього робити необов’язково)/
Далі розрахуємо прирости інформації для різних атрибутів:/
Вже видно, що було обрано не дуже хороший атрибут для кореня дерева./
Висновок: Отже, обчислення приросту інформації показує, що спочатку потрібно класифікувати поатрибуту Гра (Вдома чи В гостях) . Ну і відповідно глибина дерева стане рівною 3.Для автоматизації побудови дерева рішення було запропоновано алгоритм ID3.