Міністерство освіти і науки України
Національний університет “Львівська політехніка”
Кафедра ЕОМ
Звіт
до лабораторної роботи №1
з дисципліни: «Теорія інтелектуальних систем»
на тему: «Моделювання взаємодії інтелектуального агента з середовищем (об'єктом управління). Дослідження моделі стаціонарного випадкового середовища»
Мета: Набути навички планування та проведення обчислювальних експериментів, дослідити модель взаємодії інтелектуального агента з середовищем.
Порядок виконання роботи
1. Реалізувати модель стаціонарного випадкового середовища E.
2. Реалізувати модель взаємодії інтелектуальної системи (агента) з середовищем на основі обраної згідно варіанту моделі оптимальної поведінки (цільової функції) агента та кількості доступних йому дій.
Алгоритм А.
Ініціалізувати середовище (випадкова ініціалізація)
Цикл від 1 до T (індекс t)
Отримати код дії, яку обрав агент
Отримати відгук середовища на цю дію (біжучий виграш)
Модифікувати значення цільової функції
Запам’ятати отримане значення в масиві результатів
Перейти на п.2.1.
3. Реалізувати алгоритм роботи
1) "випадкового" агента (агента з рівновипадковим вибором дій);
2) "ідеального" агента (агента, який володіє повною інформацією про характеристики середовища).
4. Реалізувати програму обчислювального експерименту по дослідженню моделі взаємодії агента з середовищем.
Алгоритм B.
Відкрити файл для збереження результатів.
Цикл від 1 до n (індекс i) -> цикл по репліках експерименту
Виконати алгоритм А.
Перейти на п.2.1.
Розрахувати середні значення цільової функції для випадкового та розробленого агентів -> цикл по результатах реплік
Розрахувати середньоквадратичне відхилення (дисперсію) значень цільової функції для випадкового та розробленого агентів -> цикл по результатах реплік
Зберегти отримані результати у файлі.
5. Провести обчислювальний експеримент
1) по дослідженню взаємодії "випадкового" агента з середовищем E;
2) по дослідженню взаємодії "ідеального" агента з середовищем E.
6. Порівняти отримані залежності та зробити висновки.
Варіант
W2 -> Середній виграш
N
Модель оптимальної поведінки
Кількість доступних агенту дій
6
W2
4
Текст програми обчислювального експерименту
void saveParameters(void)
{
int i, j;
if ((par_file = fopen(par_file_name, "w")) == NULL) {
fprintf(stderr, "Cannot open file <%s> for parameters of experiment.\n", par_file_name);
}
fprintf(par_file, "T = %d\n", T);
fprintf(par_file, "n = %d\n", n);
fprintf(par_file, "env = %d\n", env);
fprintf(par_file, "nA = %d\n", nA);
if (env) fprintf(par_file, "nS = %d\n", nS);
fprintf(par_file, "====================\n");
switch (env)
{
case 0: // se (stationary environment)
for (i = 0; i < nA; i++)
fprintf(par_file, "p(a%d) = %f\n", i, sePa[i]);
break;
case 1: // ce (commutative environment)
// probabilities of rewards
for (i = 0; i < nS; i++)
{
for (j = 0; j < nA; j++)
fprintf(par_file, "p(s%d,a%d) = %f\n", i, j, cePa[i][j]);
if (i < nS - 1) fprintf(par_file, "--------------------\n");
}
fprintf(par_file, "\n====================\n");
// probabilities of state transition
for (i = 0; i < nS; i++)
{
for (j = 0; j < nS; j++)
fprintf(par_file, "p(s%d,s%d) = %f\n", i, j, cePs[i][j]);
fprintf(par_file, "--------------------\n");
}
break;
default: printf("lab1 error: wrong env model code specified\n");
}
fclose(par_file);
}
// ----------------------------------------------------------------------------
// save results of random agent
void saveResultsRA(void)
{
int i;
if ((RA_res_file = fopen(RA_res_file_name, "w")) == NULL)
fprintf(stderr, "Cannot open file <%s> for experimental results.\n", RA_res_file_name);
for (i = 0; i < T; i++)
fprintf(RA_res_file, "%f \t %f\n", avrRm[i], avrRv[i]);
fclose(RA_res_file);
}
// ----------------------------------------------------------------------------
// save results of perfect agent
void saveResultsPA(void)
{
int i;
if ((PA_res_file = fopen(PA_res_file_name, "w")) == NULL)
fprintf(stderr, "Cannot open file <%s> for experimental results.\n", PA_res_file_name);
for (i = 0; i < T; i++)
fprintf(PA_res_file, "%f \t %f\n", avrRm[i], avrRv[i]);
fclose(PA_res_file);
}
Графічні залежності отриманих результатів
/
/
Результати обчислення ймовірностей:
p(a0) = 0.224921
p(a1) = 0.287606
p(a2) = 0.682150
p(a3) = 0.822687
Висновок: на цій лабораторній роботі було набуто навички планування та проведення обчислювальних експериментів, досліджено модель взаємодії інтелектуального агента з середовищем.