Інформація про навчальний заклад

ВУЗ:
Національний університет Львівська політехніка
Інститут:
Не вказано
Факультет:
Не вказано
Кафедра:
Автоматизація теплових та хімічних процесів

Інформація про роботу

Рік:
2024
Тип роботи:
Розрахунково - графічна робота
Предмет:
Теорія інформації
Група:
АВ-32

Частина тексту файла (без зображень, графіків і формул):

Міністерство освіти та науки України Національний університет «Львівська політехніка» кафедра автоматизація теплових та хімічних процесів / Розрахунково-графічна робота з дисципліни Теорія інформації Львів 2011р. Завдання: На вхід джерела повідомлень поступає неперервний ансамбль повідомлень Х тривалістю t, який дискретизується з часом з інтервалом дискретизації Δt. Ансамбель Х на виході джерела може приймати одне з m=12 незалежних дискретних значень з кроком квантування Δх. Імовірність появи дискретних значень розподілена за нормальним законом розподілу імовірності f(x). Визначити: Диференційну ентропію неперервного повідомлення h(x) Крок квантування Δх Значення повідомлення на рівнях квантування xi і їх імовірності p(xi) Ентропію і кількість інформації Надлишковість джерела інформації Швидкість створення інформації H´(x) (потік інформації) Пропускна здатність каналу Побудувати рівномірний двійковий код та ефективні коди за методиками Шенона-Фано і Хаффмена Швидкість передавання інформації в залежності від обраного способу кодування Вихідні дані Варіант №16 t,с Δt,c σ xmax, ум.одиниць  ,мс  5 0,05 0,42 -2,0 1,16   1.Визначаємо диференційну ентропію неперервного ансамблю повідомлень.  2.Знаходимо крок квантування Δх. Крок квантування вибираємо таким що сумарна імовірність появи m=12 незалежних дискретних повідомлень дорівнювала 1. Задаємося значенням Δх=0,2 у.о. 3.Знаходимо значення повідомлень на рівнях квантування xi і їх імовірності p(xi). Починаючи від максимального значення xmax=x12 визначаємо значення повідомлень на рівнях квантування. xmax=x12 x11=x12- Δх x10=x11- Δх _ _ _ _ _ x1=x2- Δх Визначаємо значення густини розподілу f(xi) для всіх повідомлень xi. Для нормального закону розподілу вона має вигляд:   - середнє значення повідомлень  За отриманими значеннями f(xi) визначаємо імовірності p(xi) p(xi)= f(xi)·Δx Сумарна імовірність повинна дорівнювати 1. Якщо сумарна імовірність не дорівнює 1 то тоді змінюємо крок квантування. Програма розрахунку , f(xi), p(xi) clc; h=0.7956; delt=0.05; delx=0.2; si=0.42; x=[2 1.8 1.6 1.4 1.2 1 0.8 0.6 0.4 0.2 0 -0.2]; Xc=sum(x)/12; f=exp(-(x-Xc).^2./2./si^2)/sqrt(2*pi)/si; p=f*delx; y=sum(p); plot(x,p,x,f); grid;  =0,9 у.о. Значення xi, f(xi), p(xi) записуємо у таблицю. і 1 2 3 4 5 6 7 8 9 10 11 12  xi -0.2 0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0  f(xi) 0.03 0.096 0.237 0.468 0.736 0.923 0.923 0,736 0.468 0.237 0.096 0,03  p(xi) 0.006 0.019 0.047 0.094 0.147 0.185 0.189 0.147 0.094 0.047 0.019 0.006   Будуємо графік залежностей f(xi), p(xi). / 4.Визначаємо ентропію і кількість інформації неперервного і еквівалентного йому дискретного джерела повідомлень. Ентропія і кількість інформації неперервного повідомлення визначається наступним чином:  Ентропія і кількість інформації дискретного повідомлення визначається наступним чином:  Програма для розрахунку H(x) i I(x) clc; h=0.7956; delt=0.05; t=5; x=[2 1.8 1.6 1.4 1.2 1 0.8 0.6 0.4 0.2 0 -0.2]; n=t/delt; Hn=h-log2(delx); Hg=-sum(p.*log2(p)); Hmax=log2(12); In=n*Hn; Ig=n*Hg;  n=100 Hн(x)=3.1175 біт/пов Ін(х)=311.7528 біт Hд(x)=3.0788 біт/пов Ід(х)=307.8848 біт Hmax(x)=log2m= log212=3.5850 біт/пов Hд(x)≈ Hн(x)< Hmax(x) 5.Визначаємо надлишковість неперервного і дискретного джерела повідомлень.   6.Визначаємо потік інформації неперервного і дискретного джерела повідомлень.   7.Визначаємо пропускну здатність каналу.  8.Побудова рівномірного двійкового коду та ефективних кодів за методиками Шенона-Фано і Хаффмена. Рівномірний двійковий код x1 x2 x3 x4 x5 x6  0000 0001 0010 0011 0100 0101  x7 x8 x9 x10 x11 x12  0110 0111 1000 1001 1010 1011   Визначаємо швидкість передавання інформації і надлишковість кодових комбінацій   Метод Шенона-Фано Код за методикою Шенона-Фано будується наступним чином: символи повідомлення виписуються в таблицю за зменшенням їх імовірностей і розділяються на дві групи так щоб симу імовірностей у кожній з них були по можливості однаковими. Символам першої групи присвоюється кодовий символ 0, а символам другої групи кодовий символ 1. Кожну з цих груп розбиваємо на дві підгрупи і символам першої підгрупи присвоюється кодовий символ 0, а символам другої підгрупи кодовий символ 1. Процес поділу і присвоєння кодових символів здійснюється доти, доки в кожній підгрупі не залишиться по одному символу. Символ Повідом Імов. появи Поділ на групи Кодові комбінації  х6 0,1846           0 0      х7 0,1886       0 1 0     х5 0,1472       0 1 1     х8 0,1472       1 0 0     х4 0,0935       1 0 1     х9 0,0935       1 1 0 0    х3 0,047       1 1 0 1    х10 0,047       1 1 1 0    х2 0,019       1 1 1 1 0 0  х11 0,019       1 1 1 1 0 1  х1 0,0062       1 1 1 1 1 0  х12 0,0062       1 1 1 1 1 1   x1 x2 x3 x4 x5 x6  111110 111100 1101 101 011 00  x7 x8 x9 x10 x11 x12  010 100 1100 1110 111101 111111   Визначаємо швидкість передавання інформації і надлишковість кодових комбінацій  n(xi) – кількість символів у кодовій комбінації p=[0.18466 0.18466 0.1472 0.1472 0.0935 0.0935 0.047 0.047 0.019 0.019 0.0062 0.0062]; n=[2 3 3 3 3 4 4 4 6 6 6 6]; ns=sum(p.*n)    Метод Хаффмена Методика Хаффмена зводиться до виконання таких операцій: символи повідомлення виписуються в основний стовпчик таблиці за зменшенням їх імовірностей. Два останні символи об’єднують в один допоміжний якому приписується їх сумарна імовірність, будується допоміжний стовпчик в якому символи, що не брали участі в об’єднанні і допоміжний символ розміщаються за спаданням їх імовірностей, а два останні символи знову об’єднуються і їм присвоюється сумарна імовірність. Процес об’єднання символів здійснюється доти, доки не отримаємо єдиний допоміжний символ з імовірністю, що довірнює 1.  Побудуємо дерево кодування  x1 x2 x3 x4 x5 x6  1000101 10000 10010 011 110 00  x7 x8 x9 x10 x11 x12  111 101 010 10011 100011 1000100   Визначаємо швидкість передавання інформації і надлишковість кодових комбінацій  n(xi) – кількість символів у кодовій комбінації p=[0.18466 0.18466 0.1472 0.1472 0.0935 0.0935 0.047 0.047 0.019 0.019 0.0062 0.0062]; n=[2 3 3 3 3 4 4 4 6 6 6 6]; ns=sum(p.*n)    Висновок: В розрахунково-графічній роботі пораховано диференційну ентропію неперервного повідомлення, крок квантування, значення повідомлення та їх імовірності, ентропію і кількість інформації неперервного і дискретного ансамблю повідомлень, надлишковість джерела інформації, потік інформації, пропускну здатність каналу. Також в роботі побудовані ефективні коди, та двійковий рівномірний код і пораховано до цих кодувань швидкість передавання інформації і надлишковість кодових комбінацій. h(x) 0.7956  Δx 0.2  xi -0.2 0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0  f(xi) 0.03 0.096 0.237 0.468 0.736 0.923 0.923 0,736 0.468 0.237 0.096 0,03  p(xi) 0.006 0.019 0.047 0.094 0.147 0.185 0.189 0.147 0.094 0.047 0.019 0.006  Hн(xі) 3.1175  Ін(xі) 311.7528  Hд(xі) 3.0788  Ід(xі) 307.7528  Rн 0.1304  Rд 0.1412   62.3506   61.5770  С 3090.5  
Антиботан аватар за замовчуванням

13.12.2011 03:12-

Коментарі

Ви не можете залишити коментар. Для цього, будь ласка, увійдіть або зареєструйтесь.

Ділись своїми роботами та отримуй миттєві бонуси!

Маєш корисні навчальні матеріали, які припадають пилом на твоєму комп'ютері? Розрахункові, лабораторні, практичні чи контрольні роботи — завантажуй їх прямо зараз і одразу отримуй бали на свій рахунок! Заархівуй всі файли в один .zip (до 100 МБ) або завантажуй кожен файл окремо. Внесок у спільноту – це легкий спосіб допомогти іншим та отримати додаткові можливості на сайті. Твої старі роботи можуть приносити тобі нові нагороди!
Нічого не вибрано
0%

Оголошення від адміністратора

Антиботан аватар за замовчуванням

Подякувати Студентському архіву довільною сумою

Admin

26.02.2023 12:38

Дякуємо, що користуєтесь нашим архівом!