evenimente nonequiprobable

evenimente nonequiprobable

Acasă | Despre noi | feedback-ul

Subiect: Abordări la conceptul de informații și de măsurare a acesteia. Principii de prelucrare a informațiilor de către un computer. Algoritmi și metode pentru descrierea lor

Informații. obiecte de informații de diferite tipuri

Informații (în traducere din informatio Latină - declarația de clarificare) - acesta este conceptul cheie al științei moderne, care este pe picior de egalitate cu place de „substanță“ și „energie“. Există trei interpretări de bază a conceptului „informații“.

interpretare abstractă. Rezumat - să fie o secvență de caractere care sunt atât împreună, în mod individual un sens pentru artist.

interpretare specifică. Acest plan se uită la interpreți sau executanți specifice, ținând cont de setul lor de instrucțiuni specifice și semantica limbajului. De exemplu, pentru informațiile mașinii - unu și zero; pentru om - sunete, imagini, etc.

Există mai multe concepte (teorie) informații.

Primul concept (conceptul Shannon) care reflectă informații abordare cantitativă, determină informația ca o măsură a incertitudinii (entropie) eveniment. Cantitatea de informații într-un anumit caz depinde de probabilitatea primirii: e mai probabil este mesajul, mai puține informații sunt conținute de acestea.

Al doilea concept consideră informații ca o proprietate (atribut) a materiei. Aspectul său este legat de dezvoltarea ciberneticii și se bazează pe ipoteza că informația conține orice mesaje percepute de către persoana sau aparatele. exprimată cel mai clar și viu conceptul de informație academician VM Glushkov.

Al treilea Conceptul se bazează pe logică-semantice (semantica - studiul textului din punct de vedere al sensului) abordare, în cazul în care informațiile sunt tratate ca cunoștințe, nu toate cunoștințele, și că o parte din acesta, care este utilizat pentru orientare, pentru măsuri active pentru a controla și de auto-gestionare. Cu alte cuvinte, informația - este validă, utilă, „de lucru“, parte a cunoștințelor. Reprezentantul acestui concept VG Afanasiev.

În prezent, informația termenul are o semnificație profundă și cu multiple fațete. În multe feluri, în timp ce restul intuitiv, el devine un conținut semantic diferit în diferite sectoare ale activității umane:

- în aspectul lumesc, informația este înțeleasă informații despre lume și a proceselor sale, percepute de către persoana sau dispozitive speciale;

- în domeniu înțelege informațiile pentru mesajele transmise sub forma unor semne sau semnale;

- în teoria informației (la K.Shennonu) sunt importante, nu orice informație, ci numai cele care sunt eliminate complet sau de a reduce incertitudinea existentă;

- cibernetica, prin definiție, Wiener, informații - aceasta este partea din cunoștințele, care este utilizat pentru orientare, acțiunea activă, management, și anume pentru conservarea, îmbunătățirea, dezvoltarea sistemului;

- în teorie semantica (sensul mesajului) - aceste informații sunt noi, și așa mai departe.

Această diversitate de abordări nu este un accident, ci o consecință a faptului că a relevat necesitatea unei organizări conștientă a proceselor de mișcare și de prelucrare, care are un nume comun - informații.

O abordare probabilistică pentru a determina cantitatea de informații

În centrul lumii noastre sunt de trei parti-guvernare - materie, energie și informație. Și cât de mulți în lumea de materie, energie și informație.

- Este posibil să se măsoare cantitatea de materie și cum? (Substanța poate fi cântărite (în kilograme, gamma, etc.) pe scara pentru a determina lungimea (în centimetri, metri etc.), cu un conducător, găsi volumul său prin aplicarea unor măsurători adecvate, etc.)

- Este posibil să se determine cantitatea de energie? (Este posibil, de exemplu, pentru a găsi cantitatea de energie termică în J, puterea în kW / h, etc.)

- Este posibil să se măsoare cantitatea de informații și cum se face?

Se pare că informațiile pot fi, de asemenea, măsurat și de a găsi onoruri ei coli.

Există două abordări ale informațiilor de măsurare.

Una dintre ele se numește fond sau probabilistă. Hosting Proiect-TION de abordare, putem concluziona că cantitatea de informații depinde de conținutul său.

Se determină cantitatea de informații în următorul mesaj din poziția de „o mulțime“ sau „un pic“.

1) Capitala România - București.

2) Suma pătratelor picioarelor este egală cu pătratul ipotenuzei.

3) difracția luminii se numește un set de fenomene, care sunt din cauza naturii undă a luminii și a observat în timpul propagării sale în mediu cu o eterogenitate optic pronunțat.

4) Turnul Eiffel are o înălțime de 300 de metri și o greutate de 9.000 de tone.

Explicație. dacă noile informații și un mesaj clar.

Mesaj are mai multe informații în cazul în care conține informații noi și ușor de înțeles. Un astfel de mesaj este numit informativ.

Este necesar să se facă distincția între informații și informative.

- Are informații manualul de fizică pentru clasa a 10? (Da).

- Pentru cine va fi informativ - pentru un student în gradul 10 sau gradul 1? (Pentru un student în gradul 10, el va fi informativ, deoarece conține informații noi și clar-l, și nu va fi informative pentru elev clasa 1, deoarece informația nu este clar pentru el.)

Concluzie: Cantitatea de informații depinde de conținutul de informații.

Cantitatea de informații într-un mesaj este egal cu zero, în cazul în care este din perspectiva individuală uninformative. Cantitatea de informații într-un mesaj informativ este mai mare decât zero.

Dar raport informativ în sine nu oferă o definiție precisă info-TION. Conform conținutului de informații pot fi judecate doar pe cât de mult informații sau nu suficient.

3. Introducerea conceptului de abordare probabilistă pentru a măsura infor-mațiile

Luați în considerare conceptul de conținut informații pe de altă parte. Dacă mesajul nekoto-Roe este informativ, prin urmare, ne umple de cunoaștere și reduce incertitudinea în cunoștințele noastre. Cu alte cuvinte, mesajul conține informații, în cazul în care aceasta conduce la o incertitudine redusă INJ a cunoștințelor noastre.

Am arunca o monedă și să încerce să ghicească ce parte va cădea la suprafață. Un rezultat posibil din două lucruri: moneda va fi în poziția de „vultur“ sau „cozi“. Fiecare dintre aceste două evenimente vor fi la fel de probabil, și anume nici unul dintre ele are avantaje față de celălalt.

Înainte de a arunca moneda noi nu știm cum va cădea. Acest eveniment nu poate fi prezis, de exemplu, înainte de a arunca există o incertitudine a cunoștințelor noastre (probabil un eveniment din cele două). După aruncarea vine certitudinea completă a cunoștințelor, pentru că vom primi un mesaj vizual pe poziția monedă. Reduce mesajul vizual este nedefinită-Ness a cunoștințelor noastre dublat de două evenimente la fel de probabil era una.

Dacă vom arunca o filieră cu șase laturi, atunci, de asemenea, nu știu să se împrăștie-com, care parte va cădea la suprafață. În acest caz, s-ar putea obține un rezultat din șase în mod egal. Incertitudinea de cunoștințe este de șase, pentru că și anume poate avea loc șase evenimente la fel de probabile. Atunci când, după rola mor, vom primi un mesaj vizual despre rezultatul, incertitudinea cunoștințelor noastre este redus de șase ori.

Un alt exemplu. În examenul fierte 30 de bilete. Care este numărul de evenimente care pot apărea atunci când trage un bilet? (30)

- Aceste evenimente sunt la fel de probabil sau nu? (Echiprobabile).

- Care este cunoștințele studentului a incertitudinii înainte de a va trage un bilet? (30)

- De câte ori se va reduce incertitudinea de cunoaștere, după un student tras un bilet? (B 30raz).

- Depinde dacă cifra privind numărul biletului trase? (Nu, pentru că evenimentele sunt la fel de probabil.)

Dintre toate aceste exemple, puteți trage următoarea concluzie:

Cu cât numărul inițial de evenimente posibile echiprobabile, cu atât mai mare numărul de ori scade incertitudinea cunoștințelor noastre, iar mai multe informații vor conține un mesaj cu privire la rezultatele experienței.

Și ce poate fi cea mai mică cantitate de informații? Aducerea Xia, de exemplu, cu o monedă. Să presupunem că ambele părți ale monedei „Eagle“.

- Există o incertitudine dacă cunoștințele înainte de a arunca în acest caz? De ce? (Nu, pentru că știm dinainte că toamna, în orice caz, „Eagle“.)

- Veți obține informații noi după aruncare? (Nu, pentru că știam deja răspunsul în prealabil.)

- Va exista un mesaj informativ despre rezultatul exprimate? (Nu, pentru că nu a adus cunoștințe noi și utile.)

- Care este cantitatea de informații în acest caz? (Zero, din moment ce uninformative.)

Concluzie: nu obținem informațiile într-o situație în care există un singur eveniment de la unul dintre posibilii. Cantitatea de informații în acest caz este zero.

Pentru cantitatea de informații au avut o valoare pozitivă, este necesar pentru a obține mesajul că evenimentul a avut loc cel puțin două la fel de probabile. Atât de multe informații, Koto-o multime raportat că a existat un eveniment de două la fel de probabil, luată ca unitate de informații de măsurare și este de 1 bit.

Numeroase metode de codificare a informațiilor au condus în mod inevitabil, mintea iscoditoare a omului de a încerca să creeze un limbaj universal sau alfabet pentru codificare. Această problemă a fost pusă în aplicare destul de succes numai în anumite domenii ale tehnologiei, științei și culturii. Sistemul său de codificare a informațiilor există în domeniu calculator. Acesta se numește codare binară. Toate informațiile care operează mașini de calcul, poate fi reprezentat ca o secvență de doar două caractere - 1 și 0. Aceste două caractere sunt numite cifre binare, în limba engleză - cifre binare sau biți abreviat - biți.

1 codifică concepte 2-biți sau mesaje (0 sau 1)

Bit 2 - 4 mesaje diferite (00 sau 01 sau 10 sau 11)

3 biți - 8 mesaje diferite

4 biți - 16 mesaje diferite, etc.

unde N - numărul de valori de date, i - numărul de biți.

De ce codare binară este utilizat în calcul? Se pare că această metodă de codificare este punct de vedere tehnic ușor de implementat: 1 - un semnal, 0 - nici un semnal. Acea secvență binară obținută suficient de mult timp pentru o metodă de codificare umană este incomod. Dar tehnica este mai ușor de a face cu un număr mare de elemente similare, decât cu un număr mic de complexe.

Deci, cu ajutorul de biți de informație este codificată. Din punctul de vedere al Cody-TION cu 1 bit pot fi codificate prin două mesaje, evenimente sau două opțiuni de unele informații. Din punctul de vedere al probabilității 1 bit - este o cantitate de informații care permite selectarea unui singur eveniment de două echiprobabile. Sunteți de acord că aceste două definiții nu se contrazic reciproc, și sunt exact la fel, dar doar privite din diferite puncte de vedere.

O altă definiție a 1 bit:

1 bit - aceasta este cantitatea de informații care reduce incertitudinea cunoștințe de două ori.

număr necunoscut de interval de Propozitia conjugat.

Este necesar la fiecare pas în jumătate pentru a reduce incertitudinea ZNA-TION, și anume, pune întrebări, împărțirea în două interval numeric. Apoi, răspunsul este „Da“ sau „Nu“ va conține un bit de informație. Prin numărarea numărului total de biți (răspunsurile la întrebările), vom găsi numărul total de informații TION necesare pentru a ghici numărul.

De exemplu, numărul necunoscut 5 din intervalul 1 până la 16 (incertitudinea cunoștințelor anterioare ghicitul este de 16).

Concluzie: Cantitatea de informații necesare pentru a specifica unul din cele 16 numere, este de 4 biți.

Există o formulă care se referă la numărul de evenimente posibile și cantitatea de informații:

unde N - numărul de opțiuni, i - cantitatea de informații.

Explicație: Aceleași formule se aplică numai din diferite puncte de vedere - și probabilitatea de codificare.

Dacă această formulă pentru a exprima cantitatea de informații pe care le obține

Cum se utilizează aceste formule pentru calcule:

- în cazul în care numărul de posibile N este o putere întreagă de 2, formula calcul pentru a produce destul de ușor. Revenind la exemplu: N = 32, i = 5, ca ;

- în cazul în care numărul de posibile informații nu este o putere întreagă de 2, și anume în cazul în care cantitatea de informații numărul de ve-sem, este necesar să se utilizeze un calculator sau suflare urmează tabel.

Cantitatea de informații într-un raport despre una dintre cele N evenimente la fel de probabil :.

De exemplu: Cât de multe informații pot fi obținute prin ghicindu-SRI număr din intervalul de la 1 la 11? În acest exemplu, N = 11. Pentru a găsi i (de informații), trebuie să utilizați un tabel. Din tabelul i = 3,45943 biți.

1) Care este cantitatea de informații care trebuie obținute prin ghicirea numărul intervalului:

- 1-64 - 1 pentru 61 la - 1 la 20.

2) Care este cantitatea de informație este primită după prima mutare într-un joc „și cruci“ zerouri în domeniu;

3) Cât de multe evenimente au avut loc, în cazul în care punerea în aplicare a unuia dintre ei sa dovedit 6 biți de informație.

De fapt, am examinat o formulă este un caz special, deoarece se aplică numai la evenimentele la fel de probabile. În viață, ne confruntăm nu numai cu evenimentele la fel de probabile, dar, de asemenea, evenimente care au o probabilitate diferită de realizare.

1. După cum sa raportat de prognoza meteo, informații despre ce se întâmplă la ploaie, mai probabil, în vara, și un mesaj despre zăpadă - în timpul iernii.

2. Dacă - cel mai bun student din grup, atunci probabilitatea de rapoarte care în timpul testul primiți 5 este mai mare decât probabilitatea de a obține două.

3. Dacă locuiți pe un lac de 500 de rațe și gâște 100, șansele de a trage o vânătoare de rață mai mult decât probabil trage o gâscă.

4. În cazul în sac sunt 10 bile albe și negre 3, probabilitatea de a obține o bilă neagră este mai mică decât probabilitatea de a trage afară alb.

5. În cazul în care una dintre laturile cubului vor fi mai severe, atunci probabilitatea de această mână este mai mică decât celelalte părți.

Cum de a calcula cantitatea de informații în anunțul unui astfel de eveniment?

Pentru a face acest lucru, utilizați următoarea formulă

unde i - este cantitatea de informații, p - probabilitatea de evenimente.

Probabilitatea unui eveniment este exprimată ca o zecimală și se calculează după cum urmează:

unde K - valoare care arată cât de multe ori a avut loc un eveniment care ne interesează, de N - numărul total de rezultate posibile ale unui proces.

Bile 20 sunt situate în sac. Dintre acestea, 15 albi și 5 roșii. Cât de multe informații poartă un mesaj care a primit: a) bila albă; b) o minge roșie. Comparați răspunsurile.

1. Considerăm probabilitatea ca a primit bila albă: RB = 15/20 = 0,75;

2. Găsiți probabilitatea ca bila roșie a primit: p = 5/20 = 0,25.

3. Găsim cantitatea de informații în anunțul de scoatere din alb mingea: un pic.

4. Am găsit cantitatea de informații în raportul despre obținerea o minge roșie: biți.

A: Cantitatea de informații în raportul care primește mingea albă este egală 1.1547 biți. Cantitatea de informații în raportul pe care a primit o minge roșie, este de 2 biți.

Atunci când se compară răspunsurile obținute prin următoarea situație: probabilitatea de a trage o minge albă a fost mai mare decât probabilitatea de a trage o minge roșie, și, astfel, informațiile primite mai puțin. Nu este cazul-Ness, și regulat, link de înaltă calitate între probabilitatea unui eveniment și cantitatea de informații în raportul despre eveniment.

Și cutii sunt cuburi: 10 rosu, verde 8, 5 galben, albastru 12. Sunteți un număr de cub dostavaniya probabil de fiecare culoare și numărul de in-formare, care, în acest caz, se va obține.

- Sunt evenimente la fel de probabile? De ce? (Nr, ca numărul de blocuri este diferit.)

- Ce formulă va fi folosită pentru a rezolva problema?
soluţie:

1. cuburi total in cutie N = 8 + 10 + 5 + 12 = 35.

2. Găsiți probabilitatea:

3. Găsim cantitatea de informații:

Raspuns: Cele mai informațiile pe care le obține atunci când dostavaniya cub galben, din cauza o bună comunicare între probabilitatea și cantitatea de informații.