Fundamenten - Communicatietheorieen - De informatietheorie van Shannon

5 belangrijke vragen over Fundamenten - Communicatietheorieen - De informatietheorie van Shannon

Wat houdt de informatietheorie van Shannon in?

3 onderdelen
  1. een maat voor de hoeveelheid informatie
  2. kanaalcapaciteit
  3. Als de hoeveelheid informatie die bron verzendt <= kanaalcapaciteit, dan kan is deze in principe zonder fouten verstuurbaar.


Het praktische belang is dat deze theorie aangeeft in welke mate berichten redundante informatie bevatten.

Hoe berekenen we de entropie van een signaal?






Dus bij kop/munt zou dit de ingevulde formule zijn:

H = ( Pkop x 2log (1/Pkop) ) + ( Pmunt x 2log (1/Pmunt) )

Wanneer de kansen gelijk zijn komt hier dus weer als antwoord 1 uit.
Dat klopt ook met de formule 2logQ, want 2log2 is ook 1.

Bij een binair signaal werk je dus eigenlijk hetzelfde als met een muntstuk.

Wat is de keerzijde van het aanpassen van de codering om een zo hoog mogelijke entropie te behalen?

De codering wordt er ingewikkelder door.
  • Hogere cijfers + sneller leren
  • Niets twee keer studeren
  • 100% zeker alles onthouden
Ontdek Study Smart

Wat is een voordeel van het verwijderen van redundantie uit een bronsignaal?

Er hoeven minder bits opgeslagen/verzonden te worden.

Beschrijf de formule van Hartley-Shannon om de kanaalcapaciteit te bepalen

C=Bk * 2Log (1+S/N) bps


Hierbij is Bk de bandbreedte van het kanaal in Hz, S het gemiddelde signaalvermogen en N het gemiddelde ruisvermogen in watt. De breuk S/N zelf heeft geen eenheid, dit wordt ook wel de signaal-ruis-verhouding genoemd.

De vragen op deze pagina komen uit de samenvatting van het volgende studiemateriaal:

  • Een unieke studie- en oefentool
  • Nooit meer iets twee keer studeren
  • Haal de cijfers waar je op hoopt
  • 100% zeker alles onthouden
Onthoud sneller, leer beter. Wetenschappelijk bewezen.
Trustpilot-logo