teoria de la informació

f
Electrònica i informàtica

Teoria matemàtica que tracta de la transmissió, l’emmagatzematge i la transformació de la informació.

Comprèn tots els aspectes de la comunicació humana i entre màquines. El mètode d’estudi és eminentment estadístic i té aplicacions importants, especialment en l’optimació dels sistemes de telecomunicació. Basat en els treballs de N. Nyquist i R.W.L. Hartley fets el 1924 i el 1928, C.E. Shannon exposà el 1948 una teoria, que anomenà de la comunicació , sobre la transmissió de la informació, la qual ha donat lloc a aquesta branca de la cibernètica. Cal esmentar també les aportacions de Gabor, Weaver, Wiener i Tuller. Hom defineix la informació com el contingut mesurable d’un missatge o d’un senyal; si un esdeveniment pot succeir amb una probabilitat p , quan aquest té lloc la informació o quantitat d’informació rebuda és, per definició, I = log (1/ p ). És corrent d’emprar logaritmes de base 2, i aleshores la unitat d’informació és el bit; també és possible l’ús dels logaritmes decimals, i la unitat és anomenada hartley. En realitat, es tracta de n missatges, de probabilitats p 1 , p 2 , ..., p n , i aleshores hom defineix una quantitat d’informació mitjana

anomenada també entropia de Shannon . En l’estudi de la transmissió de la informació hom introdueix els conceptes de font d’informació i canal d’informació . Segons la llei de Hartley, la informació I d’un missatge transmès és I = 2 BT bits, B essent l’amplada del canal emprat i T el temps de transmissió; aleshores hom diu que la capacitat C del canal és C = I/T = 2 B bits/s. La capacitat màxima del canal és donada per la llei de Wiener-Tuller-Shannon: C m a x = Blog 2 (1+ S/N ), S/N essent la relació senyal/soroll del canal; s’expressa generalment en decibels (dB).