INFORMACJA (łac. informatio - wyobrażenie, pojęcie)
to pojęcie o wielu definicjach w różnych dziedzinach.
W teorii informacji jest nią prawdopodobieństwo zajścia zdarzenia.
Zdarzenia mniej prawdopodobne dają więcej informacji.
Dokładny wzór to: I = -log2(p) bit
Podstawowa jednostka informacji - bit, jest to ilość informacji
potrzebna do zakodowania, które z dwóch równie prawdopodobnych
zdarzeń alternatywnych naprawdę zaszło. Bit odpowiada ilości
informacji zawartej w odpowiedzi na pytanie na które można
odpowiedzieć tak lub nie. Wartości bitu przyjęło się oznaczać
cyframi dwójkowymi 0 i 1. Mogą istnieć ułamkowe ilości informacji -
np. w zajściu zdarzenia którego szansa wynosiła 90% zawiera się
0.152 bitów. Własność ta jest wykorzystywana w niektórych
algorytmach kompresji, takich jak kodowanie arytmetyczne.
W ujęciu infologicznym (Bo Sundgren 1973) informacja to treść
komunikatu przekazywanego za pomocą danych. Ta sama treść może być
przekazywana przy pomocy różnych danych (znaki, mowa, wykres itp.).
Informacja jest więc pojęciem szerszym niż dane, chociaż potocznie
często używa się tych określeń zamiennie.
Informacja jest też czasem uważana za jeden z "towarów" na rynku,
podobny do dóbr materialnych czy energii. Do jakiego jednak stopnia
ta analogia jest właściwa, i do jakiego stopnia własności informacji
i innych towarów są podobne, jest sprawą dyskusyjną.
|