If you're seeing this message, it means we're having trouble loading external resources on our website.

Jeżeli jesteś za filtrem sieci web, prosimy, upewnij się, że domeny *.kastatic.org i *.kasandbox.org są odblokowane.

Główna zawartość
Aktualny czas:0:00Całkowity czas trwania:5:54

Wprowadzenie do zagadnienia "przepustowości"

Transkrypcja filmu video

To jasne, że jest inny sposób, by zwiększyć przepustowość systemu komunikacji: możemy zwiększyć liczbę różnych zdarzeń sygnałowych. Alicja i Bob, którzy komunikują się za pomocą sznurka, zorientowali się, że zmieniając sposób jego trącania, mogą przesyłać wiadomości szybciej. Sznurek można trącać z dużą, średnią lub małą siłą… Można też uzyskać dużą i małą częstotliwość, zależnie od naprężenia sznurka. Ten sposób zastosował Thomas Edison do kodu Morse’a. Wymyślił, żeby używać słabych i mocnych ogniw do wytwarzania sygnałów o różnej sile. Stosował też, jak Gauss i Weber, dwa kierunki przepływu prądu oraz dwie wartości napięcia. Miał więc 3V, 1V, -1V i -3V. Czyli - cztery rodzaje napięcia do wyboru. Dzięki temu firma Western Union oszczędzała: mogła zwiększyć liczbę wysyłanych wiadomości, nie kładąc nowych linii. To jest tzw. kwadrupleks, używany jeszcze w XX w. Ale znów… Przy zwiększeniu liczby różnych zdarzeń sygnałowych, pojawiło się pytanie: czy można by wysyłać tysiąc albo milion różnych poziomów napięcia na impuls? Jak się domyślacie, nawet nieznaczne różnice są powodem zakłóceń przy odbiorze. W systemach elektrycznych czynnikiem ograniczającym zawsze jest szum elektryczny. Jeśli do dowolnego przewodu przyłożymy miernik i ustawimy dostateczną czułość, zawsze wykryjemy jakiś maleńki niepożądany prąd. To nieunikniony efekt zjawisk naturalnych: przepływu ciepła, burzy magnetycznej, czy pozostałości Wielkiego Wybuchu. Zatem różnice między zdarzeniami sygnałowymi muszą być na tyle znaczne, by szum nie mógł przypadkowo zmienić jednego zdarzenia w drugie. Wróćmy do początku i zdefiniujmy przepustowość kanału wykorzystując dwa proste parametry. Po pierwsze: liczbę symboli przekazywanych w ciągu sekundy. Nazywamy to szybkością transmisji; jednostką jest bod, od Emile’a Baudota. Tę szybkość oznaczamy jako „n”. Transmisja n symboli na sekundę. Drugim parametrem jest ilość symboli, z których możemy wybierać, wysyłając pojedynczą wiadomość. Możemy ją oznaczyć jako „s”. Jak już widzieliśmy, te parametry da się ująć w formę drzewa decyzyjnego. Każdy symbol można uznać za decyzję. Liczba gałęzi zależy od ilości możliwych symboli. Po n symbolach mamy drzewo o liczbie liści równej s do potęgi n. A ponieważ każda ścieżka na drzewie może stanowić wiadomość, liczba liści jest tym samym, co wielkość przestrzeni wiadomości. Przestrzeń wiadomości łatwo jest przedstawić graficznie. Ma ona tyle elementów, co podstawa. Przestrzeń wiadomości oznacza liczbę wszystkich wiadomości, jakie można by wysłać, mając ciąg n zdarzeń symbolowych. Np. Alicja wysyła Bobowi wiadomość z dwóch potrąceń sznurka. Do komunikacji używają systemu potrąceń silnych i słabych. Zatem Alicja może przesłać Bobowi jedną z czterech możliwych wiadomości. Gdyby stosowali system potrąceń mocnych, średnich i lekkich, to za pomocą dwóch potrąceń mogłaby przesłać jedną z trzech do kwadratu, czyli z dziewięciu wiadomości. Przy trzech potrąceniach liczba możliwych wiadomości rośnie do 27. A gdyby Alicja i Bob pisali do siebie w klasie liściki, z których każdy byłby złożony z dwu liter, to jeden liścik zawierałby jedną z 26 do kwadratu, czyli z 676 możliwych wiadomości. Koniecznie miejcie świadomość, że nie zajmujemy się znaczeniem przypisanym do tych łańcuchów różnic. Chodzi tylko o liczbę możliwych różnych wiadomości. Powstające ciągi mogą reprezentować liczby, nazwy, odczucia, muzykę, a może nawet jakiś obcy alfabet, którego nigdy nie zrozumiemy. Rozpatrując system komunikacji, myślmy o jego przepustowości, czyli o tym, ile różnych rzeczy można powiedzieć. Z pomocą przestrzeni wiadomości określimy, ile w danej sytuacji jest możliwych wiadomości. Ta prosta, elegancka koncepcja będzie punktem wyjścia do zdefiniowania informacji. A to z kolei doprowadzi nas do nowoczesnej teorii informacji, która pojawiła się na początku XX wieku.