Główna zawartość
Kurs: Informatyka > Rozdział 3
Lekcja 1: Starożytna teoria informacji- Co to jest teoria informacji?
- Początki języka pisanego
- Historia alfabetu
- Kamień z Rosetty
- Kodowanie źrodła
- Telegraf optyczny
- Badanie drzewa decyzji
- Telegraf elektryczny
- Bateria i elektromagnetyzm
- Kod Morse'a i era informacji
- Odkrywanie alfabetu Morse'a
© 2024 Khan AcademyWarunki użytkowaniapolitykę prywatnościInformacja o plikach cookie
Co to jest teoria informacji?
Obszerne wprowadzenie to tej dziedziny nauki. Stworzone przez: Brit Cruise.
Chcesz dołączyć do dyskusji?
- Ile bitów potrzeba do przesłania wyniku rzutu monetą?(4 głosy)
- A czy samo ustalenie znaczenia przesyłanego sygnału nie będzie już informacją, którą należy wliczyć w rachunek bitów, które są potrzebne do przesłania wyniku? Skąd odbiorca informacji ma wiedzieć (bez ustaleń) co oznacza dana wartość?
Czy to, że jako nadawca zdefiniuję (dla siebie) ruch koniem w szachach z B1 na B3 jako 1 bit, a następnie wyślę ten 1 bit do odbiorcy, oznacza, że przesłałem wynik mojego działania? Można stwierdzić, że to szukanie problemu tam gdzie go nie ma, jednak jestem zdania, że bez informacji o czym jest dany wynik, nie jest on wynikiem (dla odbiorcy), a jedynie pewną wartością(3 głosy)
Transkrypcja filmu video
Wyobraźcie sobie, że Alicja
ma myśl i chce się nią podzielić. Jest wiele sposobów przekazu. Mogłaby coś narysować, wyryć
w kamieniu, napisać piosenkę... wysłać telegram... albo e-mail. Czym te sposoby się różnią? I, co ważniejsze, dlaczego
w istocie są tym samym? Opowiemy o fundamentalnym
elemencie każdej formy komunikacji. U podłoża tkwi coś wyjątkowego,
o czym zapewne nie myślicie: język. Każdy język pozwala podzielić
myśl czy wyobrażenie na serię konceptualnych fragmentów. Można je uzewnętrznić, posługując się sygnałami,
czyli symbolami. Ludzie wyrażają myśli
za pomocą dźwięków i czynów, jak ćwierkające ptaki... tańczące pszczoły... oraz nasze maszyny wymieniające
strumienie impulsów elektrycznych. Nawet nasze ciała
są zbudowane wg instrukcji przechowywanych w mikroskopijnych
książkach - DNA. Wszystko to są różne postaci
jednego: informacji. W uproszczeniu: informacja jest tym, co pozwala
jednemu umysłowi wpływać na drugi. A podstawą komunikacji jest wybór. Informację, niezależnie od jej postaci,
mierzymy w podstawowych jednostkach, tak, jak mierzymy masę
różnych rzeczy przy użyciu standardowej miary,
np. kilogramów lub funtów. Za pomocą wagi możemy
dokładnie zmierzyć i porównać masę kamieni,
wody czy pszenicy. I także informacje
można mierzyć oraz porównywać. Ich miarę nazywamy entropią. Wyobraźcie sobie wagę
do ważenia informacji. Intuicyjnie wiemy, że jedna strona
z nieznanej nam książki zawiera mniej informacji
niż cała książka. Możemy dokładnie określić, ile, stosując jednostkę zwaną bitem. Jakkolwiek Alicja chce zakomunikować
konkretną wiadomość (hieroglifami, muzyką,
programem komputerowym), każdy przekaz będzie zawierać
tyle samo bitów, choć w różnej gęstości. Bit wyraża coś bardzo prostego: odpowiedź na pytanie
typu: „tak czy nie”. Myślcie o tym jak o języku
rzutu monetą. Jak właściwie mierzy się
informacje? Czy mają jakąś granicę prędkości? Maksymalną gęstość? Na te pytania odpowiada
teoria informacji. Ma 3000 lat i wciąż się rozwija. A żeby wszystko zrozumieć,
cofnijmy się w czasie i pomyślmy o chyba największym wynalazku
w historii ludzkości: alfabecie. W tym celu wróćmy do jaskini.