If you're seeing this message, it means we're having trouble loading external resources on our website.

Jeżeli jesteś za filtrem sieci web, prosimy, upewnij się, że domeny *.kastatic.org i *.kasandbox.org są odblokowane.

Główna zawartość
Aktualny czas:0:00Całkowity czas trwania:10:16

Transkrypcja filmu video

Chcę odpowiedzi na proste pytanie: Czy jesteśmy jedynymi istotami świadomymi w tej buzującej, zawierającej 400 mld gwiazd galaktyce? Jednej z 10 do potęgi 10 galaktyk? Wydaje się to nieprawdopodobne. Współczesne poszukiwanie inteligencji pozaziemskiej, czyli SETI, zaczęło się w 1959 r., gdy dwaj fizycy z Uniwersytetu Cornella Giuseppe Cocconi i Philip Morrison, opublikowali w „Nature” artykuł o możliwości wykorzystania mikrofal i fal radiowych do komunikacji międzygwiazdowej. Żeby to się udało, badacze zakładają, że każda inteligentna cywilizacja odkryła możliwość nadawania fal radiowych. Założenie opiera się, częściowo, na fakcie, że ludzie doszli do tego zaledwie 80 lat po dokonanym przez Alessandra Voltę wynalazku baterii elektrycznej. Sprawa jest prosta: możemy emitować fale radiowe, wysyłając krótkie impulsy prądu elektrycznego przewodami. Te fale mogą polecieć poza naszą atmosferę, w przestrzeń, z małą interferencją. A wysłane fale radiowe czyli elektromagnetyczne można odebrać za pomocą anten i przetworzyć je na impulsy elektryczne. W 1960 r. Frank Drake podjął pierwszą próbę wykrycia sygnałów radiowych z innych układów słonecznych. Tak, jakby stroił radio, omiatał niebo, by trafić na słabe sygnały radiowe mogące pochodzić z innych światów. Próba nie zakończyła się powodzeniem, ale od tamtej pory badacze stale obserwują niebo. Istnieje pewna szansa, że w najbliższych dekadach uzyskamy sygnał z jakiejś odległej i egzotycznej cywilizacji. A wtedy cały nasz świat się zmieni. To jest możliwe. Co ciekawe, chociaż twierdzimy, że szukamy inteligencji pozaziemskiej, to nie potrafimy zdefiniować inteligentnego sygnału. Zaczynamy od stwierdzenia, że szukamy sygnału, którego nie wytworzyłaby przyroda żadnym znanym nam mechanizmem. Pojawia się pytanie: Skąd możemy wiedzieć, czy taki sygnał pochodzi z inteligentnego źródła? W 1961 r. podczas 1. konferencji naukowej w programie SETI John Lilly zaproponował badanie języka delfinów, by przewidzieć, jakie mogłyby być sygnały pozaziemskie. Kulminacją tych wczesnych prac były badania prowadzone przez Laurance'a R. Doyle'a i Brendę McCowan. Wyszli oni z założenia, że jeśli istnieje jakaś wspólna cecha w systemach komunikacji ludzi oraz zwierząt, to pozaziemskie systemy komunikacji również powinny ją mieć. Badacze przeanalizowali liczne wokalizacje dorosłych i młodych ludzi oraz delfinów. W przypadku delfinów były to gwizdy i trzaski. Ludzkie dzieci uczą się mówić poprzez naśladowanie, powoli przyswajając coraz więcej sygnałów dźwiękowych. Podczas fazy gaworzenia dźwięki są raczej przypadkowe, chaotyczne. Badając sprawę, Doyle i McCowan zestawili różne sygnały dźwiękowe z częstością ich występowania, a potem uszeregowali je na wykresie, od najczęstszych sygnałów po lewej, do najrzadszych po prawej. U dzieci nachylenie jest niemal zerowe, bo wszystkie sygnały dźwiękowe występują losowo, równie często. Ucząc się języka rodziców, dzieci zawężają repertuar dźwięków wg modelu, z którym mają kontakt. W taki sposób nasza mowa zyskuje strukturę. W konsekwencji wykres ma nachylenie 45 stopni, inaczej minus 1 na wykresie funkcji logarytmicznej. Znamy to jako prawo Zipfa. Co ciekawe, wykres kształtuje się tak samo dla różnych ludzkich języków. Schemat wydaje się wspólny dla wszystkich ludzi. A w dodatku Doyle i McCowan trafili na niego także analizując komunikację zwierząt. Stwierdzili, że gwizdy wydawane przez małe delfiny mają rozkład podobny do rozkładu odgłosów dzieci w fazie gaworzenia. Z początku gwizdy delfinów są dość chaotyczne. Gdy młode osiągną dorosłość, wykres ma nachylenie -1, takie samo jak u ludzi. Ta analiza rozpatruje tylko poszczególne sygnały i słowa. Nie mówi nic o głębszej strukturze lingwistycznej systemu komunikacji - ani ludzi, ani delfinów. Objaśnijmy na przykładzie, co rozumiemy przez głębszą strukturę. Jeśli losowo wybiorę słowo z książki i poproszę, żebyście je odgadli, to, nie mając żadnych wskazówek, będziecie musieli zgadywać. Jeśli jednak podam losowe słowo z książki i poproszę was o przewidzenie następnego, to, choć nadal będziecie musieli zgadywać, okaże się to prostsze. Jeśli podam wam dwa kolejne słowa i poproszę o przewidzenie trzeciego, będzie jeszcze łatwiej. Przy trzech słowach z rzędu ta tendencja się utrzyma. Coraz łatwiej odgadnąć. Wydaje się, że za sprawą struktury języka wolność wyboru maleje w miarę wydłużania się ciągów słów. To dlatego rozmówcy mogą nawzajem dokańczać swoje zdania. W swoich analizach Doyle i McCowan korzystali z pojęcia entropii informacji (entropii Shannona). Jak pamiętacie, entropia to miara niepewności. Można ją uznawać za liczbę pytań typu „tak czy nie?” albo bitów koniecznych do odgadnięcia następnego słowa. Gdy przewidywalność rośnie, entropia informacji maleje. Doyle i McCowan obliczyli entropię dla różnych poziomów, czyli rzędów. Jedno słowo to rząd pierwszy, grupy dwuwyrazowe - rząd drugi, trzywyrazowe - trzeci itd. Przedstawili na wykresie wartość entropii informacji na tych poziomach. U dorosłych ludzi, co nie dziwi, że entropia informacji na coraz wyższych poziomach maleje. To skutek reguł rządzących naszymi systemami komunikacji. Badając w ten sam sposób język delfinów, Doyle i McCowan wykryli identyczny schemat. W systemach komunikacji delfinów entropia informacji maleje, gdy wydłużają się serie sygnałów dźwiękowych. A zatem systemy komunikacji delfinów również mogą mieć swoje reguły. W takim razie może delfiny także dokańczają zdania między sobą. Zestawmy to z wykresem losowej serią symboli. Jest płaski, bo między symbolami nie występują zależności warunkowe. Skoro ten schemat wyłania się w komunikacji ludzi i nie-ludzi, Doyle i McCowan zasugerowali, że zmniejszanie się entropii jest bardzo ważne dla przekazu tego, co możemy nazwać wiedzą. Jak powiedział Doyle, jeśli odbierzemy sygnał wąskopasmowy, z nachyleniem -1 na wykresie Zipfa, i wystąpi entropia Shannona wyższego rzędu - to dobra nasza! A wszystko opiera się na przypuszczeniu, że także kosmici dokańczają nawzajem swoje zdania. Jak pomóc ci w komunikacji z nami? Dlaczego mówię? Wskutek asymilacji dawnej fotosyntezy. Zdołałem przyswoić pewne procesy funkcjonalne doktora Wymana. Czy śmierć doktora była konieczna? Dzięki jego poświęceniu mogę się porozumiewać. Nawet gdy nie rozumiemy języka albo kultury innego gatunku ludzi czy nie-ludzi, entropia Shannona pozwala nam wykryć obecność reguł strukturalnych - niezależnie od znaczenia. Model informacji zaproponowany przez Shannona miał na celu usprawnienie przekazu telegraficznego. To doprowadziło do ustanowienia globalnej jednostki informacji: bitu. Bit to pojedyncza różnica, podstawa systemu informacji. Coraz liczniejsze technologie cyfrowe i sieciowe dowodzą, jak trafne i trwałe są koncepcje Claude'a Shannona. Nie zrezygnujemy z bitu, a badania w ramach teorii informacji nadal będą odgrywać kluczową rolę w naszym rozwoju technologicznym i społecznym na ziemi, a może poza nią. Jeśli są przekonujące argumenty na istnienie nielicznych cywilizacji, warto szukać. Pójdę dalej. Jeśli są przekonujące argumenty, że nikogo tam nie ma, to, ponieważ możemy się mylić, powinniśmy szukać. To kwestia nadrzędnej wagi. Mówi o naszym miejscu we wszechświecie. O tym, kim jesteśmy. Warto szukać innych cywilizacji. Za wszelką cenę.