Historia Internetu.
Najpierw był telegraf, potem telefon, radio i wreszcie komputer. Internet udostępnił wszystko w jednym i zrewolucjonizował nasz świat oraz sposoby komunikowania się. Nigdy wcześniej nie istniało narzędzie tak wydajne w procesie rozpowszechniania informacji i tak sprawne w ułatwianiu współpracy między ludźmi bez względu na ich miejsce zamieszkania. Początki Internetu są tym bardziej fascynujące, że wszystko działo się na naszych oczach, a ludzie, którym zawdzięczamy Internet, są nam współcześni i sami tę historię opowiadają .
Pierwszy pomysł na sieć globalną pojawił się w pracach J.C.R Licklidera, profesora MIT, już w 1962 roku. Pomysł ten, zaiste wizjonerski, nie odbiegał bardzo od tego, co dziś nazywamy Internetem. Kolejną osobą, bez której nie wędrowalibyśmy teraz w najdalsze komputerowe zakątki świata, był Leonard Kleinrock. W 1961 roku opublikował on pracę o teorii przełączania pakietów, w której sformułował teoretyczne podstawy komunikowania się połączonych ze sobą komputerów. Teorię potwierdzono eksperymentalnie w 1965, gdy Thomas Merrill i Lawrence G. Roberts z MIT połączyli komputer TX-2 w Massachusetts z komputerem Q-32 znajdującym się w Kalifornii. Tę pierwszą sieć komputerową utworzono na bazie linii telefonicznej. Udowodniono w ten sposób, że komputery mogą ze sobą współpracować i współdzielić oprogramowanie oraz dane. W 1966 roku Roberts przeniósł się do DARPA, Defence Advanced Research Projects Agency – agencji Departamentu Obrony USA do spraw zaawansowanych technicznie programów badawczych i rozpoczął pracę nad siecią rozległą o nazwie ARPANET. Nad podobnymi projektami pracowano równolegle także w innych ośrodkach. Przede wszystkim należy tu wspomnieć o NPL (National physical Laboratories) w Wielkiej Brytanii oraz organizacji RAND (Research And Development), mającej swą siedzibę w Santa Monica w stanie Kalifornia. O roli tych organizacji świadczyć może fakt, że choćby używane przez DARPA określenie „pakiet” pochodziło z prac publikowanych przez NPL. Wkład Kleinrocka w rozwój nowej dziedziny wiedzy został doceniony w oryginalny sposób – kierowana przez niego placówka o nazwie Network Measurement Center stała się pierwszym węzłem sieci ARPANET. Miało to miejsce w 1969 roku. Do końca tego samego roku do sieci ARPANET podłączono jeszcze cztery komputery. W następnych latach przyrost liczby komputerów był coraz szybszy. Powstał także protokół Network Control Protocol (NCP), umożliwiający użytkownikom sieci tworzenie aplikacji. W 1972 roku Robert E. Kahn zorganizował na konferencji International Computer Communication Conference (ICCC) pierwszy publiczny pokaz działania sieci ARPANET. W tym samym roku wprowadzono do użytku niezwykle istotną aplikację - program pocztowy autorstwa Raya Tomlinsona z BBN Technologies w Kalifornii, rozbudowany później przez Robertsa. Zbiegiem lat ARPANET rozrósł się do postaci znanej dziś jako Internet. Internet oparty jest na koncepcji niezależnych sieci o dowolnej architekturze, która dzisiaj nazwalibyśmy otwartą. W sieci o tej architekturze poszczególne podsieci są projektowane i tworzone w sposób całkowicie swobodny; nie istnieją także ograniczenia dotyczące typu podłączanej sieci i jej zasięgu, nie licząc ograniczeń czysto pragmatycznych. Ideę sieci o otwartej architekturze zaprezentował Kahn w 1972 roku. Ze względu na ograniczenia protokołu NCP Kahn zaproponował nowy protokół, spełniający wymagania sieci o otwartej architekturze. Był to protokół znany obecnie jako TCP/IP (Tranmission Control Protocol/ Internet Protocol). W swej pierwotnej postaci zawierał on oba elementy składowe, TCP i IP, w jednym module i nosił nazwę TCP. O ile NCP działał jako sterownik, TCP miał już być pełnowartościowym protokołem komunikacyjnym. Kahn przyjął, że sieci lokalne nie będą modyfikowane, a więc zmiany będą dotyczyć jedynie ich podłączenia do Internetu. Jego pomysł uwzględniał także konieczność ponownego przesłania pakietu w przypadku, gdy nie dotrze on do miejsca przeznaczenia. Połączenie między sieciami miały być tworzone za pomocą bramek i routerów, przy czym informacje przechodzące przez te urządzenia nie byłyby zapamiętywane i kontrolowane. Kahn zajął się także kwestiami weryfikowania sum kontrolnych, składania pakietów z fragmentów, adresowania globalnego oraz kontrolą przepływu danych między komputerami. Przewidział też konieczność przystosowania protokołu do różnych systemów operacyjnych. Do współpracy przy tworzeniu i rozwijaniu nowego protokołu Kahn zaprosił Vinta Cerfa z Uniwersytetu Stanforda – doświadczonego programistę, który pracował wcześniej nad protokołem NCP. W oto sposób, łącząc nowatorski pomysł z doświadczeniem, utworzono TCP. Choć na początku lat 70. Rozwijano technologię Ethernet – zajmowano się tym głównie w laboratoriach firmy Xerox – to jednak nie przewidywano większego zainteresowania sieciami LAN. Wzorem miała być sieć ARPANET, a liczba tych sieci miała być niewielka i ograniczona terytorialnie. Założono więc, że wystarczające będą 32-bitowe adresy IP, w których pierwsze 8 bitów identyfikowałoby sieć, a pozostałe 24 bity - komputer podłączony do tej sieci. Jednak już pod koniec dekady okazało się, że intensywny rozwój sieci LAN obala całkowicie założenie, że 256 sieci w zupełności wystarczy. Jak wspomniano, opisany przez Cerfa i Khana protokół TCP obsługiwał wszystkie operacje transportu i przesyłu w Internecie, począwszy od wiarygodnego dostarczania danych(model wirtualnego łącza) po usługę przesyłania datagramów (bloków danych). Jednak po zaimplementowaniu protokołu okazało się , że poprawnie radzi on sobie tylko z wirtualnymi łączami. W oparciu o wcześniejsze doświadczenia z aplikacjami stwierdzono także, że w niektórych przypadkach TCP powinien pozostawić kwestię korekty utraconych pakietów aplikacjom. Aby poprawić działanie protokołu , podzielono go na dwa protokoły. Prosty protokół IP dotyczył tylko adresowania i przesyłania poszczególnych pakietów, natomiast „nowy” TCP przejmował usługi takie, jak kontrola przepływu i odzyskiwanie utraconych pakietów . Dla aplikacji, w których nie wykorzystywano usług TCP, przeznaczono protokół User Datagram Protocol (UDP), udostępniający podstawową usługę IP. Głównym celem przyświecającym twórcom sieci ARPANET, a potem sieci Internet, była kwestia umożliwienia współdzielenia zasobów. Ma ona niewątpliwie także aspekt ekonomiczny – dużo tańsze jest korzystanie z danego zasobu przez wielu użytkowników niż powielanie go na różnych komputerach. Jednak o ile umożliwienie transferu plików i zdalnego logowania za pośrednictwem usługo telnet to niezwykle istotne wydarzenia na tej drodze, to jednak przełomem stało się dopiero wprowadzenie poczty elektronicznej. Poczta e-mail to zupełnie nowy sposób komunikowania się ludzi między sobą, a jej pojawienie się w naszym życiu niesie za sobą niewątpliwe skutki socjologiczne.
W pierwszych latach istnienia Internetu powstały także inne aplikacje – na przykład program do komunikacji głosowej, będący prekursorem telefonii internetowej, czy też różnorodne modele współdzielenia plików i dysków, a także pierwsze komputerowe wirusy. Powoli idea Internetu jako infrastruktury dla wielu aplikacji stawała się rzeczywistością – zaczęła rodzić się sieć WWW (World Wide Web). Niewątpliwie możliwe było to dzięki istnieniu protokołów TCP i IP. Agencja DARPA zawarła trzy kontrakty na implementację TCP/IP. Zespół z Uniwersytetu Standforda opracował specyfikację protokołu; w ciągu roku dokonano jego implementacji. Nastąpił okres testów, eksperymentów oraz poprawek, co zaowocowało wielkim rozwojem sieci. Pierwszych implementacji TCP dokonano na komputerach pracujących pod kontrolą takich systemów operacyjnych, jak Tenex czy TOPS 20. Gdy pojawiły się komputery osobiste, obawiano się, że TCP będzie zbyt duży i skomplikowany, aby na nich działać. Davis Clark wraz ze swoją grupą z MIT udowodnili, że możliwe jest przystosowanie protokołu do wymogów PC. Implementacji dokonali najpierw na Xerox Alto, osobistej stacji roboczej skonstruowanej w Xerox PARC, a następnie na komputerze IBM PC. Nowa wersja była w pełni wymienna z innymi wersjami TCP. W ten sposób udowodniono, że do Internetu można podłączyć najróżniejsze komputery. Całe swoje doświadczenie w budowaniu sieci Kleinrock zawarł w wydanej w 1976 roku książce o sieci ARPANET. Opisał w niej także protokoły i ich ograniczenia.
Lata 80. To gwałtowny rozwój sieci LAN, komputerów typu PC i stacji roboczych. Rozwinięta przez Boba Metcalfe’a z Xerox PARC technologia sieci Ethernet stała się dominującą technologią sieciową. Przejście od modelu typu ARPANET (kilka sieci o niewielkiej liczbie komputerów) do modelu sieci o architekturze otwartej ( wiele różnych sieci o dużej liczbie komputerów różnego typu) wymusiło szereg zmian. Przede wszystkim zdefiniowano klasy sieci (A, B i C), dzieląc sieci w zależności od ich rozległości. Klasa A odnosiła się do dużych sieci o zasięgu krajowym (niewiele sieci o dużej liczbie komputerów). Klasa B odpowiadała sieciom o skali regionalnej, a klasa C- sieciom lokalnym (wiele sieci o małej liczbie komputerów).
W roku 1981 powstała w USA kolejna sieć komputerowa – BITNET (Because It’s Time Network), łącząca cywilne uczelnie, a dwa lata później wyodrębniono z ARPANET-u część wojskową - Milnet. I ta właśnie data – rok 1983 – uznawana jest za początek Internetu w Stanach Zjednoczonych. W tym samym czasie rozpoczęto tworzenie w Europie sieci EARN – europejskiego odpowiednika BITNET-u. Aby ułatwić użytkownikom korzystanie z Internetu , komputerom przypisano nazwy, dzięki czemu nie było już konieczne pamiętanie ich numerów. Powstanie wielu sieci LAN oznaczało też konieczność modyfikacji systemu identyfikacji komputerów w sieci- w ten sposób w 1984 roku powstał system DNS (Domain Name System). Jego twórcą jest Paul Mockapetris z Information Sciences Institute. System działał w ten sposób, że serwery podłączone do sieci uruchamiały specjalne oprogramowanie tłumaczące adresy: ludzi używali nazw słownych, np. komputer .net.pl, a DNS przekształcał je w adresy liczbowe IP, np.124.54.67.890
Rozwój Internetu wymusił także zmiany oprogramowania routerów. Router, dysponując informacją o adresach miejsc przeznaczenia, może podejmować decyzje o wyborze optymalnej trasy przesyłania pakietu. Wybór najlepszej drogi poszukiwania zależy od zaimplementowanego algorytmu. Im więcej sieci pojawiało się w Internecie, tym wyraźniej zaznaczała się potrzeba dostosowania mechanizmu routowania. I tak prosty algorytm zastąpiono protokołem RIP(Routing- Information Protocol) – jest to protokół routingu, w którym zastosowano algorytm distance-vector. Distance-vector optymalizuje wybór trasy, uwzględniając kryterium najmniejszej liczby skoków niezbędnych do osiągnięcia miejsca przeznaczenia lub kryterium kosztu ścieżki prowadzącej do miejsca przeznaczenia. Charakteryzował go hierarchiczny model routowania – protokół wewnętrzny IGP(Interior Gateway Protocol) był stosowany w obrębie danego obszaru sieci, natomiast protokół zewnętrzny EGP (Exterior Gateway Protocol) wykorzystywany był do ustalenia routingu pomiędzy różnymi autonomicznymi obszarami sieci. W ten sposób poszczególne obszary mogły korzystać z różnych IGP. Możliwości routingu ograniczał nie tylko sam algorytm routowania, lecz także tablica trasowania lub routingu. Aby wyeliminować związane z nią ograniczenia , wprowadzono routing bezklasowy CIDR ( Classless Inter-Domain Routing). Obecnie najczęściej stosowanym protokołem routingu jest BGP( Border Gatway Protocol), który należy do klasy protokołó zewnętrznych. Wykonuje on routing w sieciach pracujących z protokołem TCP/IP. Routing odbywa się pomiędzy wieloma systemami autonomicznymi (domenami), a informacje o routingu i dostępności są wymieniane z innymi systemami posługującymi się protokołem BGP. Protokół BGP efektywnie rozwiązuje problemy związane z routingiem międzydomenowym oraz skalowaniem sieci Internet. Wszystkie zmiany wprowadzane w oprogramowaniu musiały zostać rozpropagowane na poszczególnych komputerach rosnącego Internetu. Jednym z najtrudniejszych momentów było przejście z protokołu NCP do TCP/IP – ten wielki dzień miał miejsce 1 stycznia 1983 roku. Przejście to zostało bardzo starannie zaplanowane i odbyło się bezproblemowo.
W 1985 roki Internet stanowił już okrzepłą technologię, z której korzystało coraz więcej naukowców. Także inne społeczności odkryły zalety sieci globalnej, a poczta elektroniczna stała się wszechobecna. Było to możliwe także dlatego, że wszyscy chcieli korzystać z dobrodziejstw komunikacji za pośrednictwem komputerów. W latach 70. Sieci komputerowe mnożyły się w zaskakującym tempie. I tak Departament Energii utworzył dla swoich pracowników naukowych sieć MFENet. Fizycy z tego Departamentu utworzyli sieć HEPNet. Fizycy z NASA odpowiedzieli powstaniem sieci SPAN, a Rick Adrion, David Farber i Larry Landweber utworzyli CSNET. Powstaje też USENET, sieć oparta na protokołach UUCP system UNIX, natomiast w 1981 roku Ira Fuchs i Greydon Freeman tworzą BITNET. Sieć BITNET była oparta na połączonych łączami stałymi serwerach IBM, działających pod kontrolą systemu operacyjnego o nazwie VM. Ponieważ stosowanym protokołem był protokół COM, sieć ta bywa też nazywana VM/COM. Dwa pierwsze połączone w niej serwery znajdowały się na Uniwersytecie Yale i Uniwersytecie w Nowym Jorku. Europejska odnoga BITET-u –EARN- została utworzona. W 1985 roku, również na zasadzie porozumienia IBM z grupą uniwersytetów z Europy Zachodniej. Do końca lat 80. Tempo rozwoju sieci BITNET było zbliżone do tempa rozwoju ARPANET-u i Internetu, jednak w kolejnej dekadzie gwałtowny rozwój Internetu spowodował wchłonięcie wszystkich zasobów BITNETU. Najsilniejszą stroną BITNETU był system poczty elektronicznej działającej w tej sieci, a zwłaszcza idea serwerów list dyskusyjnych, zaadaptowana później również w Internecie. Ten zwarty i bardzo skuteczny system zapewniał obsługę kilku tysięcy grup dyskusyjnych. W ramach tej sieci funkcjonowały też pierwsze na świecie czasopisma rozsyłane drogą elektroniczną z DargonZine na czele.
Wszystkie wspomniane sieci włączając w to także ARPANET, powstawały w określonym celu i dla określonych społeczności. Ponieważ nie istniała wyraźna potrzeba zapewnienia ich współ działania, nie były one kompatybilne.
Powoli zaczęło się to zmieniać . W roku 1986 Narodowa Fundacja Nauk, zarządzająca finansowaniem wyższych uczelni w USA, utworzyła sieć NSFnet, wiążąca pięć wielkich uniwersyteckich superkomputerów ( JVNC- Princeton, PSC- Pittsburgh, SDSC- San Diego, NCSA- Illinois i Theodory Center Cornel) łączami 56kb/s. W ten sposób otwarto uniwersytetom dostęp do ogromnych mocy przetwarzania danych i umożliwiono wzajemne dzielenie się zasobami. W kolejnych latach do NSFnet podłączały się kolejne uniwersytety.
To odchodzący z nich studenci chcieli nadal mieć kontakt z całym światem i tworzyli zapotrzebowanie na dostęp do sieci.
Kluczem do gwałtownego rozwoju Internetu stał się bezpłatny i otwarty dostęp do podstawowych dokumentów i specyfikacji protokołów. Na początku wszystko co dotyczyło sieci ARPANET i Internetu, było publikowane w czasopismach naukowych. Jednak cykl publikacyjny okazał się zbyt wolny i formalny, aby umożliwić dynamiczną wymianę pomysłów i wykorzystanie ich w tworzeniu sieci. Dlatego w 1969 Steve Crocker z UCLA zaproponował inne rozwiązanie: Request for Comments (RFC). Dokumenty RFC zostały wymyślone, aby przyspieszyć proces rozpropagowywania nowych pomysłów. Na początku dokumenty RFC drukowano i wysyłano zwykłą pocztą. Gdy pojawił się protokół FTP, pliki RFC stały się dostępne w archiwach FTP. Obecnie są one dostępne szeroko w sieci WWW. Dokumenty RFC opisują funkcjonowanie Internetu. Pojedynczy RFC może definiować określony standard obowiązujący w Sieci bądź być tylko propozycją lub wytycznymi dotyczącymi kierunku rozwoju nowego standardu. Część dokumentów RFC zawiera też treści o mniej formalnym charakterze – np. opisy powstania Internetu, jego rozwój oraz ważnych wydarzeń w jego historii. Dokumenty RFC oznaczane są kolejnymi numerami. W grudniu 1999 lista wszystkich testów tekstów RFC liczyła 2740 pozycji. Pliki RFC znaleźć można łatwo w wielu miejscach w Sieci. Oficjalnie archiwum RFC prowadzone jest na serwerze firmy InterNIC, jednak po całym świecie rozsiane są jego kopie – osiągalne między innymi na serwerze Interdyscyplinarnego Centrum Modelowania.
Aktywność w tworzeniu plików RFC wzrosła wraz z rozpowszechnieniem się poczty elektronicznej. O ile wcześniej pliki RFC były dziełem grup ludzi z konkretnego ośrodka, to obecnie przy ich tworzeniu współpracują ze sobą ludzie z różnych stron świata. Rozwój utworzonej przez Tima Bernersa- Lee sieci WWW także poskutkował pojawieniem się nowej społeczności- wiele osób zaczęło ze sobą współpracować w ramach organizacji World Wide Web Consortium . (W3C) jest odpowiedzialna za tworzenie protokołów i standardów obowiązujących w sieci WWW. W ciągu ostatnich 20 lat następuje ciągła ewolucja struktur organizacyjnych, wspomagających i ułatwiających pracę społeczności pracujących wspólnie nad rozwojem Internetu.
Komercjalizacja Internetu oznaczała nie tylko pojawienie się prywatnych usług sieciowych, lecz także rozwój komercyjnych produktów implementujących technologie internetowe. Na początku lat 80. Sprzedawcy dołączali TCP/IP do swoich produktów, nie interesował ich jednak sposób wykorzystania protokołu przez klienta, nie znali jego możliwości. W 1985 roku naukowcy z DARPA, twórcy TCP/IP, zaprezentowali więc producentom swój produkt w cyklu wykładów. Efekty tego szkolenia przerosły najśmielsze oczekiwania. Okazało się, że zaczęto zwracać uwagę na kompatybilność produktów, biorąc pod uwagę nawet produkty konkurencji.
Zależności między społecznościami naukowymi i komercyjnymi widoczne są szczególnie wyraźnie tam, gdzie mowa o zarządzaniu siecią. Wraz ze wzrostem stopnia złożoności sieci konieczne staje się korzystanie z nowych narzędzi i lepsze algorytmy. W roku 1987 stało się jasne, że potrzebny jest protokół, który pozwoli na zdalne zarządzanie elementami sieci, takimi jak routery. Z inicjatywy organizacji Internet Activities Board zainicjowano pracę nad takim właśnie protokołem. Zaproponowano kilka protokołów, w tym SNMP (Simple Network Management Protocol). W finalnej postaci powstał on w 1989 roku, a jego protoplasta był prosty protokół SGMP. SNMP jest obecnie najczęściej stosowanym protokołem komunikacyjnym, używanym do zarządzania sieciami komputerowymi. Dzięki wielu zaletom, takim jak łatwość implementacji, dostępność wielu aplikacji opartych na tym protokole oraz niewielkie wymagania dotyczące sprzętu i przepustowości łączy sprzęgających zarządzane węzły sieci, zyskał on szerokie poparcie, zdecydowanie wygrywając rywalizację z protokołem CMIP (Common Management Information Protocol). Nie ma on obecnie na rynku poważnego rywala. SNMP używa do przesyłania pakietów w sieci Internet dwóch protokołów komunikacyjnych wchodzących w skład TCP/IP. Szczegółowy opis protokołu SNMP zawarty jest w RFC 1157. Integralną częścią systemu zarządzania opartego na protokole SNMP jest zawsze menedżer zarządzania – aplikacja zarządzająca siecią, rezydująca w pamięci komputera pełniącego rolę zarządcy – oraz bazy danych MIB i agenci instalowani w poszczególnych węzłach sieci.
W ostatnim okresie jesteśmy świadkami nowej fazy komercjalizacji Internetu. O ile poprzednio komercjalizacja dotyczyła przede wszystkim produktów sieciowych i dostawców usług sieciowych, to teraz coraz częściej widzimy na dostępnych jeszcze niedawno stronach WWW komunikat o konieczności uiszczenia opłaty za korzystanie z informacji. Nowe usługi, takie jak telewizja internetowa czy telefonia internetowa, także są płatne. Co jeszcze zdarzy się w Internecie ? Jakie będą nowe potrzeby ? Aktualnie jednym z istotnych problemów Internetu jest brak wolnych adresów IP. Problem ten jest częściowo rozwiązywany poprzez stosowanie translacji adresów (NAT). Globalne rozwiązanie przyniesie zapewne rozwijana obecnie wersja protokołu internetowego Ipv6 (znanego również jako IPng – IP Next Generation). Adresy IPv6 przypisano już nawet wszystkim planetom Układu Słonecznego, satelitom i statkom kosmicznym.
Praca również w załączonym pliku.