Od Eniaca do Internetu, czyli pół wieku komputerów
Są już niemal wszędzie: w pracy, w domu, szkole, sklepie i na ulicy. Kierują naszym życiem, pomagają, wyręczają nas, ratują życie a nawet… „myślą i pamiętają” za nas. Ich popularność ogarnęła większą część społeczeństwa. Mowa a komputerach. Coraz trudniej jest wyobrazić sobie funkcjonowanie bez nich np. oddziału bankowego, a Internet pozwala na komunikowanie się ludzi znajdujących się na różnych kontynentach. To nieprawdopodobne jak bardzo maszyna może być pomocna nie tylko w codziennym życiu, ale także w rozwoju nauki czy medycyny. Jak doszło do rozwoju ery komputerów i Internetu? Co kierowało ludźmi, gdy konstruowali pierwsze maszyny liczące?
Z początku do pomocy w codziennych obowiązkach wykorzystywano to, co dała matka natura: drewno, kamienie. Dopiero przetworzenie tych darów dało ludziom pierwsze przedmioty techniczne, czyli artefakty (od łac. arte fatum – sztucznie wytworzony). Od tego czasu ułatwiano sobie życie prostymi, własnoręcznie zrobionymi przedmiotami technicznymi. Przykładami artefaktów mogą być wzmocnienia narządów człowieka, jak nóż czy dźwignia, a także tzw. „pojemniki”, służące jako odzież lub szałas. Z czasem ulegały one ewolucji i powstawały przedmioty nie wzmacniające, lecz zastępujące ludzkie narządy, jak pług, maczuga, okulary czy busola. Latami wdrażane były w życie coraz to nowsze pomysły: luneta, silnik, maszyna latająca, pływająca i komputer. Wszystko to świadczy o możliwościach ludzkiego umysłu i zmianach, jakie człowiek jest w stanie wprowadzić, aby ułatwić sobie codzienność.
Niestety należy pamiętać, że rozwoju technicznego nie można przedstawiać w samych superlatywach. Dopiero to, w jaki sposób wynalazki wykorzystywane są przez społeczeństwo ukazuje ich „prawdziwe oblicze”. Nie wszystkie mają zbawienny wpływ na nasze życie. Gdy A. Nobel otrzymał dynamit po raz pierwszy z nitrogliceryny (75%) i ziemi okrzemkowej (25%) nie zdawał sobie sprawy jak katastrofalne skutki może mieć w przyszłości jego osiągnięcie. Jest wykorzystywany nie tylko z pożytkiem, ale również stanowi niebezpieczne narzędzie w rękach nieodpowiednich osób. Winić za to należy tylko, i wyłącznie ludzi, którzy podejmują się działań niosących negatywne skutki.
Proces prowadzący do wynalezienia komputera, czyli maszyny przetwarzającej informacje, rozpoczął się już w starożytności. Powstanie systemu cyfr spowodowało chęć do szerszego, bardziej zaawansowanego posługiwania się nimi. Tworzono mechanizmy zdolne do wykonywania coraz bardziej skomplikowanych obliczeń. Oto historia, która doprowadziła do wynalezienia najszybszej maszyny liczącej i przetwarzającej informacje:
• Mezopotamia / Indie - wynalezienie abaka (abakusa), czyli deski z wyżłobionymi rowkami, które symbolizowały kolejne potęgi dziesięciu. Obliczeń dokonywano poprzez wkładanie i przekładanie kamyków w rowkach.
• Przypuszczalnie na Bliskim Wschodzie, a od V w. p.n.e. stosowano liczydła, zbudowane zwykle podobnie do abakusa, tzn. w postaci deski z wyżłobieniami w których umieszczano kamyki, czy pręcików z koralikami. Każdy z rowków lub pręcików oznaczał pewną potęgę dziesięciu. Zasada liczenia opierała się na przesuwaniu kamyków bądź koralików. Dzięki zastosowaniu systemu jednostek, dziesiątek, setek itd. można było nie tylko dodawać i odejmować, ale również mnożyć.
• Ważny krok w automatyzacji obliczeń nastąpił w połowie XVII wieku, kiedy to w 1623 roku niemiecki uczony profesor Wilhelm Schickard (1592 - 1635) zaprojektował maszynę liczącą. Maszyna ta mogła dodawać i odejmować liczby sześciocyfrowe w dziesiętnym układzie liczenia. Za pomocą tej maszyny można było również wykonywać mnożenie i dzielenie.
• Pierwszą maszynę liczącą o podobnych możliwościach do maszyny Schickarda, wykonującą mechaniczne dodawania i odejmowania, zbudował w 1642 roku osiemnastoletni wówczas francuski matematyk, fizyk i filozof Blaise Pascal (1623 - 1662). Została ona wydana w ok. 50 różnych egzemplarzach i różnych wariantach (np. maszyny sześcio- lub ośmiocyfrowe czy maszyny typu „monetarnego”)
• W roku 1666 Anglik Samuel Morland konstruuje kieszonkowy, mechaniczny kalkulator, który potrafi dodawać i odejmować. Nie spotkał się on niestety z przychylnym nastawieniem współczesnych. Pepys napisał w swoim dzienniku: „Bardzo ładne, ale mało użyteczne”.
• Zdaniem G. W. Leibniza, twórcy rachunku różniczkowego i całkowego, „Nie godzi się wybitnym ludziom trwonić czas na niewolniczą pracę, na obliczenia, które z zastosowaniem maszyn mógłby wykonać ktokolwiek”. W związku z tym, Leibniz w roku 1674, skonstruował czterodziałaniowy arytmometr z mechanizmem kół osadzonych na osi obracanej za pomocą korbki. Konstrukcja ta stała się prawzorem wielu późniejszych urządzeń.
• Pierwszą maszynę liczącą sterowaną programowo wymyślił w 1822 r. Anglik Charles Babbage (1791-1871). Jego wynalazek mógł sumować liczby i drukować wyniki, obliczenia wykonywał metodą różnicową. Maszyna była jednak tak skomplikowana, że nigdy nie zdołano jej ukończyć. Prawdopodobnie projekt był zbyt śmiały jak na możliwości techniczne epoki. Zmontowaną część maszyny można oglądać w Muzeum Nauk w Londynie.
• W 1835 roku Augusta Ada Byron (później Lovelace) (1815-1852), córka romantycznego poety Lorda Byrona, jako asystentka Charles'a Babbege'a, przetłumaczyła instrukcję posługiwania się zaprojektowaną maszyną oraz dodała własne komentarze umożliwiające jej zaprogramowanie. Komentarze te okazały się bardziej znaczące niż sama instrukcja, dlatego też Adę uznaje się za pierwszego w świecie programistę. Jej imieniem nazwano jeden z języków programowania.
• Następnym krokiem do stworzenia maszyny liczącej i przetwarzającej informacje była elektryczna maszyna analityczno-licząca skonstruowana w 1888 roku, a wyprodukowana na zlecenie rządu Stanów Zjednoczonych, służyła do opracowania wyników spisu powszechnego w 1890 roku. Prasa amerykańska ogłosiła rozpoczęcie nowej ery: „Po raz pierwszy w historii świata spis wielkiego narodu dokonany został za pomocą elektryczności”. Konstruktorem maszyny był Herman Hollerith, pracownik amerykańskiego biura statystycznego. Jego urządzenie zawierało karty perforowane, zaś sam sposób ich odczytywania był bardzo mozolnym przedsięwzięciem. Mimo zastosowania dość dziwnej jak na nasze czasy techniki urządzenie odniosło sukces. To właśnie Hollerith ustalił standardowy format karty perforowanej. Zdecydował on, że karta wykorzystywana w jego maszynie będzie miała wielkość ówczesnego banknotu jednodolarowego. Takie rozmiary kart perforowanych zachowały się do dziś. Zadowolony z sukcesu Hollerith założył w 1896 r. przedsiębiorstwo Tabulating Machine Company, z którego w 1924 r. powstał koncern IBM.
• W roku 1937 23-letni absolwent matematyki z Cambridge Alan M. Turing (1912-1954) opublikował artykuł na temat obliczalności w matematyce. Wymyślił on również maszynę logiczno matematyczną, przy której po raz pierwszy pojawił się pomysł automatu algorytmicznego. Jego prace powstały na gruncie badania podstaw matematyki, a stały się podstawowymi pracami dla mającej narodzić się informatyki. Prace Turinga ukierunkowały wysiłki inżynierów. Od tego momentu wiadomo było jak powinien być zbudowany komputer, i na jakiej zasadzie powinien pracować.
• Pierwszą elektroniczną maszynę cyfrową, znaną pod nazwą ENIAC (ang. Electronic Numerical Indicator And Calculator), skonstruował w latach 1942-46 zespół ludzi pod kierownictwem Johna H. Mauchly'ego i J. Prespera Eckerta na Uniwersytecie w Pensylwanii w USA. Maszyna ważyła 30 ton, zajmowała 72 m2 (miała kształt litery U w prostokącie 12mx6m), składała się z 18000 lamp elektronowych, 6000 komutatorów, 10000 kondensatorów, 50000 oporników i 1500 przekaźników. Wykonanie podstawowych działań zajmowało ułamki sekund (dodawania zmiennopozycyjne 0.0002 sek., a mnożenie 0.0028 sek.), pamięć mogła pomieścić 20 liczb. Mimo, iż ulegał on częstym uszkodzeniom (średnio każdą lampę należało wymieniać co dwa dni) służył dobrze użytkownikom do 2 października 1955 roku.
W roku 1946 John von Neuman (1903-1957), genialny amerykański uczony węgierskiego pochodzenia (przede wszystkim matematyk, ale także chemik, fizjolog, biolog, fizyk i filozof) określił zasady, według których powinno się konstruować komputery. Zasady te wytyczyły nowy kierunek w historii komputerów i są stosowane do dnia dzisiejszego. Zasady von Neumana można zawrzeć w trzech punktach:
1. instrukcje i dane mają być identycznie reprezentowane w maszynie;
2. program i dane muszą mieścić się w tej samej wewnętrznej pamięci (operacyjnej) komputera;
3. dzięki jednakowej reprezentacji danych i instrukcji maszyna powinna móc wykonywać operacje na instrukcjach i całym programie.
Taką architekturę komputera nazywano sterowaną programem. Wobec tak sformułowanej definicji komputera ENIAC i wszystkie poprzedzające go maszyny nie były komputerami. Także w roku 1946 zamknięty został „okres dojrzewania technologicznego i intelektualnego”. Zaczęła się eksplozja informatyki.
W 1941 roku Konrad Zuse (1910 - 1995), przy wykorzystaniu techniki mechaniczno elektrycznej, zbudował kolejną maszynę liczącą – Z3. Bez wahania została ona okrzyknięta „pierwszym zadowalająco działającym komputerem”. W sześć lat później, w roku 1947 trzech naukowców William Shockley, Walter Brattain i John Bardeen z Bell Telephone Laboratories zaprezentowało pierwszy tranzystor bipolarny, który wyparł pochłaniające energię lampy. Był to impuls, który zapoczątkował wyścig miniaturyzacji i oszczędności energii. Dzięki zastosowaniu tranzystorów powstawały konstrukcje znacznie tańsze, mniejsze, a jednocześnie szybsze. Pierwsze komercyjne egzemplarze pojawiły się w 1952 (a pierwszym seryjnie produkowanym komputerem był skonstruowany przez zespół z International Business Machines - IBM 701). Odkrywcy tranzystora w 1956 roku zostali uhonorowani Nagrodą Nobla w dziedzinie fizyki.
Późniejszy rozwój techniczny komputerów pozwolił nawet na połączenie odległych od siebie komputerów. Wszystko to pozwoliło na szybkie przesyłanie danych z jednego miejsca do drugiego. W latach sześćdziesiątych powstały pierwsze sieci komputerowe (np. sieć przeznaczona dla Departamentu Obrony USA o nazwie ARPAnet).
Komputery z lat siedemdziesiątych były całkowicie zbudowane z układów scalonych. Ich pamięć stanowiły rdzenie ferrytowe. Maszyny posiadały system operacyjny umożliwiający jednoczesną realizację kilku zadań różnych użytkowników, często posiadały kilka kompilatorów języków programowania wyższego rzędu. Pamięci zewnętrzne tamtych komputerów to przede wszystkim wielkie jak szafy napędy taśmowe z półcalową taśmą magnetyczną oraz wielotalerzowe pamięci dyskowe, również wielkości sporego mebla. Podstawowym nośnikiem zewnętrznym jest tasiemka papierowa kodowana w kodzie 7-bitowym (EBCDID) oraz karta 80-kolumnowa, pochodząca jeszcze z czasów mechanicznych tabulatorów Holleritha.
Od 1971 roku, gdy firma Intel zaprojektowała i wykonała pierwszy mikroprocesor Inlet 4004 o architekturze czterobitowej rozpoczęła się prawdziwa eksplozja informatyczna. Doszło do tego, że w 1983 roku mikrokomputer IBM PC („personal computer”) został przez tygodnik „Time” wybrany „człowiekiem roku”. Lata osiemdziesiąte bez wątpienia były dekadą PC – tów.
Lata dziewięćdziesiąte to już dekada sieci komputerowych. Sieć komputerowa jest systemem komunikacyjnym służącym przesyłaniu danych, łączącym dwa lub więcej autonomicznych komputerów i urządzenia peryferyjne. Składa się z zasobów obliczeniowych i informacyjnych, mediów transmisyjnych i urządzeń sieciowych. Poszczególne urządzenia wchodzące w skład sieci mogą być rozmieszczone w jednym pomieszczeniu, w jednym budynku, lub być rozproszone na dużej przestrzeni. Zazwyczaj jeśli poszczególne urządzenia umieszczone są "w jednym miejscu", np. w tym samym budynku - sieć nazywana jest siecią lokalną LAN (ang. Local Area Network). W takim przypadku urządzenia sieciowe są zwykle połączone jednym rodzajem kabla transmisyjnego. Jeżeli rozproszenie urządzeń sieciowych jest znaczne - to wtedy sieć taka jest zorganizowana jako połączenie ze sobą kilku sieci lokalnych w obszarze miejskim MAN (ang. Metropolita Area Network) lub bardziej rozległym - WAN (ang. Wide Area Network).
„Boom sieciowy” opanował już większość społeczeństwa. Sieci komputerowe dostarczają skutecznego narzędzia do komunikowania się w postaci poczty elektronicznej oraz innego oprogramowania dla grup roboczych, znacznie usprawniają komunikację wewnątrz firmy. Z każdym dniem rosną wymagania użytkowników sieci. Ważna jest funkcjonalność, niezawodność i bezpieczeństwo w korzystaniu z usług sieciowych.
Internet to sieć komputerowa o zasięgu globalnym łącząca ze sobą setki tysięcy małych i dużych sieci lokalnych oraz pojedyncze komputery. Jego historia nie jest długa, ale znacząca dla znakomitej części społeczeństwa. Powstała w roku 1969 roku sieć ARPAnet dwa lata później połączyła piętnaście instytucji rządowych i akademickich. Pod koniec dekady osiągnęła tak wielkie wymiary, że wymagała nowych standardów komunikacyjnych (tzw. protokołów TCP/IP) W roku 1973 stworzone zostały połączenia międzynarodowe, do Wielkiej Brytanii i Norwegii. Rok później Ray Tomlinson stworzył program do przesyłania elektronicznych wiadomości po sieci (e-mail). W roku 1980 ARPAnet połączona została z innymi sieciami: Usenet i BITNET. W 1988 roku połączonych było ze sobą sześćdziesiąt tysięcy komputerów – powstał Internet, czyli „splątana pajęczyna sieci komputerowych”.
To między innymi dzięki internetowi spełnia się przepowiednia Marshalla McLuhana o świecie jako Globalnej Wiosce. Według Williama H. Gatesa przyszłość należy do globalnej Infostrady opartej na rozwoju Internetu. Postęp jest tak silny, że nie da się go zatrzymać a o jego znaczeniu można będzie mówić dopiero, gdy „wejdzie w życie”.
W podsumowaniu mogę napisać tylko, że informatyka, komputer i Internet to nie martwe hasła, ale tworzone przez wieki, mające swoją własną historię dzieła sztuki. Pracowali nad nimi matematycy, fizycy, logicy, elektronicy. Informatyka jest, więc dziedziną naukową mającą podstawy multi- starożytnych interdyscyplinarne.
Od starożytnych abakusów, przez ogromne maszyny liczące i przetwarzające informacje jak ENIAC, do Internetu naukowcy starali się znaleźć jak najlepsze rozwiązania dla polepszenia standardów życia. Niestety rozwój Społeczeństwa Informacyjnego to nie tylko nadzieja na lepsze jutro. Zbyt szybki postęp techniczny może przynieść obawy i zagrożenia, którym nie wszyscy będą w stanie sprostać. Dlatego wszystko w tej dziedzinie powinno następować powoli, ale starannie. Wtedy sukces zostanie osiągnięty.