dygresje.info

czyli po przeniesieniu się na nowy hosting (z h88 na mydevil), zdecydowałem się nie kopiować dotychczasowej wersji strony: 1) Gatsby zamiast Drupala, 2) ewolucyjnie powstaje nowa, zróżnicowana formuła - treść i nawigacja przeniesione w 100%, struktura przygotowana pod podział na różnie wygladające podstrony i po kolei już powstają.

Historia komputerów i internetu

Motto:

  • Everything melted into mist. Sometimes, indeed, you could put your finger on a definite lie. It was not true, for example, as was claimed in the Party history books, that the Party had invented aeroplanes. He remembered... (George Orwell "1984")
  • Internet? To niebieskie "e" na pulpicie? (ZU)
  1. Mechaniczne maszyny liczące
  2. Elektroniczne maszyny liczące
  3. Komputery osobiste
  4. Internet
  5. Materiały

Ostatnia aktualizacja 20 IX 2005.

Mechaniczne maszyny liczące

Starożytność

Naturalnym sposobem pomagania sobie w obliczeniach było odkładanie kamieni, a sposobem zapisu karbowanie kresek na kiju.
http://www-users.mat.uni.torun.pl/~witmar/kalendarium.html

Najstarszym powszechnie używanym przyrządem służącym do liczenia było liczydło (angielski i łacinaabacus z greckiego abaks). Było szeroko znane w całej starożytności od Europy aż po Chiny. Miało wiele zróżnicowanych form.
Najczęściej była to prostokątna deska z wyżłobionymi rowkami, w których ułożone kamyki oznaczają poszczególne pozycje przedstawianej cyfry - dodając i odejmując kamienie w rzędach wykonywało się operacje arytmetyczne.
Dość dobrze znamy konstrukcję liczydeł używanych w Imperium Rzymskim i bardzo podobne (najprawdopodobniej tego samego pochodzenia) z Chin i Japonii.
Rzymianie używali również kamyczków tzw. "calculi" (stąd pochodzi słowo kalkulować).

Najstarszym znanym mechanicznym urządzeniem liczącym był mechanizm odnaleziony we wraku statku koło wyspy Antikythera (i stąd jego nazwa, wszędzie jest określany jako "mechanizm z Antikythery"). Jego odnalezienie, a ściśle rzecz biorąc rekonstrukcja wykonana na podstawie zdjęć rentgenowskich - bo samo znalezisko jest bardzo zniszczone - wywołało sensację ponieważ brak jest pisanych źródeł na temat podobnych urządzeń w tamtych czasach.
Skonstruowany prawdopodobnie na Rodos około 87 roku ne.. Składał się z 37 kół zębatych wykonanych z brązu umieszczonych w drewnianej ramie. Przypuszcza się, że służył do obliczeń astronomicznych.
Starożytny komputer zrekonstruowany [2006-12-04], Greek solar computer reconstructed

Znanymi z zapisów historycznych mechanizmami są Automaty Herona, około 100 roku n.e.

Używany obecnie system zapisu cyfr (tzw. arabskich) pochodzi z sanskrytu - pisma starożytnych Indii. Nawet współczesny wygląd cyfr niewiele różni się od sanskryckich. Brakowało tam tylko zera.
W Euroazji najstarszym znanym autorem traktującym zero jako liczbę jest hinduski matematyk Brahmagupta, autor traktatu "Brahmasphutasiddhanta" (628 ne.).
Od Hindusów ten system zapisu liczb wraz z zerem przejęli Arabowie. Za ich pośrednictwem dotarł do Europy i bardzo szybko stał się popularny wypierając niewygodne w odczytywaniu i nie nadające się do obliczeń rzymskie cyfry.

Ok. 200 n.e. - liczydła sau-pan w Chinach i soro-ban w Japonii.

Do XIX wieku

1274 Ramon Lull, kataloński franciszkanin, filozof i teolog.
W okresie Renesansu słynne były androidy-marionetki braci Jaquet-Droz (np. Rysownik, Skryba, Muzyk, Pisarz).
Ars magna generalis et ultimata - symboliczny język filozofii - początki języków algorytmicznych, urządzenie do "dowodzenia prawd" za pomocą diagramów logicznych.

W Europie nowożytnej idea użycia maszyn (arytmometrów) do rozwiązywania problemów matematycznych sięga początków XVII wieku.

John Napier znany jest jako odkrywca logarytmów naturalnych (co nie jest prawdą). Matematyka jednak zawdzięcza mu zapoczątkowanie współczesnej notacji ułamków - kropka dziesiętna - oraz tzw. kostki Napiera. Wymyślił bardzo pomysłowy i prosty w zastosowaniu, chociaż niełatwy do wyjaśnienia, sposób zastąpienia skomplikowanego mnożenia przez proste dodawanie za pomocą przyrządu przypominającego liczydło. Swoje odkrycie opublikował w dziele "Rabdologia" (1617).
W 1620 Edmund Gunter przedstawił skalę logarytmiczną.
Korzystając z tych odkryć w 1622 William Oughtred wynalazł suwak logarytmiczny, który wyparł kostki Napiera.

W 1623 Wilhelm Schickard (profesor z Heidelbergu) wykonał swój "zegar liczący". Była to 6-cyfrowa maszyna umożliwiająca dodawanie i odejmowanie (działała na zasadzie sumowania obrotów kół połączonych przekładnią), przepełnienie sygnalizowała dzwonkiem. Nie przetrwała żadna oryginalna maszyna a plany zaginęły. Przypadkiem zostały odnalezione w 1935, znów zaginęły w czasie wojny i zostały znowu odnalezione (przez tego samego człowieka) w 1955. Urządzenie zostało zrekonstruowane w 1960 i działa.

1633 Athanasius Kircher, pierwszy europejski podręcznik szyfrowania informacji. Powstaje kryptologia.

W 1642 19-letni Blaise Pascal skonstruował 5-cyfrową maszynę dodającą, z współzależnymi przekładniami zębatymi i automatycznym przenoszeniem na następną pozycję, tzw "paskalinę" (ang "Pascaline") znaną też jako sumator Pascala. Posiadała kilka tarcz obracanych stylusem - wykręcanie kolejnych cyfr poruszało mechanizm dodający, a suma była wyświetlana w okienkach na tarczami.
Była przeznaczona dla jego ojca zajmującego się pobieraniem podatków: "Nie jest bowiem rzeczą godną wykształconego człowieka, by tracić godziny pracując jak niewolnik nad obliczeniami, które wykonać mógłby każdy, gdyby użyto w tym celu maszyny".
Mogła zostać udoskonalona i wspierać więcej cyfr, ale nie mogła odejmować i prawdopodobnie była mniej niezawodna niż prostsza metoda Schickarda. Chociaż wykonał wiele egzemplarzy (około 15 nawet sprzedał - niektóre 8-cyfrowe - i kilka z nich przetrwało do dziś) prawdopodobnie nie znalazła szerszego zastosowania.
Ale jej znaczenie polega na czymś innym: maszyna Schickarda została zapomniana - Pascal w ogóle nie wiedział o jej istnieniu - a "paskalina" stała się znana i zapoczątkowała koncepcję maszyny liczącej w społeczności intelektualnej.

1666 - S. Morland buduje sumator mechaniczny.

W 1673 Gottfried Wilhelm von Leibniz zaprojektował maszynę liczącą (ang. "Stepped Reckoner"), wykonał ją niejaki Olivier. Używała ruchomej karetki i mogła mnożyć 5 i 12-cyfrowe liczby z wynikiem do 16 cyfr. Leibniz udoskonalił pomysł Pascala wprowadzając dodatkowy mechanizm - koło krokowe, co umożliwiło mnożenie i dzielenie.
Użytkownik musiał obrócić korbą raz na każdą jednostkę w każdej cyfrze w mnożniku, żłobkowany bęben zamieniał obroty w wynik dodawania. Ale mechanizm wymagał interwencji użytkownika i nawet wtedy nie zawsze działał. Urządzenie po kilku latach dostało się na strych i było tam aż do 1879, kiedy zauważył je człowiek reperujący dziurawy dach.
Leibniz wynalazł również system dwójkowy.

Abakus w swojej klasycznej postaci był używany w Europie aż do XVIII wieku, kiedy wyparło go znane jeszcze do niedawna liczydło zbudowane z ramy i i przesuwanych na prętach kulkach. Szybsze i bardziej niezawodne.

1726 - A. Braun, ulepszenie sumatory Morlanda, używane jeszcze do niedawna.

1786 idea "maszyny różnicowej", autorstwa żołnierza armii Hesji, J. H. Muellera.

Około 1790 roku Thomas Jefferson i doktor matematyki Robert Patterson użyli maszyny szyfrującej, zastosowany przez nich szyfr kołowy został wkrótce zapomniany. Odkryli go ponownie w czasie II wojny światowej specjaliści z USNavy i nazwali szyfrem paskowym.

XIX i XX wiek

1805 - Francuski tkacz jedwabiu Józef Maria Jacquard stosuje karty perforowane do sterowania automatycznym krosnem, tkanie skomplikowanych jedwabnych wzorów wymagało instrukcji wydziurkowanych na tysiącach kart.

Abraham Jakub Stern (prapradziadek Słonimkiego) od 1810 konstruował maszyny liczące. Został ściągnięty przez Stanisława Stazica z Hrubieszowa do Warszawy. Jego dziełem był np "trianguł ruchomy", kalkulator mechaniczny wykonujący wszystkie 4 działania oraz maszyna do wyciągania pierwiastów kwadratowych. W 1817 zaprezentował maszynę będącą połączeniem dwóch poprzednich. Od 1830 członek Towarzystwa Przyjaciół Nauk.

Przełomową rolę historii maszyn liczących odegrał Charles Babbage. Pomimo, że żaden z jego projektów nie został ukończony razem ze swoimi współpracownikami (głównie z Adą kontessą Lovelace) stworzył teoretyczne podwaliny informatyki, zapoczątkował takie pojęcia jak rozgałęzienia warunkowe, pętle iteracyjne i indeksy zmiennych.
Uważa się, że Babbage był człowiekiem wyrastającym ponad swoje czasy, większość historyków uważa, że nie dokończył swoich projektów tylko dlatego, że nie pozwalała na to ówczesna technologia.
Do prac nad zmechanizowaniem obliczeń pchnęły go liczne błedy w używanych przez niego tablicach logarytmicznych Królewskiego Towarzystwa Astronomicznego (podobno poirytowany zadeklarował: "I wish to God these calculations had been performed by steam!").
W 1812 Babbage wskazał na analogię pomiędzy maszyną a matematyką: maszyna może wykonywać powtarzające się działania bez błędów, a wiele obliczeń matematycznych np. tworzenie tablic matematycznych często wykorzystuje powtarzające się wielokrotnie te same kroki obliczeń.
Jego urządzenia były w całości mechaniczne, składały się z brązowych kół zębatych i przekładni.

Pierwszym urządzeniem była Maszyna Różnicowa (Difference Engine) i jak sama nazwa wskazuje była wyspecjalizowana w rozwiązywaniu równań różniczkowych. W 1822 przedstawił projekt trwale zaprogramowanego kalkulatora, do obliczania i tabularyzowania wielozmiennych funkcji metodą różnic skończonych. Operator musial kręcić korbą, maszyna obliczała tablice logarytmów i zapisywała wynik na metalowej blaszce. Wspólnie z Josephem Clementem udało się zbudować prototyp jednego jej modułu.

Prace nad maszyną posuwały się wprawdzie powoli naprzód, lecz po czterech latach bez rezultatu, konflikty konstruktora z głównym wykonawcą uniemożliwiły ich kontynuację.
Tymczasem Babbage zaczął myśleć o nowej, lepszej maszynie, jeszcze bardziej skomplikowanej i wielozadaniowej.

Po dziesięciu latach zarzucił prace na rzecz swojego następnego projektu, pierwszego urządzenia, które było czymś więcej niż kalkulatorem - Maszyny Analitycznej (Analytical Engine). Było to uniwersalne urządzenie obliczeniowe, miało być napędzane parą i składać się z ponad 50 tysięcy elementów.
Planował użyć kart perforowanych, którymi Joseph Jacquard zautomatyzował pracę krosien tkackich w warsztatach w Lyonie. Chciał zastosować je do sterowania pracą nowej maszyny, która - jak to napisała lady Ada: "ma tkać wzory algebraiczne tak, jak krosna Jacquarda tkają kwiaty i liście." Dodawanie 40-cyfrowych liczb zajmowało urządzeniu trzy sekundy, a mnożenie i dzielenie - około czterech minut.
Ta niezmiernie skomplikowana maszyna składała się z części, które mogą być porównane z funkcjami współczesnych komputerów:

  • "The Mill" (Młyn): centralny obszar przetwarzania danych - przetwarzanie instrukcji w dowolnych sekwencjach, skoki warunkowe
  • "The Store" (Skład): pamięć - mogła przechować tysiąc liczb o długości do 50 cyfr
  • programy i dane wprowadzano w formie kart perforowanych, miała też dziurkacze do ich zapisywania, czyli swego rodzaju drukarkę

George Scheutz czytał o maszynach Babbage'a w 1833 i razem ze swoim synem Edvardem Scheutzem zaczął pracować nad mniejszą wersją. Do 1853 skonstruowali maszynę, która mogła przetwarzać 15-cyfrowe liczby i wyliczać różniczki czwartego rzędu. Jego maszyna zdobyła złoty medal na Wystawie Paryskiej w 1855. Sprzedali ją Obserwatorium Dudley'a w Albany (Nowy Jork) gdzie była używana do obliczania orbity Marsa.
Jej ulepszony model był wykorzystany do obliczania tablic statystycznych średniej długości życia, potrzebnych do ustalania stawek ubezpieczeniowych.

George Boole zajmował się pracami teoretycznymi w dziedzinie logiki. Udoskonalił system dwójkowy, co pozwoliło na prezentację dowolnych równań matematycznych w postaci prostych logicznych instrukcji. Jego prace opublikowano w latach 1839-65.
W latach 1847 i 1854 opublikował prace pozwalające na prezentacje wyrażeń logicznych za pomocą wyrażeń algebraicznych znane dzisiaj jako "Algebra Boole'a"
Na podstawie prac Boole'a inny angielski matematyk Augustus DeMorgan określił operacje logiczne nazywane dzisiaj prawami lub przekształceniami DeMorgana.
Jednak te dokonania pozostały jednak niezauważone przez większą część wieku.

1886 William S. Burroughs buduje pierwszy powszechnie sprzedawany mechaniczny sumator

W 1886 roku Dorr E. Felt zaprezentował Comptometer - pierwszy kalkulator obsługiwany za pomocą klawiatury, a nie np. przez wykręcanie cyfr na tarczy.

Po raz pierwszy w praktyce pomysł użycia kart dziurkowanych odczytywanych przez elektroniczne czujniki i maszynowe przetwarzanie danych został zastosowany przez amerykańskiego wynalazcę Hermana Holleritha.
Po pewnych udoskonaleniach maszyna Holleritha stała się sorterem - maszyną powszechnie używaną do masowych obliczeń statystycznych. Każdy otwór w karcie reprezentował jedną cyfrę, a kombinacja 2 otworów przedstawiała literę. Na jednej karcie można było zakodować ok. 80 danych. Karty perforowane używane były w wielu zastosowaniach aż do 1960 roku.
1889 Patent Holleritha na maszynę do tabulacji; rok później Hollerith buduje elektromechaniczną maszynę do tabulacji użytej do opracowania danych ze spisu powszechnego.
Hollerith opracował karty o wymiarach 7,5 na 12,5 centymetra z dwunastoma rzędami po 20 otworów, które oznaczały wiek osoby, jej płeć, miejsce urodzenia, stan cywilny, liczbę dzieci itp. Akwizytorzy zbierali dane do spisu i przenosili odpowiedzi na karty, dziurkując odpowiednie otwory. Karty były wprowadzane do urządzenia rejestrującego i za każdym razem, gdy metalowa igła trafiała w otwór, zamykał się obwód elektryczny i informacja była zapisywana w zespole tarcz rejestrujących. Elektryczny system tabulacyjny Holleritha, jak nazywano aparat, przeprowadził przy spisie w roku 1890 obliczenia dla 62 622 250 osób. Holerith udoskonalił później swój wynalazek dodając do wyposażenia przystawki, w postaci automatycznych podajników kart.
W USA spisy powszechne były przeprowadzane co dziesięć lat. Obliczanie wyników spisu z 1880 zajęło prawie siedem lat. Ponieważ w międzyczasie znacznie wzrosła liczba ludności, więc obawiano się, że wyniki spisu z 1890 będą znane dopiero w przyszłym stuleciu, co stawiało pod znakiem zapytania sens ich organizowania.
Żeby przyspieszyć liczenie US Census Bureau użyło maszyn na karty dziurkowane Hermana Holleritha. Pozwoliło to obliczyć wyniki w sześć tygodni.
Dzięki temu sukcesowi Hollerith w 1896 założył Tabulating Machine Company. W 1911 połączył się z konkurencją i jego przedsiębiorstwo stało się największym producentem maszyn liczących. Firma ta od 1924 znana jest pod nazwą IBM (International Business Machines).

Elektroniczne maszyny liczące

1903 Nicola Tesla patentuje elektryczne bramki logiczne.
1904 John Ambrose Fleming wynalazł lampę elektronową, dwuelektrodową (diodę), a w 1906 Lee De Forest, skonstruował lampę trójelektrodową (triodę). Może pełnić rolę przekaźnika, a dzięki temu, że nie zawiera żadnych elementów mechanicznych działa dużo szybciej. Pierwsze używane w komputerach lampy nie były wcale bardziej niezawodne od swoich mechanicznych odpowiedników. Były po prostu około tysiąca razy szybsze.

Elektromechaniczną technikę obliczeniową na zasadach logicznego programowania oparł Leonardo Torres. Jako pierwszy zbudował w 1915 roku w Hiszpanii maszynę mogącą podejmować decyzje o metodzie dalszych obliczeń w zależności od uzyskiwanych wyników pośrednich. Wykazał jej przydatność dla rozwiązywania końcówek szachowych, a także dla praktycznych zastosowań matematyki.

1910-20 Podstawy matematyki, rachunek zdań - B. Russel, A. Whithead.
1920 Jan Łukasiewicz jest autorem tzw. Notacji Polskiej; Odwrotna Notacja Polska (ONP).
1923 Słowo "robot" pojawia się w książce Karola Capka, "R.U.R. - Uniwersalne Roboty Rossuma"
1924 Z przekształcenia działającej od 1911 roku firmy "Computer Tabulating Company" powstaje IBM, International Business Machines
1926 Almanach nautyczny i obliczenia astronomiczne: w 1714 roku z powodu błędów w nawigacji nastąpiła katastrofa floty brytyjskiej. Ustanowiono nagrodę 20.000 funtów za sposób określania położenia na morzu. Część nagrody dostali Tobias Mayer i Leonard Euler, opracowali tablice położenia księżyca, potem Królewskie Obserwatorium wydało Almanach Nautyczny.
Leslie Comrie - z powodu działań wojennych wzrosło zapotrzebowanie na dokładne określanie położenia, zmechanizowanie obliczeń Almanachu, od 1926 roku
Pierwsze centra obliczeń astronomicznych.
1928 Vladimir Zworkin, rosyjski imigrant w USA, wynalazł kineskop
1931 Budowa arytmometru ósemkowego.

1931 Vannebar Bush zaprojektował pierwszy komputer analogowy, nazwany analizatorem różnicowym. Zmiany wartości zmiennych w równaniach matematycznych były przedstawiane jako wahania napięcia prądu, tak iż operacje algebraiczne były przetwarzane na zmiany napięć w układach elektrycznych.

1933 w Anglii Douglas Hartree wraz z Arturem Potterem zbudowali, z elementów wartych zaledwie dwadzieścia funtów szterlingów, komputer analogowy. Potrafił on rozwiązywać równania z określoną i wielką dokładnością. Hartree jako pierwszy uczony wykorzystał swoje urządzenie do wykonywania obliczeń z dziedziny atomistyki.

Pod koniec lat lat 30-tych Claude E. Shannon doszedł do wniosku, że algebra Boole'a jest idealnym systemem dla maszyn liczących. Jego główne tezy pokazywały w jaki sposób boolowska koncepcja PRAWDY i FAŁSZU może być zastosowana do opisania funkcji przełączających realizowanych przez układy elektroniczne.
Prace nad maszynami do szybkich obliczeń, które funkcjonowały według systemu zerojedynkowej algebry Boole'a, a w wymiarze mechanicznym złożone były z przełączników elektromagnetycznych, rozpoczęto tuż przed II wojną światową. W 1937 roku Claude Shannon oraz George Stibitz pracując oddzielnie, skonstruowali elektryczne obwody przełączające według zasad Boole'a.

1937 Pierwszy kalkulator działający w systemie dwójkowym George Stibitz, Bell Laboratories
1939 Powstaje Hewlett-Packard
1940 Stibitz w Bell Labs demonstruje bardziej złożony Complex Number Calculator i używa go zdalnie przy pomocy teleksu na odległość kilkuset kilometrów

Ze względu na używane techniki komputery elektroniczne dzieli się na cztery generacje

  1. Zerowa generacja: komputery na przekaźnikach; przekaźniki elektromechaniczne oraz analogowe układy elektryczne
  2. (1937-1953) Lampy próżniowe, karty perforowane (jako podstawowa - nieulotna - pamięć masowa), kod maszynowy komputery na lampach radiowych
  3. (1953-1963) Tranzystory, pamięć rdzeniowa, asembler, komputery na tranzystorach,
  4. (1963-1972) Układy scalone, języki wysokopoziomowe układy scalone,
  5. (1972-) Mikroprocesor Czwarta generacja: układy scalone VLSI

Pierwsza generacja

Konrad Zuse

Niemiecki inżynier Konrad Zuse swoją pierwszą maszynę - V1 - skonstruował w 1938 w domu swoich rodziców. Był to elektrycznie napędzany mechaniczny kalkulator z elementami programowania. Tak samo jak wszystkie późniejsze jego konstrukcje działał w systemie dwójkowym. Nigdy nie osiągnął pełnej sprawności i został zniszczony w czasie wojny.
Rok później Zuse został powołany do Wehrmachtu, zdołał jednak przekonać armię do konstrukcji maszyn liczących i już w 1940 gotowa była V2, używająca przełączników telefonicznych. Nowatorskie było użycie logicznych poziomów napięcia (on i off) w połączeniu z systemem dwójkowym.
Jednak do historii przeszła głownie V3 - pierwsza w pełni działająca programowalna maszyna licząca (pierwszy programowalny komputer na przekaźnikach). Była używana do projektowania geometri skrzydeł samolotów. Powstała w 1941, wtedy też Zuse zakłada własną firmę: Zuse Apparatebau.
Swoje urządzenia pierwotnie nazywał V1, V2, V3 (Versuchsmodell - model eksperymentalny) ale dla uniknięcia pomyłki z pociskami von Brauna zmienił je na Z1, Z2 i Z3 i właśnie te nazwy są obecnie powszechnie używane.
W latach 1941-45 opracował również język programowania wysokiego poziomu - Plankalkül. Niestety opublikował informacje o nim dopiero w 1972, więc Plankalkül ani nie doczekał się żadnej implementacji, ani nie wpłynął na inne języki programowania.
Ostatnią budowaną w czasie wojny maszyną była Z4, nie została wówczas dokończona. Po wojnie w 1964 założył pierwsze na świecie przedsiębiorstwo komputerowe: Zuse-Ingenieurbüro Hopferau. W 1949 założył inną firmę Zuse KG, skompletował częsciowo zachowany Z4 i uruchomił w ETH Zurich (Eidgenössische Technische Hochschule). Był tam używany do obliczeń naukowych.
Do 1967 Zuse KG zbudował 251 komputerów (przekaźnikowy Z11, lampowy Z22 i tranzystorowy Z23), wtedy w wyniku problemów finansowych został sprzedany Siemensowi.
W 1958 Konrad Zuse zaprojektował ploter. Jest również autorem pomysłu, że wszechświat jako taki jest zespołem danych przetwarzanych w pewnego rodzaju sieci komputerowej. Jakkolwiek nie brzmiałoby to dziwnie brak jest dowodów świadczących przeciwko tej teorii.

Max Newman - Colossus; Alan Turing

W czasie wojny Brytyjczycy znali tajemnicę Enigmy i umieli czytać niemieckie szyfrogramy przy użyciu różnych technik kryptograficznych, w tym także urządzeń elektromechanicznych zwanych "bombami" (nazwę tą wprowadził w użycie polski kryptolog Marian Rejewski), ale już w 1941 zorientowali się, że cześć komunikacji szyfrowana jest inną metodą.
Zarówno samą maszynę jak i szyfrogramy określili kodową nazwą "Tummy". W rzeczywistości maszyna nazywała się Lorenz SZ 40 (a jej późniejsza wersja: Lorenz SZ 42; SZ to skrót od Schlüsselzusatz) i była używana do szyfrowania komunikacji na wysokim szczeblu.
W celu kryptoanalizy Max Newman zainspirowany pracami Alana Turinga zaprojektował pierwszy w pełni elektroniczny (używał lamp próżniowych, tyratronów i fotopowielaczy) komputer Colossus Mark I. Projekt został wykonany przez ekipę inżynierów pod kierownictwem Tommy'ego Flowersa (Post Office Research Station) w Dollis Hill i potem dostarczony do Bletchley Park. Maszyna zaczęła pracę w lutym 1942, a już w czerwcu powstała udoskonalona wersja Colossus MK II. Ogółem zbudowano dziesięć egzemplarzy.
Po wojnie na osobisty rozkaz Churchilla komputery łącznie z dokumentacją zniszczono (miał nie ocaleć żaden fragment większy od pięści) a wszyscy, którzy o nich wiedzieli zostali zobowiązani przysięgą do utrzymania dożywotniej tajemnicy. Przetrwały tylko dwa egzemplarze używane w czasach Zimnej Wojny aż do ich zniszczenia w 1960.
Od strony teoretycznej podstawą do konstrukcji tego komputera były koncepcje Alana Turinga, który juz w 1936 opisywał hipotetyczne urządzenie dokonujące operacji logicznych na nieskończonej długości tasmie papierowej, znane później jako "maszyna Turinga".
Colossus był bardzo szybką, wyspecjalizowaną maszyną kryptologiczną, używał czytnika optycznego do zczytywania danych z perforowanych taśm, co pozwalało na bardzo szybkie wprowadzanie danych alfanumerycznych (a więc nie tylko cyfr). Wszystkie egzemplarze tej maszyny były trzymane w baraku nazywanym "Blok H", który istnieje do dzisiaj, może on być nazywany pierwszym centrum komputerowym - obecnie jest tam muzeum, w którym znajdują się rekonstrukcje tych maszyn.
Niestety ze względu na konieczność zachowania tajemnicy bardzo długo wkład zarówno Turinga jak i Newmana nie był uwzględniany w historii komputerów. Istnienie maszyn Colossus ujawniono dopiero pod koniec lat 70-tych.

Inną wyspecjalizowaną maszynę liczącą był Heath Robinson z 1943 roku. W przeciwieństwie do kalkulatorów ogólnego zastosowania służył wyłącznie do łamania szyfrów. Specjalny czytnik optyczny pozwalał temu urządzeniu odczytywać 2000 znaków na sekundę.

1950 ACE - uniwersalny komputer, zbudowany przy udziale Turinga

John V. Atanasoff - ABC (Atansoff-Berry Computer)

John V. Atanasoff profesor matematyki w Iowa State College w Ames potrzebował maszyny liczącej, której mogliby używać jego doktoranci, ale żadne z dostępnych wówczas urządzeń mechanicznych nie spełniało wymagań. Wiedział, że rozwiązaniem będzie cyfrowa maszyna oparta na elektronicznych podzespołach. Niestety nie mógł pokonać problemów konstrukcyjnych.
Zimą 1937-38 przygnębiony brakiem powodzenia swojego projektu przejechał przez Mississipi do Illinois i zatrzymał się na drinka w małej, przydrożnej tawernie. Tam, w chwili rozluźnienia w jego umyśle pojawiła się idea pamięci komputerowej i powiązanych z nią układów logicznych. Tej nocy powstały podstawowe koncepcje komputera elektronicznego, które później po powrocie do labolatorium zrealizował wspólnie ze swoim współpracownikiem Cliffordem Berrym. Konstrukcję nazwali ABC (Atansoff-Berry Computer). Była to pierwsza elektroniczna maszyna obliczeniowa.
W 1939 powstał mały prototyp: używał 300 lamp próżniowych do przeprowadzania obliczeń, kondensatorów do przechowywania danych cyfrowych i kart perforowanych do komunikacji wejście-wyjście.
Próba zbudowania pełnego ABC została przerwana przez wybuch wojny.
Jednak maszyna nie była programowalna i z powodu wąskiej specjalizacji (równania różniczkowe) można ją określić jako elektroniczny kalkulator.

Howard Aiken - Harvard Mk I

W przeciwieństwie do ABC i Colossusa Harvard Mk I (znany też jako IBM ASCC - Automatic Sequence Controlled Calculator - IBM ASCC) był komputerem ogólnego przeznaczenia. Został zaprojektowany przez Howarda Aikena w IBM dla Uniwersytetu Harvarda.
Na pomysł konstrukcji elektronicznego kalkulatora Aiken wpadł w 1937, wtedy też rozpoczęły się rozmowy z Uniwersytetem Harvarda i IBM. W 1938 po serii rozmów i negocjacji koncepcja zostaje znacznie rozbudowana, następny rok to ukończenie projektu i podpisanie umowy. W 1943 maszyna wykonuje pierwsze obliczenia, rok później jest już na miejscu i pracuje.
Harvard Mk I składał się z przekaźników elektromechanicznych, które działały jako przełoczniki dwustanowe i przełączników oraz elementów mechanicznych (np. wały), było to 750 tysięcy elementów, był 15 metrów długi i 2.4 wysoki, ważył prawie 5 ton. Nośnikiem danych była perforowana taśma papierowa. Brak pamięci, programowanie przez zmianę połączeń kabli. Potrafił on mnożyć dwie 23-cyfrowe liczby w czasie pięciu sekund. Działał szybko, ale elektromagnetyczny układ przerzutników o dużej bezwładności nie zezwalał na naprawdę szybkie liczenie.
Mark I jest często spotykaną nazwą w tym etapie historii komputerów, ale samo określenie Mark I bez podania nazwy uniwersytetu lub miasta (jak np. Manchester Mark I) oznacza Harvard Mk I.
Jego najsłynniejszym operatorem/programistą była Grace Hopper, który wprowadziła pojęcie computer bug - w 1947 ćma utknęła pomiędzy kontaktami przekaźnika Harvard Mark II uniemożliwiając pracę.

Jednak żadna z powyższych maszyn nie stała się symbolem pierwszego komputera.

John W. Mauchly i John P. Eckert - ENIAC, EDVAC, UNIVAC; John von Neumann

W celu doskonalenia skuteczności artylerii USArmy potrzebowało tzw. tablic balistycznych, czyli dokładnych wyliczeń toru pocisku w zależności od wielu czynników (kąt uniesienia lufy, rodzaj amunicji, warunki meteorologiczne itd.). Opracowaniem tych tablic zajmowało się Laboratorium Badań Balistycznych (Ballistic Research Laboratory - BRL) w Aberdeen (Maryland). Niestety zajmowało to zbyt wiele czasu i wojsko było bardzo zainteresowane przyspieszeniem tych prac.
Wprawdzie już w 1935 zainstalowano tam Analizator Różnicowy Busha (Bush Differential Analyzer) wynaleziony w 1925 przez Dr. Vannevara Busha z Massachusetts Institute of Technology, ale miał on dwie wady: wymagał czasochłonnego "przeprogramowywania" polegającego na ręcznej manipulacji wieloma częsciami oraz często psuł się nieraz tuż przed ukończeniem obliczenia.
Na kursie przygotowującym specjalistów dla armii spotkali się doktor fizyki John W. Mauchly i inżynier elektronik John P. Eckert. Pierwszy był teoretykiem, który już w 1940 rozważał zastosowanie elektroniki do budowy maszyn liczących, drugi był typem utalentowanego wynalazcy. Zaprzyjaźnili się i w wolnym czasie zaprojektowali elektroniczną maszynę liczącą.
Konspekt projektu w formie oficjalnego memorandum przekazali urzędnikowi stanowemu odpowiedzialnemu za kontakty Uniwersytetu Pensylwanii z rządem USA niejakiemu J. G. Brainerdowi (nazwisko dość ironiczne w tym kontekście), który w ogole nic z tego nie zrozumiał i dokument na zawsze odłożył do szuflady. Po 20 latach memorandum to odnaleziono nietknięte.
W marcu 1943 Dr H. H. Goldstine pracujący w BRL w czasie rutynowej kontroli ośrodka obliczeniowego Uniwersytetu Pensylwanii w prywatnej rozmowie zupełnym przypadkiem dowiedział się o tym memorandum. Już 5 czerwca podpisano rozpoczęcie ściśle tajnego projektu "PX". 1 lipca ropoczęto prace nad komputerem o nazwie ENIAC (Electronic Numerical Integrator And Computer) z budżetem 150 tysięcy dolarów (ostatecznie kosztował prawie pół miliona).
Zbudowany na zlecenie Departamentu Balistyki Ministerstwa Obrony Stanów Zjednoczonych. Lutowanie 500 tysięcy połączeń potrzebnych dla 18 tysięcy lamp elektronowych zajęło dwa i pół roku.
ENIAC pierwsze obliczenia przeprowadził w listopadzie 1945 a w czerwcu 1946 przekazano go armii, która uruchamiała go aż do 29 lipca 1947 roku. W 1948 przekonstruowano go według wskazówek Johna von Neumanna (początkowo był programowany przez przełączanie wtyków kablowych, potem wprowadzono karty perforowane). Pracę zakończył 2 października 1955.
Wprawdzie nie wziął udziału w wojnie ale jego praca bardzo się armii przydała: obliczał tablice balistyczne, był używany w pracach nad bombą wodorową, prognozowaniem pogody, projektowaniem tuneli aerodynamicznych, badaniem promieniowania kosmicznego; wykorzystywany także do badania liczb losowych i analizowania błędów zaokrągleń. Także obliczył pi z dokładnością do tysiąca cyfr po przecinku.

ENIAC był gigantyczny: 17.5 tysiąca lamp próżniowych (w 16 rodzajach), 7200 diod krystalicznych, 1500 przekaźników, 70 000 oporników, 10 000 kondensatorów, 1500 ręcznych przełączników. Jego wentylację napędzały dwa silniki Chryslera - każdy o mocy 34 KM. Ważył 27 ton i miał wymiary 30 x 2.4 x 0.9 m, zajmował 167 m2. Zużywał 160 kW mocy. W całej Filadelfii przygasały swiatła kiedy go uruchamiano.
Zajmował kilkadziesiąt pomalowanych na czarno szaf z blachy stalowej. Każda miała regulowany nawilżacz powietrza - termostat zatrzymywał pracę jeśli temperatura przekraczała 48 stopni C. Czterdzieści dwie takie szafy, każda o szerokości 0.6 metra ustawione w prostokącie 12 na 6 metrów w kształcie litery U przedstawiały imponujacy wygląd.
Ze względu na stopień komplikacji wielu ludzi uważało, że maszyna nigdy nie osiągnie zdolności operacyjnej, bo praca wciąż bedzie przerywana koniecznością wymiany lamp. I istotnie był to największy problem aż do 1948, kiedy pojawiły się lampy o podwyższonej niezawodności - do tego czasu kilka lamp dziennie się przepalało najczęsciej w czasie włączania/wyłączania, co powodowało utratę połowy czasu pracy. Ze względu na zużycie energii dosć kosztownym rozwiązaniem było niewyłączanie maszyny w ogóle.
Początkowo czas pracy nie przekraczał z reguły kwadransa. Awarie lamp sprawiały, że więcej czasu był naprawiany, niż wykorzystywany do pracy.
Praca komputera była synchronizowana zegarem o częstotliwości 100 kHz, ale uruchomienie programu trwało kilka dni.
J.P.Eckert i John Mauchly zaprezentowali go 14 lutego 1946 roku. Specjalnie zamontowano panel z mrugającymi lampkami, by pokazać, jak szybko urządzenie działa. Pomimo tego, że tak naprawdę ten panel niczemu nie służył od tamtego czasu w każdym filmie komputery migały światełkami.
EANIAC mógł liczyć tysiąc razy szybciej niż jakiekolwiek wcześniejsze urządzenie, dokonując 5000 działań dodawania i odejmowania, 350 mnożenia lub 50 dzielenia na sekundę.

Jak widać o miano pierwszego komputera może ubiegać się kilka maszyn.
Wprawdzie już w 1941 Z3 Konrada Zuse był w pełni programowalnym (przy pomocy perforowanych taśm filmowych) komputerem, używającym wyłącznie systemu dwójkowego. Ale nie był w pełni elektroniczny - używał przekaźników telefonicznych.
Dla porównania brytyjski Colossus był w całości elektroniczny, ale był wąsko specjalizowany i zaprogramowanie go było bardzo skomplikowane.
ENIAC był komputerem ogólnego przeznaczenia, w całości elektronicznym, używającym jeszcze systemu dziesiętnego, a jego zaprogramowanie aż do zmian konstrukcyjnych w 1948 było koszmarem.
Są jednak przynajmniej dwa powody dla których zasługuje na miano pierwszego komputera:

  • Był pierwszą tego typu maszyną zaprezentowaną opinii publicznej (1946).
  • Jednak ważniejsze było co innego: to właśnie ENIAC - jego konstrukcja i doświadczenie zdobyte podczas budowy - dał początek całej serii komputerów pierwszej generacji - olbrzymich maszyn, które zapoczątkowały historię komputerów cyfrowych.

1943 roku prezes koncernu IBM Thomas Watson odrzucił propozycję wejścia na rynek elektronicznych maszyn liczących, gdyż - jak stwierdził - "na świecie jest zapotrzebowanie na nie więcej niż pięć komputerów". W 1947 roku Howard Aiken, jeden z twórców zbudowanego trzy lata wcześniej roku komputera ASCC Mark I, skorygował te szacunki, przepowiadając, że w całych USA potrzebnych będzie aż sześć takich maszyn.

Już w 1944 Mauchly i Eckert wspólnie z Johnem von Neumannem zaczęli pracować nad koncepcją znacznie udoskonalonego komputera - znaną później jako tzw. "maszyna von Neumanna" - który potrafi przechowywać program, a nie tylko - jak robiły to dotychczasowe - przetwarzać go na bieżąco.
Realizacją ich idei był EDVAC (Electronic Discrete Variable Automatic Computer). Był to w całości elektroniczny, używający systemu dwójkowego, łatwy w programowaniu i posiadający pamięć na przechowywanie programu komputer.
Podobnie jak ENIAC został zbudowany na Uniwersytecie Pensylwanii dla potrzeb BRL. Umowę podpisano w 1946. Pracował w latach 1952-1962. W 1953 dodano pamięć zewnętrzną w postaci bębna magnetycznego.
Był mniejszy od poprzednika, ale technicznie znacznie doskonalszy: posiadał pamięć operacyjną z rtęciową rurą opóźniającą na 1000 słów oraz wejście/wyjście z zastosowaniem taśmy perforowanej i kart dziurkowanych, a do kontroli sterowania zastosowano zwykły oscyloskop.
Zajmował 45 m2, zawierał 6 tysięcy lamp próżniowych i 12 tysięcy diod, zużywał 56 kW mocy.

1946 Rozpoczęto pracę nad komputerem działającym w czasie rzeczywistym o nazwie Binac (Binary Automatic Computer), który ukończono w 1949 roku.
W czerwcu 1946 roku twórcy ENIAC-a zostali wykładowcami na pierwszym kursie informatyki.

1947 Powstaje tranzystor ostrzowy, wynalazcami są J. Bardeen, W.H. Brattain i W. Shockley. Aiken kończy Mark II Computer

1948 - W oparciu o idee von Neumanna powstaje EDSAC (Electronic Delay Storage Automatic Computer), pod kierownictwem Maurice Wilkesa w Cambridge w Anglii. Powstał na bazie założeń projektowych EDVAC-a na Cambridge University. Uruchomiony w maju 1949 pracował aż do lat 60-tych. Służył potrzebom naukowym uniwersytetu.
Osiągnął prędkość 500 kHz, a w dwa lata później EDVAC (4 tysiące lamp, 10 tysięcy diod) pracuje już z prędkością 1 MHz.

1948 - IBM 604 jest pierwszym komercyjnie sprzedawanym kalkulatorem elektronicznym.
IBM buduje lampowy komputer SSEC (Selective Sequence Electronic Calculator).

CSIRAC (Council for Scientific and Industrial Research Automatic Computer znany także jako CSIR Mk I) Pracował od 1949 do 1961 kiedy został przekazany do muzeum (jest najstarszym komputerem cyfrowym istniejącym do dziś w całości).
Prace nad nim rozpoczęły się w 1947 pod przewodnictwem Mastona Bearda i Trevora Pearcey'a w Radiophysics Laboratory of the Council for Scientific and Industrial Research (Sydney).

1949:
EDVAC (Electronic Discrete Variable Automatic Computer), komputer uniwersalny oparty o pomysł von Neumanna, współpracuje z pierwszymi dyskami magnetycznymi;
W. Shockley wynalazł tranzystor warstwowy J. Forrester wynalazł pamięć ferrytową stosowaną w komputerach do lat 70-tych.
Claude Shannon publikuje podstawy teorii informacji i buduje komputer szachowy.
McCulloch i Pitts, model sieci nerwowej jako układu logicznego
Norbert Wiener: "Cybernetyka, czyli sterowanie i komunikacja w zwierzęciu i maszynie".

1949 "Popular Mechanics": "komputery przyszłości mogą ważyć nawet mniej niż półtorej tony".

1950:
Uniwersalny komputer ACE zbudowany według projektu A. Turinga.
Maurice Wilkes wprowadza język programowania (asembler) dla komputera EDSAC.

Równolegle w Manchester University zbudowano Manchester SSEM (Small-Scale Experimental Machine nazwany również Baby), który później rozbudowano do Manchester Mark I.

LEO I (Lyons Electronic Office I) to wzorowany na EDSAC komputer zbudowany w J. Lyons & Co. Ltd w 1951. Był pierwszym komputerem służącym do obliczeń komercyjnych, od 1956 udostępniano jego moc obliczeniową na zasadzie outsourcingu. Już w 1954 podjęto decyzję o budowie następnego, udoskonalonego LEO II. W wyniku zainteresowania rynku Lyons utworzył LEO Computers Ltd. przejęte później przez English Electric, które zbudowało LEO III oraz LEO 326. Niektóre z nich były w użytku jeszcze w 1980 roku.

Mauchly i Eckert założyli EMCC (Eckert-Mauchly Computer Corporation), które w 1950 zostało kupione przez Remington Rand (utworzoną w 1927 - obecnie część Unisys).
W Remington Rand już w 1949 zaprojektowano pierwszy komputer komercyjny - Remington Rand 409, który wszedł na rynek w dwóch wersjach: UNIVAC 60 (1952) i UNIVAC 120 (1953) . Po wykupieniu EMCC wprowadzili od 1951 na rynek całą serię komputerów UNIVAC (UNIVersal Automatic Computer) były to pierwsze komercyjne komputery w USA.
1951 UNIVAC, pierwszy komercyjnie sprzedawany komputer (Mauchly i Eckert), używał taśm magnetycznych, zainstalowano go w Biurze Spisu Powszechnego w USA; Najsłynniejszym z nich był UNIVAC I, pierwszy komputer zaprojektowany od początku jako komercyjny produkt, ogółem zbudowano ich 46.

1952:
IBM Model 701, pierwszy komercyjnie sprzedawany (od 1953 roku) komputer IBM, przewiduje zwycięstwo Eisenhowera w wyborach prezydenckich. Ponieważ wykonał to zadanie lepiej niż wszyscy eksperci, przyczynił się do popularyzacji określenia "mózg elektronowy".
Grace Hooper opracowuje pierwszy kompilator.
W Niemczech powstaje Nixdorf Computer.

1953:
Burroughs Corp. instaluje swój komputer UDEC na uniwersytecie.
IBM wprowadza taśmy magnetyczne jako standardowe nośniki pamięci.

1954:
IBM 704, pierwszy komputer z systemem operacyjnym;
powstaje FORTRAN, jeden z pierwszych języków programowania wysokiego rzędu.

Druga generacja

Prawdziwy przełom nastąpił, gdy wykorzystano tranzystor bipolarny - wynaleziony już w 1947 roku przez trzej naukowców z Bell Telephone Laboratories. Był znacznie mniejszym i bardziej niezawodnym przełącznikiem niż lampy próżniowe. Umożliwiło to powstanie komputerów drugiej generacji, które dominowały w latach 50-tych i na początku lat 60-tych. Za to osiągnięcie John Bardeen, William Shockley i Walter Brattain zostali uhonorowani w 1956 roku Nagrodą Nobla w dziedzinie fizyki.
Pomimo zastosowania tranzystorów te komputery nadal były bardzo duże i drogie, używane głównie przez uniwersytety i instytucje rządowe

W komputerach pierwszej generacji stosowano rtęciową rurę opóźniającą - gdzie dane były przechowywane jak fala akustyczna przechodząca przez ośrodek i można było uzyskać do nich dostęp dopiero kiedy przeszły przez interfejs I/O.
W komputerach następnej generacji używano pamięci rdzeniowych - każda komórka pamięci składała się z toroidalnych ferrytowych (tlenek żelaza o właściwościach magnetycznych) elementów, które mógły być namagnetyzowane i w ten sposób przez swój stan zachowywać dane.
Pozostały magnetyzm (histereza magnetyczna; ang. hysteresis Hysteresis in magnetic materials) tej pamięci rdzeniowej oznaczał, że była to pamięć nieulotna. Praca mogła być kontynuowana natychmiast z miejsca gdzie została przerwana kiedy wyłączono prąd. Jeszcze ważniejsze było to, że rdzenie magnetyczne umożliwiały dostęp do danych w dowolnym porządku.
Ale pamięci rdzeniowe również były drogie i zajmowały dużo miejsca.

Pierwszymi maszynami zbudowanymi w tej technologii były: TRADIC (Bell Laboratories; 1954) i TX-0 (MIT - Lincoln Laboratory; 1956).
Ważną innowacją był rejestr indeksowy do kontrolowania pętli i jednostki zmiennoprzecinkowe dla obliczeń na liczbach rzeczywistych, co znacznie ułatwiło uzyskiwanie dostępu do kolejnych elementów w tablicy. W przeciwieństwie do pierwszej generacji operacje zmiennoprzecinkowe przeprowadzane były sprzętowo
TX-0 (Transistorized Experimental computer zero)

Ważnymi komercyjnymi maszynami tych czasów były IBM 704 i ich następcy 709 i 7094. Ten ostatni wprowadził procesor I/O mający zwiększyć przepustowość pomiędzy urządzeniami I/O i pamięcia główną.

Wtedy też dla celów naukowych powstały dwa pierwsze superkomputery. Generalnie termin "superkomputer" jest zarezerwowany dla maszyn, które są o rząd wielkości potężniejsze od innych maszyn swoich czasów. W latach 50-tych dwie maszyny zasługiwały na to miano: LARC (Livermore Atomic Research Computer) i IBM 7030 (akaStretch), były to wczesne przykłady maszyn, które dzieliły pamięć pomiędzy dane a operacje procesora i stosowały prymitywne formy przetwarzania równoległego.
Powstały tylko dwa komputery LARC: jeden w Lawrence Radiation Labs in Livermore, California (stąd nazwa) a drugi w U.S. Navy Research and Development Center in Washington, D.C.

Język maszynowy został zastąpiony przez asembler, dzięki czemu skrócony kod programowania mógł zamienić długi trudny kod binarny.

IBM po swojej pierwszej maszynie (SSEC) opracował w 1952 komercyjny komputer 701. Sprzedał 19 sztuk, co spowodowało pozew sądowy oskarżający go o monopolizację rynku i w 1956 roku został uznany winnym stawianych zarzutów.
Mimo tego w 1965 opracował S/360 i zdominował rynek na następne 25 lat.

W 1956 roku zespół naukowców z IBM pod kierownictwem Reynolda B. Johnsona skonstruował 305 RAMAC - pierwszy dysk twardy. Mieścił on na pięciu 24-calowych talerzach łącznie 5 MB danych i kosztował około 50 tysięcy dolarów ($10K/1MB - obecnie ten wskaźnik wynosi poniżej pół centa).

1956 Pierwsza konferencja na temat sztucznej inteligencji.

Powstały języki programowania wysokiego poziomu: FORTRAN (1956), ALGOL (1958), and COBOL, język programowania dla potrzeb biznesu; (1959).

1957:
Powstaje DEC, Digital Equipment Corporation i CDC, Control Data Corporation;
IBM wprowadza tranzystorowy kalkulator IBM 608;
powstaje wydział sztucznej inteligencji na MIT;

1958:
Atlas, angielski komputer zbudowany na Uniwersytecie Manchesteru, wyposażony został w pamięć wirtualną;
powstaje druga generacja komputerów: CDC 1604, konstrukcji Seymura Craya, w pełni na tranzystorach;
japońska firma NEC buduje pierwsze komputery;
F. Rosenblatt buduje perceptron (jedną z pierwszych sieci neuronowych)

1959 Jack Kilby z Texas Instruments (nagroda Nobla z fizyki, 2000) oraz Robert Noyce z Fairchild Semiconductors - pierwsze obwody scalone;

Początkowo programy pisano nie tylko dla pojedynczego odbiorcy, ale nawet dla konkretnego komputera. Pierwsze pudełko z programem - a więc produkt mający charakter artykułu masowego - sprzedał już w 1959 roku Computer Science Corporation.

1960:
Minikomputer DEC PDP-1 opracowany przez B. Curleya, z klawiaturą i monitorem;
wprowadzono CDC 1604, komercyjny komputer firmy CDC dla obliczeń naukowych;

1961 Pierwsze wielozadaniowe systemy komputerowe, IBM 709 i Stretch, używające 8-bitowych jednostek - bajtów.

Trzecia generacja

W 1958 roku pracujący w Texas Instruments Jack St. Clair Kilby wynalazł układ scalony (IC integrated circuit) - półprzewopodnikowe urządzenie zawierające wiele tranzystorów wbudowanych w jeden fizyczny komponent. Pierwszy zbudowany przez niego układ miał pół cala długości i zawierał pięć elementów.
W 1959 roku dwie amerykańskie firmy, Fairchild Semiconductor oraz Texas Instruments zaczęły produkcję układów półprzewodnikowych z kilkoma tranzystorami na wspólnej podstawie krzemowej (tzw. chip). W 1961 roku produkcję układów scalonych podjęto na skalę przemysłową. Miały one jeszcze niewielki stopień integracji; pierwszy przemysłowo produkowany układ zawierał jedynie cztery tranzystory oraz dwa rezystory. Wkrótce tę ilość zwiększono 25 tysięcy razy. W komputerach zaczął być stosowany dopiero w 1963 i spowodował prawdziwą rewolucję.

Komputery trzeciej generacji miały już układy małej i średniej skali integracji, co pozwoliło znacznie zmniejszyć wielkość maszyn i pobór energii. O ile komputer pierwszej generacji ENIAC zajmował 140 m2powierzchni, to mikroprocesor komputera trzeciej generacji mieścił się w sześcianie o wymiarach 10x10x23 cm.

Przyniosło to wielki wzrost mocy obliczeniowej co pozwoliło komputerom "mainframe" takim jak IBM 360 zwiększyć pamięć i zdolności obliczeniowe. Z drugiej zastosowanie układów scalonych zmniejszyło koszty produkcji komputera - powstały minikomputery dostępne dla mniejszych przedsiębiorstw.
Układy scalone tego typu umożliwiły budowę bardzo małych jednostek obliczeniowych, czego wczesnym przykładem jest układ używany dla analizy danych lotu w myśliwcu USNavy F-14A "TomCat". Konstruktorami tego rozwiązania są Steve Geller, Ray Holt i zespół z AiResearch i American Microsystems.

Inne ważne osiągnięcia tamtego okresu to wprowadzenie pamięci półprzewodnikowych, mikroprogramowanie jako technika wydajnego projektowania złożonych procesorów, przetwarzanie potokowe i inne formy równoległego przetwarzania danych oraz wprowadzenie systemów operacyjnych i podziału czasu.
Pierwsze układy scalone bazowały na układach SSI (small-scale integration około 10 tranzysorów) i ewoluowały do MSI (medium-scale integrated około 100 tranzystorów), wprowadzono wielowarstwowe układy drukowane.

1962:
IBM sprzedaje napędy dysków magnetycznych pozwalających na wymianę nośnika;
zyski ze sprzedaży komputerów IBM przekraczają miliard dolarów.

1963:
PDP-5, pierwszy minikomputer;
powstają pierwsze graficzne terminale i pióra świetlne do projektowania graficznego.

Pierwszą w historii grę napisali w 1963 naukowcy zatrudnieni przez MIT do obsługi PDP-1, była toSpacewar! - z powodu wykorzystywania kosztownego sprzętu do zabaw zostali zwolnieni. Szybko przyjęto ich z powrotem, by zajęli się tworzeniem programów pracujących w czasie rzeczywistym.

Douglas C. Engelbart w 1963 opatentował myszkę (pierwszy egzemplarz był drewniany i używał rolek bez kulki), ale komutery były zbyt słabe by można jej używać.
W 1968 r. jako pracownik Stanford Research Institute, zaprezentował komputer wyposażony w klawiaturę, myszkę oraz okienkowy system operacyjny, a do tego dysponujący edytorem tekstu z funkcją hipertekstu i pozwalający docenić zalety zdalnej pracy grupowej.

1964 Seymour Cray opracowuje CDC-6000 i CDC-6600. Przez kilka lat był to najpotężniejszy komputer. Używał 60-bitowych słów i wykonywał kilka operacji jednocześnie, po raz pierwszy zastosowano efektywne przetwarzanie równoległe. Dzięki użyciu 10 oddzielnych funkcjonalnie jednostek, które mogły działać jednocześnie i 32 niezależnych banków pamięci, osiągnął moc obliczeniową 1 Megaflopa (jeden milion operacji zmiennoprzecinkowych na sekundę).
Pięć lat później powstał 7600, który może być uważany za pierwszy komputer wektorowy - 10 Mflopów.

Powstały w tym samym czasie IBM 360/91 był w przybliżeniu dwa razy szybszy od CDC 660, wprowadził przewidywanie poleceń, oddzielne jednostki zmiennoprzecinkowe oraz liczb całkowitych oraz strumień przetwarzania potokowego instrukcji.
IBM 360-195 był porównywalny z CDC 7600, był to efekt zastosowania bardzo szybkiego bufora pamięci.

IBM w 1964 opracował IBM OS/360 - pierwszy masowo produkowany system operacyjny. Znalazł on zastosowanie w setkach najpopularniejszych wówczas maszyn IBM S/360. A dzięki temu, że wszystkie komputery tego koncernu wyposażano w ten sam system operacyjny, mogły one korzystać z tego samego oprogramowania.

Inne przykłady komputerów używających przetrwarzania równoległego to SOLOMON (Westinghouse Corporation) i ILLIAC IV (wspólnie: Burroughs, Department of Defense i Uniwersytet Illinois).
TI-ASC (Texas Instrument Advanced Scientific Computer) i STAR-100 (CDC) były to potokowe procesory wektorowe, które udowadniały możliwości tego typu rozwiązań i ustanowiły standard dla późniejszych procesorów wektorowych.

Grudzień 1964 roku prawo Gordona Moore'a - późniejszego współzałożyciela koncernu Intel - "złożoność układów scalonych będzie się podwajać co półtora roku".

1964:
komputery trzeciej generacji na obwodach scalonych - rodzina IBM 360 (pierwsze komputery tej rodziny zaczęto sprzedawać w 1965 roku);
pierwsze tabliczki graficzne; Rand Corporation;
BASIC, prosty język komputerowy ogólnego użytku;

1965:
na Uniwersytecie w Pensylwanii obroniono pierwszy doktorat z informatyki;
Lotfi Zadeh (Berkley) - logika rozmyta (fuzzy logic), zamiast tak/nie wielostopniowe odpowiedzi "trochę tak, zdecydowanie tak", stopień przynależności;

W 1965 roku Digital Equipment dzięki PDP-8 stworzył nową kategorię - minikomputery. Użycie po raz pierwszy technologii obwodów scalonych pozwoliło na zbudowanie urządzenia tak małego, że można je było postawić na biurku. Był przy tym - jak na tamte czasy - tani ($18K - cena normalnych komputerów wynosiła wówczas od pół miliona do miliona dolarów).
1967 DEC PDP-10, kolejny udany minikomputer firmy DEC.

1966 Texas Instruments opracowuje pierwszy przenośny kalkulator na tranzystorach.

Od początku trzeciej generacji Cambridge i University of London współpracowały nad opracowaniem CPL (Combined Programming Language, 1963). CPL był według autorów próbą uzyskania wyłącznie ważnych właściwości skomplikowanego i zaawansowanego ALGOL-u, niestety miał również wiele wad, był skomplikowany i trudny do nauczenia się.
W celu uproszczenia go Martin Richards z Cambridge rozwinął podzbiór CPL nazwany BCPL (Basic Computer Programming Language, 1967). W 1970 Ken Thompson z Bell Labs rozwinął jeszcze jedną symplifikację CPL nazwaną po prostu B mającą zastosowanie we wczesnych implementacjach UNIX-a.
1970 powstał system operacyjny Unix (Bell Labs)

Nośnik, który mieścił się w neseserze, opracował w 1967 roku IBM. Była to stacja dyskietek. Cztery lata później korzystano już z 8-calowych, pokrytych tlenkiem żelaza krążków, a w 1971 roku dostępne były już nieomal współczesne nośniki o średnicy 5,25 cala.

1968 Powstał Intel (Integrated electronics), największy producent mikroprocesorów.

1969:
powstają pierwsze półprzewodnikowe pamięci RAM - kości 1 KB Intela - powoli wypierające pamięci ferrytowe;
zbudowano pierwszy 16-bitowy minikomputer (Data General Corporation);

1970:
popularny 16-bitowy minikomputer DEC PDP-11/20;
Intel wprowadza pamięci DRAM;
pokazano pierwsze dyskietki;
odbył się pierwszy turniej szachów komputerowych;

Czwarta generacja

Czwarta generacja komputerów rozwinęła się dzięki mikroprocesorom, które umożliwiały umieszczenie dużej mocy obliczeniowej w pojedynczym czipie. Łącznie z innym wynalazkiem Intela - RAM (kilobity pamięci na pojedynczym czipie), mikroprocesor pozwolił na konstruowanie jeszcze szybszych i jeszcze mniejszych komputerów.
4004 umożliwiał wykonanie 60K instrukcji na sekundę. Superkomputery tamtych czasów (Cray-1) osiągnęły 150 M operacji zmiennoprzecinkowych na sekundę.
Trend do zmniejszania trwał z wprowadzeniem minikomputerów takich jak DEC (Digital Equipment Corporation) PDP (Programmed Data Processor) którym udało się przenieść technologię komputerową do średniego biznesu.

Pomimo znacznego wzrostu mocy obliczeniowej od tamtego czasu technologia LSI oraz VLSI układów scalonych pozostała z grubsza taka sama, więc obecne komputery nadal należą do czwartej generacji.
LSI (Large Scale Integration 1000), czyli duża skala integracji (500 do 10k układów); VLSI (Very Large Scale Integration - 100 tysięcy), w tej skali cały procesor mieścił się na pojedynczym czipie.

W 1969 Gorden Moore i Bob Noyce (obecnie w Intel-u) znaleźli sposób na przechowywanie danych w półprzewodnikach kwarcowych.

Odkrycie układów scalonych umożliwiło w 1971 skonstruowanie mikroprocesora. Pod kierownictwem młodego inżyniera Teda Hoffa skonstruowano pierwszy układ wielkiej integracji - mikroprocesor. Zawierał układ 2300 tranzystorów, uzupełnionych przez trzy mikroukłady. Te cztery układy tworzyły system mikroprocesorowy o mocy obliczeniowej porównywalnej z możliwościami modelu ENIAC. Pracował z szybkością 104 kHz. Ten 4-bitowy mikroprocesor wykonany w technologii 10 mikronów.
15 listopada 1971 Intel zaczął sprzedawać pierwszy komercyjny mikroprocesor - 4004 (około 10K tranzystorów w pojedynczym czipie). Kosztował 200 dolarów
Rok później Intel prezentuje pierwszy 8-bitowy procesor - 200 kHz i8008.

Poprzednio układy scalone musiały być specjalnie projektowane stosownie do przeznaczenia, teraz jeden mikroprocesor mógł być programowany by sprostać dowolnym oczekiwaniom. Firmy takie jak IBM, ICL i Sperry Univac nadal dostarczały wielkie komputery "mainframe" dla zastosowań biznesowych, były to bardzo potężne maszyny do których dostęp uzyskiwało się za pomocą prostych terminali nie posiadających funkcji bezpośredniego przetwarzania (dumb terminals) lub VDU (Visual Display Unit).
Pojawiły się alternatywa dla drogich systemów "mainframe" z podziałem czasu - mikrokomputery i stacje robocze.

Pamięci półprzewodnikowe zastąpiły pamięci rdzeniowe jako pamięć główną.
Początkowo użycie pamięci półprzewodnikowej w większości systemów było ograniczone do rejestrów i buforu, w tym okresie szybkie komputery wektorowe takie jak CRAY-1, CRAY X-MP i CYBER 205 zdominowały sektor wysokiej wydajności.
Zaczęły powstawać komputery z bardzo dużą główną pamięcią takie jak CRAY-2. Pojawiała się różnorodność architektur równoległych, chociaż nadal przetwarzanie równoległe było rzeczą raczej eksperymentalną i większość obliczeń naukowych dokonywana była za pomocą procesorów wektorowych.

1971:
powstała czwarta generacja komputerów na LSI i VLSI - rodzina komputerów IBM 370;
do ładowania systemu operacyjnego w komputerach IBM zastosowano 8-calowe dyskietki;
opracowano pierwszy procesor tekstów (firma Wang);
powstał Pascal, jeden z najpopularniejszych języków programowania;

Dwie ważne rzeczy zdarzyły się we wczesnym etapie rozwoju trzeciej generacji: rozwój języka C i uniksowych systemów operacyjnych (Bell Labs).
W 1972 Dennis Ritchie szukając sposobu osiągnięcia celów projektowych CPL i generalizacji B Thompsona stworzył język C.
Potem Ritchie i Thompson użyli C do napisania wersji UNIX-a dla PDP-11. Ten oparty na C UNIX został szybko portowany na wiele różnych komputerów co uwalniło użytkowników od konieczności uczenia się nowego systemu operacyjnego za każdym razem kiedy zmieniają sprzęt.
Obecnie UNIX i jego pochodne są de facto standardem systemu operacyjnego.

1972:
Powstaje Cray Research, firma opracowująca pierwsze superkomputery;
zbudowano mikroprocesor 8-bitowy Intel 8008;
powstały pierwsze kalkulatory kieszonkowe firmy Hewlett-Packard;

1973:
Xerox opracowuje eksperymentalny komputer PC z kartą Ethernet, myszą i graficznym interfejsem użytkownika;
twarde dyski magnetyczne IBM 3340 "Winchester", podobne do używanych obecnie, wprowadzone przez IBM;
powstaje standard sieci komputerowych Ethernet;

1974:
popularne mikroprocesory Intel 8080 i Motorola 6800 pojawiają się w sprzedaży;
powstają pierwsze mikrokomputery do składania, Mark-8 i Altair 8800;
powstaje CP/M, pierwszy system operacyjny dla procesorów Intela;

W 1974 w Xerox PARC napisano program Bravo. Jego użytkownik widział na ekranie dokładnie to, co uzyskiwał na wydruku. Był to pierwszy tzw. WYSIWYG (What You See Is What You Get - Dostajesz To, Co Widzisz).

1975:
pierwszy klub użytkowników komputerów domowych i pierwszy sklep komputerowy powstaje w USA;
komputery Altair w sprzedaży;
powstają nowe bardzo tanie mikroprocesory firmy MOS Technology;

Przed 1985 zastosowane na wielką skalę przetwarzanie równoległe było obiektem wielu badań, ale dwa systemy wprowadziły to rozwiązanie na rynek.

Sequent Balance 8000 łączył do 20 procesorów z jednym współdzielonym modułem pamięci (ale każdy procesor miał swój oddzielny bufor). Został zaprojektowany by wspólzawodniczyć z DEC VAX-780 jako system uniksowy ogólnego przeznaczenia. Każdy procesor pracującował dla innego zadania użytkownika. Zapewnił bibliotekę podprogramów, która pozwoliła programistom na tworzenie programów używających wiele procesorów. Był szeroko stosowany do badania równoległych algorytmów i technik programistycznych.

Intel iPSC-1 (the hypercube) prezentował inne podejście - zamiast użycia jednego modułu pamięci połączył każdy procesor z jego pamięcią i użył sieciowego interfejsu do połączenia procesorów. Ta architektura dystrybucji pamięci oznaczała, że pamięć nigdy nie będzie wąskim gardłem i umożliwiła zbudowanie większych systemów (używających większej ilości procesorów). Największy iPCS-1 miał 128 procesorów.

Potem na rynek został wprowadzony trzeci rodzaj przetwarzania równoległego.
SIMD - kilka tysięcy bardzo prostych procesorów, wszystkie pracowały pod kierownictwem pojedynczej jednostki kontrolnej.

Do maszyn tej klasy wlicza się Connection Machine (Thinking Machines, Inc.) i MP-1 (MasPar, Inc.).

W dziedzinie sieci komputerowych zarówno bardzo szybko się rozwijały zarówno techniki LAN jak i WAN stymulując przejście od systemu tradycyjnych mainframów do rozproszonego środowiska przetwarzania gdzie każdy użytkownik miał własną stację roboczą przeznaczoną dla relatywnie prostych prac (edycja i kompilacja programów, czytanie maili) jednocześnie korzystając z współdzielonych zasobów takich jak serwery plików.
Z jednej strony wzrosło użycie sieci komputerowych z drugiej zwiększyło się użycie stacji roboczych pojedynczego użytkownika.

Technologia ULSI (Ultra-large scale integration miliony) jeszcze bardziej zmniejszyła rozmiar i cenę komputerów przy jednoczesnym wzroście mocy, wydajności i niezawodności. Te mikroprocesory pozwoliły na stworzenie mikrokomputerów - komputerów osobistych - tak małych i tanich, że mogli je mieć zwykli ludzie.
Razem z tymi komputerami pojawiło się oprogramowanie w formie przyjaznych dla użytkownika pakietów oprogramowania, które oferowały nie nastawionym technicznie klientom takie aplikacje jak procesory tekstu i arkusze kalkulacyjne.
Pionierami na tym polu we wczesnych latach 80-tych były Apple Computers, Commodore i Radio Schack (Tandy), gry wideo typu arcade jak Pac Man i domowe systemy gier wideo takie jak Atari 2600. To przyciągnęło uwagę opinii publicznej i utworzyło rynek dla bardziej zaawansowanych komputerów osobistych.

W 1970 roku naukowcy IBM przedstawili projekt relacyjnej bazy danych. Miała ona ułatwić przetwarzanie informacji przez osoby nie mające technicznego przygotowania do pracy z komputerem. Zamiast instruować komputer krok po kroku użytkownik po prostu wskazuje, co chce uzyskać.

Pierwsze komputery osobiste: MITS Altair 8800 wypuszczony w końcu 1974, ale zaraz potem pojawiły się Apple I i II, Commodore PET oraz Radio Shack (Tandy) i Atari 2600 no i oryginalny IBM PC w 1981.

1976 Seymur Cray buduje superkomputer wektorowy Cray-1;

Od 1964 System/390 (w skrócie S/390) był podstawowym produktem IBM, w latach 70-tych zastąpił go System/370 a później System/390 (w skrócie S/390). W grudniu 2001 IBM wprowadził na rynek serię Zseries (obecnie najnowszy to zSeries/z9 oficjalnie nazywany System z9).

Komputery osobiste

Lata 70-te

W 1971 roku Steve Wozniak oraz Bill Fernandez zbudowali komputer z części uznanych za odpady produkcyjne i nazwali go Cream Soda Computer.

1972 Nolan Bushnell założył Atari i rozpoczął sprzedaż Ponga - pierwszej komercyjnej gry wideo.

National Radio Institute zaoferował komputerowy zestaw do samodzielnego składania za 503 dolary.
Prawdopodobnie pierwszym mikrokomputerem był oparty na i8008 francuski Micral z 1973 roku. Dostarczany był od razu złożony w całość.

W 1974 grudniowy numer czasopisma Popular Electronics zachęcał do kupienia komputera MITS Altair 8800 (Micro Instrumentation Telemetry Systems).
Był to przeznaczony dla hobbystów zestaw do samodzielnego montażu (tzw. DiY czyli Do it Yourself). Używał 8-bitowego procesora Intel 8080A o częstotliwości 2MHz.
Zainteresowanie oceniano na najwyżej kilkaset sztuk, ale już pierwszego dnia sprzedano 200 egzemplarzy (ostatecznie ok 10 tysięcy w cenie $397).

Altair był iskrą, która padła na podatny grunt, wkrótce pojawiło się więcej podobnych ofert, w większości były to zestawy DiY.

1974 pierwsze popularne czasopismo o komputerach - "Creative Computing".

Pionierski sklep komputerowy - "The Computer Store" - otwarto w Los Angeles (1975). Sprzedawano tam Altaira całego lub w częściach, peryferia do niego i czasopisma, m.in. debiutujący również w tym roku słynny "Byte".

1975 - IBM 5100 pierwszy minikomputer produkcji IBM: jednostka centralna, klawiatura i monitor w zwartej obudowie, waga 25 kg. Dostępny był w 12 wersjach: kilkaset kilobajtów pamięci ROM i 16 do 64 KB RAM, pięciocalowy monitor pozwalajacy wyświetlić 64 znaki w 16 liniach (można było podłączyć zewnętrzny monitor), cena od 8 do 19 $K.
Posiadał emulator pozwalający na uruchamianie programów przeznaczonych dla dużo większych i droższych komputerów. Bardzo interesująca i mało znana konstrukcja, która w pewien sposób łączy duże mainframy z poprzednich dziesięcioleci ze współczesnym PC - wprowadzony w sierpniu 1981 IBM PC nosił pierwotnie nazwę IBM 5150 (chociaż jego architektura nie wywodziła się z IBM 5100).
Rolę pamięci masowej pełnił magnetofon kasetowy, na każdej kasecie można było przechowywać 200 KB danych.
W styczniu 1978 zapowiedziano następcę: IBM 5110, a w marcu 1982 wycofano go z rynku.

1976:
Gould i Perkin-Elmer wprowadzają superminikomputery;
iCOM sprzedaje napęd do 8-calowych dyskietek;
Shugart wprowadza napęd 5.25 cala.

W 1976 ZiLOG (założony przez pracowników Intela, którzy pracowali nad 8080) skonstruował procesor Z80, który był ulepszoną wersją Intel 8080. Ten procesor stał się podstawą dla konstrukcji wielu komputerów wczesnych lat 80-tych (najsłynniejsze to TRS-80 i ZX Spectrum).

W 1971 pracujący wówczas w Hewlett-Packard Steve Wozniak (21 lat) poznał Steva Jobbsa (16 lat) i pomagał mu robić gry dla Atari.
W 1975 zainteresowali się komputerami własnej konstrukcji i zrobili taki. W miejscowym sklepie komputerowym Jobs zdobył zamówienie na 50 sztuk w cenie $500.
Był to Apple I - bardzo prosty w konstrukcji (jednocześnie dość prymitywny jak i łatwy do złożenia) zestaw DiY, używający telewizora do wyświetlania danych, co było nowatorskim rozwiązaniem. Sprzedano w sumie 200 sztuk. By go złożyć niezbędne było zacięcie do majsterkowania, listewki, młotek i gwoździe.
1976 pierwszego kwietnia zakładają Apple Computer Company.
Dopiero ulepszona wersja - Apple II - zaprezentowana na West Coast Computer Faire w kwietniu 1977 zdobyła sławę i przeszła do historii jako pierwszy popularny komputer osobisty sprzedany w milionach sztuk.

1976 Altair 680 na procesorze Motorola 6800.

Ocalały z Auschwitz Jack Tramiel, amerykański przedsiębiorca założył firmę Commodore w 1954. Zajmował się naprawianiem maszyn do pisania. Ale konkurencja japońskich producentów zmusiła go do zmiany branży na kalkulatory mechaniczne (adding machines). Kiedy i tym razem zagroziła mu japońska konkurencja pojechał tam zobaczyć dlaczego są tak skuteczni i wrócił z ideą produkcji elektronicznych kalkulatorów, które właśnie wchodziły na rynek. Szybko odniósł sukces i w początkach lat 70-tych Commodore stał się znaną marką. Ale tym razem zagroził mu rodzimy producent. W 1975 Texas Instruments ważny producent części do kalkulatorów rozpoczął własną produkcję sprzedając swoje kalkulatory w cenie po jakiej wcześniej oferował części. Żeby utrzymać produkcję kupił kilka firm wytwarzających czipy, między innymi MOS Technology, Inc., którego główny projektant Chuck Peddle został szefem technicznym Commodore i szybko zmienił profil na produkcję komputerów osobistych.
Ich pierwszym produktem był Commodore PET produkowany od 1977 roku. Oparty o procesor 6502 (produkcji MOS) o taktowaniu 1 MHz, pierwsze wersje miały 4 do 32 KB RAM i 9-calowy monochromatyczny moniotor. Podobnie jak Apple II był sprzedawany w gotowym do uruchomienia zestawie (jednostka centralna, klawiatura i monitor). Ze względu na łatwość użytkowania dość popularny w sektorze edukacyjnym, ale uboga grafika i małe możliwości ograniczyły sprzedaż.

Już w 1972 roku pracujący w Xerox PARC Alan Kay zaproponował, że zbuduje Dynabook - przenośny komputer wielkości zwykłego notatnika ale Xerox nie był tym zainteresowany.
1975 "Project Mercury" IBM 5100 Portable Computer - rozmiar walizki i wbudowany 5-calowy wyświetlacz, ważył 30 kg, kosztował $9K; został okrzyknięty pierwszym komputerem przenośnym.
1980 roku Panasonic i Quasar zaprezentowały opracowany przez Matsushitę komputer ręczny - ważył 400 gramów, i miał 8-bitowy procesor 1 MHz.
1982 notebook Compaq.
1996 w marcu 3Com przedstawia dwa organizery: Pilot 1000 i Pilot 5000. W 1999 roku 70% używanych na świecie palmtopów to właśnie Palm Piloty.

1977 DEC VAX 11/780 pierwszy 32-bitowy supermini.

1977 Dan Bricklin rozpoczął prace nad arkuszem kalkulacyjnym VisiCalc, jeszczetego samego roku posiadacze Apple II mogli go kupić za 100 dolarów.
W tym samym roku firma MicroPro wysłała do sklepów edytor tekstu WordStar, makowcy korzystali z AppleWritera 1.0, a Wayne Ratliff opracował bazę danych Vulcan, którą później odkupiła firma Ashton-Tate i wprowadziła na rynek pod nazwą dBase II.

Radio Shack (Tandy) to sieć sklepów detalicznych ze sprzętem elektronicznym, która wprowadziła na rynek TRS-80 Model I, który miał konkurować z Commodore PET i Apple II.
Od sierpnia 1977 do stycznia 1981 sprzedano łącznie ćwierć miliona egzemplarzy Modelu I.

1976 Channel F - pierwszy programowalny (przez wtykane kartridże) domowy system gier wideo; $170.
Cinematronic w 1978 udostępnia automaty zręcznościowe z epizodem z "Gwiezdnych wojen".

W 1977 Atari wypuścił konsolę do gier wideo na kardridże, pierwsza wersja produkowana aż do 1982 znana jest dzisiaj jako Atari 2600.
Nie był to wprawdzie komputer ale zwrócił uwagę producentów na rynek gier komputerowych.

1978:
bardzo popularny 16-bitowy mikroprocesor Intel 8086;
Atari reklamuje komputery domowe Atari 400/800;
pierwsze drukarki mozaikowe;
Texas Instruments sprzedaje zabawki z syntezą głosu;
W USA jest już ponad pół miliona komputerów, powstaje pierwsza sieć informacyjna SPRINT i sieć amatorska BBS;

1979:
powstają sieci komputerowych usług informacyjnych CompuServe i The Source;
IBM wprowadza wierszową drukarkę laserową IBM 3800;
pierwsze telefony komórkowe.

Lata 80-te

"Większość gospodarstw domowych nigdy nie znajdzie zastosowania dla komputerów osobistych" - Ken Olsen w 1980 roku, założyciel i ówczesny szef Digital Equipment Corporation.

W 1980 pojawia się ZX80 produkcji Sinclair Research - był to na rynku brytyjskim pierwszy model komputera dostępnego w cenie poniżej 100 funtów. W następnym roku ZX81 za 70 funtów.
Ale najważniejszym modelem był ZX Spectrum, którego ostatnia wersja wypuszczona została w 1987.

1980:
Osborne I Personal Business Computers, przenośny komputer o wadze 12 kg na procesorach Z80;
Apollo buduje stacje robocze na procesorach Motoroli 68000;
Microsoft wprowadza system operacyjny Xenix OS (wersja Unixa) na komputery z procesorami Intela, Motoroli, Z80, oraz minikomputery PDP-11;
liczba komputerów w USA przekracza milion;
opracowany przez Philipsa i Sony standard CD-Audio;

1981:
rozpoczęła się era komputerów osobistych dzięki wprowadzeniu IBM PC na procesorach Intel 8088;
powstaje Silicon Graphics Incorporated;
powstaje standard modemów Hayesa do komunikacji lączami telefonicznymi;

W 1982 powstał najpopularniejszy komputer lat 80-tych Commodore 64. W ciągu 10 lat sprzedano około 20 milionów egzemplarzy. Sprzedawany początkowo za $596 oferował bardzo jak na tamte czasy i tą cenę możliwości multimedialne, kolorowy obraz i dobrej jakości dźwięk.
C64 i C64C były głównymi obiektami wojny cenowej pomiędzy producentami komputerów 8-bitowych, która doprowadziła do zniknięcia TI 99, Atari i wielu innych producentów oraz przez obniżanie cen doprowadziła również Commodore na krawędź bankructwa.

1982:
Cray XMP, wieloprocesorowy, wektory superkomputer;
powstaje Sun Microsystems i Compaq Computers;
Commodore wprowadza komputer domowy C64;
Toshiba pokazuje pierwszy komputer z ekranem LCD;
Epson demonstruje HX-20, komputer rozmiarów notebooka, z pełną klawiaturą, wbudowaną drukarką i ekranem LCD;
Sharp wprowadza notes-komputer PC-1500;
Compaq pokazuje przenośny komputer klasy IBM-PC;
Intel wprowadza mikroprocesor 80286;
Sony wprowadza dyskietki 3.5 cala;
Lotus demonstruje arkusz kalkulacyjny 1-2-3;
obroty Apple Computers przekraczają miliard dolarów;

W styczniu 1983 na rynku pojawia się Apple Lisa, produkt wyprzedzający swoją epokę. Niestety zbyt drogi ($10K) by osiągnąć sukces rynkowy. W kategoriach ekonomicznych Lisa była klęską, ale wyznaczyła drogę rozwoju dla komputerów osobistych (mysz i konsekwentny tryb graficzny).
Dopiero zaprezentowany legendarną reklamą Super Bowl (nawiązującą do "1984" Orwella) Apple Macintosh jest sukcesem. Rzuca wyzwanie IBM-owi oraz jego klonom i wprowadza system operacyjny z graficznym interfejsem użytkownika. To początek rewolucji.

1983:
superkomputery Cray 2 i NEC SX-2 osiągają szybkość miliarda operacji na sekundę;
IBM produkuje PC-XT z dyskietką, twardym dyskiem 10 MB i 128 KB RAM;
sprzedaż mikrokomputerów Commodore VIC-20 oraz Apple II przekracza milion sztuk;
jest już ponad 10 milionów komputerów w USA;
wstępna wersja Microsoft Windows nie robi większej kariery (wersja 1.0 z 1985 roku również);
powstaje język programowania C++ (Bjarne Stroustrup);

1984:
pojawia się Apple Macintosh i IBM AT, dwie linie komputerów kontynuowane przez wiele lat;
IBM wprowadza komputer przenośny i IBM Jr, obydwa niezbyt udane;
IBM wprowadza standard grafiki EGA;
Sony i Philips pokazują pierwszy CD-ROM;
Silicon Graphics sprzedaje graficzne stacje robocze;
Seiko prezentuje komputer w zegarku;

W styczniu 1984 Jack Tramiel odchodzi z Commodore i za niewielką cenę odkupuje od Warner Bros Atari.
Zarząd Commodore wykonuje ruch uprzedający i odkupuje od byłych pracowników Atari obiecujący 16-bitowy projekt znany jako Amiga.
Tramiel wypuszcza Atari ST na początku 1985.
Dopiero jesienią tego roku Commodore udało się wyprodukować komputer Amiga 1000 żeby konkurować z Atari ST
Rozpoczyna się wojna Amiga-Atari, zakończona dopiero w 1987 kiedy wychodzi tańsza wersja Amiga 500 i przejmuje rynek ST.

W 1984 Amstrad 464 (potem 664 i 6128).
W 1986 wykupuje Sinclaira i produkuje Spectrum +2
19 stycznia 1986 roku pojawił się pierwszy wirus "Brain"

Wkrótce potem wojny cenowe i walka o rynek pomiędzy producentami przestają mieć znaczenie. Pod koniec lat 80-tych sprzęt niekompatybilny ze standardem IBM PC przechodzi do historii.

IBM PC

W 1980 IBM oddelegował 12 inżynierów do przygotowania projektu mikrokomputera.
Procesor 8086 - zbudowało w 1978 roku dwóch inżynierów Intela w ciągu trzech tygodni. Kosztował 360 dolarów, składał się z 29 tysięcy tranzystorów i mógł obsługiwać maksymalnie 1 MB RAM.

W 1969 roku Bill Gates i Paul Allen jako "Lakeside Programming Group" zawierają umowę na odpluskwianie PDP-10 w zamian za możliwość korzystania z tego sprzętu. Dziełem ich następnej wspólnej firmy - "Traf-O-Data Company" - jest sprzętowo-programowy system, rejestrujący ruch samochodów na autostradzie. W 1975 roku opracowują oni interpreter języka BASIC dla komputera Altair.
Sukces zachęca ich do założenia kolejnej wspólnej firmy - Micro-Soft.
Decydującym dla rozwoju koncernu był rok 1980, kiedy to szefowie IBM zaproponowali, by Gates i Allen napisali system operacyjny dla ich przyszłego mikrokomputera osobistego. Wcześniej chcieli złożyć tę propozycję założycielowi Digital Research, ale Gary Kildall był akurat na urlopie i zajmował się swoim ulubionym hobby - latał samolotem. Jest to czasem określane jako największa katastrofa lotnicza w historii przemysłu komputerowego.

12 sierpnia 1981 na rynku pojawia się IBM PC (jako IBM 5150) w cenie $1565. Jeśli ktoś wolał kolorowy monitor CGA (rozdzielczość 320 na 200 punktów w 4 kolorach z palety 16), musiał za niego zapłacić osobno.
Wyposażony był w na wpół 16-bitowy procesor Intel 8086, taktowany zegarem 4,77 MHz, i miał 16 KB RAM (które można było rozszerzyć do 256 KB). Rolę pamięci masowej pełniła jedna lub dwie pięciocalowe stacje dyskietek o pojemności 160 KB, a całością zarządzał PC DOS.

Zakładano, że sprzedaż 1000 sztuk będzie już sukcesem. Sprzedano kilkanaście tysięcy i zdecydowano się udostępnić publicznie specyfikację techniczną. Wiele firm zajęło się klonowaniem IBM PC, opatrując swe produkty etykietą "IBM-compatible".

Bill Gates "640 KB wystarczy każdemu".

Ponieważ specyfikacja techniczna została opublikowana pojawiły się tańsze klony tego komputera i pod ogólną nazwą IBM PC przeszły do historii jako współczesny standard komputera osobistego - opartego na architekturze x86.
W latach 90-tych PC stał się rozwijanym we współpracy między różnymi producentami, ale niezależnym od jakiejkolwiek firmy (także od IBM) zestawem standardów.

  • PC - sierpień 1981 (8088; system na stacji dyskietek)
  • XT - marzec 1983 (8088; prymitywny twardy dysk)
  • PCjr - listopad 1983 (8088; system na stacji dyskietek, komputer przeznaczony dla użytkownika prywatnego)
  • AT - sierpień 1984 (286; 8MHz; średniej szybkości twardy dysk)
  • XT 286 - wrzesień 1986 (286; powolny twardy dysk, chociaż miał 6MHz był szybszy od AT bo miał pamięć [zero wait state[?] na płycie główej.
  • Pentium - 22 marzec 1993 (z powodu błędnej jednostki zmiennoprzecinkowej Intel musiał wycofać ponad 1.5 mln procesorów co kosztowało go prawie pół miliarda dolarów).

W 1994 roku 486DX4 Intela staje się pierwszym dostępnym dla zwykłego użytkownika procesorem o szybkości 100 MHz.
W ciągu 20 lat prędkość taktowania procesorów wzrosła 10 tysięcy razy i w roku 2000 można było kupić 1000-megahercowe Athlony i Pentium III.

Wydany wyłącznie na CD-ROM-ie horror The Seventh Guest (1993) pokazał multimedialny potencjał peceta. Był to pierwszy program prezentujący tak efektowną grafikę i oprawę dźwiękową.

1992 - Wolfstein; 1994 Doom (pierwszy popularna gra id Software) i Myst (najpopularniejszy programem rozrywkowym w historii - ponad 5 milionów sprzedanych egzemplarzy).
W 1997 roku prawdziwa trójwymiarowość - karty Voodoo 3Dfx.

System operacyjny hitem pop-kultury: 23 sierpnia media opisywały, jak w kolejkach do sklepów mających sprzedawać pierwsze egzemplarze Windowsa 95 (17 dyskietek) ustawiają się nawet ci, którzy nie mają peceta.

1998 roku i-Mac, rewolucja wzornictwa komputerów.

W 1997 roku zwycięstwo maszyny z mistrzem świata w szachach. Gari Kasparow przegrał sześciorundowy mecz z superkomputerem Deep Blue. Po raz pierwszy maszyna pokonał gracza tej klasy w spotkaniu turniejowym.

Internet

Pierwsze projekty

Wystrzelenie przez Sowiety sputnika w 1957 spowodowało powołanie ARPA, której zadaniem było zapewnić USA przodującą pozycję w zastosowaniach militarnych nauki i techniki.
Agencja ta miała bardzo szeroki zakres działalności. Ponieważ Departament Obrony był wówczas największym użytkownikiem komputerów w USA więc w polu zainteresowania ARPA znalazły się różne dziedziny informatyki.
Duże znaczenie i szerokie zastosowanie wyników badań finansowanych przez ARPA wynikało z tego, że w początkowym okresie działalnosci agencja nie wymagała utajniania wyników prac ani ograniczania ich tematyki wyłącznie do zagadnień militarnych.

Na początku lat 60-tych w RAND Corporation (agencja zajmująca się bezpieczeństwem narodowym) zaczęto rozważać problem funkcjonowania władz i dowództwa armii USA w wyniku wojny nuklearnej.
RAND Corporation w 1962 opublikowała raport Paula Barana (naukowiec na kontrakcie sił powietrznych) "On distributed Communications Networks" w którym przedyskutowany został sposób ochrony wojskowego systemu komunikacyjnego w wypadku zmasownego ataku.
Została w nm naszkicowana idea systemu komunkacyjnego, który byłby w stanie taki atak przetrwać: miał być pozbawiony centralnego punktu kontroli i dowodzenia a ilość połączeń między węzłami byłaby na tyle duża że w wypadku zniszczenia niektórych z nich sieć nadal by funkcjonowała dzięki pozostałym połączeniom, na które byłby kierowany ruch.
Jedna z propozycji autora zakładała podjęcie prac nad stworzeniem narodowego systemu analogicznego do istniejącej sieci łączy telefonicznych umożliwiającego transport danych pomiędzy dużymi grupami użytkowników.
System taki mógł zostać stworzony z wykorzystaniem technologii przełączanych sieci pakietowych (packet switching) opracowanej w latach 60-tych - jej podstawą było fragmentowanie informacji w pakiety i kierowanie ich w odpowiednie miejsca docelowe i dopiero tam składanie z powrotem w całość.
Najważniejsze cechy takiej sieci:

  • umożliwia wspólne korzystanie przez wielu użytkowników jednocześnie z tego samego łącza
  • redukuje skutki przekłamań podczas transmisji; w wypadku błędu wytarczy przesłać ponownie tylko błędny pakiet a nie całą informację
  • pakiety mogą również nieść informację o miejscu wysłania i przeznaczenia, o przebytej i planowanej drodze, mogą być również kompresowane lub szyfrowane
  • równorzędność znajdujących się w niej komponentów

Pierwsza funkcjonująca sieć tego typu powstała w National Physical Laboratories w UK w 1968.

W ramach eksperymentu finansowanego przez ARPA agencję zajmującą się koordynowaniem badań naukowych na potrzeby wojska, miał na celu zbadać możliwość zbudowania sieci komputerowej bez wyróżnionego punktu centralnego, która mogłaby funkcjonować nawet pomimo uszkodzenia pewnej jej części.
Wszystkie dotychczasowe sieci były zarządzane przez jeden komputer, którego awaria pozbawiała możliwość pracy całą sieć; nie nadawała się do dowodzenia armią w czasie wojny gdyż taki główny węzeł byłby głównym celem ataku postanowiono więc wypróbować zaproponowaną przez RAND Corporation koncepcję sieci rozposzonej.

Praca Barana była punktem wyjściowym planu stworzenia sieci bez centralnego ośrodka, wszystkie węzły sieci miały być równorzędne, a każdy z nich miałby mieć prawo do nadawania, przekazywania dalej i odbierania wiadomości rozbijanych na pakiety, dla których istotne było tylko miejsce pochodzenia i przeznaczenia - trasa ich wędrówki byłaby uwarunkowana aktualnym stanem połączeń co zapewniłoby automatyczną zmianę drogi w razie zaniku funkcjonowania częsci sieci.
Idea Barana zainteresowała wielu naukowców m.in. pracującego nd relacjami człowiek-komputer J.C.R "Lick" Licklidera, który rozważał możliwość wykorzystania komputerów w komunikacji międzyludzkiej, został on pierwszym szefem IPTO (Information Processing Technology Office), biura w ARPA, które zajmowało się m.in. sieciami komputerowymi, jego zasługą było otwarcie ARPA na różne projekty informatyczne i nawiązanie ścisłej współpracy z naukowcami ze akademickich.

ARPANET

W latach 1966-67 DoD finansował prace nad eksperymentalnym łączeniem odłegłych od siebie komputerów. Wykorzystano w nich wcześniejsze doświadczenia z systemami wielodostępnymi (timesharing), w których przyłączano wiele terminali do jednego komputera. Okazało się, że nie było problemów z łączeniem komputerów, a tylko z łączami telefonicznymi.

Plan sieci szkieletowej został przedstawiony w 1967. Składał się z kilku węzłów, w każdym z nich do dużego mainframe miał zostać przyłączony minikomputer pełniący funkcję węzła przełączającego nazwanego IMP (interface message processor). Miała to być sieć komputerów równorzędnych (peer-to-peer).
Kontrakt na dostawę maszyn dostał Honeywell DDP-516 otrzymała firma BBN (Bold, Beranek and Newman). Miały zostać połączone liniami dzierżawionymi o przepustowości 50 Kbps dostarczonymi przez AT&T.
1 IX 1969 w Uniwersystecie Kalifornijskim (UCLA) zainstalowano pierwsze węzły ARPANET-u, wkrótce potem w trzech następnych uniwersytetach (SRI UCSB i Uniwersytet Utah).
Pierwsza transmisja zakończyła się częściowym sukcesem. Przesyłano litera po literze słowo LOGIN i przy "G"... komputer odbierający się zawiesił. Później szło już sprawniej.

Do końca roku wszystkie połączenia między czterema węzły funkcjonowały, sieć ARPANET zaczęła pracować dzięki czemu można było zaimplementować teoretycznie opracowane protokoły.
W ciągu kilku miesięcy opracowano symetryczny protokół komunikacyjny NCP (Network Control Protocolmógł połaczyć maksymalnie 255 IMP i zapewniał on pewność dostarczenia informacji do serwera), potem dodano do niego najprostsze usługi zdalne logowanie i kopiowanie plików.

Żeby komputery mogły się porozumiewać trzeba było uzgodnić pewne konwencje dotyczące transmisji blokowej, sprawdzania błędów i retransmisji oraz identyfikacji komputerów tzw. protokoły.
Zajmował się tym zespół nazwany Network Working Group (NWG), który efekty swoich prac publikował w formie RFC.
Pierwsze RFC "Host Software" opublikował Steve Crocker - 7 kwietnia 1969.

To, że przesyłając dane na odległość, można się obyć bez kabla, udowodnił w1969 roku Norman Abramson z Uniwersytetu Hawajskiego, budując ALOHAnet - pierwszą pakietową sieć radiową.

W 1970 roku firma Corning Glass opracowała światłowód.

Jeszcze przed powstaniem sieci na komputerach uniwersyteckich pracownicy zostawiali sobie w umówionych wcześniej katalogach wiadomości w plikach tekstowych. Zbiory te nazywano w taki sposób, żeby odbiorca mógł łatwo zidentyfikować ten z komunikatami dla siebie, na przykład for_Peter_from_IT.txt.
W 1965 roku Noel Morris, pracownik jednej z uczelni w USA, napisał program o nazwie mail, który pozwalał na automatyczne kopiowanie plików do katalogów domowych użytkowników komputera. Dodatkowo po zalogowaniu się wyświetlał on komunikat "You have new mail".
Dopiero w 1971 roku inżynier Ray Tomlinson (zatrudniony w Cambridge w BBN Technologies) wysyła pierwszego maila do innego komputera w sieci. Pracował nad programem SNDMSG, który miał pozwalać na pozostawianie wiadomości dla innych użytkowników tego samego komputera (można powiedzieć, że była to wersja e-maila dla pojedynczej maszyny). W tym samym czasie zajmował się on również testowaniem programu CYPNET, który z kolei pozwalał na przesyłanie plików na inne komputery komunikujące się ze sobą poprzez sieć ARPANET. Połączenie ze sobą tych dwóch projektów pozwoliło na łatwe przesyłanie wiadomości w sieci. W czasie eksperymentów z użyciem opracowywanych narzędzi pojawił się problem adresowania e-maili wychodzących na zewnątrz. Tomlinson, analizując klawiaturę, szukał symbolu, który nie pojawia się w imionach ludzi i nie jest cyfrą. Wybór padł na znaczek "@". Chociaż ten symbol pozostaje w użyciu już przez 30 lat, to - jak mówi sam Tomlinson - wymyślenie go zajęło mu około 30 sekund.
Obecnie Ray Tomlinson nadal pracuje w firmie BBN i zajmuje się tworzeniem oprogramowania logistycznego.
Mechanizm wysyłania wiadomości był wtedy podobny do zasady działania FTP (File Transfer Protocol).
Dopiero w 1982 powstaje SMTP, a w 1983 sendmail (dla BSD).

W ciągu dwóch następnych lat sieć była rozbudowywana i opracowano kolejne aplikacje umożliwiające wykorzystanie możliwości komunikacyjnych, jednym z pierwszych było zdalen wykonywanie obliczeń na komputerach dużej mocy.
W kwietniu 1971 było już 23 hosty w 15 węzłach.
Zaczęły powstawać zalążki społeczności sieciowej, jedną z pierwszych list dyskusyjnych był SF-LOVERS.

W 1972 pierwszej implementacji Telnetu (zwanej ad hoc Telnet Protocol), która umożliwiała zdalną pracę na serwerze.
W październiku 1972 w ramach międzynarodowej konferencji dotyczącej łączności komputerowej w Waszyngtonie odbyła się pierwsza publiczna prezentacja działania ARPANETu (zademontrowano węzeł z 40 terminalami; prezentację prowadził Bob Kahn z BBN). Zdecydowano o powstaniu Międzynarodowej Grupy Roboczej do spraw Sieci (International - lub InterNetwork? - Network Working Group) jej pierwszym szefem był Vinton Cerf z UCLA.
W tym roku przyłączono satelitarnym łaczem węzeł na Hawajach.

1973 - włączono do sieci węzły specjalnymi łączami satelitarnymi dwa węzły: w Norwegii (Royal Radar Establishment) i UK (University College of London), ARPANET stał się międzynarodową i międzykontynentalną siecią.
W 1973 powstał FTP.

W 1974 BBN udostępniła pierwszą publiczną sieć szkieletową Telenet - komercyjna alternatywa dla ARPANET-u.

Okazało się że nie tylko zrealizowano cel eksperymentu ale i stworzono bardzo sprawną sieć komunikacji. Dlatego w 1975 kierownictwo ARPA zdecydowało o zmianie statusu ARPANETu z eksperymentalnej na użytkową i przekazało pod zarząd DCA (Defence Communications Agency).
W 1976 roku brytyjska królowa Elżbieta II wysyła e-maila.
W 1977 było już 111 węzłów i opracowano ostateczną używaną do dziś wersję poczty elektronicznej.

Bob Kahn sformułował problem tzw. międzysieci: jak umożliwić hostom komunikację przez wiele sieci pakietowych nie znając technologii sieciowej każdej z nich. We współpracy z innym entuzjastą technologii sieciowych Vintonem Cerfem z University of California (Los Angeles) pracowali nad tym problemem. Wkrótce wypracowali podstawowy rozwiązania, gdzie różnice pomiędzy protokołami sieciowymi były ukryte dzięki zastosowaniu wspólnego protokołu międzysieciowego i zamiast jak to było w przypadku ARPANET-u to nie sieć a host był odpowiedzialny za nezawodność. Herbert Zimmerman i Louis Pouzin (projektant sieci CYCLADES) mieli wpływ na jego zastosowane rozwiązania. Ważne również były wczesne prace nad sieciami w Xerox PARC.
Kiedy zredukowano rolę sieci do minimum stało się możliwe połączenie każdej sieci, niezależnie od jej charakterystyki - był to rozwiązanie problemu, który przedstawił Kahn (popularne było powiedzenie, że protokół, który zamierza stworzyć będzie działać nawet na "puszkach połączonych żyłką"). Za utworzenie interfejsu pomiędzy dowolnymi sieciami i przekazywanie pakietów w obie strony odpowiedzialny był komputer nazwany gateway(później zmieniono to określenie na ruter - ang. router - w celu uniknięcia pomyłki z innym typem gateway'a).
W 1974 Cerf i Kahn opublikowali w IEEE Transactions pracę "A Protocol for Packet Network Intercommunication" w której przedstawili specyfikację projektu protokołu TCP/IP. Prace nad jego implementacją prowadziły trzy ośrodki Stanford, BBN i University College w Londynie.

W lipcu 1977 odbyła się pierwsza demonstracja łącza pakietowego - pakiety wędrowały od ciężarówki krążącej w okolicach San Francisco przez sieć Packet Radio potem ARPANETEM i łączem satelitarnym do Londynu, z powrotem do USA łączem satelitarnym SATNETu i znów siecią ARPANET do jednego z dużych ośrodków obliczeniowych. Po drodze nie zginął ani jeden bit.

W pierwotnej wersji protokołu nie było rozróżnienia pomiędzy TCP i IP, ale w trakcie eksperymentów nad przesyłaniem zakodowanego głosu okazało się, że retransmisja błędnych pakietów powoduje przerwy w odtwarzaniu dźwięku.
Oddzielono więc protokół IP odpowiedzialny za adresowanie od TCP odpowiedzialnego za pakietowanie i oprócz TCP powstał UDP, w którym brak jest kontroli prawidłowości przesyłanych pakietów.
Technologia ta bardzo zainteresowała wojsko. Powołano zespół Internet Configuration Control Board, a w 1980 zdecydowano że TCP będzie preferowanym protokołem do zastosowań militarnych.

W 1981 powstaje IP (Internet Protocol) - ostatecznie w 1982 agencje DCA (Defence Communications Agency) i DARPA przedstawiły zestawienie tych protokołów znanych odtąd jako stos protokołów TCP/IP.

W 1983 nastąpiły trzy bardzo ważne dla historii internetu wydarzenia:

  • 1 stycznia wszystkie systemy ARPANET-u zostały przełączone na TCP/IP
  • Nastąpił podział ARPANETU na dwie części: wojskową MILNET i cywilną ARPANET. Coraz częściej były określane razem jako internet (od protokołu IP), zwłaszcza, że znaczenie oryginalnego ARPANET-u malało, szczególnie kiedy przyłączono NSFNet (zresztą siedem lat później ARPANET całkowicie zlikwidowano).
  • Na Uniwersytecie Berkeley pojawiła się wersja Uniksa z wbudowaną implementacją protokołów TCP/IP. Umożliwiło przyłączenie całych sieci lokalnych, a nie tylko pojedynczych, dużych maszyn typu mainframe.

Jednym z ograniczeń wczesnego internetu był system dystrybucji nazw hostów. Network Information Centre (NIC) utrzymywał centralny plik z nazwami hostów i każdy komputer w sieci miał go ściągać regularnie.
W 1984 Paul Mockapetris opracował hierarchiczny system nazw domenowych i protokół DNS. Rolę pliku hosts.txt przejęła rozproszona baza danych o zasobach w poszczególnych domenach, których każda musiałą być zarejestrowana w którymś z serwerów nazw. Wkrótce umożliwiono rejestrowanie w DNS-ach nieinternetowych systemów poczty elektronicznej oraz bramek do nich co stworzyło wspólną z internetem przestrzeń adresową i umożliwiło zarzucenie starszej notacji bang path. Kilka lat później URL stał się centralną cześcią systemu adresowania.

W ten sposób powstała niezależna od charakterystyki sieci lokalnych możliwość połączenia dowolnych hostów, stos protokołów TCP/IP oraz system adresowania DNS.

Sieć sieci

UUCP (Unix-to-Unix CoPy)

W 1976 w AT&T Bell Labs powstał protokół, a w zasadzie program UUCP (Unix-to-Unix CoPy), który umożliwiał przenoszenie plików pomiędzy połączonymi linią telefoniczną komputerami. Inicjatorem jego powstania był Mike Lesk, a pierwotnym przeznaczeniem - wspomaganie konserwacji i testowania oprogramowania w labolatorium. Dzięki wykorzystaniu łącz stałych i telefonicznych oraz modemów ułatwiono rozprowadzanie plików pomiędzy wieloma komputerami.
W 1977 UUCP został włączony do siódmego wydania Uniksa. Ponieważ był to system bardzo popularny na wielu uczelniach ze względu na niski koszt (AT&T nie miała prawa czerpać dochodów z innej działalności niż telekomunikacyjna) i wydajność względem wymagań (w Bell Labs dominowały PDP-11) UUCP bardzo szybko stał się popularną platformą komunikacyjną.
W następnych latach powstało kilka sieci komunikacyjnych UUCP, które opierały swoje działanie na zasadzie "zgromadź i przekaż dalej" (store-and-forward) do transmisji danych wystarczały linie kumutowane więc nie była potrzebna własna warstwa fizyczna. Był to system logicznych połączeń przez publiczną sieć komunikacyjną, połączenia następowały zgodnie z ustalonym harmonogramem.
Nie było w niej co prawda wielu usług ARPANET-u (np. zdalnego dostępu do zasobów), ale była wystarczająca do elektronicznej wymiany informacji (przede wszystkim mechanizmy rozproszonej dytrybucji informacji). Co najważniejsze nie wymagała kosztownych inwestycji - własnie z tego powodu UUCP nazywano "internetem dla biednych" (Poor Man's Internet).
Znacznie zwiększyła zasięg sieci, spopularyzowała ją, wpłynęła na anarchiczną strukturę i dała początek niektórym popularnym usługom. Z tego protokołu wywodzi się również jedna z najpopularniejszych usług internetowych - usenet, który istniał na długo przed formalnym powstaniem internetu właśnie w formie aplikacji działającej na połączonych linią telefoniczną uniksowych klientach UUCP.
Stopniowo ten protokół był zastępowany przez działający na TCP/IP NNTP, który jest współcześnie używany i obecnie prawie cały ruch w usenecie jest już częścia internetu.

Usenet

W 1979 dwaj doktoranci Duke University w Północnej Karolinie, Tom Truscott i Jim Ellis, zaproponowali by użyć UUCP do połączenia komputerów i wymiany interesujących informacji pomiędzy ludźmi w społeczności uniksowej. Steve Bellovin doktorant Uniwersytetu Północnej Karoliny napisal oprogramowanie konferencyjne. Była to seria skryptów powłoki, które obsługiwały proces automatycznego łączenia się poprzez sieć telefoniczną, sprawdzania czasu ostatniej modyfikacji określonych plików i pobierania tych plików które zostały zmodyfikowane od czasu ostatniego połaczenia. Potem połączyli trzy komputery w Duke i UNC (nazwane "unc" "duke" i "phs") używając własnoręcznie wykonanych 300 bodowych modemów.
W ten sposób powstał system, w którym użytkownik tworzył artykuł (article, posting) o dowolnym temacie (subject) przypisany do grupy dyskusyjnej poświęconej określonemu zagadnieniu, który następnie był rozprowadzany na inne komputery. Inni użytkownicy mogli czytać wybrane przez siebie na podstawie tematu artykuły, a odpowiedzi na nie mogły trafiać na grupę (follow-up) albo pocztą elektorniczną bezpośrednio do autora (reply). System ten nazwano Netnews a stworzoną w ten sposób sieć Usenet (prawdopodonbnie odUser's Network).
Na początku w tej sieci były 3 komputery, a przesyłano 2 artykuły dziennie.
Ponieważ skrypty działały bardzo wolno inny doktorant z Duke Stephen Daniel napisał ulepszoną implementację w C, do której poprawki wniósł Tom Truscott. Efekt ich pracy stał się pierwszą publiczną wersją oprogramowania newsowego - "A" News.

Rozwiązanie to zostało zaprezentowane na konferencji Usenix w styczniu 1980. Autorzy zaprosili wszystkich do rozwijania tego pomysłu. A News znalazło się na taśmie dystrybucyjnej letniej konferencji Usenix i szybko się rozpowszechniło.
Na przełomie 1980 i 81 do usenetu został przyłączony komputer z Uniwersytetu Kaliforni w Berkeley (UCB) który już był przyłączony do ARPANET-u. Dzięki Markowi Hortonowi z UCB niektóre listy dyskusyjne ARPANET-u zostały zbramkowane z grupami Usenet News. Przyciągnęło to nowych użytkowników i wytworzyło presję na rozszerzenie ARPANET-u.
Większa ilość hostów spowodowała, że w 1981 Horton i Matt Glickman napisali B News, którego kolejne wersje były udostępnianie w latach 1982-84.
Początkowo zakładano, że ten system będzie służył do wymiany informacji w obrębie kampusa, ale szybko okazało się, że najbardziej atrakcyjna jest właśnie możliwość dyskusji bez barier geograficznych. Przeszkodą były koszty połaczeń, ale administratorzy z AT&T i DEC (bez wsparcia kierownictwa) udostępnili systemy i łącza długodystansowe należące do tych firm, więc wystarczyło się połączyć z dowolnym komputerem obsługującym UUCP, który był już w usenecie.
W celu optymalizacji wymiany danych na dużych odległościach w 1983 Gene Spafford zainicjował stopniową budowę sieci szkieletowej (backbone) - struktury dużych komputerów, mających dostęp do dobrych łącz i niezawodne oprogramowanie oraz przekazujących wszystkie grupy newsów z podstawowego zbioru. Poprawne funkcjonowanie tej struktury było możliwe dzięki pracy administratorów poszczególnych systemów, głównie tych dużych hostów. Ponieważ przez lata współpracowali ze sobą, z powodu stałych kontaktów znali się dobrze, przylgnęło do nich określenie kliki szkieletowej (Backbone Cabal).

W początkowym okresie wszystkie grupy znajdowały się w hierachii net., listy zbramkowane z ARPANET-u stworzyły hierachię fa. (From ARPANET), w 1984 powstała hierarchia mod. (grupy moderowane) i ciągle powstawały nowe hierarchie grup regionalnych.
W latach 1986-87 przeprowadzono wielką reorganizację The Great Renaming 1985 - 1988 - utworzono podzieloną tematycznie jednolitą hierarchię składającą się z 7 podstawowych gałęzi. Tworzeniem i udostępnianiem grup zarządzała klika szkieletowa, ale utworzenie i popularnośc całkowicie od niej niezależnej gałęzi alt. spowodowało, że kilka miesięcy później klika abdykowała (było to tzw. Breaking of the Backbone Cabal ) i przekazała władzę w ręce Spafforda (jeden z najbardziej zasłużonych administratorów).

Z biegiem czasu coraz większa część ruchu w usenecie odbywała sie przez ARPANET co doprowadziło do stopniowego wypierania UUCP przez NNTP - mechanizm transmisji newsów po łączach TCP/IP.
Nadal jednak wielu użytkowników indywidualnych używało UUCP, w latach 1987-89 pojawiło się C News (Henry Spencer z Uniwersytetu w Toronto i Geoff Collyer). Na początku lat 90-tych upowszechniły się pełnoekranowe, wątkowe czytniki newsów: nn, trn, tin.
W marcu 1986 wprowadzono NNTP (Network News Transfer Protocol - RFC 977) i od tego czasu Usenet działając już w połączeniach TCP/IP stał się częścią Arpanetu.
Od 1992 popularnym pakietem NNTP jest INN (Internet Net News), który jest kompletnym systemem newsowym.

Powstanie usenetu było inicjatywą całkowicie oddolną i jego rozwój (dotyczy to i oprogramowania i udostępniania usługi na serwerach) był wynikiem aktywności społeczności użytkowników, która stała się później wzorem dla innych społeczności sieciowych. Tworzono standardy i zwyczaje (np. głosowanie nad stworzeniem grupy, gdzie 100 głosów więcej musiało być za niż przeciw).
Dzisiaj to tylko jedna z usług, ale usenet stał się pierwszym modelem sieciowej społeczności, wirtualnego społeczeństwa rządzącego się własnymi prawami i czułego na łamanie obowiązujących w nim zasad (m.in. zakaz wykorzystywania do celów komercyjnych).

BBS

W 1978 roku Ward Christianson i Randy Suess zbudowali w Chicago lokalną namiastkę ARPANET-u: Computerized Bulletin Board System, czyli BBS.
1979 - CompuServe w ramach serwisu dla hobbystów udostępnia online bazy danych, gry i właśnie BBS.
Ofertę dla zwykłych użytkowników, nie dysponujących dostępem do łączy naukowych ani wojskowych, przygotowała w 1980 roku firma Texas Instruments. Jej modemy uzyskiwały szybkość 300 bitów na sekundę.

CSNET (Computer Science Network)

Ponieważ dostęp do ARPANETu był przywilejem należącym do niewielkiej ilości instytutów mających kontrakt z ARPA. Ponieważ przyciągało to studentów powstała presja na stworzenie sieci dostępnej również dla pozostałych naukowców. UUCP, modemy i telefony stanowiły gotową strukturę do transmisji danych której koszta nie były wygórowane.
W maju 1979 Larry Landweber zorganizował spotkanie DARPA, NSF oraz naukowców z róznych uczelni - w celu stworzenia CSNET. Początkowo miała to być oddzielna sieć, ale póżniej przewidziano również bramkę do ARPANET-u.
Latem 1980 Vinton Cerf zaproponował plan międzysieciowego połączenia między ARPANET-em a CSNET-em, który miał być logiczną siecią złożoną z wielu fizycznych sieci. Komunikacja z ARPANET-em byłaby przezroczysta, tzn. używane tam protokoły byłyby takie same z punktu widzenia użytkowników po obu stronach. Do połączeń pomiędzy sieciami stworzono by specjalną bramkę (internetwork gateway), tzw. VAN (Value Added Network), w której komunikację miałby zapewnić nie mający jeszcze wówczas szerszych zastosowań protokół TCP/IP - był to krok w stronę współczesnego internetu.
Zatwierdzone plany CSNET-u zakładały docelowo dostęp dla wszystkich naukowców, koszt uczestnictwa zależny od ilości i jakości usług oraz samowystarczalność finansową (z wyjątkiem fazy projektu i implementacji). Pierwsza faza realizacji zakończona latem 1982 dostarczyła narzędzi do wymiany poczty elektronicznej opartej o dostęp modemowy.
W 1983 stworzono prototypowy serwer nazw na Uniwersytecie Wisconsin.
Ponieważ w sieci uczestniczyło coraz więcej naukowców niezwiązanych z informatyką zmieniono nazwę na Computer and Science Network.
W szczytowym okresie znajdowało się w niej ponad 200 hostów z około 15 krajów. Na początku lat 90-tych okazało się, że większość z tych maszyn jest przyłączona do innych sieci i CSNET został zlikwidowany.

BITNET (Because It's Time Network)

W 1981 powstała BITNET (Because It's Time Network) łącząca duże komputery mainframe z centrów obliczeniowych Uniwersytetu w Nowym Jorku i Yale. Używała opracowanego w tym celu w IBM protokołu NJE (Network Job Entry). Obejmująca głównie uczelnie i inne instytucje naukowe. Szybko rozrosła się do 225 węzłów w 1984, kiedy to sformalizowano jej strukturę poprzez powołanie ciała zarządzającego. Ponieważ częściowo była finansowana przez IBM i pracowały w niej głównie maszyny IBM - powstało mylne wrażenie że jest to sieć IBM.
W 1989 BITNET i CSNET zostały połączone w CREN (Corporation for Research and Educational Networking) szczyt rozwoju przypadł na początek lat 90 - 49 krajów.
Z powodu używania niestandardowego protokołu znaczenie nie było zbyt wielkie, ale to właśnie tam powstała popularna usługa list dyskusyjnych obsługiwanych przez oprogramowanie LISTSERV (oferujące wiele dodatkowych możliwości w porównaniu z listami ARPANET-u). Dzięki bramkom mogli z nich korzystać użytkownicy z innych sieci.
W BITNET listy te były popularne bo użytkownicy nie mogli korzystać z wielu usług internetu (np. usenet, ftp), z czasem wiele z tych list pojawiło się również jako bramkowane grupy usenetu tworząc hierarchię bit.listserv.

NSFNET

W połowie lat 80 NSF zaczęła tworzyć ośrodki superkomputerowe. Ze względu na koszty funduszy starczyło tylko na pięć wielkich centrów rozrzuconych po całym kraju (JVNC - Princeton; PSC - Pittsburg; SDSC - San Diego; NCSA Illinois; Theory Center - Cornell). Aby udostępnić ich zasoby maksymalnie dużej ilości osób zadecydowano o włączeniu ich w sieć. Początkowo NSF chciała użyć do tego struktur ARPANET-u, ale sprawa ugrzęzła z powodów biurokratycznych. Dlatego zdecydowano zbudować nową sieć: NSFNET.
W końcu 1986 łącza dzierżawione 56 Kbps połączyły sześć ośrodków - pięć centrów NSF i Narodowe Centrum Badań Atmosferycznych (NCAR).
Kontrakt na rozbudowę i zarządzanie NSFNET-em dostała firma Merit (konsorcjum uniwersytetów ze stanu Michigan, które od lat 60-tych świadczyło usługi sieciowe dla kampusów). Merit zaprosiła do wspólpracy IBM, który dostarczył niezbędny sprzęt m.in. rutery i oprogramowanie i MCI operatora telekomunikacyjnego, który zapewnił łącza.
W ten sposób uczelnie miały dostęp do szybkiej i nowoczesnej sieci, a firmy dostały dostęp do technologii opracowanych na uniwersytetach.
W 1987 zdecydowano o zastosowaniu szybkich łącza T1 o przepustowości 1.5 Mbps. Ruszyły w drugiej połowie 1988, architektura była oparta o TCP/IP, gdyż w tym czasie większość kapusowych sieci wykorzystywała ten standard.

Wprowadzono trójpoziomową strukturę:

  • główna sieć szkieletowa (backbone) T1: 13 węzłów: Merit, 6 dotychczasowych
  • oraz 6 regionalnych sieci średniego poziomu (BARRNet, MIDNET, Westnet, NorthWestNet, SEQUINET i SURAnet (dodatkowo NYSERNet i JVNCnet były połączone przez centra superkomputerowe)
  • sieci poszczególnych uczelni i instytucji przyłączone do sieci regionalnych

W celu minimalizacji kosztów topologię zaprojektowano tak by łączna długość była jak najmniejsza.
Szkieletem zarządzało specjalnie powołane Centrum Operacji Sieciowych (Network Operation Center), które m.in. zbierało dane statystyczne o ruchu i opracowało mechanizm komunikowania o wszelkich awariach, przerwach w ruchu itd.
W skład NSFNETu wchodziło wówczas łacznie 170 sieci.
W 1989 wprowadzono dodatkowe nadmiarowe łacza T1, stopniowo przyłączane były inne kraje (Kanada, Francja, kraje skandynawskie).
Technologia T1 i stale rosnący zasięg sprawił, że stopniowo zastąpił on ARPANET.

Rosnąca liczba użytkowników, głównie ze społeczności naukowo-badawczej wymusiła wprowadzenie łącz T3 o przepustowości 45 Mbps w 1990-91. Ilość węzłów doszła do 16 ilość przyłączonych sieci do 3500. Zarządzanie siecią przeszło w gestię ANS (Advanced Networks & Services) instytucji non-profit powołanej przez IBM, NSF i Merit, z której później wyrosła komercyjna ANS CO+RE.

Na przełomie lat 80 i 90 ustanowione zostały pierwsze bramki umożliwiające wymianę poczty elektronicznej pomiedzy internetem, a istniejącymi sieciami komercyjnymi (np. MCI Mail), ale szkielet NSFNETu mógł być wykorzystywany jedynie przez środowiska naukowe i akademickie co zostało sprecyzowane w dokumencie Acceptable Use Policy (AUP).
Analogiczne regulacje posiadały również sieci regionalne, chociaż niektóre z nich widziały w przyłączeniu firm komercyjnych szansę na samowystarczalność finansową. Właśnie z tych środowisk i sieci wywodziły się pierwsze komercyjne sieci (UUNET Technologies i Performance Systems International), które powołały CIX (Commercial Internet exChange).

Powstanie internetu

Ponieważ podstawowym zadaniem ARPA było prowadzenie badań naukowych i eksperymentalne technologie, a nie zarządzanie powszechnie używanym środkiem komunikacji, po około dziesięciu latach istnienia ARPANET-u uznano, że czas przekazać to zadanie innej agencji.
Ostatecznie przekazano zarząd w ręce Defense Communications Agency (również część Departamentu Obrony).
Wczesny internet oparty o struktury ARPANET-u był przedsięwzięciem rządowym i dlatego ograniczonym tylko do użytku niekomercyjnego, którego przeznaczeniem były głównie cele badawcze. Początkowo to ograniczenie oznaczało przyłączanie tylko jednostek wojskowych i uniwersyteckich. Stopniowo jednak w ciągu lat 80-tych przyłączano coraz więcej instytucji edukacyjnych i również uczestniczących w projektach badawczych przedsiębiorstw (jak np. Digital Equipment Corporation and Hewlett-Packard), które z czasem coraz bardziej przejmowały sferę usług.
W połowie lat 80-tych w rozwój internetu poważnie włączyła się inna instytucja rządowa - National Science Foundation. Sieć szkieletowa NSFNET-u poważnie wpłynęła na upowszechnienie dostępu do sieci, zapewniając dostęp do internetu dla dużej ilości instytucji naukowych i badawczych. Równolegle do internetu istniały inne sieci takie, centralnie zorganizowane takie jak BITNET i CSNET, oraz bardziej amatorskie, powstające oddolnie takie jak UUCP.
Pod koniec lat 80-tych Departament Obrony zadecydował, że rozwój sieci zrealizował założone cele i zakończył finansowanie jej podstawowych struktur. ARPANET został stopniowo wyłączany - ostatni węzeł zamknięto w 1989. Odpowiedzialność za utrzymywanie łącz dalekiego zasięgu przeszła w gestię inne agencji rządowej, cywilnej NSF.
Była to sieć naukowa z zakazem działalności komercyjnej.

Podstawy technologi wywodzą się z ARPANET-u ale szerokie upowszechnienie i popularyzacja internetu ma swoje korzenie w szerokim udostępnieniu tej sieci na amerykańskich uczelniach. NSF finansowała przyłączanie poszczególnych kampusów tylko wtedy gdy wiązało się to z umożliwieniem dostępu innym instytucjom, głównie edukacyjnym z najbliższej okolicy.

1988 pierwszy robak internetowy The Internet Worm of 1988

Pod koniec lat 80-tych powstały pierwsze komercyjne przedsiębiorstwa świadczące publicznie dostępne usługi internetowe (PSINet, UUNET, Netcom, Portal), początkowo zajmowały się głównie serwisem dla siec badawczych.
W 1989 działalność rozpoczał world.std.com - pierwszy wdzwaniany ISP (Internet Service Provider).
Komercja w internecie wywołała powszechną debatę. Chociaż działalność tego typu była w sieci zabroniona, nie było do końca jasna definicja działalności komeryjnej. Paradoksalnie chociaż to uczelnie najbardziej były za utrzymaniem niekomercyjnego charakteru sieci to właśnie ze środowisk akademickich wywodziły się pierwsze firmy oferujące komercyjne usługi internetowe i to one obniżyły cenę dostępu do internetu tak, że stał się możliwy nawet dla szkół średnich.

Ponieważ pojawiło się zapotrzebowanie ze strony jednostek komercyjnych i zaczęły powstawać komercyjne sieci szkieletowe (np. AlterNet) oraz komercyjni ISP w 1995 rząd USA zadecydował o komercjalizacji internetu.
NSFNET został formalnie zlikwidowany a poszczególne fragmenty jego rdzenia przypadły pięciu krajowym operatorom.

W 1993 powstał plan zastąpienia NSFNET-u jeszcze szybszą siecią o przepustowości 155 Mbps będącą połączeniem kilku komercyjnych sieci szkieletowych dostępnych dla wszystkich skłonnych za to zapłacić (dostęp dla uczelni nadal finansowałby NSF).

Plan ten został wcielony w 1995 - 30 kwietnia niezauważalnie dla użytkowników przestał istnieć NSFNET, do którego było wówczas podłączonych 50766 sieci z 93 krajów (w tym 131 z Polski obecnej w nim od 1991).
W ten sposób powstał internet.

WWW

Jedną z najbardziej popularnych usług internetu jest WWW (World Wide Web).
W miarę rozwoju internetu wielu ludzi rozumiało, że coraz bardziej potrzebna jest możliwość znalezienia i organizowania plików i powiązanych ze sobą informacji. Projekty takie jak Gopher, WAIS, i Anonymous FTP Archive Site zaczęły wprowadzać tego typu mechanizmy i organizować dystrybuowane dane w postaci łatwiejszej do użycia.
Niestety wszystkie te projekty miały niewielką możliwość przystosowania do wielu rodzajów plików i typów danych i rozwoju bez centralnego ośrodka (problem ze skalowalnością).
Rozwój Gophera został zatrzymany później kiedy University of Minnesota głupio zastrzegł prawa intelektualne do tej techniki.

Tymczasem jednym z najbardziej obiecujących paradygmatów interfejsu był hipertekst. Stworzenie tej technologii zainspirował Vannevar Bush ("memex") i rozwijana była przez Teda Nelsona w czasie badań w Project Xanadu oraz badania Douglasa Engelbarta nad NLS. Powstało wiele tego typu rozwiązań - np. Apple i jego HyperCard - ale przed internetem nikt nie pracował nad skalowalnością technologii tak, żeby mogła się odnosić do dowolnego dokumentu na świecie. Wśród współpracowników Nelsona i Engebarta były wprawdzie teoretyczne rozważania na ten temat, ale donikąd nie zaprowadziły

Rozwiązanie wymyślił Tim Berners-Lee w 1989. Zajął się tym ze zwykłego niezadowolenia, ponieważ pomimo, że podnosił tą ideę na konferencjach nikt w internecie ani w społeczności hipertekstowej nie chciał się zająć stworzeniem takiego systemu. Był programistą pracującym w CERN w European Particle Physics Laboratory i chciał, żeby fizycy mieli prostą metodę dzielenia się informacjami o swoich badaniach.

Jego pomysł zawierał trzy wynalazki, które zapewniły sukces WWW:

  • URL (Uniform Resource Locator) - łatwy sposób na określenie położenia dokumentu gdziekolwiek w internecie, w prostej nazwie, która określała nazwę komputera, ścieżkę dostępu do dokumentu oraz protokół użyty do sprowadzenia tego pliku.
  • HTML (HyperText Markup Language) - zapewnił prosty sposób na dołączenie kodu określającego strukturę dokumentów i włączenie odnośników wskazujących na inne dokumenty.
  • HTTP (HyperText Transfer Protocol) - dostosowany do transferu danych hipertekstowych protokół pozwolił na przyspieszenie transferu i zmniejszenie obciążenia.

W okolicach 1992 zrozumiano, że możliwości prostych znaczników HTML pozwalają na włączenie do tekstowych dokumentów grafiki (tzw. inline graphics).
Powstały pierwsze graficzne przegladarki Viola i Mosaic. Mosaic powstał w National Center for Supercomputing Applications na Uniwersytecie Illinois w Urbana-Champaign (NCSA-UIUC), który prowadził Marc Andreesen.
Andreesen opuścił NSCA-UIUC i przyłączył się do Jima Clarka jednego z założycieli SGI (Silicon Graphics, Inc.). Stworzyli Mosaic Communications, który stał się później Netscape Communications Corporation. Netscape Navigator był pierwszą przeglądarką która odniosła sukces komercyjny.
Kiedy WWW stawał się coraz większy powstały wyszukiwarki i katalogi. Pierwsza wyszukiwarka - Lycos - powstała w 1993 jako projekt uniwersytecki. W 1993 przez studenta University of Maine został opublikowany pierwszy magazyn webowy - Virtual Journal.
Pod koniec 1993 Lycos zindeksował 800 tysięcy stron WWW - pod koniec 2003 najpopularniejsza wyszukiwarka (Google) zindeksowała ponad 8 miliardów stron.

Internet rozwinął znaczącą subkulturę przywiązaną do idei, że sieć nie jest zawłaszczona ani kontrolowana przez żadną osobę, firmę, grupę ani organizację.
Niemniej jednak jakiś stopień standaryzacji jest konieczny i dlatego funkcjonuje system RFC (Request for Comments), które opisują szczegółowo każdy aspekt funkcjonowania sieci. Organizacja standaryzująca IAB przeszła pod zarząd ISOC.
Inną próbą standaryzacji był stworzony w latach 80-tych przez ISO (International Organization for Standardization) udokumentowany model OSI (Open Systems Interconnect), który miał zastąpić zależne od dostawców, firmowe (proprietary) standardy, ostatecznie jednak w 1996 ISO przyznała, że TCP/IP wygrało i odesłało do lamusa model OSI, który jednak przydał się bardzo jako wzorzec opisu.

Wczesny e-mail nie był ograniczony do internetu, bramki łączyły internetowy SMTP z mailem UUCP, BITNET-em i siecią BBS-ów: Fidonetem. Komercyjni dostawcy tacy jak CompuServe i The Source.

Pierwszą centralną organizacją był NIC (Network Information Centre) w SRI (Stanford Research Institute in Menlo Park, California). InterNIC, IETF, IANA, ICANN

Polska

W 1991 działalność rozpoczął Zespół Koordynacyjny Naukowych i Akademickich Sieci Komputerowych przy Uniwersytecie Warszawskim. Jako pierwszy w Polsce podjął się on budowy ogólnokrajowej sieci WAN, łączącej największe ośrodki naukowo-akademickie i połączonej ze światowymi zasobami (pierwsze łącze - ze Sztokholmem - 8 Mbps).

W lutym 1994 formalnie utworzono Jednostkę Badawczo-Rozwojową Naukową Akademicką Sieć Komputerową (NASK).
W latach 1994-96 JBR NASK rozbudowywała sieć krajową oraz finansowała największą w Polsce inwestycję: miejską sieć komputerową w Warszawie o nazwie WARMAN, działającą w technologii ATM. Podwodne połączenie NASK-u ze Sztokholmem (do sieci międzynarodowego operatora Telia) istnieje dopiero od 1998 roku i początkowo miało przepustowość 10 Mbps.

W 1996 Centrum Systemów Teleinformatycznych TP SA Polpak zawarł umowę z NASK-iem co zapewniło połączenie o przepustowości 64 kbps. Sieć szkieletowa w kraju pozwalała wówczas na przesyłanie danych z prędkością 2 Mbps.
W czerwcu tego roku TP SA uruchomiła ogólnopolski numer dostępowy 0202122 dający możliwość połaczenia się przez PPP bez dodatkowych opłat za cenę połaczenia. Do dyspozycji użytkowników oddano 800 modemów rozlokowanych w największych miastach Polski. Było to pierwsze tego typu przedsięwzięcie w Europie.
We wrześniu 1997 TP SA uruchomiła własne połączenie międzynarodowe z Nowym Jorkiem o przepustowości 2 Mbps, a liczba modemów dostępowych wzrosła ponadtrzykrotnie i wyniosła 2760. Kolejne lata przynosiły coraz szybszy transfer międzynarodowy oraz coraz więcej modemów dostępowych (5,4 tys. w marcu 1998, 9 tys. w lutym 1999 oraz 18 tys. w marcu 2000).

W styczniu 1993 roku zawiązała się spółka Tel-Energo SA, której założycielami były firmy zajmujące się przesyłaniem i dystrybucją energii, czyli Polskie Sieci Elektroenergetyczne SA, Spółki Dystrybucyjne oraz Polskie Towarzystwo Przesyłu i Rozdziału Energii Elektrycznej. Rozwojowi sieci Tel-Energo sprzyjały niskie koszty umieszczenia włókien światłowodowych w lince odgromowej sieci energetycznych, podwieszanej do linii wysokiego napięcia.
Węzły dostępowe Tel-Energo znajdują się we wszystkich większych miastach Polski. Tel-Energo jako właściciel linii przesyłowych oferuje dzierżawę swoich linii, polegającą na udostępnieniu łącza pomiędzy dwoma dowolnymi miejscami w Polsce, jednak nie jest operatorem internetowym i tym samym nie zapewnia dostępu do Sieci. Z usług Tel-Energo korzystają jednak dostawcy, tacy jak Internet Partners, oraz m.in. tacy potentaci z branży teleinformatycznej, jak: Era GSM, Plus GSM, Netia czy Telefonia Lokalna (Dialog).

Materiały

Timeline

  • 1931
    •  
  • 1932
    •  
  • 1933
    •  
  • 1934
    •  
  • 1935
    •  
  • 1936
    • Alan Turing opisuje "maszynę Turinga"
  • 1937
    •  
  • 1938
    • V1 (Konrad Zuse)
  • 1939
    • prototyp Atansoff-Berry Computer (John V. Atanasoff i Clifford Berry)
  • 1940
    • V2 (Konrad Zuse)
  • 1941
    • V3 (Konrad Zuse)
  • 1942
    • Colossus Mk I i Mk II
  • 1943
    • Harvard Mk I (znany też jako IBM ASCC - Howard Aiken)
  • 1944
    •  
  • 1945
    • ENIAC (John W. Mauchly i John P. Eckert)
  • 1946
    •  
  • 1947
    • tranzystor bipolarny ( Bell Telephone Laboratories - John Bardeen, William Shockley i Walter Brattain)
  • 1948
    •  
  • 1949
    • CSIRAC
    • EDSAC (Maurice Wilkes)
    • projekt Remington Rand 409
    • Zuse KG (w 1967 sprzedane Siemensowi)
  • 1950
    •  
  • 1951
    • LEO I
  • 1952
    • EDVAC (John W. Mauchly, John P. Eckert, John von Neumann)
    • UNIVAC 60
    • IBM 701
  • 1953
    • UNIVAC 120
    •  
  • 1954
    • TRADIC (Bell Laboratories)
  • 1955
    •  
  • 1956
    • TX-0 (MIT - Lincoln Laboratory)
    • 305 RAMAC (pierwszy dysk twardy - IBM, Reynold B. Johnson)
    • FORTRAN
  • 1957
    • sputnik (w odpowiedzi powołano ARPA)
  • 1958
    • układ scalony (Texas Instruments, Jack St. Clair Kilby)
    • ALGOL
  • 1959
    • COBOL
    • obwód scalony: Jack Kilby, Texas Instruments, Robert Noyce, Fairchild Semiconductors
  • 1960
    •  
  • 1961
    •  
  • 1962
    • raport Paula Barana "On Distributed Communications Network" dla RAND Corporation
  • 1963
    • myszka (Douglas C. Engelbart)
    • Spacewar!
  • 1964
    • IBM OS/360
  • 1965
    • DEC PDP-8 - pierwszy minikomputer
    • IBM S/360
  • 1966
    •  
  • 1967
    • pierwsze plany sieci ARPANET
  • 1968
    • powstaje Intel
    • pierwsza funkcjonująca sieć pakietowa w National Physical Laboratories w UK
  • 1969
    • pamięci półprzewodnikowe
    • DoD zleca opracowanie sieci ARPANET
    • uruchomienie pierwszych 4 węzłów ARPANETu: UCLA, SRI, UCSB i Utah
    • pierwszy dokument z serii RFC Steve Crocker "Host Software"
  • 1970
    • wprowadzenie w węzłach ARPANETu protokołu NCP (Network Control Protocol)
  • 1971
    • 15 listopada - 4004 (Intel)
  • 1972
    • C (Dennis Ritchie)
    • pierwsza publiczna prezentacja funkcjonowania ARPANETu zorganizowana podczas Międzynarodowej Konferencji Komunikacji Komputerowej
    • telnet
    • pierwszy program do wymiany poczty elektronicznej
  • 1973
    • FTP
  • 1974
    • 1 kwiecień - Intel 8080 (2 MHz)
    • Bravo (pierwszy WYSIWYG - Xerox PARC)
    • grudzień - Popular Electronics reklamuje MITS Altair 8800
    • Specyfikacja protokołu TCP (Vinton Cerf i Bob Kahn "A Protocol for Packet Intercommunication", IEEE Transactions)
  • 1975
    • Byte
    • Micro-soft
  • 1976
    • Apple I
    • ZiLOG Z80
    • UUCP (Mike Lesk AT&T Bell Labs)
  • 1977
    • kwiecień - Apple II
    • konsola Atari
    • Commodore PET
    • TRS-80
    • pierwsza demonstracja funkcjonowania zestawu protokołów TCP/IP z wykorzystaniem różnych rodzajów długodystansowych łącz (ARPANET, Packet Radio, SATNET)
  • 1978
    •  
  • 1979
    • VisiCalc dla Apple II (Dan Bricklin)
    • połączenie pierwszych komputerów w sieci usenet z wykorzystaniem protokołu UUCP i modemów 300 bps (Duke, UNC)
    • pierwsze plany sieci CSNET
  • 1980
    • Sinclair Z80
    • PacMan
    • MS-DOS
  • 1981
    • Sinclair Z81
    • 12 sierpnia - IBM PC
    • BITNET
    • pierwsze połączenia pomiędzy usenetem a ARPANET-em
    • IP
  • 1982
    • styczeń - Commodore 64
    • kwiecień - ZX Spectrum
  • 1983
    • 1 styczeń - przełączenie ARPANETu na TCP/IP
    • styczeń - Apple Lisa
    • marzec - IBM XT
    • wyodrębnienie z ARPANETu części militarnej - Milnet
    • EARN (europejski odpowiednik BITNET-u)
  • 1984
    • styczeń - Apple Macintosh
    • sierpień - IBM AT
    • Richard Stallman opuszcza MIT i rozpoczyna projekt GNU
    • Amstrad 464
    • DNS (Paul Mockapetris i Jon Postel)
  • 1985
    • Intel 80386, 16 MHz; pierwsze 32-bitowe procesory
    • pierwsze programy DTP
    • styczeń - Amiga 1000
    • Atari ST
    • CD-ROM
  • 1986
    • NNTP nowa metoda transmisji Usenet News po TCP/IP
    • HP wprowadza pierwsze komputery z procesorami RISC
  • 1987
    • 2 kwiecień - IBM PS/2
    • Apple Macintosh II, Commodore Amiga 500 i Amiga 2000
    • Sun - pierwsze stacje robocze na procesorach SPARC
    • VGA (IBM)
  • 1988
    • wprowadzenie łącz T1 (1.5 Mbps) w sieci szkieletowej NSFNET
    • IRC
  • 1989
    • 80486 25 MHz i RISC i860 (Intel)
    • WWW
  • 1990
    • maj - Windows 3.0
    • zakończenie działania ARPANETu
    • Archie
  • 1991
    • 80486SX (Intel)
    • sierpień - Linux
    • wprowadzenie łącz T3 (45 Mbsp) w sieci szkieletowej NSFNET
    • CIX
    • WAIS
    • Gopher
    • PGP
  • 1992
    • Internet Society (ISOC)
    • Wolfstein
  • 1993
    • Intel Pentium 60 MHz
    • PowerPC (Motorola)
    • 22 marzec - Intel Pentium
    • Mosaic - pierwsza graficzna przeglądarka WWW
    • Lotus Notes - integracja prac biurowych
  • 1994
    • Netscape Navigator 1.0; SSL 2.0 (Netscape Communications Corporation)
    • Intel Pentium 100 MHz
    • 14 marzec - Linux 1.0
    • pierwszy wielki spam w internecie
    • Doom (ID Software)
  • 1995
    • Intel Pentium 133 MHz
    • Java
    • 24 sierpień - Windows 95
    • zastąpienie sieci szkieletowej NSFNET przez połączenie kilku komercyjnych sieci szkieletowych
    • Netscape Navigator 2.0 - JavaScript
  • 1996
    • Netscape Navigator 2.0; SSL 3.0 (Netscape Communications Corporation)
    • 9 czerwiec - Linux 2.0
  • 1997
    •  
  • 1998
    • 4 września Google
  • 1999
    • 25 styczeń - Linux 2.2.0
    • TLS
  • 2000
    •  
  • 2001
    • 4 stycznia Linux 2.4.0
    • 15 stycznia Wikipedia
  • 2002
    •  
  • 2003
    • 17 grudzień - Linux 2.6.0
  • 2004
    • Powstaje Facebook, od 2006 powszechnie dostępny
    • 1 kwietnia Gmail
  • 2005
    •  
  • 2006
    • 15 lipca Twitter
  • 2007
    •  
  • 2008
    • 2 września Chrome; 11 grudnia pierwsza stabilna wersja
  • 2009
    • 27 maja Node.js
  • 2010
    • 25 maja Chrome 5.0 pierwsza stabilna wersja na wszystkie systemy
  • 2011
    •  
  • 2012
    •  
  • 2013
    • 29 maja React
  • 2014
    •  
  • 2015
    • czerwiec ES6 (ECMAScript 6)
  • 2016
    • czerwiec ECMAScript 2016 (ES7)
  • 2017
    • czerwiec ECMAScript 2017 (ES8)
  • 2018
    •  
  • 2019
    •  
  • 2020
    •  

Słownik osób

Howard Aiken (1900-1973)
Howard_Aiken
John Vincent Atanasoff (1903-1995)
John_Vincent_Atanasoff
Charles Babbage (26 XII 1791 -18 X 1871)
Angielski matematyk, astronom i mechanik, autor tablic logarytmicznych.
Wynalazca idei programowalnego komputera, części niekompletnego mechanizmu są w London Science Museum. W 1991 na podstawie oryginalnych planów zbudowano Maszynę Różnicową i działała doskonale.
Wczesne lata:
Charles był alumnem Trinity College, Cambridge i Peterhouse (Cambridge). Ukończył Cambridge w 1814, a w lipcu poślubił Georgianę Whitmore w St. Michael's Church w Teignmouth, Devon. Mieli ośmioro dzieci, ale tylko trzy dożyły wieku dorosłego. Ojciec i żona i jeden z synów zmarli w 1827.
Projekt komputerów:
Z powodu dużej ilości błędów obliczeniowych w tablicach matematycznych, szukał metody wykonywania obliczeń przez maszynę, która nie popełniałaby błędów i nie podlegałaby zmęczeniu lub nudzie. Wymyślił to w 1812. Wpłynęły na niego trzy elementy: niechęć do niedbałości, świadomość tablic logarytmicznych i prace nad maszynami obliczeniowymi dokonane przez Wilhelma Schickarda, Blaise Pascala i Gottfrieda Leibniza. W 1822, w liście do Sir Humphrey Davy'ego o zastosowaniu maszyn do obliczeń i drukowania tablic matematycznych rozważa zasady maszyny obliczeniowej.
Maszyna różnicowa:
Był to rodzaj ulepszonego (jak na tamte czasy) "kalkulatora", który wykorzystywał pewne fakty z matematyki, zasada opierała się o metodę różnicową.
Model tego co nazwał Maszyną Różnicową zaprezentował 14 czerwca 1822 w Royal Astronomical Society w dokumencie zatytułowanym "Note on the application of machinery to the computation of astronomical and mathematical tables". Jego celem było wielomianów przy użyciu metody różnicowej. Idea zostałą zaakceptowana i w 1823 dostał grant Ł1.5K od rządu brytyjskiego. Royal Astronomical Society odznaczyło go Złotym Medalem w 1824.
Zaczęła się budowa maszyny, ale pojawiły się dwa problemy. Pierwszym było tarcie, mechanika w tamtych czasach nie była dość dobra i ciągłym problemem były wibracje. Drugim były ciągłe zmiany projektowe. Dochodziły do tego spory z mechanikami. W 1834 po zainwestowaniu Ł23K (w tym Ł6K pieniędzy Babbage'a) prace nad nieukończoną maszyną zostały przerwane.
Maszyna analityczna:
Szczególnie ważnym pomysłem Babagge'a była maszyna analityczna, która okazała się rewolucyjną koncepcją. Co prawda, nie doczekała się ona realizacji praktycznej, jednak jej konstrukcja posłużyła poźniejszym twórcom (głównie Johnowi von Neumannowi) do opracowania dzisiejszych komputerów.
Pomiędzy 1833 i 1842 Babbage próbował znowu, tym razem próbował zbudować maszynę która byłaby programowalna do wykonywania dowolnego rodzaju obliczenia, a nie tylko jednego do wyliczania wielomianów.
  • urządzenie wejściowe używało kart perforowanych (pomysł Josepha Marie Jacquarda)
  • arytmetyczny procesor obliczał liczby
  • jednostka kontrolna, która określała czy podjęte zostało właściwe działanie
  • mechanizm wyjścia
  • pamięć, gdzie liczby mogły być przechowywane czekając na przetworzenie
Było to urządzenie, które było pierwszym na świecie komputerem, zasadniczy projekt pojawił się w 1835, jednakże częściowo z powodu problemów podobnych do poprzednich oraz z powodu konfliktów z mechanikami, którzy budowali części (i trzymali je w zastawie) maszyna nigdy nie została ukończona. W 1842 z powodu ciągłych niepowodzeń w otrzymywaniu funduszy od Pierwszego Lorda Skarbu (First Lord of the Treasury), Babbage poszedł do Sir Roberta Peela po fundusze, Peel odmówił i zaoferował tytuł rycerza (knighthood) co Babbage odrzucił. W tym momencie prace się skończyły.
Babbage otrzymał duże wsparcie od Ady, Lady Lovelace. Była ważnym współpracownikiem, aktywnie promowała maszynę analityczną i dostarczyła kilku programów w czymś co dzisiaj zostało by nazwane językiem maszynowym (assembly language). Dokładna wartość tych programów nie jest znana, możliwe, że po prostu debuggowała programy napisane przez Babbage'a. Ada jest uważana za pierwszego programistę, przynajmniej w teoretycznym tego słowa znaczeniu.
Późne lata
W 1855 dwaj Szwedzi, ojciec i syn Georg i Edvard Scheutz, zbudowali Maszynę Różnicową. Była oparta na projekcie Babbage'a z 1834. Babbage sprawdził ją i zakceptował. W 1859 rząd brytyjski zamówił jedną z nich do użytku w Registrar General's Office. Ale nie miało to wpływu na odmowy zbudowania maszyny analitycznej.
Częściowo dzięki wysiłkom Babbage w tworzeniu tych maszyn Brytyjczycy mieli doskonałą mechanikę na następnych kilka dekad co przyczyniło się to do dominacji brytyjskiej floty podczas WWI.
Promocja rachunku analitycznego:
Po wstąpieniu w 1810 roku na uniwersytet Cambridge Babbage wraz z dwoma wybitnymi kolegami: Johnem Hershelem i Georgiem Peackokiem w 1812 założyli Towarzystwo Analityczne mające publikować zapiski matematyczne. Celem tego towarzystwa,na czele którego stał student George Woodhouse, była promocja analitycznego rachunku (Leibnizian) zamiast rachunku w stylu Newtona używanego wtedy na wyspach brytyjskich bardziej ze względów politycznych niż praktycznych (był niewygodny). Do Towarzystwa należeli także także Sir John Herschel i George Peacock.
W 1814 wydali dwutomowy podręcznik matematyki, z dużą życzliwością przyjęty przez angielskie szkolnictwo. W wieku niewiele ponad 24 lat Babbage został członkiem Royal Society. W 1819 wraz z Herschelem wybrali się do Francji, gdzie spotkali się z Arago, Biotem, Fourierem, Laplacem, Bertholetem. Dla Babbage'a najważniejsze było jednak spotkanie z dyrektorem Szkoły Inżynieryjnej baronem de Prony, którego prace popchnęły Babbage w kierunku maszyn liczących.
W latach 1815-17 napisał trzy artykuły o "Calculus of Functions" dla Philosophical Transactions i od 1816 był członkiem Royal Society.
Babbage zajmował się też , organizacją fabryk. Poświęcił 35 lat życia na konstruowanie maszyn liczących. Można mówić o dwóch zasadniczych projektach, nad którymi pracował i których idee w poźniejszym okresie miały wpływ na informatykę. Był przekonany, że zastosowanie nauk ścisłych do procesów pracy jednocześnie zwiększyło by ich wydajność i obniżyło koszty. Uważał, że każda operacja przemysłowa powinna być analizowana w celu wyodrębnienia różnych zaangażowanych w niej umiejętności. Następnie należałoby wyszkolić robotnika w określonej czynności i powierzyć mu odpowiedzialność tylko za tą czynność całej operacji, a nie za całość zadania. W ten sposób można by ograniczyć kosztowne szkolenie, a ciągłe powtarzanie czynności zwiększałoby wprawę i wydajność robotników.
Inne osiągnięcia:
W 1824 Babbage wygrał Złoty Medal Royal Astronomical Society "za swój wynalazek maszyny do wyliczania tabel matematycznych i astronomicznych.
Od 1828 do 39 był profesorem matematyki w Cambridge. Współpracował z kilkoma czasopismami naukowymi i przyczynił się do założenia Astronomical Society w 1820 i Statistical Society w 1834.
W 1837 odpowiadając na oficjalny Eight Bridgewater Treatises "On the Power, Wisdom and Goodness of God, as manifested in the Creation", opublikował swój Ninth Bridgewater Treatise prezentując tezę, że wszechmocny bóg miał moc przewidywania w akcie twórczym jako boski prawodawca, tworząc prawa (lub programy) które wytworzyły gatunki we właściwym czasie a nie tworzył poszczególne z nich za pomocą cudów. Książka zawierała fragmenty korespondencji z Johnem Herschelem.
Osiągnał także znaczące rezultaty w kryptografii. Złamał słynny szyfr Vigenere'a i jego dużo słabszą wersję, która jest dzisiaj nazywany szyfrem Vigenere. Był powszechnie nazywany "nierozszyfrowalnym szyfrem". Odkrycie Babbage'a zostało użyte w czasie angielskich kampani wojennych i dlatego nie było opublikowane. Z tego powodu odkrycie zostało przypisane Kasiski'emu.
Babbage w 1938 wymyślił także pilota (nazywanego także chwytakiem na krowy) - metalową ramę przymocowaną do przodu lokomotywy. W 1832 walczył o mandat poselski w okręg wyborczym Finsbury.
Maszyna Analityczna:
W wieku 43 lat Babbage zaproponował rozwiązanie, które w praktyce zastosowano dopiero sto lat później. W najmniejszej wersji maszyna analityczna miałaby prawie 5 m wysokości i 8 m długości. Jednocześnie dopuszczalne tolerancje wykonania były w połowie XIX wieku nie do pomyślenia - miały nie przekraczać 50 mikrometrów.
Jednostka licząca miała składać się ze skomplikowanych zespołów kół, tarcz dziesiętnych i połączeń mechanicznych. Podstawowe elementy to dziewięć osi stanowiących tabliczkę mnożenia, trzy wielkie rejestry używane do dodawania, odejmowania i pamiętania wyników. Pamięć składać miała się z pionowych osi z kołami dziesiętnymi (w wersji minimalnej co najmniej 4 tysiące przekładni). Aby wykorzystać liczbę zapisaną w pamięci trzeba było ją przenieść z osi początkowej na oś wtórną, skąd za pomocą skomplikowanego układu zębatek była kierowana do jednostki liczącej.
Komunikacja między maszyną a operatorem wymagała programu. Zapis operacji powierzono trzem walcom kontrolnym. Składały się one z 50 lub 100 listew, a w każdej z nich można było umieścić po 4 kołki. Było więc od 200 do 400 pozycji do zakodowania poleceń. Na przykład kiedy jednostka licząca otrzymywała polecenie mnożenia zapisane na karcie perforowanej, odpowiedni walec był obracany aż do listwy kierującej mnożeniem. Odpowiednie kołki łącząc się z zespołem dźwigni powodowały wykonanie określonej operacji.
Najlepszy opis działania i programowania maszyny analitycznej pochodzi nie od samego Babbage, ale od współpracującej z nim przez pewien czas córki wybitnego angielskiego poety lorda Byrona - Ady Lovelace: "[...] Można powiedzieć, że maszyna analityczna tkać będzie wzory algebraiczne, tak jak krosna Jacquarda tkają liście i kwiaty [...] Maszyna nie rości sobie pretensji do tworzenia czegoś sama z siebie. Może wykonać wszystko co będziemy umieli jej polecić. Może dokonywać analiz, nie jest wszakże zdolna dochodzić związków analitycznych czy prawd. Zadaniem jej jest pomagać wykonywać to, co już opanowaliśmy."_Charles_Babbage (eng.) Charles_Babbage (pl.)
Clifford Berry (1918-1963)
Clifford_Berry
George Boole (1815-1864)
George_Boole (eng.) George_Boole (pl.)
John Presper Eckert (1919-1995)
J._Presper_Eckert (eng.) John_Presper_Eckert (.pl)
Lee De Forest (1873-1961)
Lee_De_Forest (eng.) Lee_De_Forest (pl.)
John Ambrose Fleming (1849-1945)
John_Ambrose_Fleming (eng.) John_Ambrose_Fleming (pl.)
Herman Heine Goldstine (1913-2004)
Herman_Goldstine (eng.) Herman_Heine_Goldstine (pl.)
Thomas (Tommy) Harold Flowers (1905-1998)
Tommy_Flowers
Herman Hollerith (1860-1929)
Herman_Hollerith (eng.) Herman_Hollerith (pl.)
Grace Murray Hopper (1906-1992)
Grace_Hopper
Joseph Marie Jacquard (1752-1834)
Joseph_Marie_Jacquard (eng.) Joseph_Marie_Jacquard (pl.)
Augusta Ada King, kontessa Lovelace (10 XII 1815-27 XI 1852)
Ada była jedynym ślubnym dzieckiem poety Lorda Byrona i jego żony Annabelli Milbanke, kuzynki Lady Caroline Lamb, z którą Byron miał romans będący przyczyną skandalu w ówczesnym Londynie. Ada została nazwana po siostrze przyrodniej Byrona, Auguście Leigh, która rozpuściła pogłoskę, że Byron został ojcem. Za namową Augusty Byron niechętnie poślubił Annabellę, żeby uniknąć skandalu. 16 stycznia 1816 Annabella porzuciła Byrona, zabierają ze sobą miesięczną Adę. 21 kwietnia Byron zawarł z nią umowę o separacji i kilka dni później opuścił Anglię na dobre.
Biografie są rozbieżne w kwestii czy Ada mieszkała ze swoją matką: w jednych można wyczytać, że matka zdominowała jej życie nawet po ślubie, a w innych, że Ada nigdy nie znała żadnego ze swoich rodziców. Jedyne źródło mówi, że Annabella była zamiłowana w matematyce i nauczała jej Adę w dzieciństwie. Ada uczyła się prywatnie matematyki i nauk przyrodniczych; jednym z jej nauczycieli był August De Morgan, aktywny członek Londyńskiej społeczności. W wieku 17 lat uczyła się matematyki pod opieką Mary Somerville, z którą tłumaczyła prace Laplace'a na angielski. W młodości była członkinią Bluestockings.
Jej mężem był William King - ósmy baron Ockham, a później pierwszy hrabia Lovelace.
Znała Mary Fairfax Somerville, uznaną badaczkę i naukowca XIX wieku, która przedstawiła ją z kolei 5 czerwca 1833 r. Charlesowi Babbage. Miała też styczność z Sir Dawidem Brewsterem, Charlesem Wheatstonem, Charlesem Dickensem i Michaelem Faradayem.
Z czasem związała się z pomysłem maszyny analitycznej Charlesa Babbage'a.
O maszynie analitycznej najprawdopodobniej po raz pierwszy usłyszała w listopadzie 1834 roku, gdy jeszcze zamieszkiwała u Mary Somerville; kolejny raz dopiero siedem lat później, jesienią 1841 roku, kiedy to Babbage prezentował plany maszyny na seminarium w Turynie. Kontakt z samym Babbage'em zdobyła dzięki tłumaczeniu artykułu Włocha, niejakiego Menabrea, który opisywał w nim ideę maszyny analitycznej. Gdy zaprezentowała wynik ostateczny - który w rezultacie był trzykrotnie dłuższym tekstem niż oryginał, gdyż zawierał wiele jej własnych sugestii - Babbage od razu poznał się na talencie Lady Ady. Od tej pory prowadzili między sobą bardzo żywą korespondencję, a prócz tego, Lady Lovelace prowadziła pamiętniki, w których tak opisała ideę Babbage'a: "Przewyższa ona swoje poprzedniczki zarówno możliwościami obliczeń, które może wykonać, w ich pewności, dokładności, i w braku konieczności podejmowania przez człowieka inteligentnych decyzji w czasie wykonywania obliczeń". Wspominając o możliwości użycia kart dziurkowanych napisała tak: "Można słusznie powiedzieć, że maszyna analityczna tka algebraiczne wzory podobnie jak krosna Jacquarda tkają materiały w kwiaty i liście.".
W dziewięć miesięcy, w latach 1842-1843, Ada przetłumaczyła dla Babbage'a rozprawę włoskiego matematyka Louisa Menebreana na temat najnowszej propozycji Babbage'a - maszyny analitycznej. Do artykułu dołączyła zbiór uwag, które opisywały szczegółowo metodę obliczania liczb Bernoulliego za pomocą maszyny, opis ten uznano pierwszym komputerowym programem. Przypuszczała, że taka maszyna mogłaby tworzyć grafikę albo komponować muzykę. Babbage nigdy nie zbudował działającego modelu.
Jednak biografowie zanotowali, że Lovelace zmagała się z matematykami i trwa spór, czy Lovelace naprawdę rozumiała dogłębnie idee ukryte za programowaniem maszyny Babbage'a, czy raczej była wykorzystywana przez Babbage'a do celów public relations. Jako jedna z pierwszych kobiet w historii informatyki Lovelace zajmuje ważne politycznie miejsce i przez to ciężko jest oszacować czy jej, czy Babbage'a wkład jest ważniejszy.
Później, w projekcie Babbage'a pełniła rolę teoretyka i metodologa, obmyślając problemy, z którymi po zrealizowaniu maszyna mogłaby się zetknąć. W 1842 roku zostaje przez nią napisany, a w 1843 r. opublikowany, historyczny artykuł, w którym sugeruje, iż maszyna ta nigdy nie będzie mogła wyjść poza program, czyli wytyczne, które nią kierują. Od tej pory uwagę taką zwie się argumentem Lady Lovelace przeciw możliwości skonstruowania sztuczniej inteligencji. Ponad sto lat później (1950) będzie próbował się z nim zmierzyć Alan Turing, w słynnym artykule Computing machinery and intelligence.
Odegrała wielką rolę w pracach Babbage'a, pomagając mu uzyskać finansowe wsparcie ze strony rządu brytyjskiego. Ponieważ tworzyła zestawy instrukcji dla Maszyny Analitycznej może być uważana za pierwszego programistę.
Ada Lovelaca zmarła w wieku 37 lat na raka pozostawiając troje dzieci. Na swoje życzenie została pochowana obok ojca, którego nigdy nie znała, w kościele Świętej Marii Magdaleny w Hucknall, Nottingham.
10 grudnia 1980 r. Ministerstwo Obrony U.S. zatwierdziło opis nowego języka programowania nazwanego "Ada".
Jest jedną z głównych postaci książki The Difference Engine napisanej przez Bruce'a Sterlinga i Williama Gibsona, która opisuje świat w którym maszyny Babbage'a weszły do masowej produkcji i era komputerów zaczęła się o wiek wcześniej.
Biografia Ady LovelaceAda_Lovelace (eng.) Ada_Lovelace (pl.)
Gottfried Wilhelm von Leibniz (1646-1716)
Gottfried_Leibniz (eng.) Gottfried_Wilhelm_Leibniz (pl.)
Jan Łukasiewicz (1878-1957)
Jan_Lukasiewicz (eng.) Jan_Łukasiewicz (pl.)
John William Mauchly (1907-1980)
John_Mauchly (eng.) John_W._Mauchly (pl.)
John Napier (1550-1617)
John_Napier (eng.) John_Napier (pl.)
John von Neumann (1903-1957)
John_von_Neumann (eng.) John_von_Neumann (pl.)
Max Newman (1897-1984)
Max_Newman
Blaise Pascal (1623-1662)
Blaise_Pascal (eng.) Blaise_Pascal (pl.)
Marian Rajewski (1905-1980)
Marian_Rejewski (eng.) Marian_Rejewski (pl.)
George Scheutz (1785-1873)
Per_Georg_Scheutz
Edvard Scheutz
Syn Georga Scheutza.
Wilhelm Schickard (1592-1635)
Przyjaciel Keplera - z Tybingi (Wirtembergia)
Wilhelm_Schickard (eng.) Wilhelm_Schickard (pl.)
Claude Elwood Shannon (30 IV 1916 - 24 II 2001)
Amerykański matematyk i inżynier, profesor Massachusetts Institute of Technology (MIT). Jeden z twórców teorii informacji.
Shannon urodził się w Petoskey, Michigan (był dalekim krewnym Thomasa Edisona), w młodości pracował jako kurier Western Union. W 1932 zaczął studiować na University of Michigan i w końcu trafił na kurs, który wprowadził go w prace George Boole'a i w 1936 uzyskał dyplomy w dziedzinie matematyki i inżynierii elektrycznej. Doktorat obronił w MIT w roku 1940; od roku 1958 był tam profesorem. W latach 1936-40 pracował w MIT, m.in. przy budowie mechanicznego analizatora dyferencjałów opracowanego przez Vannevera Busha. W latach 1941-1972 pracował również w słynnych Laboratoriach Bella. W latach 1958-78 był profesorem MIT. Na emeryturę przeszedł w roku 1978.
Jako jeden z pierwszych pojął doniosłość kodu binarnego i już jako młody człowiek proroczo twierdził, że ciągami zer i jedynek da się opisać tekst, obraz i dźwięk.
Dla upamiętnienia jego osiągnięć uczczono jego prace i obecnie są trzy kopie statuy Shannona: University of Michigan, MIT w Laboratory for Information and Decision Systems i jedna w Bell Labs.
W swojej 1937 MIT pracy dyplomowej "A Symbolic Analysis of Relay and Switching Circuits" udowodnił, że algebra boolowska i arytmetyka binarna może być użyta do uproszczenia sieci elektromechanicznych przekaźników używanych wtedy w telefonicznych przełącznikach rutujących (telephone routing switches). Wtedy odwrócił tą koncepcję i udowodnił także, że można użyć przekaźniki do rozwiązywania problemów algebry boolowskiej. Ten pomysł użycia właściwości elektrycznych do matematyki jest podstawą wszystkich współczesnych komputerów cyfrowych. Stało się to podstawą projektowania obwodów elektrycznych. Stała się szeroko znana w czasie i po WWII. Ówczesne eksperymenty były prowizoryczne i brakowało im teoretycznego rygoru, zapewnionego dopiero przez nowatorską pracę Shannona.
Profesor Howard Gardner, z Harvard University, nazwał ją "prawdopodobnie najważniejszą i najbardziej znaną pracą doktorską stulecia". Została opublikowana w 1938 wydaniu Transactions of the American Institute of Electrical Engineers i w 1940, dała Shannonowi nagrodę Alfred Noble American Institute of American Engineers Award.
Pod wpływem tego sukcesu Vannevar Bush zaproponował Shannonowi przejście do Cold Spring Harbor Laboratory, w celu rozwijania tych samych matematycznych metod do genetyki mendelowskiej, czego rezultatem była praca doktorska w 1940 w MIT, An Algebra for Theoretical Genetics. Póżniej pracował w Bell Labs, a w latach 50-tych wrócił do MIT.
Stworzył modele procesu komunikacyjnego wykorzystywane później przez psychologów. Jego najsłynniejsze dzieło to "Matematyczna teoria komunikacji" (Mathematical Theory of Communication) opublikowana w 1948 roku.
Praca ta koncentruje się na problemie jak odtworzyć w punkcie docelowym informację wysłaną przez nadawcę. Jego późniejsza książka napisana z Warrenem Weaverem, The Mathematical Theory of Communication, jest krótka i zaskakująco przystępna dla niespecjalistów. Inny znany artykuł opublikowany w 1949 toCommunication Theory of Secrecy Systems wkład do rozwoju matematycznej teorii kryptografii. Odznaczył się także wprowadzeniem teorii próbek (Sampling Theory), która zajmuje się reprezentacją ciągłych w czasie sygnałów z (jednolitego) dyskretnego zestawu sampli/próbek.
Znany był z tego, że rzadko zapisywał swoje myśli na papierze lub tablicy woląc wszystko opracować w głowie. Wiele osób potwierdza, że był w stanie napisać całe artykuły akademickie dyktując je z pamięci bez żadnego błędu. Poza swym akademickim zajęciem żonglował, jeździł na monocyklu i grał w szachy. Wynalazł także wiele urządzeń, np. maszynę do grania w szachy, napędzany rakietą kij pogo, przenośny komputer do przewidywania rezultatów ruletki i rzucającą płomienie trąbkę na wystawy naukowe. Swoją żonę, Betty spotkał kiedy był analitykiem liczbowym w Bell Labs.
W roku 1948, zajmując się zagadnieniem przepustowości linii telefonicznych, Shannon opracował wiele ważnych do dziś formuł matematycznych, które stanowią podstawę nowoczesnej teorii informacji. Jego twierdzenia nabrały szczególnego znaczenia praktycznego po wynalezieniu układów scalonych.
"Rewolucja cyfrowa zaczęła się od niego" powiedział na wieść o śmierci wielkiego uczonego słynny amerykański informatyk Neil Sloane, wydawca i redaktor dzieł zebranych Shannona. "Był to jeden z największych umysłów minionego stulecia, bez niego nie istniałyby dziś najważniejsze zdobycze naszej cywilizacji".
Shannon zafascynowany był maszynami liczącymi i urządzeniami, które dziś określilibyśmy mianem gadżetów - zaprojektował np. pianino odtwarzające w kolejności losowej zaprogramowane uprzednio utwory muzyczne, czy samouczącą się mysz (znajdowała drogę przez labirynt, na którego końcu Shannon kładł kawałek sera). Pracował także nad sztuczną inteligencją, rozwijając koncepcje maszyn Turinga, czego efektem było m.in. stworzenie w 1956 r. komputera szachowego Maniac. Zafascynowany algebrą Boole'a starał się znaleźć jej zastosowanie w programowaniu przełączników obwodów elektrycznych.
Claude Shannon znany był z tego, że uprawianie nauki było dla niego nie tylko poważnym zajęciem, ale również radością i zabawą. Dla czystej zabawy na przykład skonstruował dziwaczną maszynę o nazwie THROBAC-I, która liczyła, wykorzystując rzymski zapis liczb.
Shannon opracował zasady wyspecjalizowanego komputera do tej gry na blisko pół wieku przed głośnym meczem szachowym Garego Kasparowa z komputerem Deep Blue.
Zmarł 24 lutego 2001 po długotrwałych zmaganiach z chorobą Alzheimera.
Claude_E._Shannon (eng.)Claude_Elwood_Shannon (eng.)
Alan Mathison Turing (23 VI 1912 - 7 VII 1954)
Angielski matematyk, logik, kryptograf, twórca maszyny Turinga i jeden z twórców informatyki. Znany też z prac nad łamaniem niemieckich szyfrów w czasie II wojny światowej oraz jako twórca (1950) tzw. testu Turinga - eksperymentu będącego próbą formalnego zdefiniowania sztucznej inteligencji.
Był szanowanym naukowcem i bohaterem wojennym, później prześladowanym za homoseksualizm. Umarł śmiercią samobójczą w wyniku depresji spowodowanej przymusowym "leczeniem" hormonalnym jego homoseksualizmu.
Na jego cześć powstała Nagroda Turinga (Turing Award).
Był maratończykiem klasy światowej, najlepszy czas 2h46m3s był tylko 11 minut dłuższy niż zwycięzcy Olimpiady z 1948.
Znaczący wkład w formalizację koncepcji algorytmu i informatyki przez maszyne Turinga, formułując szeroko dzisiaj znaną wersję pracy Church-Turing, mianowicie każdy model komputera jest odpowiednikiem lub podzestawem możliwości maszyny Turinga. W Blechtley Park w czasie WWII był głównym uczestnikiem łamania niemieckich szyfrów, był szefem Hut 8, grupy zadaniowej łamiącej Enigmę marynarki. Po wojnie zaprojektował jeden z pierwszych programowalnych komputerów cyfrowych w National Physical Laboratory, zbudował także inną maszynę na University of Manchester.
Został poczęty w 1911 w Chatrapur (Indie) jego ojciec, Julius Mathison Turing był członkiem indyjskiej służby cywilnej, ponieważ z żoną (Ethel) chcieli by się wychowywał w Anglii wrócili do Paddington (Londyn), z powodu obowiązków ojca wczesne dzieciństwo upłynęło na podróżach między Guildford (Anglia) a Indiami. Już wtedy wykazywał nadzwyczajne umiejętności, podobno nauczył się sam czytać w ciągu trzech tygodni i lubił łamigłowki i puzzle.
Rodzice zapisali go do St. Michael dzienna szkoła w wieku 6 lat.
W 1926 w wieku 14 lat poszedł do Sherborne boarding school w Dorset. Jego pierwszy dzień wypadł w strajk generalny i sam przejechał rowerem ponad 60 mil z Southampton nocując w zajeździe, co opisano w lokalnej gazecie.
Naturalne zdolności w dziedzinie matematyki i nauki zostały zauważone przez nauczycieli w Sherborne (znana i droga szkoła publiczna, brytyjska prywatna szkoła ze statusem charytatywnej) gdzie raczej uczono przedmiotów klasycznych.
W 1928 (16 lat) przeczytał pracę Einsteina, nie tylko zrozumiał ją, ale przewidział zakwestionowanie przez niego praw Newtona, mimo, że nikt mu tego tekstu nie objaśniał.
Z powodu niechęci do klasyki nie dostał się do Trinity College, Cambridge i poszedł do King's College, Cambridge.
Studiował u G.H. Hardy'ego znanego matematyka, który miał Sadleirian Chair w Cambridge (31-34). W 1925 został wybrany na Fellow at King's College. Hardy był członkiem niesławnego kręgu Apostatów Cambridge, ale nie wiadomo czy nie zaproponował Turingowi przyłączenia się czy może Turing odmówił.
W celu ścisłego zdefiniowania procedury algorytmicznej wprowadził w 1936 r. pojęcie maszyny (maszyna Turinga). Pomysł polega na potraktowaniu formuł (równań) matematycznych jako programów kierujących obliczaniem, z którymi współdziałają urządzenia do wczytywania danych i zapisu wyników oraz pamięci. Maszyna zaopatrzona w program do naśladowania wszystkich możliwych tego rodzaju obliczeń, nazwana przez Turinga uniwersalną, stanowi teoretyczny projekt komputera cyfrowego. Wynik główny należy do logiki i podstaw informatyki. Jest nim dowód, że dla każdej maszyny istnieje liczba, której ona nie jest w stanie obliczyć, a więc że istnieją w matematyce problemy nierozstrzygalne. Wynik ten uzyskał Turing dzięki metodzie kodowania formuł-programów w postaci liczb naturalnych (której wzór dał Gödel w 1931 r.). Dzięki temu, przy zastosowaniu tzw. dowodu przekątniowego Cantora, staje się widoczne, że zbiór wszystkich maszyn (zdolnych obliczać z dowolną dokładnością nieskończone rozwinięcia dziesiętne), jako równoliczny ze zbiorem liczb naturalnych (co widać dzięki zakodowaniu), jest przeto mniej liczny niż zbiór wszystkich liczb mających takie rozwinięcia. A więc istnieją liczby nie dające się policzyć na żadnej maszynie.
W swojej słynnej pracy "On Computable Numbers, with an Application to the Entscheidungsproblem" (złożonym 28 V 1936) przeformułował wyniki Kurta Gödela o ograniczeniach dowodów i obliczeń, zamieniając formalny język oparty na uniweralnej arytmetyce przez proste i sformalizowane urządzenia zwane dzisiaj maszynami Turinga. Dowiódł, że taka maszyna będzie w stanie przeprowadzić każdy wyobrażalny problem matematyczny jeśli tylko można przedstawić go w formie algorytmu - nawet jeśli żadna rzeczywista maszyna Turinga nie będzie miała zastosowania będąc znacznie wolniejsza niż inne rozwiązania. Maszyny Turinga do dzisiaj są głównym przedmiotem badań w teorii obliczeń. Udowodnił, że nie ma rozwiązania Entscheidungsproblem przez pokazanie, że nie da się oszacować kiedy maszyna Turinga skończy pracę, nie jest nawet możliwe określenie czy w ogóle skończy.
W 1938 dostał stopień doktora w Princeton, jego rozprawa wprowadziła wyobrażenie hypercomputation - maszyny Turinga zostały uzupełnione o tzw. wyrocznie, pozwalając badać problemy, których nie można rozwiązać algorytmicznie.
W Cambridge w 1939 słuchał wykładów Ludwiga Wittgensteina o podstawach matematyki. Turing bronił formalizacji, natomiast Wittgenstein twierdził, że matematyka jest przewartościowana i nie odkrywa żadnych absolutnych praw.
Kryptoanaliza:
W czasie WWII był najważniejszym naukowcem w Bletchley Park. Do lat 70-tych było to tajemnicą, nawet jego bliscy przyjaciele o tym nie wiedzieli. Prowadził prace nad Enigmą i maszyną Lorenz SZ 40/42. Zrozumiał, że nie jest potrzebne przetestowanie wszystkich możliwych kombinacji do złamania Enigmy, dowiódł, że było możliwe przetestowanie poprawnych ustawień rotorów (około 1M kombinacji) bez analizy ustawieńplugboard (około 157M kombinacji). Chociaż nadal było to trudne zadanie było wykonalne przy użyciu elektromechanicznych maszyn - bomb (nazwanych tak od polskiego projektu), które mogły służyć do eliminacji dużej liczby ustawień Enigmy. Dla każdego możliwego ustawienia, łańcuch logicznych dedukcji był implementowany elektrycznie i można było wykryć kiedy zachodzi sprzeczność i ustawienie można odrzucić/wykluczyć. Bomba Turinga z udoskonaleniami zaproponowanym przez matematyka Gordona Welchmana była podstawowym narzędziem używanym przez brytyjskich i amerykańskich kryptoanalityków (pod koniec WWII ok. 200 szt). Projekt i produkcja - Harold Keen z British Tabulating Machine. W tym czasie Turing był szefem Hut 8 sekcji odpowiedzialnej za łamanie niemieckich szyfrów floty. wymyślił także technikę Banburismus do pomocy łamania Enigmy.
Wymyślił metody na złamanie Tummy, nazwane Turingismus lub Turingery, choć niebyła to jedyna zastosowana metoda. Ostatecznie do łamania szyfrów Tummy zbudowano komputery Colossus (zaprojektowane i zbudowane w Post Office Research Station w Dollis Hill pod kierownctwem Thomasa Flowersa w 1943). Turing nie brał w tym bezpośredniego udziału.
W późniejszym okresie wojny Turing podjął (z inżynierem Donaldem Bayley'em) projekt przenośnej maszyny o nazwie kodowej Delilah, mającym umożliwić bezpieczną komunikację głosową. W tym czasie uczył się teorii elektroniki. Zbudowano ją zbyt późno żeby weszła do użytku na wojnie, chociaż Turing zademonstrował ją oficjelom kodując/dekodując nagranie mowy Churchilla. Nigdy nie została zastosowana.
Wczesne komputery i Test Turinga.
1945-47 był w National Physical Laboratory, gdzie pracował nad projektem ACE (Automatic Computing Engine), pomino sukcesów ze względu na opóźnienia w rozpoczęciu projektu stracił nadzieje na osiągnięcie powodzenia i pod koniec 1947 wrócił do Cambridge. W 1949 prowadził laboratorium informatyczne University of Manchester i pracował nad oprogramowaniem dla jednego z pierwszych prawdziwych komputerów Manchester Mark I.
W tym czasie kontunuował bardziej abstraktcyjne prace i w "Computing machinery and intelligence" (Mind, X 1950) podjął problem sztucznej inteligencji i zaproponował eksperyment znany jako test Turinga, próba zdefiniowana standardu dla maszyny, która mogłaby zostać określona jako świadoma.
W latach 40-tych zaczął pisać program szachowy dla komputera, który jeszcze nie istniał, w 1952 z powodu braku mocy obliczeniowej do wykonania programu zagrał partię gdzie symulował komputer, jeden ruch zajmował około pół godziny, gra została zarejestrowana ale program zaginął.
Praca nad tworzeniem wzorów i matematyczną biologią:
1952-54 pracował nad matematyczną biologią, głównie morfogenezą. Opublikował artykuł "The Chemical Basis of Morphogenesis" w 1952. Jego głównym zainteresowaniem było zrozumienie Fibonacci phyllotaxis, obecności liczb Fibonacciego w strukturach roślinnych.
Używał równań reakcja dyfuzja, które teraz są główne na polu tworzenia wzorów.
Późne prace pozostały nieopublikowane aż do 1992 (Collected Works of A.M. Turing)
Prześladowania za homoseksualizm i śmierć:
W 1952 jego kochanek był uwikłany we włamanie i kradzież. Turing poszedł na policję, w wyniku śledztwa został oskarżony o związek seksualny z 19-latkiem, z czego groziły mu kary za zgorszenie i zboczenie seksualne. Nie okazał skruchy i nie bronił się, został skazany. Dano mu wybóru więzienie lub kurację hormonalną redukującą libido. Wybrał zastrzyki hormonalne - estrogen - co trwało rok i urosły mu piersi. W 1954 umarł po zjedzeniu połowy jabłka zatrutego cyjankiem, uważa się to za samobójstwo, chociaż jego matka zawzięcie tłumaczyła to przypadkiem wynikłym na skutek niedbałego traktowania chemikaliów, ale możliwe, że w ten dziwny sposób się zabił żeby umożliwić swojej mamie inne wyjaśnienie śmierci.
Nagroda Turinga (Turing Award) jest przyznawana przez Association for Computing Machinery - powszechnie uważana za odpowiednik Nobla w informatyce.
Latem 2004 powstał Instytut Alana Turinga (UMIST i University of Manchester).
_Alan_Turing (eng.) Alan_Mathison_Turing (pl.)
Konrad Zuse (1910-1995)
The Life and Work of Konrad Zuse by Prof. Horst ZuseKonrad Zuse102.pdf 0616.pdfKonrad_Zuse (eng.) Konrad_Zuse (pl.)

Słownik pojęć

Architektura von Neumanna
to do
Von_Neumann_architecture Architektura_von_Neumanna
Komputer
Jaki jest każdy widzi.
Maszyna Turinga
W 1936 roku Turing zajmował się on problemem z dziedziny czystej matematyki - możliwością użycia metod standardowych, schematycznych, do znajdowania rozwiązań problemów matematycznych. Wiele czynności przy dowodzeniu teorematu sprowadza się bowiem do mechanicznego operowania symbolami wedle określonych reguł. Procedura mechaniczna jest krokowym, dokładnie określonym, jednoznacznym operowaniem symbolami. Wyraża ją algorytm, opis postępowania w każdym wyznaczonym stanie.
Zasługą Turinga jest stworzenie szczególnie eleganckiej i prostej postaci takiej maszyny, nazywanej na jego cześć Maszyną Turinga. Maszyna ta jest abstrakcyjna - zamiast arkusza papieru ma wyobrażoną nieskończoną jednorzędową taśmę na której kratkach zapisuje symbole. Każda komórka taśmy może być albo pusta lub zawierać jeden symbol ze skończonego ich zbioru, np. liczb lub liter alfabetu. Maszyna Turinga ma jakby "głowicę odczytująco-zapisującą", może więc określać jaki symbol znajduje się w danej komórce oraz zmienić go na inny, oczywiście wedle wskazanych reguł.
Mniej więcej w dziesięć lat po pierwszej sugestii Turinga, matematyk John von Neumann i kilku jego kolegów uświadomiło sobie znaczenie logicznego schematu Turinga i zaczęło pracować nad jego urzeczywistnieniem w układach fizycznych, które działały jako procesory logiczne.Turing_machine Maszyna_Turinga
ONP

Polish_notation Notacja_polskaOdwrotna_notacja_polska Reverse_Polish_notation
maszyna von Neumanna

Zmienny wewnętrzny program działania. Ta przełomowa idea programowania pamięci została wymyślona przez Johna von Neumanna. Komputer mógł więc być programowany przez te same zewnętrzne urządzenia, klawiaturę czy taśmę perforowaną, które służą do wprowadzania danych. Mógł też szybko i łatwo zmieniać swoje działanie stosownie do uzyskiwanych wyników pośrednich.
Nową i niezwykle ważną cechą schematu komputera von Neumanna było to, że programy i dane magazynuje w ten sam sposób, czyli jako ciągi cyfr dwójkowych. Program, tzn. zbiór rozkazów do dodawania, odejmowania lub manipulowania danymi, jest wprowadzany razem z samymi danymi do pamięci komputera. Procesor arytmetyczny maszyny odróżnia rozkazy od danych wyłącznie na podstawie ich różnego miejsca w pamięci.

 
 

Konstrukcje

 

ABC
to do
Apple

Apple_Computer Apple_I Apple_II_family Apple_Lisa Apple_Macintosh
Atari

Atari_ST
CSIRAC

CSIRAC
Colossus

Bombe Lorenz_SZ_40/42 Colossus_computer
Commodore

Commodore_International Commodore_PET Commodore_64 Amiga A1000
DEC PDP

EDVAC

EDVAC (eng.) EDVAC (pl.)
EDSAC

EDSAC (eng.)
ENIAC
to do
ENIAC (eng.) ENIAC (pl.)
IBM

IBM_PC_compatible IBM_PC
Intel

Intel
LEO

LEO_computer
MITS Altair 8800

Pentium
to do
Pentium (eng.)
Sinclair

Sinclair_Research Sinclair_ZX80 Sinclair_ZX81 ZX_Spectrum
SSEM

Small-Scale_Experimental_MachineManchester_Mark_I
Tandy

TRS-80
TX-0

TX-0
UNIVAC

VAX

ZiLOG

ZiLOG Zilog_Z80
Ogólnie
Artykuły
Konkretne urządzenia
Liczydło
Mechanizm z Antikythery
Paskalina
Maszyny Babbage'a
YT

inne: Czy komputer przecieka? Proroctwa Billa Gatesahttp://www-db.stanford.edu/~backrub/google.html The Anatomy of a Large-Scale Hypertextual Web Search EngineReport on Last Decade of Online AdvertisingA History of the Microprocessor http://www.intel.com/intel/museum/25anniv/ index.htm History of IBM http://www.ibm.com/ibm/history/ Computing's Millennium Timeline http://www2.vnu.co.uk/v5_static/v5_features/ timelines The Virtual Altair Museum http://exo.com/~wts/wts10005.HTM The Apple Museum http://www.applemuseum.seastar.net/ The Virtual Museum of Computing http://www.nma.gov.au/vlmp/ computing.html#museums Mind Machine Museum http://userwww.sfsu.edu/~hl/mmm.html Obsolete Computer Museum http://www.obsoletecomputermuseum.org/ http://www.chip.pl/archiwum/article_10617.html Zaplątani w Sieć [2001-03-8] http://www.telegeography.com/