Historia komputerów

Motto:

Everything melted into mist. Sometimes, indeed, you could put your finger on a definite lie. It was not true, for example, as was claimed in the Party history books, that the Party had invented aeroplanes. He remembered... (George Orwell "1984")

Internet? To niebieskie "e" na pulpicie? (ZU)

1.Mechaniczne maszyny liczące

Ostatnia aktualizacja 20 IX 2005.

Mechaniczne maszyny liczące

Starożytność

Naturalnym sposobem pomagania sobie w obliczeniach było odkładanie kamieni, a sposobem zapisu karbowanie kresek na kiju. http://www-users.mat.uni.torun.pl/~witmar/kalendarium.html

Najstarszym powszechnie używanym przyrządem służącym do liczenia było liczydło (angielski i łacina abacus z greckiego abaks). Było szeroko znane w całej starożytności od Europy aż po Chiny. Miało wiele zróżnicowanych form. Najczęściej była to prostokątna deska z wyżłobionymi rowkami, w których ułożone kamyki oznaczają poszczególne pozycje przedstawianej cyfry - dodając i odejmując kamienie w rzędach wykonywało się operacje arytmetyczne. Dość dobrze znamy konstrukcję liczydeł używanych w Imperium Rzymskim i bardzo podobne (najprawdopodobniej tego samego pochodzenia) z Chin i Japonii.

Rzymianie używali również kamyczków tzw. calculi (stąd pochodzi słowo kalkulować).

Najstarszym znanym mechanicznym urządzeniem liczącym był mechanizm odnaleziony we wraku statku koło wyspy Antikythera (i stąd jego nazwa, wszędzie jest określany jako "mechanizm z Antikythery"). Jego odnalezienie, a ściśle rzecz biorąc rekonstrukcja wykonana na podstawie zdjęć rentgenowskich - bo samo znalezisko jest bardzo zniszczone - wywołało sensację ponieważ brak jest pisanych źródeł na temat podobnych urządzeń w tamtych czasach.

Skonstruowany prawdopodobnie na Rodos około 87 roku ne. Składał się z 37 kół zębatych wykonanych z brązu umieszczonych w drewnianej ramie. Przypuszcza się, że służył do obliczeń astronomicznych.

Starożytny komputer zrekonstruowany [2006-12-04], Greek solar computer reconstructed

Znanymi z zapisów historycznych mechanizmami są Automaty Herona, około 100 roku n.e.

Używany obecnie system zapisu cyfr (tzw. arabskich) pochodzi z sanskrytu - pisma starożytnych Indii. Nawet współczesny wygląd cyfr niewiele różni się od sanskryckich. Brakowało tam tylko zera.

W Euroazji najstarszym znanym autorem traktującym zero jako liczbę jest hinduski matematyk Brahmagupta, autor traktatu "Brahmasphutasiddhanta" (628 ne.).

Od Hindusów ten system zapisu liczb wraz z zerem przejęli Arabowie. Za ich pośrednictwem dotarł do Europy i bardzo szybko stał się popularny wypierając niewygodne w odczytywaniu i nie nadające się do obliczeń rzymskie cyfry.

Ok. 200 n.e. - liczydła sau-pan w Chinach i soro-ban w Japonii.

Do XIX wieku

1274 Ramon Lull, kataloński franciszkanin, filozof i teolog.

W okresie Renesansu słynne były androidy-marionetki braci Jaquet-Droz (np. Rysownik, Skryba, Muzyk, Pisarz).

Ars magna generalis et ultimata - symboliczny język filozofii - początki języków algorytmicznych, urządzenie do "dowodzenia prawd" za pomocą diagramów logicznych.

W Europie nowożytnej idea użycia maszyn (arytmometrów) do rozwiązywania problemów matematycznych sięga początków XVII wieku.

John Napier znany jest jako odkrywca logarytmów naturalnych (co nie jest prawdą). Matematyka jednak zawdzięcza mu zapoczątkowanie współczesnej notacji ułamków - kropka dziesiętna - oraz tzw. kostki Napiera. Wymyślił bardzo pomysłowy i prosty w zastosowaniu, chociaż niełatwy do wyjaśnienia, sposób zastąpienia skomplikowanego mnożenia przez proste dodawanie za pomocą przyrządu przypominającego liczydło. Swoje odkrycie opublikował w dziele "Rabdologia" (1617). W 1620 Edmund Gunter przedstawił skalę logarytmiczną.

Korzystając z tych odkryć w 1622 William Oughtred wynalazł suwak logarytmiczny, który wyparł kostki Napiera.

W 1623 Wilhelm Schickard (profesor z Heidelbergu) wykonał swój "zegar liczący". Była to 6-cyfrowa maszyna umożliwiająca dodawanie i odejmowanie (działała na zasadzie sumowania obrotów kół połączonych przekładnią), przepełnienie sygnalizowała dzwonkiem. Nie przetrwała żadna oryginalna maszyna a plany zaginęły. Przypadkiem zostały odnalezione w 1935, znów zaginęły w czasie wojny i zostały znowu odnalezione (przez tego samego człowieka) w 1955. Urządzenie zostało zrekonstruowane w 1960 i działa.

1633 Athanasius Kircher, pierwszy europejski podręcznik szyfrowania informacji. Powstaje kryptologia.

W 1642 19-letni Blaise Pascal skonstruował 5-cyfrową maszynę dodającą, z współzależnymi przekładniami zębatymi i automatycznym przenoszeniem na następną pozycję, tzw "paskalinę" (ang. "Pascaline") znaną też jako sumator Pascala. Posiadała kilka tarcz obracanych stylusem - wykręcanie kolejnych cyfr poruszało mechanizm dodający, a suma była wyświetlana w okienkach na tarczami.

Była przeznaczona dla jego ojca zajmującego się pobieraniem podatków: "Nie jest bowiem rzeczą godną wykształconego człowieka, by tracić godziny pracując jak niewolnik nad obliczeniami, które wykonać mógłby każdy, gdyby użyto w tym celu maszyny".

Mogła zostać udoskonalona i wspierać więcej cyfr, ale nie mogła odejmować i prawdopodobnie była mniej niezawodna niż prostsza metoda Schickarda. Chociaż wykonał wiele egzemplarzy (około 15 nawet sprzedał - niektóre 8-cyfrowe - i kilka z nich przetrwało do dziś) prawdopodobnie nie znalazła szerszego zastosowania.

Ale jej znaczenie polega na czymś innym: maszyna Schickarda została zapomniana - Pascal w ogóle nie wiedział o jej istnieniu - a "paskalina" stała się znana i zapoczątkowała koncepcję maszyny liczącej w społeczności intelektualnej.

1666 - S. Morland buduje sumator mechaniczny.

W 1673 Gottfried Wilhelm von Leibniz zaprojektował maszynę liczącą (ang. "Stepped Reckoner"), wykonał ją niejaki Olivier. Używała ruchomej karetki i mogła mnożyć 5 i 12-cyfrowe liczby z wynikiem do 16 cyfr. Leibniz udoskonalił pomysł Pascala wprowadzając dodatkowy mechanizm - koło krokowe, co umożliwiło mnożenie i dzielenie.

Użytkownik musiał obrócić korbą raz na każdą jednostkę w każdej cyfrze w mnożniku, żłobkowany bęben zamieniał obroty w wynik dodawania. Ale mechanizm wymagał interwencji użytkownika i nawet wtedy nie zawsze działał. Urządzenie po kilku latach dostało się na strych i było tam aż do 1879, kiedy zauważył je człowiek reperujący dziurawy dach.

Leibniz wynalazł również system dwójkowy.

Abakus w swojej klasycznej postaci był używany w Europie aż do XVIII wieku, kiedy wyparło go znane jeszcze do niedawna liczydło zbudowane z ramy i i przesuwanych na prętach kulkach. Szybsze i bardziej niezawodne.

1726 - A. Braun, ulepszenie sumatory Morlanda, używane jeszcze do niedawna.

1786 idea "maszyny różnicowej", autorstwa żołnierza armii Hesji, J. H. Muellera.

Około 1790 roku Thomas Jefferson i doktor matematyki Robert Patterson użyli maszyny szyfrującej, zastosowany przez nich szyfr kołowy został wkrótce zapomniany. Odkryli go ponownie w czasie II wojny światowej specjaliści z USNavy i nazwali szyfrem paskowym.

XIX i XX wiek

1805 - Francuski tkacz jedwabiu Józef Maria Jacquard stosuje karty perforowane do sterowania automatycznym krosnem, tkanie skomplikowanych jedwabnych wzorów wymagało instrukcji wydziurkowanych na tysiącach kart.

Abraham Jakub Stern (prapradziadek Słonimkiego) od 1810 konstruował maszyny liczące. Został ściągnięty przez Stanisława Stazica z Hrubieszowa do Warszawy. Jego dziełem był np "trianguł ruchomy", kalkulator mechaniczny wykonujący wszystkie 4 działania oraz maszyna do wyciągania pierwiastów kwadratowych. W 1817 zaprezentował maszynę będącą połączeniem dwóch poprzednich. Od 1830 członek Towarzystwa Przyjaciół Nauk.

Przełomową rolę historii maszyn liczących odegrał Charles Babbage. Pomimo, że żaden z jego projektów nie został ukończony razem ze swoimi współpracownikami (głównie z Adą kontessą Lovelace) stworzył teoretyczne podwaliny informatyki, zapoczątkował takie pojęcia jak rozgałęzienia warunkowe, pętle iteracyjne i indeksy zmiennych.

Uważa się, że Babbage był człowiekiem wyrastającym ponad swoje czasy, większość historyków uważa, że nie dokończył swoich projektów tylko dlatego, że nie pozwalała na to ówczesna technologia.

Do prac nad zmechanizowaniem obliczeń pchnęły go liczne błedy w używanych przez niego tablicach logarytmicznych Królewskiego Towarzystwa Astronomicznego. Podobno poirytowany zadeklarował:

I wish to God these calculations had been performed by steam!

W 1812 Babbage wskazał na analogię pomiędzy maszyną a matematyką: maszyna może wykonywać powtarzające się działania bez błędów, a wiele obliczeń matematycznych np. tworzenie tablic matematycznych często wykorzystuje powtarzające się wielokrotnie te same kroki obliczeń.

Jego urządzenia były w całości mechaniczne, składały się z brązowych kół zębatych i przekładni.

Pierwszym urządzeniem była Maszyna Różnicowa (Difference Engine) i jak sama nazwa wskazuje była wyspecjalizowana w rozwiązywaniu równań różniczkowych. W 1822 przedstawił projekt trwale zaprogramowanego kalkulatora, do obliczania i tabularyzowania wielozmiennych funkcji metodą różnic skończonych. Operator musial kręcić korbą, maszyna obliczała tablice logarytmów i zapisywała wynik na metalowej blaszce. Wspólnie z Josephem Clementem udało się zbudować prototyp jednego jej modułu.

Prace nad maszyną posuwały się wprawdzie powoli naprzód, lecz po czterech latach bez rezultatu, konflikty konstruktora z głównym wykonawcą uniemożliwiły ich kontynuację.

Tymczasem Babbage zaczął myśleć o nowej, lepszej maszynie, jeszcze bardziej skomplikowanej i wielozadaniowej.

Po dziesięciu latach zarzucił prace na rzecz swojego następnego projektu, pierwszego urządzenia, które było czymś więcej niż kalkulatorem - Maszyny Analitycznej (Analytical Engine). Było to uniwersalne urządzenie obliczeniowe, miało być napędzane parą i składać się z ponad 50 tysięcy elementów. Planował użyć kart perforowanych, którymi Joseph Jacquard zautomatyzował pracę krosien tkackich w warsztatach w Lyonie. Chciał zastosować je do sterowania pracą nowej maszyny, która - jak to napisała lady Ada: "ma tkać wzory algebraiczne tak, jak krosna Jacquarda tkają kwiaty i liście." Dodawanie 40-cyfrowych liczb zajmowało urządzeniu trzy sekundy, a mnożenie i dzielenie - około czterech minut. Ta niezmiernie skomplikowana maszyna składała się z części, które mogą być porównane z funkcjami współczesnych komputerów:

  • "The Mill" (Młyn): centralny obszar przetwarzania danych - przetwarzanie instrukcji w dowolnych sekwencjach, skoki warunkowe
  • "The Store" (Skład): pamięć - mogła przechować tysiąc liczb o długości do 50 cyfr
  • programy i dane wprowadzano w formie kart perforowanych, miała też dziurkacze do ich zapisywania, czyli swego rodzaju drukarkę

George Scheutz czytał o maszynach Babbage'a w 1833 i razem ze swoim synem Edvardem Scheutzem zaczął pracować nad mniejszą wersją. Do 1853 skonstruowali maszynę, która mogła przetwarzać 15-cyfrowe liczby i wyliczać różniczki czwartego rzędu. Jego maszyna zdobyła złoty medal na Wystawie Paryskiej w 1855. Sprzedali ją Obserwatorium Dudley'a w Albany (Nowy Jork) gdzie była używana do obliczania orbity Marsa. Jej ulepszony model był wykorzystany do obliczania tablic statystycznych średniej długości życia, potrzebnych do ustalania stawek ubezpieczeniowych.

George Boole zajmował się pracami teoretycznymi w dziedzinie logiki. Udoskonalił system dwójkowy, co pozwoliło na prezentację dowolnych równań matematycznych w postaci prostych logicznych instrukcji. Jego prace opublikowano w latach 1839-65.

W latach 1847 i 1854 opublikował prace pozwalające na prezentacje wyrażeń logicznych za pomocą wyrażeń algebraicznych znane dzisiaj jako "Algebra Boole'a".

Na podstawie prac Boole'a inny angielski matematyk Augustus DeMorgan określił operacje logiczne nazywane dzisiaj prawami lub przekształceniami DeMorgana. Jednak te dokonania pozostały jednak niezauważone przez większą część wieku.

1886 William S. Burroughs buduje pierwszy powszechnie sprzedawany mechaniczny sumator

W 1886 roku Dorr E. Felt zaprezentował Comptometer - pierwszy kalkulator obsługiwany za pomocą klawiatury, a nie np. przez wykręcanie cyfr na tarczy.

Po raz pierwszy w praktyce pomysł użycia kart dziurkowanych odczytywanych przez elektroniczne czujniki i maszynowe przetwarzanie danych został zastosowany przez amerykańskiego wynalazcę Hermana Holleritha.

Po pewnych udoskonaleniach maszyna Holleritha stała się sorterem - maszyną powszechnie używaną do masowych obliczeń statystycznych. Każdy otwór w karcie reprezentował jedną cyfrę, a kombinacja 2 otworów przedstawiała literę. Na jednej karcie można było zakodować ok. 80 danych. Karty perforowane używane były w wielu zastosowaniach aż do 1960 roku. 1889 Patent Holleritha na maszynę do tabulacji; rok później Hollerith buduje elektromechaniczną maszynę do tabulacji użytej do opracowania danych ze spisu powszechnego.

Hollerith opracował karty o wymiarach 7,5 na 12,5 centymetra z dwunastoma rzędami po 20 otworów, które oznaczały wiek osoby, jej płeć, miejsce urodzenia, stan cywilny, liczbę dzieci itp. Akwizytorzy zbierali dane do spisu i przenosili odpowiedzi na karty, dziurkując odpowiednie otwory. Karty były wprowadzane do urządzenia rejestrującego i za każdym razem, gdy metalowa igła trafiała w otwór, zamykał się obwód elektryczny i informacja była zapisywana w zespole tarcz rejestrujących.

Elektryczny system tabulacyjny Holleritha, jak nazywano aparat, przeprowadził przy spisie w roku 1890 obliczenia dla 62 622 250 osób. Holerith udoskonalił później swój wynalazek dodając do wyposażenia przystawki, w postaci automatycznych podajników kart.

W USA spisy powszechne były przeprowadzane co dziesięć lat. Obliczanie wyników spisu z 1880 zajęło prawie siedem lat. Ponieważ w międzyczasie znacznie wzrosła liczba ludności, więc obawiano się, że wyniki spisu z 1890 będą znane dopiero w przyszłym stuleciu, co stawiało pod znakiem zapytania sens ich organizowania. Żeby przyspieszyć liczenie US Census Bureau użyło maszyn na karty dziurkowane Hermana Holleritha. Pozwoliło to obliczyć wyniki w sześć tygodni.

Dzięki temu sukcesowi Hollerith w 1896 założył Tabulating Machine Company. W 1911 połączył się z konkurencją i jego przedsiębiorstwo stało się największym producentem maszyn liczących. Firma ta od 1924 znana jest pod nazwą IBM (International Business Machines).

Elektroniczne maszyny liczące

1903 Nicola Tesla patentuje elektryczne bramki logiczne.

1904 John Ambrose Fleming wynalazł lampę elektronową, dwuelektrodową (diodę), a w 1906 Lee De Forest, skonstruował lampę trójelektrodową (triodę). Może pełnić rolę przekaźnika, a dzięki temu, że nie zawiera żadnych elementów mechanicznych działa dużo szybciej. Pierwsze używane w komputerach lampy nie były wcale bardziej niezawodne od swoich mechanicznych odpowiedników. Były po prostu około tysiąca razy szybsze.

Elektromechaniczną technikę obliczeniową na zasadach logicznego programowania oparł Leonardo Torres. Jako pierwszy zbudował w 1915 roku w Hiszpanii maszynę mogącą podejmować decyzje o metodzie dalszych obliczeń w zależności od uzyskiwanych wyników pośrednich. Wykazał jej przydatność dla rozwiązywania końcówek szachowych, a także dla praktycznych zastosowań matematyki.

1910-20 Podstawy matematyki, rachunek zdań - B. Russel, A. Whithead.

1920 Jan Łukasiewicz jest autorem tzw. Notacji Polskiej; Odwrotna Notacja Polska (ONP).

1923 Słowo "robot" pojawia się w książce Karola Capka, "R.U.R. - Uniwersalne Roboty Rossuma"

1924 Z przekształcenia działającej od 1911 roku firmy "Computer Tabulating Company" powstaje IBM, International Business Machines

1926 Almanach nautyczny i obliczenia astronomiczne: w 1714 roku z powodu błędów w nawigacji nastąpiła katastrofa floty brytyjskiej. Ustanowiono nagrodę 20.000 funtów za sposób określania położenia na morzu. Część nagrody dostali Tobias Mayer i Leonard Euler, opracowali tablice położenia księżyca, potem Królewskie Obserwatorium wydało Almanach Nautyczny. Leslie Comrie - z powodu działań wojennych wzrosło zapotrzebowanie na dokładne określanie położenia, zmechanizowanie obliczeń Almanachu, od 1926 roku

Pierwsze centra obliczeń astronomicznych.

1928 Vladimir Zworkin, rosyjski imigrant w USA, wynalazł kineskop

1931 Budowa arytmometru ósemkowego.

1931 Vannebar Bush zaprojektował pierwszy komputer analogowy, nazwany analizatorem różnicowym. Zmiany wartości zmiennych w równaniach matematycznych były przedstawiane jako wahania napięcia prądu, tak iż operacje algebraiczne były przetwarzane na zmiany napięć w układach elektrycznych.

1933 w Anglii Douglas Hartree wraz z Arturem Potterem zbudowali, z elementów wartych zaledwie dwadzieścia funtów szterlingów, komputer analogowy. Potrafił on rozwiązywać równania z określoną i wielką dokładnością. Hartree jako pierwszy uczony wykorzystał swoje urządzenie do wykonywania obliczeń z dziedziny atomistyki.

Pod koniec lat lat 30-tych Claude E. Shannon doszedł do wniosku, że algebra Boole'a jest idealnym systemem dla maszyn liczących. Jego główne tezy pokazywały w jaki sposób boolowska koncepcja PRAWDY i FAŁSZU może być zastosowana do opisania funkcji przełączających realizowanych przez układy elektroniczne.

Prace nad maszynami do szybkich obliczeń, które funkcjonowały według systemu zerojedynkowej algebry Boole'a, a w wymiarze mechanicznym złożone były z przełączników elektromagnetycznych, rozpoczęto tuż przed II wojną światową. W 1937 roku Claude Shannon oraz George Stibitz pracując oddzielnie, skonstruowali elektryczne obwody przełączające według zasad Boole'a.

1937 Pierwszy kalkulator działający w systemie dwójkowym George Stibitz, Bell Laboratories

1939 Powstaje Hewlett-Packard

1940 Stibitz w Bell Labs demonstruje bardziej złożony Complex Number Calculator i używa go zdalnie przy pomocy teleksu na odległość kilkuset kilometrów

Ze względu na używane techniki komputery elektroniczne dzieli się na cztery generacje

  1. Zerowa generacja: komputery na przekaźnikach; przekaźniki elektromechaniczne oraz analogowe układy elektryczne
  2. (1937-1953) Lampy próżniowe, karty perforowane (jako podstawowa - nieulotna - pamięć masowa), kod maszynowy komputery na lampach radiowych
  3. (1953-1963) Tranzystory, pamięć rdzeniowa, asembler, komputery na tranzystorach,
  4. (1963-1972) Układy scalone, języki wysokopoziomowe układy scalone,
  5. (1972-) Mikroprocesor Czwarta generacja: układy scalone VLSI

Pierwsza generacja

Konrad Zuse

Niemiecki inżynier Konrad Zuse swoją pierwszą maszynę - V1 - skonstruował w 1938 w domu swoich rodziców. Był to elektrycznie napędzany mechaniczny kalkulator z elementami programowania. Tak samo jak wszystkie późniejsze jego konstrukcje działał w systemie dwójkowym. Nigdy nie osiągnął pełnej sprawności i został zniszczony w czasie wojny.

Rok później Zuse został powołany do Wehrmachtu, zdołał jednak przekonać armię do konstrukcji maszyn liczących i już w 1940 gotowa była V2, używająca przełączników telefonicznych. Nowatorskie było użycie logicznych poziomów napięcia (on i off) w połączeniu z systemem dwójkowym.

Jednak do historii przeszła głownie V3 - pierwsza w pełni działająca programowalna maszyna licząca (pierwszy programowalny komputer na przekaźnikach). Była używana do projektowania geometri skrzydeł samolotów. Powstała w 1941, wtedy też Zuse zakłada własną firmę: Zuse Apparatebau.

Swoje urządzenia pierwotnie nazywał V1, V2, V3 (Versuchsmodell - model eksperymentalny) ale dla uniknięcia pomyłki z pociskami von Brauna zmienił je na Z1, Z2 i Z3 i właśnie te nazwy są obecnie powszechnie używane.

W latach 1941-45 opracował również język programowania wysokiego poziomu - Plankalkül. Niestety opublikował informacje o nim dopiero w 1972, więc Plankalkül ani nie doczekał się żadnej implementacji, ani nie wpłynął na inne języki programowania.

Ostatnią budowaną w czasie wojny maszyną była Z4, nie została wówczas dokończona. Po wojnie w 1964 założył pierwsze na świecie przedsiębiorstwo komputerowe: Zuse-Ingenieurbüro Hopferau. W 1949 założył inną firmę Zuse KG, skompletował częsciowo zachowany Z4 i uruchomił w ETH Zurich (Eidgenössische Technische Hochschule). Był tam używany do obliczeń naukowych.

Do 1967 Zuse KG zbudował 251 komputerów (przekaźnikowy Z11, lampowy Z22 i tranzystorowy Z23), wtedy w wyniku problemów finansowych został sprzedany Siemensowi.

W 1958 Konrad Zuse zaprojektował ploter. Jest również autorem pomysłu, że wszechświat jako taki jest zespołem danych przetwarzanych w pewnego rodzaju sieci komputerowej. Jakkolwiek nie brzmiałoby to dziwnie brak jest dowodów świadczących przeciwko tej teorii.

Max Newman - Colossus; Alan Turing

W czasie wojny Brytyjczycy znali tajemnicę Enigmy i umieli czytać niemieckie szyfrogramy przy użyciu różnych technik kryptograficznych, w tym także urządzeń elektromechanicznych zwanych "bombami" (nazwę tą wprowadził w użycie polski kryptolog Marian Rejewski), ale już w 1941 zorientowali się, że cześć komunikacji szyfrowana jest inną metodą.

Zarówno samą maszynę jak i szyfrogramy określili kodową nazwą "Tummy". W rzeczywistości maszyna nazywała się Lorenz SZ 40 (a jej późniejsza wersja: Lorenz SZ 42; SZ to skrót od Schlüsselzusatz) i była używana do szyfrowania komunikacji na wysokim szczeblu.

W celu kryptoanalizy Max Newman zainspirowany pracami Alana Turinga zaprojektował pierwszy w pełni elektroniczny (używał lamp próżniowych, tyratronów i fotopowielaczy) komputer Colossus Mark I. Projekt został wykonany przez ekipę inżynierów pod kierownictwem Tommy'ego Flowersa (Post Office Research Station) w Dollis Hill i potem dostarczony do Bletchley Park. Maszyna zaczęła pracę w lutym 1942, a już w czerwcu powstała udoskonalona wersja Colossus MK II. Ogółem zbudowano dziesięć egzemplarzy.

Po wojnie na osobisty rozkaz Churchilla komputery łącznie z dokumentacją zniszczono (miał nie ocaleć żaden fragment większy od pięści) a wszyscy, którzy o nich wiedzieli zostali zobowiązani przysięgą do utrzymania dożywotniej tajemnicy. Przetrwały tylko dwa egzemplarze używane w czasach Zimnej Wojny aż do ich zniszczenia w 1960.

Od strony teoretycznej podstawą do konstrukcji tego komputera były koncepcje Alana Turinga, który juz w 1936 opisywał hipotetyczne urządzenie dokonujące operacji logicznych na nieskończonej długości tasmie papierowej, znane później jako "maszyna Turinga".

Colossus był bardzo szybką, wyspecjalizowaną maszyną kryptologiczną, używał czytnika optycznego do zczytywania danych z perforowanych taśm, co pozwalało na bardzo szybkie wprowadzanie danych alfanumerycznych (a więc nie tylko cyfr). Wszystkie egzemplarze tej maszyny były trzymane w baraku nazywanym "Blok H", który istnieje do dzisiaj, może on być nazywany pierwszym centrum komputerowym - obecnie jest tam muzeum, w którym znajdują się rekonstrukcje tych maszyn.

Niestety ze względu na konieczność zachowania tajemnicy bardzo długo wkład zarówno Turinga jak i Newmana nie był uwzględniany w historii komputerów. Istnienie maszyn Colossus ujawniono dopiero pod koniec lat 70-tych.

Inną wyspecjalizowaną maszynę liczącą był Heath Robinson z 1943 roku. W przeciwieństwie do kalkulatorów ogólnego zastosowania służył wyłącznie do łamania szyfrów. Specjalny czytnik optyczny pozwalał temu urządzeniu odczytywać 2000 znaków na sekundę.

1950 ACE - uniwersalny komputer, zbudowany przy udziale Turinga

John V. Atanasoff - ABC (Atansoff-Berry Computer)

John V. Atanasoff profesor matematyki w Iowa State College w Ames potrzebował maszyny liczącej, której mogliby używać jego doktoranci, ale żadne z dostępnych wówczas urządzeń mechanicznych nie spełniało wymagań. Wiedział, że rozwiązaniem będzie cyfrowa maszyna oparta na elektronicznych podzespołach. Niestety nie mógł pokonać problemów konstrukcyjnych.

Zimą 1937-38 przygnębiony brakiem powodzenia swojego projektu przejechał przez Mississipi do Illinois i zatrzymał się na drinka w małej, przydrożnej tawernie. Tam, w chwili rozluźnienia w jego umyśle pojawiła się idea pamięci komputerowej i powiązanych z nią układów logicznych. Tej nocy powstały podstawowe koncepcje komputera elektronicznego, które później po powrocie do labolatorium zrealizował wspólnie ze swoim współpracownikiem Cliffordem Berrym. Konstrukcję nazwali ABC (Atansoff-Berry Computer). Była to pierwsza elektroniczna maszyna obliczeniowa.

W 1939 powstał mały prototyp: używał 300 lamp próżniowych do przeprowadzania obliczeń, kondensatorów do przechowywania danych cyfrowych i kart perforowanych do komunikacji wejście-wyjście.

Próba zbudowania pełnego ABC została przerwana przez wybuch wojny.

Jednak maszyna nie była programowalna i z powodu wąskiej specjalizacji (równania różniczkowe) można ją określić jako elektroniczny kalkulator.

Howard Aiken - Harvard Mk I

W przeciwieństwie do ABC i Colossusa Harvard Mk I (znany też jako IBM ASCC - Automatic Sequence Controlled Calculator - IBM ASCC) był komputerem ogólnego przeznaczenia. Został zaprojektowany przez Howarda Aikena w IBM dla Uniwersytetu Harvarda.

Na pomysł konstrukcji elektronicznego kalkulatora Aiken wpadł w 1937, wtedy też rozpoczęły się rozmowy z Uniwersytetem Harvarda i IBM. W 1938 po serii rozmów i negocjacji koncepcja zostaje znacznie rozbudowana, następny rok to ukończenie projektu i podpisanie umowy. W 1943 maszyna wykonuje pierwsze obliczenia, rok później jest już na miejscu i pracuje.

Harvard Mk I składał się z przekaźników elektromechanicznych, które działały jako przełoczniki dwustanowe i przełączników oraz elementów mechanicznych (np. wały), było to 750 tysięcy elementów, był 15 metrów długi i 2.4 wysoki, ważył prawie 5 ton. Nośnikiem danych była perforowana taśma papierowa. Brak pamięci, programowanie przez zmianę połączeń kabli. Potrafił on mnożyć dwie 23-cyfrowe liczby w czasie pięciu sekund. Działał szybko, ale elektromagnetyczny układ przerzutników o dużej bezwładności nie zezwalał na naprawdę szybkie liczenie.

Mark I jest często spotykaną nazwą w tym etapie historii komputerów, ale samo określenie Mark I bez podania nazwy uniwersytetu lub miasta (jak np. Manchester Mark I) oznacza Harvard Mk I.

Jego najsłynniejszym operatorem/programistą była Grace Hopper, który wprowadziła pojęcie computer bug - w 1947 ćma utknęła pomiędzy kontaktami przekaźnika Harvard Mark II uniemożliwiając pracę.

Jednak żadna z powyższych maszyn nie stała się symbolem pierwszego komputera.

John W. Mauchly i John P. Eckert - ENIAC, EDVAC, UNIVAC; John von Neumann

W celu doskonalenia skuteczności artylerii USArmy potrzebowało tzw. tablic balistycznych, czyli dokładnych wyliczeń toru pocisku w zależności od wielu czynników (kąt uniesienia lufy, rodzaj amunicji, warunki meteorologiczne itd.). Opracowaniem tych tablic zajmowało się Laboratorium Badań Balistycznych (Ballistic Research Laboratory - BRL) w Aberdeen (Maryland). Niestety zajmowało to zbyt wiele czasu i wojsko było bardzo zainteresowane przyspieszeniem tych prac.

Wprawdzie już w 1935 zainstalowano tam Analizator Różnicowy Busha (Bush Differential Analyzer) wynaleziony w 1925 przez Dr. Vannevara Busha z Massachusetts Institute of Technology, ale miał on dwie wady: wymagał czasochłonnego "przeprogramowywania" polegającego na ręcznej manipulacji wieloma częsciami oraz często psuł się nieraz tuż przed ukończeniem obliczenia.

Na kursie przygotowującym specjalistów dla armii spotkali się doktor fizyki John W. Mauchly i inżynier elektronik John P. Eckert. Pierwszy był teoretykiem, który już w 1940 rozważał zastosowanie elektroniki do budowy maszyn liczących, drugi był typem utalentowanego wynalazcy. Zaprzyjaźnili się i w wolnym czasie zaprojektowali elektroniczną maszynę liczącą.

Konspekt projektu w formie oficjalnego memorandum przekazali urzędnikowi stanowemu odpowiedzialnemu za kontakty Uniwersytetu Pensylwanii z rządem USA niejakiemu J. G. Brainerdowi (nazwisko dość ironiczne w tym kontekście), który w ogole nic z tego nie zrozumiał i dokument na zawsze odłożył do szuflady. Po 20 latach memorandum to odnaleziono nietknięte.

W marcu 1943 Dr H. H. Goldstine pracujący w BRL w czasie rutynowej kontroli ośrodka obliczeniowego Uniwersytetu Pensylwanii w prywatnej rozmowie zupełnym przypadkiem dowiedział się o tym memorandum. Już 5 czerwca podpisano rozpoczęcie ściśle tajnego projektu "PX". 1 lipca ropoczęto prace nad komputerem o nazwie ENIAC (Electronic Numerical Integrator And Computer) z budżetem 150 tysięcy dolarów (ostatecznie kosztował prawie pół miliona).

Zbudowany na zlecenie Departamentu Balistyki Ministerstwa Obrony Stanów Zjednoczonych. Lutowanie 500 tysięcy połączeń potrzebnych dla 18 tysięcy lamp elektronowych zajęło dwa i pół roku.

ENIAC pierwsze obliczenia przeprowadził w listopadzie 1945 a w czerwcu 1946 przekazano go armii, która uruchamiała go aż do 29 lipca 1947 roku. W 1948 przekonstruowano go według wskazówek Johna von Neumanna (początkowo był programowany przez przełączanie wtyków kablowych, potem wprowadzono karty perforowane). Pracę zakończył 2 października 1955.

Wprawdzie nie wziął udziału w wojnie ale jego praca bardzo się armii przydała: obliczał tablice balistyczne, był używany w pracach nad bombą wodorową, prognozowaniem pogody, projektowaniem tuneli aerodynamicznych, badaniem promieniowania kosmicznego; wykorzystywany także do badania liczb losowych i analizowania błędów zaokrągleń. Także obliczył pi z dokładnością do tysiąca cyfr po przecinku.

ENIAC był gigantyczny: 17.5 tysiąca lamp próżniowych (w 16 rodzajach), 7200 diod krystalicznych, 1500 przekaźników, 70 000 oporników, 10 000 kondensatorów, 1500 ręcznych przełączników. Jego wentylację napędzały dwa silniki Chryslera - każdy o mocy 34 KM. Ważył 27 ton i miał wymiary 30 x 2.4 x 0.9 m, zajmował 167 m2. Zużywał 160 kW mocy. W całej Filadelfii przygasały swiatła kiedy go uruchamiano.

Zajmował kilkadziesiąt pomalowanych na czarno szaf z blachy stalowej. Każda miała regulowany nawilżacz powietrza - termostat zatrzymywał pracę jeśli temperatura przekraczała 48 stopni C. Czterdzieści dwie takie szafy, każda o szerokości 0.6 metra ustawione w prostokącie 12 na 6 metrów w kształcie litery U przedstawiały imponujacy wygląd.

Ze względu na stopień komplikacji wielu ludzi uważało, że maszyna nigdy nie osiągnie zdolności operacyjnej, bo praca wciąż bedzie przerywana koniecznością wymiany lamp. I istotnie był to największy problem aż do 1948, kiedy pojawiły się lampy o podwyższonej niezawodności - do tego czasu kilka lamp dziennie się przepalało najczęsciej w czasie włączania/wyłączania, co powodowało utratę połowy czasu pracy. Ze względu na zużycie energii dosć kosztownym rozwiązaniem było niewyłączanie maszyny w ogóle.

Początkowo czas pracy nie przekraczał z reguły kwadransa. Awarie lamp sprawiały, że więcej czasu był naprawiany, niż wykorzystywany do pracy.

Praca komputera była synchronizowana zegarem o częstotliwości 100 kHz, ale uruchomienie programu trwało kilka dni.

J.P.Eckert i John Mauchly zaprezentowali go 14 lutego 1946 roku. Specjalnie zamontowano panel z mrugającymi lampkami, by pokazać, jak szybko urządzenie działa. Pomimo tego, że tak naprawdę ten panel niczemu nie służył od tamtego czasu w każdym filmie komputery migały światełkami.

EANIAC mógł liczyć tysiąc razy szybciej niż jakiekolwiek wcześniejsze urządzenie, dokonując 5000 działań dodawania i odejmowania, 350 mnożenia lub 50 dzielenia na sekundę.

Jak widać o miano pierwszego komputera może ubiegać się kilka maszyn.

Wprawdzie już w 1941 Z3 Konrada Zuse był w pełni programowalnym (przy pomocy perforowanych taśm filmowych) komputerem, używającym wyłącznie systemu dwójkowego. Ale nie był w pełni elektroniczny - używał przekaźników telefonicznych. Dla porównania brytyjski Colossus był w całości elektroniczny, ale był wąsko specjalizowany i zaprogramowanie go było bardzo skomplikowane.

ENIAC był komputerem ogólnego przeznaczenia, w całości elektronicznym, używającym jeszcze systemu dziesiętnego, a jego zaprogramowanie aż do zmian konstrukcyjnych w 1948 było koszmarem.

Są jednak przynajmniej dwa powody dla których zasługuje na miano pierwszego komputera:

  • Był pierwszą tego typu maszyną zaprezentowaną opinii publicznej (1946).
  • Jednak ważniejsze było co innego: to właśnie ENIAC - jego konstrukcja i doświadczenie zdobyte podczas budowy - dał początek całej serii komputerów pierwszej generacji - olbrzymich maszyn, które zapoczątkowały historię komputerów cyfrowych.

1943 roku prezes koncernu IBM Thomas Watson odrzucił propozycję wejścia na rynek elektronicznych maszyn liczących, gdyż - jak stwierdził - "na świecie jest zapotrzebowanie na nie więcej niż pięć komputerów". W 1947 roku Howard Aiken, jeden z twórców zbudowanego trzy lata wcześniej roku komputera ASCC Mark I, skorygował te szacunki, przepowiadając, że w całych USA potrzebnych będzie aż sześć takich maszyn.

Już w 1944 Mauchly i Eckert wspólnie z Johnem von Neumannem zaczęli pracować nad koncepcją znacznie udoskonalonego komputera - znaną później jako tzw. "maszyna von Neumanna" - który potrafi przechowywać program, a nie tylko - jak robiły to dotychczasowe - przetwarzać go na bieżąco.

Realizacją ich idei był EDVAC (Electronic Discrete Variable Automatic Computer). Był to w całości elektroniczny, używający systemu dwójkowego, łatwy w programowaniu i posiadający pamięć na przechowywanie programu komputer.

Podobnie jak ENIAC został zbudowany na Uniwersytecie Pensylwanii dla potrzeb BRL. Umowę podpisano w 1946. Pracował w latach 1952-1962. W 1953 dodano pamięć zewnętrzną w postaci bębna magnetycznego.

Był mniejszy od poprzednika, ale technicznie znacznie doskonalszy: posiadał pamięć operacyjną z rtęciową rurą opóźniającą na 1000 słów oraz wejście/wyjście z zastosowaniem taśmy perforowanej i kart dziurkowanych, a do kontroli sterowania zastosowano zwykły oscyloskop.

Zajmował 45 m2, zawierał 6 tysięcy lamp próżniowych i 12 tysięcy diod, zużywał 56 kW mocy.

1946 Rozpoczęto pracę nad komputerem działającym w czasie rzeczywistym o nazwie Binac (Binary Automatic Computer), który ukończono w 1949 roku.

W czerwcu 1946 roku twórcy ENIAC-a zostali wykładowcami na pierwszym kursie informatyki.

1947 Powstaje tranzystor ostrzowy, wynalazcami są J. Bardeen, W.H. Brattain i W. Shockley. Aiken kończy Mark II Computer

1948 - W oparciu o idee von Neumanna powstaje EDSAC (Electronic Delay Storage Automatic Computer), pod kierownictwem Maurice Wilkesa w Cambridge w Anglii. Powstał na bazie założeń projektowych EDVAC-a na Cambridge University. Uruchomiony w maju 1949 pracował aż do lat 60-tych. Służył potrzebom naukowym uniwersytetu.

Osiągnął prędkość 500 kHz, a w dwa lata później EDVAC (4 tysiące lamp, 10 tysięcy diod) pracuje już z prędkością 1 MHz.

1948 - IBM 604 jest pierwszym komercyjnie sprzedawanym kalkulatorem elektronicznym.

IBM buduje lampowy komputer SSEC (Selective Sequence Electronic Calculator).

CSIRAC (Council for Scientific and Industrial Research Automatic Computer znany także jako CSIR Mk I) Pracował od 1949 do 1961 kiedy został przekazany do muzeum (jest najstarszym komputerem cyfrowym istniejącym do dziś w całości). Prace nad nim rozpoczęły się w 1947 pod przewodnictwem Mastona Bearda i Trevora Pearcey'a w Radiophysics Laboratory of the Council for Scientific and Industrial Research (Sydney).

1949:

EDVAC (Electronic Discrete Variable Automatic Computer), komputer uniwersalny oparty o pomysł von Neumanna, współpracuje z pierwszymi dyskami magnetycznymi;

W. Shockley wynalazł tranzystor warstwowy J. Forrester wynalazł pamięć ferrytową stosowaną w komputerach do lat 70-tych. Claude Shannon publikuje podstawy teorii informacji i buduje komputer szachowy.

McCulloch i Pitts, model sieci nerwowej jako układu logicznego

Norbert Wiener: "Cybernetyka, czyli sterowanie i komunikacja w zwierzęciu i maszynie".

1949 "Popular Mechanics": "komputery przyszłości mogą ważyć nawet mniej niż półtorej tony".

1950:

Uniwersalny komputer ACE zbudowany według projektu A. Turinga. Maurice Wilkes wprowadza język programowania (asembler) dla komputera EDSAC.

Równolegle w Manchester University zbudowano Manchester SSEM (Small-Scale Experimental Machine nazwany również Baby), który później rozbudowano do Manchester Mark I.

LEO I (Lyons Electronic Office I) to wzorowany na EDSAC komputer zbudowany w J. Lyons & Co. Ltd w 1951. Był pierwszym komputerem służącym do obliczeń komercyjnych, od 1956 udostępniano jego moc obliczeniową na zasadzie outsourcingu. Już w 1954 podjęto decyzję o budowie następnego, udoskonalonego LEO II. W wyniku zainteresowania rynku Lyons utworzył LEO Computers Ltd. przejęte później przez English Electric, które zbudowało LEO III oraz LEO 326. Niektóre z nich były w użytku jeszcze w 1980 roku.

Mauchly i Eckert założyli EMCC (Eckert-Mauchly Computer Corporation), które w 1950 zostało kupione przez Remington Rand (utworzoną w 1927 - obecnie część Unisys).

W Remington Rand już w 1949 zaprojektowano pierwszy komputer komercyjny - Remington Rand 409, który wszedł na rynek w dwóch wersjach: UNIVAC 60 (1952) i UNIVAC 120 (1953) . Po wykupieniu EMCC wprowadzili od 1951 na rynek całą serię komputerów UNIVAC (UNIVersal Automatic Computer) były to pierwsze komercyjne komputery w USA.

1951 UNIVAC, pierwszy komercyjnie sprzedawany komputer (Mauchly i Eckert), używał taśm magnetycznych, zainstalowano go w Biurze Spisu Powszechnego w USA; Najsłynniejszym z nich był UNIVAC I, pierwszy komputer zaprojektowany od początku jako komercyjny produkt, ogółem zbudowano ich 46.

1952:

IBM Model 701, pierwszy komercyjnie sprzedawany (od 1953 roku) komputer IBM, przewiduje zwycięstwo Eisenhowera w wyborach prezydenckich. Ponieważ wykonał to zadanie lepiej niż wszyscy eksperci, przyczynił się do popularyzacji określenia "mózg elektronowy".

Grace Hooper opracowuje pierwszy kompilator.

W Niemczech powstaje Nixdorf Computer.

1953:

Burroughs Corp. instaluje swój komputer UDEC na uniwersytecie.

IBM wprowadza taśmy magnetyczne jako standardowe nośniki pamięci.

1954:

IBM 704, pierwszy komputer z systemem operacyjnym;

powstaje FORTRAN, jeden z pierwszych języków programowania wysokiego rzędu.

Druga generacja

Prawdziwy przełom nastąpił, gdy wykorzystano tranzystor bipolarny - wynaleziony już w 1947 roku przez trzej naukowców z Bell Telephone Laboratories. Był znacznie mniejszym i bardziej niezawodnym przełącznikiem niż lampy próżniowe. Umożliwiło to powstanie komputerów drugiej generacji, które dominowały w latach 50-tych i na początku lat 60-tych. Za to osiągnięcie John Bardeen, William Shockley i Walter Brattain zostali uhonorowani w 1956 roku Nagrodą Nobla w dziedzinie fizyki.

Pomimo zastosowania tranzystorów te komputery nadal były bardzo duże i drogie, używane głównie przez uniwersytety i instytucje rządowe

W komputerach pierwszej generacji stosowano rtęciową rurę opóźniającą - gdzie dane były przechowywane jak fala akustyczna przechodząca przez ośrodek i można było uzyskać do nich dostęp dopiero kiedy przeszły przez interfejs I/O.

W komputerach następnej generacji używano pamięci rdzeniowych - każda komórka pamięci składała się z toroidalnych ferrytowych (tlenek żelaza o właściwościach magnetycznych) elementów, które mógły być namagnetyzowane i w ten sposób przez swój stan zachowywać dane.

Pozostały magnetyzm (histereza magnetyczna; ang. hysteresis Hysteresis in magnetic materials) tej pamięci rdzeniowej oznaczał, że była to pamięć nieulotna. Praca mogła być kontynuowana natychmiast z miejsca gdzie została przerwana kiedy wyłączono prąd. Jeszcze ważniejsze było to, że rdzenie magnetyczne umożliwiały dostęp do danych w dowolnym porządku.

Ale pamięci rdzeniowe również były drogie i zajmowały dużo miejsca.

Pierwszymi maszynami zbudowanymi w tej technologii były: TRADIC (Bell Laboratories; 1954) i TX-0 (MIT - Lincoln Laboratory; 1956).

Ważną innowacją był rejestr indeksowy do kontrolowania pętli i jednostki zmiennoprzecinkowe dla obliczeń na liczbach rzeczywistych, co znacznie ułatwiło uzyskiwanie dostępu do kolejnych elementów w tablicy. W przeciwieństwie do pierwszej generacji operacje zmiennoprzecinkowe przeprowadzane były sprzętowo

TX-0 (Transistorized Experimental computer zero)

Ważnymi komercyjnymi maszynami tych czasów były IBM 704 i ich następcy 709 i 7094. Ten ostatni wprowadził procesor I/O mający zwiększyć przepustowość pomiędzy urządzeniami I/O i pamięcia główną.

Wtedy też dla celów naukowych powstały dwa pierwsze superkomputery. Generalnie termin "superkomputer" jest zarezerwowany dla maszyn, które są o rząd wielkości potężniejsze od innych maszyn swoich czasów. W latach 50-tych dwie maszyny zasługiwały na to miano: LARC (Livermore Atomic Research Computer) i IBM 7030 (aka Stretch), były to wczesne przykłady maszyn, które dzieliły pamięć pomiędzy dane a operacje procesora i stosowały prymitywne formy przetwarzania równoległego.

Powstały tylko dwa komputery LARC: jeden w Lawrence Radiation Labs in Livermore, California (stąd nazwa) a drugi w U.S. Navy Research and Development Center in Washington, D.C.

Język maszynowy został zastąpiony przez asembler, dzięki czemu skrócony kod programowania mógł zamienić długi trudny kod binarny.

IBM po swojej pierwszej maszynie (SSEC) opracował w 1952 komercyjny komputer 701. Sprzedał 19 sztuk, co spowodowało pozew sądowy oskarżający go o monopolizację rynku i w 1956 roku został uznany winnym stawianych zarzutów.

Mimo tego w 1965 opracował S/360 i zdominował rynek na następne 25 lat.

W 1956 roku zespół naukowców z IBM pod kierownictwem Reynolda B. Johnsona skonstruował 305 RAMAC - pierwszy dysk twardy. Mieścił on na pięciu 24-calowych talerzach łącznie 5 MB danych i kosztował około 50 tysięcy dolarów ($10K/1MB - obecnie ten wskaźnik wynosi poniżej pół centa).

1956 Pierwsza konferencja na temat sztucznej inteligencji.

Powstały języki programowania wysokiego poziomu: FORTRAN (1956), ALGOL (1958), and COBOL, język programowania dla potrzeb biznesu; (1959).

1957:

Powstaje DEC, Digital Equipment Corporation i CDC, Control Data Corporation;

IBM wprowadza tranzystorowy kalkulator IBM 608;

powstaje wydział sztucznej inteligencji na MIT;

1958:

Atlas, angielski komputer zbudowany na Uniwersytecie Manchesteru, wyposażony został w pamięć wirtualną;

powstaje druga generacja komputerów: CDC 1604, konstrukcji Seymura Craya, w pełni na tranzystorach;

japońska firma NEC buduje pierwsze komputery;

F. Rosenblatt buduje perceptron (jedną z pierwszych sieci neuronowych)

1959 Jack Kilby z Texas Instruments (nagroda Nobla z fizyki, 2000) oraz Robert Noyce z Fairchild Semiconductors - pierwsze obwody scalone;

Początkowo programy pisano nie tylko dla pojedynczego odbiorcy, ale nawet dla konkretnego komputera. Pierwsze pudełko z programem - a więc produkt mający charakter artykułu masowego - sprzedał już w 1959 roku Computer Science Corporation.

1960:

Minikomputer DEC PDP-1 opracowany przez B. Curleya, z klawiaturą i monitorem;

wprowadzono CDC 1604, komercyjny komputer firmy CDC dla obliczeń naukowych;

1961 Pierwsze wielozadaniowe systemy komputerowe, IBM 709 i Stretch, używające 8-bitowych jednostek - bajtów.

Trzecia generacja

W 1958 roku pracujący w Texas Instruments Jack St. Clair Kilby wynalazł układ scalony (IC integrated circuit) - półprzewopodnikowe urządzenie zawierające wiele tranzystorów wbudowanych w jeden fizyczny komponent. Pierwszy zbudowany przez niego układ miał pół cala długości i zawierał pięć elementów.

W 1959 roku dwie amerykańskie firmy, Fairchild Semiconductor oraz Texas Instruments zaczęły produkcję układów półprzewodnikowych z kilkoma tranzystorami na wspólnej podstawie krzemowej (tzw. chip). W 1961 roku produkcję układów scalonych podjęto na skalę przemysłową. Miały one jeszcze niewielki stopień integracji; pierwszy przemysłowo produkowany układ zawierał jedynie cztery tranzystory oraz dwa rezystory. Wkrótce tę ilość zwiększono 25 tysięcy razy. W komputerach zaczął być stosowany dopiero w 1963 i spowodował prawdziwą rewolucję.

Komputery trzeciej generacji miały już układy małej i średniej skali integracji, co pozwoliło znacznie zmniejszyć wielkość maszyn i pobór energii. O ile komputer pierwszej generacji ENIAC zajmował 140 m2 powierzchni, to mikroprocesor komputera trzeciej generacji mieścił się w sześcianie o wymiarach 10x10x23 cm.

Przyniosło to wielki wzrost mocy obliczeniowej co pozwoliło komputerom "mainframe" takim jak IBM 360 zwiększyć pamięć i zdolności obliczeniowe. Z drugiej zastosowanie układów scalonych zmniejszyło koszty produkcji komputera - powstały minikomputery dostępne dla mniejszych przedsiębiorstw.

Układy scalone tego typu umożliwiły budowę bardzo małych jednostek obliczeniowych, czego wczesnym przykładem jest układ używany dla analizy danych lotu w myśliwcu USNavy F-14A "TomCat". Konstruktorami tego rozwiązania są Steve Geller, Ray Holt i zespół z AiResearch i American Microsystems.

Inne ważne osiągnięcia tamtego okresu to wprowadzenie pamięci półprzewodnikowych, mikroprogramowanie jako technika wydajnego projektowania złożonych procesorów, przetwarzanie potokowe i inne formy równoległego przetwarzania danych oraz wprowadzenie systemów operacyjnych i podziału czasu.

Pierwsze układy scalone bazowały na układach SSI (small-scale integration około 10 tranzysorów) i ewoluowały do MSI (medium-scale integrated około 100 tranzystorów), wprowadzono wielowarstwowe układy drukowane.

1962:

IBM sprzedaje napędy dysków magnetycznych pozwalających na wymianę nośnika;

zyski ze sprzedaży komputerów IBM przekraczają miliard dolarów.

1963:

PDP-5, pierwszy minikomputer;

powstają pierwsze graficzne terminale i pióra świetlne do projektowania graficznego.

Pierwszą w historii grę napisali w 1963 naukowcy zatrudnieni przez MIT do obsługi PDP-1, była to Spacewar! - z powodu wykorzystywania kosztownego sprzętu do zabaw zostali zwolnieni. Szybko przyjęto ich z powrotem, by zajęli się tworzeniem programów pracujących w czasie rzeczywistym.

Douglas C. Engelbart w 1963 opatentował myszkę (pierwszy egzemplarz był drewniany i używał rolek bez kulki), ale komutery były zbyt słabe by można jej używać.

W 1968 r. jako pracownik Stanford Research Institute, zaprezentował komputer wyposażony w klawiaturę, myszkę oraz okienkowy system operacyjny, a do tego dysponujący edytorem tekstu z funkcją hipertekstu i pozwalający docenić zalety zdalnej pracy grupowej.

1964 Seymour Cray opracowuje CDC-6000 i CDC-6600. Przez kilka lat był to najpotężniejszy komputer. Używał 60-bitowych słów i wykonywał kilka operacji jednocześnie, po raz pierwszy zastosowano efektywne przetwarzanie równoległe. Dzięki użyciu 10 oddzielnych funkcjonalnie jednostek, które mogły działać jednocześnie i 32 niezależnych banków pamięci, osiągnął moc obliczeniową 1 Megaflopa (jeden milion operacji zmiennoprzecinkowych na sekundę).

Pięć lat później powstał 7600, który może być uważany za pierwszy komputer wektorowy - 10 Mflopów.

Powstały w tym samym czasie IBM 360/91 był w przybliżeniu dwa razy szybszy od CDC 660, wprowadził przewidywanie poleceń, oddzielne jednostki zmiennoprzecinkowe oraz liczb całkowitych oraz strumień przetwarzania potokowego instrukcji.

IBM 360-195 był porównywalny z CDC 7600, był to efekt zastosowania bardzo szybkiego bufora pamięci.

IBM w 1964 opracował IBM OS/360 - pierwszy masowo produkowany system operacyjny. Znalazł on zastosowanie w setkach najpopularniejszych wówczas maszyn IBM S/360. A dzięki temu, że wszystkie komputery tego koncernu wyposażano w ten sam system operacyjny, mogły one korzystać z tego samego oprogramowania.

Inne przykłady komputerów używających przetrwarzania równoległego to SOLOMON (Westinghouse Corporation) i ILLIAC IV (wspólnie: Burroughs, Department of Defense i Uniwersytet Illinois).

TI-ASC (Texas Instrument Advanced Scientific Computer) i STAR-100 (CDC) były to potokowe procesory wektorowe, które udowadniały możliwości tego typu rozwiązań i ustanowiły standard dla późniejszych procesorów wektorowych.

Grudzień 1964 roku prawo Gordona Moore'a - późniejszego współzałożyciela koncernu Intel - "złożoność układów scalonych będzie się podwajać co półtora roku".

1964:

komputery trzeciej generacji na obwodach scalonych - rodzina IBM 360 (pierwsze komputery tej rodziny zaczęto sprzedawać w 1965 roku);

pierwsze tabliczki graficzne; Rand Corporation;

BASIC, prosty język komputerowy ogólnego użytku;

1965:

na Uniwersytecie w Pensylwanii obroniono pierwszy doktorat z informatyki;

Lotfi Zadeh (Berkley) - logika rozmyta (fuzzy logic), zamiast tak/nie wielostopniowe odpowiedzi "trochę tak, zdecydowanie tak", stopień przynależności;

W 1965 roku Digital Equipment dzięki PDP-8 stworzył nową kategorię - minikomputery. Użycie po raz pierwszy technologii obwodów scalonych pozwoliło na zbudowanie urządzenia tak małego, że można je było postawić na biurku. Był przy tym - jak na tamte czasy - tani ($18K - cena normalnych komputerów wynosiła wówczas od pół miliona do miliona dolarów). 1967 DEC PDP-10, kolejny udany minikomputer firmy DEC.

1966 Texas Instruments opracowuje pierwszy przenośny kalkulator na tranzystorach.

Od początku trzeciej generacji Cambridge i University of London współpracowały nad opracowaniem CPL (Combined Programming Language, 1963). CPL był według autorów próbą uzyskania wyłącznie ważnych właściwości skomplikowanego i zaawansowanego ALGOL-u, niestety miał również wiele wad, był skomplikowany i trudny do nauczenia się.

W celu uproszczenia go Martin Richards z Cambridge rozwinął podzbiór CPL nazwany BCPL (Basic Computer Programming Language, 1967). W 1970 Ken Thompson z Bell Labs rozwinął jeszcze jedną symplifikację CPL nazwaną po prostu B mającą zastosowanie we wczesnych implementacjach UNIX-a.

1970 powstał system operacyjny Unix (Bell Labs)

Nośnik, który mieścił się w neseserze, opracował w 1967 roku IBM. Była to stacja dyskietek. Cztery lata później korzystano już z 8-calowych, pokrytych tlenkiem żelaza krążków, a w 1971 roku dostępne były już nieomal współczesne nośniki o średnicy 5,25 cala.

1968 Powstał Intel (Integrated electronics), największy producent mikroprocesorów.

1969:

powstają pierwsze półprzewodnikowe pamięci RAM - kości 1 KB Intela - powoli wypierające pamięci ferrytowe;

zbudowano pierwszy 16-bitowy minikomputer (Data General Corporation);

1970:

popularny 16-bitowy minikomputer DEC PDP-11/20;

Intel wprowadza pamięci DRAM;

pokazano pierwsze dyskietki;

odbył się pierwszy turniej szachów komputerowych;

Czwarta generacja

Czwarta generacja komputerów rozwinęła się dzięki mikroprocesorom, które umożliwiały umieszczenie dużej mocy obliczeniowej w pojedynczym czipie. Łącznie z innym wynalazkiem Intela - RAM (kilobity pamięci na pojedynczym czipie), mikroprocesor pozwolił na konstruowanie jeszcze szybszych i jeszcze mniejszych komputerów.

4004 umożliwiał wykonanie 60K instrukcji na sekundę. Superkomputery tamtych czasów (Cray-1) osiągnęły 150 M operacji zmiennoprzecinkowych na sekundę.

Trend do zmniejszania trwał z wprowadzeniem minikomputerów takich jak DEC (Digital Equipment Corporation) PDP (Programmed Data Processor) którym udało się przenieść technologię komputerową do średniego biznesu.

Pomimo znacznego wzrostu mocy obliczeniowej od tamtego czasu technologia LSI oraz VLSI układów scalonych pozostała z grubsza taka sama, więc obecne komputery nadal należą do czwartej generacji.

LSI (Large Scale Integration 1000), czyli duża skala integracji (500 do 10k układów); VLSI (Very Large Scale Integration - 100 tysięcy), w tej skali cały procesor mieścił się na pojedynczym czipie.

W 1969 Gorden Moore i Bob Noyce (obecnie w Intel-u) znaleźli sposób na przechowywanie danych w półprzewodnikach kwarcowych.

Odkrycie układów scalonych umożliwiło w 1971 skonstruowanie mikroprocesora. Pod kierownictwem młodego inżyniera Teda Hoffa skonstruowano pierwszy układ wielkiej integracji - mikroprocesor. Zawierał układ 2300 tranzystorów, uzupełnionych przez trzy mikroukłady. Te cztery układy tworzyły system mikroprocesorowy o mocy obliczeniowej porównywalnej z możliwościami modelu ENIAC. Pracował z szybkością 104 kHz. Ten 4-bitowy mikroprocesor wykonany w technologii 10 mikronów.

15 listopada 1971 Intel zaczął sprzedawać pierwszy komercyjny mikroprocesor - 4004 (około 10K tranzystorów w pojedynczym czipie). Kosztował 200 dolarów.

Rok później Intel prezentuje pierwszy 8-bitowy procesor - 200 kHz i8008.

Poprzednio układy scalone musiały być specjalnie projektowane stosownie do przeznaczenia, teraz jeden mikroprocesor mógł być programowany by sprostać dowolnym oczekiwaniom. Firmy takie jak IBM, ICL i Sperry Univac nadal dostarczały wielkie komputery "mainframe" dla zastosowań biznesowych, były to bardzo potężne maszyny do których dostęp uzyskiwało się za pomocą prostych terminali nie posiadających funkcji bezpośredniego przetwarzania (dumb terminals) lub VDU (Visual Display Unit).

Pojawiły się alternatywa dla drogich systemów "mainframe" z podziałem czasu - mikrokomputery i stacje robocze.

Pamięci półprzewodnikowe zastąpiły pamięci rdzeniowe jako pamięć główną.

Początkowo użycie pamięci półprzewodnikowej w większości systemów było ograniczone do rejestrów i buforu, w tym okresie szybkie komputery wektorowe takie jak CRAY-1, CRAY X-MP i CYBER 205 zdominowały sektor wysokiej wydajności.

Zaczęły powstawać komputery z bardzo dużą główną pamięcią takie jak CRAY-2. Pojawiała się różnorodność architektur równoległych, chociaż nadal przetwarzanie równoległe było rzeczą raczej eksperymentalną i większość obliczeń naukowych dokonywana była za pomocą procesorów wektorowych.

1971:

powstała czwarta generacja komputerów na LSI i VLSI - rodzina komputerów IBM 370;

do ładowania systemu operacyjnego w komputerach IBM zastosowano 8-calowe dyskietki;

opracowano pierwszy procesor tekstów (firma Wang);

powstał Pascal, jeden z najpopularniejszych języków programowania;

Dwie ważne rzeczy zdarzyły się we wczesnym etapie rozwoju trzeciej generacji: rozwój języka C i uniksowych systemów operacyjnych (Bell Labs).

W 1972 Dennis Ritchie szukając sposobu osiągnięcia celów projektowych CPL i generalizacji B Thompsona stworzył język C.

Potem Ritchie i Thompson użyli C do napisania wersji UNIX-a dla PDP-11. Ten oparty na C UNIX został szybko portowany na wiele różnych komputerów co uwalniło użytkowników od konieczności uczenia się nowego systemu operacyjnego za każdym razem kiedy zmieniają sprzęt.

Obecnie UNIX i jego pochodne są de facto standardem systemu operacyjnego.

1972:

Powstaje Cray Research, firma opracowująca pierwsze superkomputery;

zbudowano mikroprocesor 8-bitowy Intel 8008;

powstały pierwsze kalkulatory kieszonkowe firmy Hewlett-Packard;

1973: Xerox opracowuje eksperymentalny komputer PC z kartą Ethernet, myszą i graficznym interfejsem użytkownika; twarde dyski magnetyczne IBM 3340 "Winchester", podobne do używanych obecnie, wprowadzone przez IBM; powstaje standard sieci komputerowych Ethernet;

1974: popularne mikroprocesory Intel 8080 i Motorola 6800 pojawiają się w sprzedaży; powstają pierwsze mikrokomputery do składania, Mark-8 i Altair 8800; powstaje CP/M, pierwszy system operacyjny dla procesorów Intela;

W 1974 w Xerox PARC napisano program Bravo. Jego użytkownik widział na ekranie dokładnie to, co uzyskiwał na wydruku. Był to pierwszy tzw. WYSIWYG (What You See Is What You Get - Dostajesz To, Co Widzisz).

1975: pierwszy klub użytkowników komputerów domowych i pierwszy sklep komputerowy powstaje w USA; komputery Altair w sprzedaży; powstają nowe bardzo tanie mikroprocesory firmy MOS Technology;

Przed 1985 zastosowane na wielką skalę przetwarzanie równoległe było obiektem wielu badań, ale dwa systemy wprowadziły to rozwiązanie na rynek.

Sequent Balance 8000 łączył do 20 procesorów z jednym współdzielonym modułem pamięci (ale każdy procesor miał swój oddzielny bufor). Został zaprojektowany by wspólzawodniczyć z DEC VAX-780 jako system uniksowy ogólnego przeznaczenia. Każdy procesor pracującował dla innego zadania użytkownika. Zapewnił bibliotekę podprogramów, która pozwoliła programistom na tworzenie programów używających wiele procesorów. Był szeroko stosowany do badania równoległych algorytmów i technik programistycznych.

Intel iPSC-1 (the hypercube) prezentował inne podejście - zamiast użycia jednego modułu pamięci połączył każdy procesor z jego pamięcią i użył sieciowego interfejsu do połączenia procesorów. Ta architektura dystrybucji pamięci oznaczała, że pamięć nigdy nie będzie wąskim gardłem i umożliwiła zbudowanie większych systemów (używających większej ilości procesorów). Największy iPCS-1 miał 128 procesorów.

Potem na rynek został wprowadzony trzeci rodzaj przetwarzania równoległego. SIMD - kilka tysięcy bardzo prostych procesorów, wszystkie pracowały pod kierownictwem pojedynczej jednostki kontrolnej.

Do maszyn tej klasy wlicza się Connection Machine (Thinking Machines, Inc.) i MP-1 (MasPar, Inc.).

W dziedzinie sieci komputerowych zarówno bardzo szybko się rozwijały zarówno techniki LAN jak i WAN stymulując przejście od systemu tradycyjnych mainframów do rozproszonego środowiska przetwarzania gdzie każdy użytkownik miał własną stację roboczą przeznaczoną dla relatywnie prostych prac (edycja i kompilacja programów, czytanie maili) jednocześnie korzystając z współdzielonych zasobów takich jak serwery plików. Z jednej strony wzrosło użycie sieci komputerowych z drugiej zwiększyło się użycie stacji roboczych pojedynczego użytkownika.

Technologia ULSI (Ultra-large scale integration miliony) jeszcze bardziej zmniejszyła rozmiar i cenę komputerów przy jednoczesnym wzroście mocy, wydajności i niezawodności. Te mikroprocesory pozwoliły na stworzenie mikrokomputerów - komputerów osobistych - tak małych i tanich, że mogli je mieć zwykli ludzie. Razem z tymi komputerami pojawiło się oprogramowanie w formie przyjaznych dla użytkownika pakietów oprogramowania, które oferowały nie nastawionym technicznie klientom takie aplikacje jak procesory tekstu i arkusze kalkulacyjne. Pionierami na tym polu we wczesnych latach 80-tych były Apple Computers, Commodore i Radio Schack (Tandy), gry wideo typu arcade jak Pac Man i domowe systemy gier wideo takie jak Atari 2600. To przyciągnęło uwagę opinii publicznej i utworzyło rynek dla bardziej zaawansowanych komputerów osobistych.

W 1970 roku naukowcy IBM przedstawili projekt relacyjnej bazy danych. Miała ona ułatwić przetwarzanie informacji przez osoby nie mające technicznego przygotowania do pracy z komputerem. Zamiast instruować komputer krok po kroku użytkownik po prostu wskazuje, co chce uzyskać.

Pierwsze komputery osobiste: MITS Altair 8800 wypuszczony w końcu 1974, ale zaraz potem pojawiły się Apple I i II, Commodore PET oraz Radio Shack (Tandy) i Atari 2600 no i oryginalny IBM PC w 1981.

1976 Seymur Cray buduje superkomputer wektorowy Cray-1;

Od 1964 System/390 (w skrócie S/390) był podstawowym produktem IBM, w latach 70-tych zastąpił go System/370 a później System/390 (w skrócie S/390). W grudniu 2001 IBM wprowadził na rynek serię Zseries (obecnie najnowszy to zSeries/z9 oficjalnie nazywany System z9).

Komputery osobiste

Lata 70-te

W 1971 roku Steve Wozniak oraz Bill Fernandez zbudowali komputer z części uznanych za odpady produkcyjne i nazwali go Cream Soda Computer.

1972 Nolan Bushnell założył Atari i rozpoczął sprzedaż Ponga - pierwszej komercyjnej gry wideo.

National Radio Institute zaoferował komputerowy zestaw do samodzielnego składania za 503 dolary. Prawdopodobnie pierwszym mikrokomputerem był oparty na i8008 francuski Micral z 1973 roku. Dostarczany był od razu złożony w całość.

W 1974 grudniowy numer czasopisma Popular Electronics zachęcał do kupienia komputera MITS Altair 8800 (Micro Instrumentation Telemetry Systems). Był to przeznaczony dla hobbystów zestaw do samodzielnego montażu (tzw. DiY czyli Do it Yourself). Używał 8-bitowego procesora Intel 8080A o częstotliwości 2MHz. Zainteresowanie oceniano na najwyżej kilkaset sztuk, ale już pierwszego dnia sprzedano 200 egzemplarzy (ostatecznie ok 10 tysięcy w cenie $397).

Altair był iskrą, która padła na podatny grunt, wkrótce pojawiło się więcej podobnych ofert, w większości były to zestawy DiY.

1974 pierwsze popularne czasopismo o komputerach - "Creative Computing".

Pionierski sklep komputerowy - "The Computer Store" - otwarto w Los Angeles (1975). Sprzedawano tam Altaira całego lub w częściach, peryferia do niego i czasopisma, m.in. debiutujący również w tym roku słynny "Byte".

1975 - IBM 5100 pierwszy minikomputer produkcji IBM: jednostka centralna, klawiatura i monitor w zwartej obudowie, waga 25 kg. Dostępny był w 12 wersjach: kilkaset kilobajtów pamięci ROM i 16 do 64 KB RAM, pięciocalowy monitor pozwalajacy wyświetlić 64 znaki w 16 liniach (można było podłączyć zewnętrzny monitor), cena od 8 do 19 $K. Posiadał emulator pozwalający na uruchamianie programów przeznaczonych dla dużo większych i droższych komputerów. Bardzo interesująca i mało znana konstrukcja, która w pewien sposób łączy duże mainframy z poprzednich dziesięcioleci ze współczesnym PC - wprowadzony w sierpniu 1981 IBM PC nosił pierwotnie nazwę IBM 5150 (chociaż jego architektura nie wywodziła się z IBM 5100). Rolę pamięci masowej pełnił magnetofon kasetowy, na każdej kasecie można było przechowywać 200 KB danych. W styczniu 1978 zapowiedziano następcę: IBM 5110, a w marcu 1982 wycofano go z rynku.

1976: Gould i Perkin-Elmer wprowadzają superminikomputery; iCOM sprzedaje napęd do 8-calowych dyskietek; Shugart wprowadza napęd 5.25 cala.

W 1976 ZiLOG (założony przez pracowników Intela, którzy pracowali nad 8080) skonstruował procesor Z80, który był ulepszoną wersją Intel 8080. Ten procesor stał się podstawą dla konstrukcji wielu komputerów wczesnych lat 80-tych (najsłynniejsze to TRS-80 i ZX Spectrum).

W 1971 pracujący wówczas w Hewlett-Packard Steve Wozniak (21 lat) poznał Steva Jobbsa (16 lat) i pomagał mu robić gry dla Atari. W 1975 zainteresowali się komputerami własnej konstrukcji i zrobili taki. W miejscowym sklepie komputerowym Jobs zdobył zamówienie na 50 sztuk w cenie $500. Był to Apple I - bardzo prosty w konstrukcji (jednocześnie dość prymitywny jak i łatwy do złożenia) zestaw DiY, używający telewizora do wyświetlania danych, co było nowatorskim rozwiązaniem. Sprzedano w sumie 200 sztuk. By go złożyć niezbędne było zacięcie do majsterkowania, listewki, młotek i gwoździe. 1976 pierwszego kwietnia zakładają Apple Computer Company. Dopiero ulepszona wersja - Apple II - zaprezentowana na West Coast Computer Faire w kwietniu 1977 zdobyła sławę i przeszła do historii jako pierwszy popularny komputer osobisty sprzedany w milionach sztuk.

1976 Altair 680 na procesorze Motorola 6800.

Ocalały z Auschwitz Jack Tramiel, amerykański przedsiębiorca założył firmę Commodore w 1954. Zajmował się naprawianiem maszyn do pisania. Ale konkurencja japońskich producentów zmusiła go do zmiany branży na kalkulatory mechaniczne (adding machines). Kiedy i tym razem zagroziła mu japońska konkurencja pojechał tam zobaczyć dlaczego są tak skuteczni i wrócił z ideą produkcji elektronicznych kalkulatorów, które właśnie wchodziły na rynek. Szybko odniósł sukces i w początkach lat 70-tych Commodore stał się znaną marką. Ale tym razem zagroził mu rodzimy producent. W 1975 Texas Instruments ważny producent części do kalkulatorów rozpoczął własną produkcję sprzedając swoje kalkulatory w cenie po jakiej wcześniej oferował części. Żeby utrzymać produkcję kupił kilka firm wytwarzających czipy, między innymi MOS Technology, Inc., którego główny projektant Chuck Peddle został szefem technicznym Commodore i szybko zmienił profil na produkcję komputerów osobistych. Ich pierwszym produktem był Commodore PET produkowany od 1977 roku. Oparty o procesor 6502 (produkcji MOS) o taktowaniu 1 MHz, pierwsze wersje miały 4 do 32 KB RAM i 9-calowy monochromatyczny moniotor. Podobnie jak Apple II był sprzedawany w gotowym do uruchomienia zestawie (jednostka centralna, klawiatura i monitor). Ze względu na łatwość użytkowania dość popularny w sektorze edukacyjnym, ale uboga grafika i małe możliwości ograniczyły sprzedaż.

Już w 1972 roku pracujący w Xerox PARC Alan Kay zaproponował, że zbuduje Dynabook - przenośny komputer wielkości zwykłego notatnika ale Xerox nie był tym zainteresowany. 1975 "Project Mercury" IBM 5100 Portable Computer - rozmiar walizki i wbudowany 5-calowy wyświetlacz, ważył 30 kg, kosztował $9K; został okrzyknięty pierwszym komputerem przenośnym. 1980 roku Panasonic i Quasar zaprezentowały opracowany przez Matsushitę komputer ręczny - ważył 400 gramów, i miał 8-bitowy procesor 1 MHz. 1982 notebook Compaq. 1996 w marcu 3Com przedstawia dwa organizery: Pilot 1000 i Pilot 5000. W 1999 roku 70% używanych na świecie palmtopów to właśnie Palm Piloty.

1977 DEC VAX 11/780 pierwszy 32-bitowy supermini.

1977 Dan Bricklin rozpoczął prace nad arkuszem kalkulacyjnym VisiCalc, jeszczetego samego roku posiadacze Apple II mogli go kupić za 100 dolarów. W tym samym roku firma MicroPro wysłała do sklepów edytor tekstu WordStar, makowcy korzystali z AppleWritera 1.0, a Wayne Ratliff opracował bazę danych Vulcan, którą później odkupiła firma Ashton-Tate i wprowadziła na rynek pod nazwą dBase II.

Radio Shack (Tandy) to sieć sklepów detalicznych ze sprzętem elektronicznym, która wprowadziła na rynek TRS-80 Model I, który miał konkurować z Commodore PET i Apple II. Od sierpnia 1977 do stycznia 1981 sprzedano łącznie ćwierć miliona egzemplarzy Modelu I.

1976 Channel F - pierwszy programowalny (przez wtykane kartridże) domowy system gier wideo; $170. Cinematronic w 1978 udostępnia automaty zręcznościowe z epizodem z "Gwiezdnych wojen".

W 1977 Atari wypuścił konsolę do gier wideo na kardridże, pierwsza wersja produkowana aż do 1982 znana jest dzisiaj jako Atari 2600. Nie był to wprawdzie komputer ale zwrócił uwagę producentów na rynek gier komputerowych.

1978: bardzo popularny 16-bitowy mikroprocesor Intel 8086; Atari reklamuje komputery domowe Atari 400/800; pierwsze drukarki mozaikowe; Texas Instruments sprzedaje zabawki z syntezą głosu; W USA jest już ponad pół miliona komputerów, powstaje pierwsza sieć informacyjna SPRINT i sieć amatorska BBS;

1979: powstają sieci komputerowych usług informacyjnych CompuServe i The Source; IBM wprowadza wierszową drukarkę laserową IBM 3800; pierwsze telefony komórkowe.

Lata 80-te

"Większość gospodarstw domowych nigdy nie znajdzie zastosowania dla komputerów osobistych" - Ken Olsen w 1980 roku, założyciel i ówczesny szef Digital Equipment Corporation.

W 1980 pojawia się ZX80 produkcji Sinclair Research - był to na rynku brytyjskim pierwszy model komputera dostępnego w cenie poniżej 100 funtów. W następnym roku ZX81 za 70 funtów. Ale najważniejszym modelem był ZX Spectrum, którego ostatnia wersja wypuszczona została w 1987.

1980: Osborne I Personal Business Computers, przenośny komputer o wadze 12 kg na procesorach Z80; Apollo buduje stacje robocze na procesorach Motoroli 68000; Microsoft wprowadza system operacyjny Xenix OS (wersja Unixa) na komputery z procesorami Intela, Motoroli, Z80, oraz minikomputery PDP-11; liczba komputerów w USA przekracza milion; opracowany przez Philipsa i Sony standard CD-Audio;

1981: rozpoczęła się era komputerów osobistych dzięki wprowadzeniu IBM PC na procesorach Intel 8088; powstaje Silicon Graphics Incorporated; powstaje standard modemów Hayesa do komunikacji lączami telefonicznymi;

W 1982 powstał najpopularniejszy komputer lat 80-tych Commodore 64. W ciągu 10 lat sprzedano około 20 milionów egzemplarzy. Sprzedawany początkowo za $596 oferował bardzo jak na tamte czasy i tą cenę możliwości multimedialne, kolorowy obraz i dobrej jakości dźwięk. C64 i C64C były głównymi obiektami wojny cenowej pomiędzy producentami komputerów 8-bitowych, która doprowadziła do zniknięcia TI 99, Atari i wielu innych producentów oraz przez obniżanie cen doprowadziła również Commodore na krawędź bankructwa.

1982: Cray XMP, wieloprocesorowy, wektory superkomputer; powstaje Sun Microsystems i Compaq Computers; Commodore wprowadza komputer domowy C64; Toshiba pokazuje pierwszy komputer z ekranem LCD; Epson demonstruje HX-20, komputer rozmiarów notebooka, z pełną klawiaturą, wbudowaną drukarką i ekranem LCD; Sharp wprowadza notes-komputer PC-1500; Compaq pokazuje przenośny komputer klasy IBM-PC; Intel wprowadza mikroprocesor 80286; Sony wprowadza dyskietki 3.5 cala; Lotus demonstruje arkusz kalkulacyjny 1-2-3; obroty Apple Computers przekraczają miliard dolarów;

W styczniu 1983 na rynku pojawia się Apple Lisa, produkt wyprzedzający swoją epokę. Niestety zbyt drogi ($10K) by osiągnąć sukces rynkowy. W kategoriach ekonomicznych Lisa była klęską, ale wyznaczyła drogę rozwoju dla komputerów osobistych (mysz i konsekwentny tryb graficzny). Dopiero zaprezentowany legendarną reklamą Super Bowl (nawiązującą do "1984" Orwella) Apple Macintosh jest sukcesem. Rzuca wyzwanie IBM-owi oraz jego klonom i wprowadza system operacyjny z graficznym interfejsem użytkownika. To początek rewolucji.

1983: superkomputery Cray 2 i NEC SX-2 osiągają szybkość miliarda operacji na sekundę; IBM produkuje PC-XT z dyskietką, twardym dyskiem 10 MB i 128 KB RAM; sprzedaż mikrokomputerów Commodore VIC-20 oraz Apple II przekracza milion sztuk; jest już ponad 10 milionów komputerów w USA; wstępna wersja Microsoft Windows nie robi większej kariery (wersja 1.0 z 1985 roku również); powstaje język programowania C++ (Bjarne Stroustrup);

1984: pojawia się Apple Macintosh i IBM AT, dwie linie komputerów kontynuowane przez wiele lat; IBM wprowadza komputer przenośny i IBM Jr, obydwa niezbyt udane; IBM wprowadza standard grafiki EGA; Sony i Philips pokazują pierwszy CD-ROM; Silicon Graphics sprzedaje graficzne stacje robocze; Seiko prezentuje komputer w zegarku;

W styczniu 1984 Jack Tramiel odchodzi z Commodore i za niewielką cenę odkupuje od Warner Bros Atari. Zarząd Commodore wykonuje ruch uprzedający i odkupuje od byłych pracowników Atari obiecujący 16-bitowy projekt znany jako Amiga. Tramiel wypuszcza Atari ST na początku 1985. Dopiero jesienią tego roku Commodore udało się wyprodukować komputer Amiga 1000 żeby konkurować z Atari ST Rozpoczyna się wojna Amiga-Atari, zakończona dopiero w 1987 kiedy wychodzi tańsza wersja Amiga 500 i przejmuje rynek ST.

W 1984 Amstrad 464 (potem 664 i 6128). W 1986 wykupuje Sinclaira i produkuje Spectrum +2 19 stycznia 1986 roku pojawił się pierwszy wirus "Brain"

Wkrótce potem wojny cenowe i walka o rynek pomiędzy producentami przestają mieć znaczenie. Pod koniec lat 80-tych sprzęt niekompatybilny ze standardem IBM PC przechodzi do historii.

IBM PC

W 1980 IBM oddelegował 12 inżynierów do przygotowania projektu mikrokomputera. Procesor 8086 - zbudowało w 1978 roku dwóch inżynierów Intela w ciągu trzech tygodni. Kosztował 360 dolarów, składał się z 29 tysięcy tranzystorów i mógł obsługiwać maksymalnie 1 MB RAM.

W 1969 roku Bill Gates i Paul Allen jako "Lakeside Programming Group" zawierają umowę na odpluskwianie PDP-10 w zamian za możliwość korzystania z tego sprzętu. Dziełem ich następnej wspólnej firmy - "Traf-O-Data Company" - jest sprzętowo-programowy system, rejestrujący ruch samochodów na autostradzie. W 1975 roku opracowują oni interpreter języka BASIC dla komputera Altair. Sukces zachęca ich do założenia kolejnej wspólnej firmy - Micro-Soft. Decydującym dla rozwoju koncernu był rok 1980, kiedy to szefowie IBM zaproponowali, by Gates i Allen napisali system operacyjny dla ich przyszłego mikrokomputera osobistego. Wcześniej chcieli złożyć tę propozycję założycielowi Digital Research, ale Gary Kildall był akurat na urlopie i zajmował się swoim ulubionym hobby - latał samolotem. Jest to czasem określane jako największa katastrofa lotnicza w historii przemysłu komputerowego.

12 sierpnia 1981 na rynku pojawia się IBM PC (jako IBM 5150) w cenie $1565. Jeśli ktoś wolał kolorowy monitor CGA (rozdzielczość 320 na 200 punktów w 4 kolorach z palety 16), musiał za niego zapłacić osobno. Wyposażony był w na wpół 16-bitowy procesor Intel 8086, taktowany zegarem 4,77 MHz, i miał 16 KB RAM (które można było rozszerzyć do 256 KB). Rolę pamięci masowej pełniła jedna lub dwie pięciocalowe stacje dyskietek o pojemności 160 KB, a całością zarządzał PC DOS.

Zakładano, że sprzedaż 1000 sztuk będzie już sukcesem. Sprzedano kilkanaście tysięcy i zdecydowano się udostępnić publicznie specyfikację techniczną. Wiele firm zajęło się klonowaniem IBM PC, opatrując swe produkty etykietą "IBM-compatible".

Bill Gates "640 KB wystarczy każdemu".

Ponieważ specyfikacja techniczna została opublikowana pojawiły się tańsze klony tego komputera i pod ogólną nazwą IBM PC przeszły do historii jako współczesny standard komputera osobistego - opartego na architekturze x86. W latach 90-tych PC stał się rozwijanym we współpracy między różnymi producentami, ale niezależnym od jakiejkolwiek firmy (także od IBM) zestawem standardów.

  • PC - sierpień 1981 (8088; system na stacji dyskietek)
  • XT - marzec 1983 (8088; prymitywny twardy dysk)
  • PCjr - listopad 1983 (8088; system na stacji dyskietek, komputer przeznaczony dla użytkownika prywatnego)
  • AT - sierpień 1984 (286; 8MHz; średniej szybkości twardy dysk)
  • XT 286 - wrzesień 1986 (286; powolny twardy dysk, chociaż miał 6MHz był szybszy od AT bo miał pamięć [zero wait state[?]] na płycie główej.
  • Pentium - 22 marzec 1993 (z powodu błędnej jednostki zmiennoprzecinkowej Intel musiał wycofać ponad 1.5 mln procesorów co kosztowało go prawie pół miliarda dolarów).

W 1994 roku 486DX4 Intela staje się pierwszym dostępnym dla zwykłego użytkownika procesorem o szybkości 100 MHz. W ciągu 20 lat prędkość taktowania procesorów wzrosła 10 tysięcy razy i w roku 2000 można było kupić 1000-megahercowe Athlony i Pentium III.

Wydany wyłącznie na CD-ROM-ie horror The Seventh Guest (1993) pokazał multimedialny potencjał peceta. Był to pierwszy program prezentujący tak efektowną grafikę i oprawę dźwiękową.

1992 - Wolfstein; 1994 Doom (pierwszy popularna gra id Software) i Myst (najpopularniejszy programem rozrywkowym w historii - ponad 5 milionów sprzedanych egzemplarzy). W 1997 roku prawdziwa trójwymiarowość - karty Voodoo 3Dfx.

System operacyjny hitem pop-kultury: 23 sierpnia media opisywały, jak w kolejkach do sklepów mających sprzedawać pierwsze egzemplarze Windowsa 95 (17 dyskietek) ustawiają się nawet ci, którzy nie mają peceta.

1998 roku i-Mac, rewolucja wzornictwa komputerów.

W 1997 roku zwycięstwo maszyny z mistrzem świata w szachach. Gari Kasparow przegrał sześciorundowy mecz z superkomputerem Deep Blue. Po raz pierwszy maszyna pokonał gracza tej klasy w spotkaniu turniejowym.

Odnośniki