profil

Historia komputera. Kamienie Milowe technologii informacyjnej. (Zdjęcia, szczegółowe opisy)

poleca 85% 364 głosów

Treść
Grafika
Filmy
Komentarze

1. Kamienie milowe w rozwoju technologii informacyjnej
Historia informatyki od XX w.
1.1 Co to jest informatyka?
INFORMATYKA [łac.], dziedzina nauki i techniki zajmująca się metodami zapisywania, przechowywania i przetwarzania informacji, zwłaszcza za pomocą sprzętu komputerowego. Obejmuje teorie informatyczne, budowanie systemów informatycznych (w tym programowanie), budowę i działanie sprzętu komputerowego, zastosowania metod informatycznych w różnych dziedzinach działalności ludzkiej i inne. Teorie informatyczne zajmują się badaniem zjawisk związanych z operowaniem informacją ? jej przedstawianiem, przechowywaniem, uzyskiwaniem, porządkowaniem, przetwarzaniem. Prawa rządzące tymi zjawiskami leżą u podstaw budowy narzędzi informatyki, będących obiektami fizycznymi (gł. komputerami) i logicznymi (np. algorytmami, językami programowania, programami, strukturami danych). Te z kolei stanowią przedmiot badań działów teoretycznych informatyki. Informatyka posługuje się językiem i metodami matematyki, logiki matematycznej i specyficznych dziedzin, takich jak: teoria języków formalnych i automatów abstrakcyjnych, teoria algorytmów, teoria kolejek. Teorie te tworzą również swój własny język i metody. Programowanie i budowanie systemów informatycznych obejmuje w szczególności tworzenie narzędzi ułatwiających programowanie i ogólnie ? posługiwanie się komputerami. Do narzędzi tych należą języki programowania, translatory, systemy operacyjne i inne. Do działu informatyki związanego z programowaniem należą też metody programowania i oceny programów. Dział informatyki związany ze sprzętem komputerowym (jego budową i metodami oceny) wykorzystuje zarówno rozwój elektroniki, jak i modele obliczeniowe tworzone w celu szybkiego, algorytmicznego rozwiązywania zadań. Modele te stanowią teoretyczną podstawę tzw. architektur komputerowych, realizowanych następnie elektronicznie.
1.2 Historia informatyki
Fleming John Ambrose (1849-1945)
Elektrotechnik i radiotechnik angielski. Współpracował z G. Marconim w pracach nad radiotelegrafem. Sformułował regułę prawej dłoni; w 1904 wynalazł diodę.

Dioda (gr. d(s) ?dwa razy? od do ?dwa? hódos ?droga?) fiz., tech. przyrząd dwuelektrodowy, który w jedną stronę przepuszcza prąd elektryczny, a w drugą tylko w minimalnym stopniu, obecnie przede wszystkim stosuje się diody półprzewodnikowe.
Heike Kamerlingh Onnes (1853-1926)
Holenderski fizyk, odkrył zjawisko nadprzewodnictwa, zajmował się zależnością oporu przewodników metalowych od temperatury. W 1911 roku stwierdził, że opór przy temperaturze w okolicach zera (0?K) spada, zbliżając się skokowo do zera. Poza tym stwierdził, że to zjawisko może ustać wskutek wpływu pola magnetycznego. Brak strat energii na wydzielanie ciepła w trakcie przepływu prądu elektrycznego w nadprzewodniku stwarza możliwości praktycznego zastosowania nadprzewodników. Ograniczeniem w ich stosowaniu jest konieczność utrzymywania materiału w niskiej temperaturze, oraz to, że poznane dotychczas nadprzewodniki wysokotemperaturowe są materiałami ceramicznymi (a więc są kruche, sztywne itd.). Nadprzewodniki metaliczne wykorzystywane są głównie w silnych elektromagnesach. Trwają prace nad uzyskaniem materiałów i technologii umożliwiających konstruowanie z nadprzewodników wysokotemperaturowych nadprzewodzących energetycznych linii przesyłowych, silników elektrycznych itp. Nadprzewodniki mogą znaleźć zastosowanie również w elektronice.
International Bussiness Machines (IBM)
Amerykańska firma produkująca sprzęt komputerowy, oprogramowanie, systemy komunikacyjne. Zalążkiem koncernu była spółka Tabulating Machine Company (TMC) założona w 1896 przez H. Helleritha - wynalazcę karty perforowanej. W 1911 TMC razem z dwiema innymi spółkami utworzyły firmę Computing-Tabulating-Recording Company, która w 1924 zmieniła nazwę na International Bussiness Machines. IBM wytwarzał wówczas zegary, wagi, kasy sklepowe, maszyny do pisania, maszyny liczące. W 1952 firma weszła na rynek komputerów maszyną IBM 701 (wykonywała ona 21 tys. operacji na sekundę). W latach 1960-1980 IBM był dominującym dostawcą dużych komputerów (mainframe?ów) na świecie. W 1981 wprowadził na rynek pierwszy komputer osobisty (IBM PC), który bardzo szybko zdobył ogromną popularność i stał się niekwestionowanym standardem wśród mikrokomputerów.
John Atanasoff
Mało znany fizyk z lat 30. XX w., który oskarżył J. Mauchly'ego o kradzież pomysłów zrealizowanych w komputerze ENIAC, (Electronic Numerical Interpreter And Calculator) podając tym samym w wątpliwość patent pary konstruktorów komputera ENIAC. W końcu lat 30. John Atanasoff wraz z magistrantem Cliffordem Bellem rozpoczął w State College (Iowa) budowę maszyny ABC. Wizytujący go przez pięć dni w 1941 J. Mauchly podpatrzył istotne pomysły, które potem opatentował. W 1973 wyrokiem sądowym patent wynalazców komputera ENIAC został unieważniony, co jednak nie wpłynęło już na nazwę do pierwszego komputera w historii informatyki. Obmyślił zasady działania elektronicznego komputera.
ABC, Atanasoff Berry Computer, urządzenie do rozwiązywania wielkich układów równań liniowych konstruowane przez J. Atanasoffa i C. Bella w 1930, zawierające wiele nowatorskich rozwiązań, m. in. oddzielenie przetwarzania danych od pamięci i wykonywanie obliczeń w kodzie dwójkowym. Budowy ABC zaprzestano z chwilą powołania Atanasoffa do armii USA.
Alan Turing Mathison (1912-1954)
Matematyk brytyjski. Członek Royal Society w Londynie (od 1951). Główne pola zainteresowań: logika matematyczna i matematyka obliczeniowa. W 1936 stworzył teoretyczny model tzw. maszyny Turinga - abstrakcyjnego automatu przekształcającego ciągi symboli, tj. słowa w alfabecie A danej maszyny Turinga. Różne maszyny Turinga mogą reprezentować funkcje o argumentach i wartościach rozmaitych typów, z wyjątkiem tzw. funkcji nieobliczalnych. Istnieje jednak tzw. hipoteza Turinga głosząca, że każda funkcja, dla której istnieje algorytm obliczania wartości, jest reprezentowalna przez jakąś maszynę Turinga. Maszyna Turinga stanowi obecnie ważne narzędzie formalne w zagadnieniach efektywnej rozstrzygalności oraz złożoności obliczeniowej. W czasie II wojny światowej Turing poświęcił się budowie urządzeń deszyfrujących.
Hewlett William i Packard David (1938)
Zakładają firmę Hewlett-Packard w garażu w Palo Alto, w Kalifornii.
Hewlett-Packard, HP, amerykańska firma produkująca sprzęt komputerowy. Zajmuje się produkcją dużych superkomputerów. Przeciętnym użytkownikom jest jednak bardziej znana ze sprzedaży akcesoriów takich jak drukarki bądź skanery. Firma zajmuje się także produkcją wysokiej klasy sprzętu pomiarowego.
Zuse Konrad (1910-1995)
Berlińczyk, pionier konstrukcji komputerowych. Wraz ze swoim studentem, H. Schreyerem, w 1938 r. skonstruował prototyp mechanicznego, dwójkowego kalkulatora programowalnego o nazwie V1 (Versuchmodell I), zrealizowanego po roku w technologii przekaźnikowo-lampowej (model V2); w grudniu 1943 opracowuje kalkulator Z3 (V3) działający na 22-cyfrowych liczbach dwójkowych w arytmetyce zmiennopozycyjnej. Ostatnia maszyna projektu Zusego, Z4, działała jeszcze w latach pięćdziesiątych.
ENIAC (1943-1946)
ENIAC, Electronic Numerical Interpreter And Calculator, pierwszy na świecie komputer, skonstruowany przez J.P. Eckerta i J.W. Mauchly'ego na Uniwersytecie Pensylwanii w latach 1943-1946, dla potrzeb obliczeń balistycznych Marynarki Wojennej USA. Posiadał 17 468 lamp elektronowych, pobór mocy wynosił 130 kW, mógł wykonać 5 tys. operacji dodawania lub 300 operacji mnożenia na sekundę, a także przechować w pamięci 20 liczb dziesięciocyfrowych. ENIAC liczył w układzie dziesiętnym, jego programowanie polegało na ręcznej konstrukcji połączeń na specjalnych tablicach połączeniowych, w przeciwieństwie do późniejszych maszyn, w których konstrukcja fizyczna nie ulega zmianie a zmienia się jedynie wykonywany kod (tzw. architektura von Neumanna).
Tranzystor (1948)
23 grudnia pracownicy Bell Telephone Laboratories. Zbudowali Pierwszy tranzystor, ostrzowy za co otrzymują Nagrodę Nobla w 1956 r. (o małych możliwościach zastosowań praktycznych), zbudowali w 1948 J. Bardeen i W.H. Brattain. Wynalezienie tranzystora uważane jest za początek rewolucji elektronicznej XX w. Opracowanie w latach 60. metody fotograficznego maskowania i warstwowego trawienia, umożliwiającej miniaturyzację tranzystora, spowodowało znaczne potanienie produkcji i w konsekwencji masowe wytwarzanie tranzystorów oraz, zawierających ich setki, tysiące, a nawet miliony, układów scalonych.
TRANZYSTOR [ang.], przyrząd półprzewodnikowy o co najmniej 3 elektrodach mający właściwość wzmacniania sygnałów elektrycznych.
Pierwsze nośniki danych (1947-1948)
Powstają pierwsze magnetyczne nośniki danych. Są to sporej wielkości bębny magnetyczne.
NOŚNIK DANYCH (nośnik informacji), inform. materiał lub urządzenie przeznaczone do trwałego zapisywania w nim danych i ich późniejszego odtwarzania; np. dysk magnet., taśma magnetyczna.
Algorytmiczne języki programowania (lata60-70)
Zespoły naukowców opracowują w latach sześćdziesiątych algorytmiczne języki programowania: Algol 60, Fortran, Cobol, Basic, Simula 67 (prototyp języka programowania obiektowego). N. Wirth projektuje język Pascal (1971), E. W. Dijkstra, C. A. R. Hoare formalizują programowanie strukturalne.
Język programowania, zbiór zasad składni, instrukcji, dzięki którym powstaje kod źródłowy programu. Procesor jest w stanie wykonywać program w kodzie maszynowym. Jednakże tworzenie programów w tym języku jest praktycznie niemożliwe. Dlatego programista używa języka zrozumiałego dla człowieka, który następnie jest kompilowany bądź interpretowany do postaci maszynowej.
Algol 60 (ALGOL, ALGOorithmic Language), język algorytmiczny, początkowo pomyślany jako język opisu algorytmów i komunikacji między użytkownikami komputerów, później implementowany w formie języka programowania. Początki prac nad Algolem sięgają 1955 (Darmstadt), raport o języku IAL (International Algebraic Language) pochodzi z 1958 (Algol 58); w 1960 P. Naur przedstawił szkic raportu na konferencji w Paryżu. Raport ostateczny ? Algol 60 ? sygnowało 13-osobowe grono matematyków i informatyków reprezentujących najważniejsze ośrodki światowe. Wzorcowy język Algol 60 zdefiniowano w sposób ścisły, przy użyciu formalnej notacji BNF. Jako charakterystyczną cechę tego języka wymienia się jego strukturę blokową, tj. możliwość spiętrzania konstrukcji syntaktycznej nazywanej blokiem. W odmianie Algolu 60 o nazwie Algol publikacyjny ogłoszono wiele algorytmów w czasopismach komputerowych. Do nielicznych udanych i pełnych realizacji maszynowych języka Algol 60 zalicza się polską implementację Algol 1204 dla maszyny Odra 1204 (J. Szczepkowicz, Krystyna Jerzykiewicz).Rozwinięciem Algolu 60 był Algol W, opracowany w 1966 przez N. Wirtha (Pascal) i C. A. R. Hoare'a.Algol 60 posłużył też jako jeden z punktów wyjścia do opracowania języka C.
Fortran, FORTRAN (angielskie FORTRAN, FORmula TRANslator), jeden z pierwszych szeroko używanych, algorytmicznych języków programowania, opracowany przez J. Backusa w 1957. Po wielu unowocześnieniach i zmianach (Fortran 77, Fortran 90) stosowany do dzisiaj. Język Fortran powstał jako wynik wczesnych doświadczeń w programowaniu komputerów za pomocą autokodów z lat 1951-56. Pierwszą implementację Fortranu wykonano dla maszyny IBM-704. W 1958 powstała wersja Fortran II wprowadzająca możliwość kompilacji niezależnej (IBM-704), a w 1959 jej odpowiednik dla komputera IBM-709. Kolejna wersja Fortranu nosiła nazwę XTRAN, jej autorzy weszli w skład grupy projektującej język Algol 58. Wersja Fortran IV nosiła już wyraźny wpływ języka Algol. W latach sześćdziesiątych XX w. IBM-owski Fortran spopularyzował się na komputerach różnych typów. Do końca lat siedemdziesiątych szeroko użytkowany jako język obliczeń inżynierskich i naukowych. Dostępny również na komputerach osobistych.
Cobol, COBOL (angielskie COmmon Business Oriented Language), uniwersalny język programowania zastosowań gospodarczych, wywodzący się z USA z końca lat pięćdziesiątych. Raport pierwotny o języku Cobol z 1961 (G. Hopper), ulepszany do 1965, kolejne wersje do 1973. Proces normalizacji języka Cobol podjęto w 1963. Język Cobol umożliwia przetwarzanie tabel, sekwencyjny i bezpośredni dostęp do danych, sortowanie i indeksowanie, generowanie raportów, segmentowanie programu i stosowanie bibliotek. Charakterystyczną cechą tego języka jest rozwlekła notacja (pełne słowa i pseudozdania języka angielskiego). W Cobolu wykonano olbrzymie ilości oprogramowania przetwarzania danych użytkowanego do dzisiaj.
Basic, BASIC (z angielskiego Beginners All-purpose Symbolic Instruction Code), przełomowy w chwili powstania w 1964, potem mocno krytykowany za brak strukturalności, prosty, interpretowany język programowania, spopularyzowany w komputerach ośmiobitowych i kalkulatorach programowanych. Jego twórcy ? J. Kemeny i T. Kurtz (Dartmouth College, USA) ? przedstawili go jako rewolucyjną propozycję wobec języków algolopodobnych. Basic z założenia nadawał się do pracy interakcyjnej i miał ujmować prostotą (m. in. brak typów, numerowane instrukcje ułatwiały redagowanie programu). Pierwsze implementacje Basica były wykonywane na minikomputerach, a nawet na komputerach stacjonarnych (m. in. na polskich komputerach ODRA 1204 i ODRA 1305, także w wersji kompilowanej). Oprzyrządowany w podstawowe operacje plikowe Basic na długo stał się nie tylko podstawowym językiem mikrokomputerów, lecz także ich systemem operacyjnym. Mimo przydatności do programowania doraźnego w małej skali, oryginalny Basic został odrzucony jako nieprzystosowany do nauczania początkowego informatyki i wyparty przez strukturalny język Logo. Odrodzony i zmetamorfozowany zarówno pod względem struktur sterowania i danych, jak i interfejsu systemowego Basic znajduje szerokie zastosowanie w programowaniu aplikacji dla komputerów typu IBM PC pod postacią platformy programowania RAD o nazwie VisualBasic. W tym nowoczesnym produkcie z Basica pozostała głównie nazwa.
Simula 67, język programowania opracowany w 1967 r. w Norweskim Ośrodku Obliczeniowym w Oslo przez O-J. Dahla, B. Myhrhauga i K. Nygaarda, rozszerzający Algol 60, pomyślany jako uniwersalny język symulacji. Ze swoją koncepcją klasy i obiektu Simula 67 stała się punktem wyjścia do projektowania języków obiektowych, zwłaszcza C .
Pascal, strukturalny język programowania stworzony przez N. Wirtha na początku lat 70. Jego zastosowanie w praktyce jest obecnie bardzo ograniczone. Najważniejszym zastosowaniem języka Pascal jest nauka programowania. Pozostaje on przez to jednym z najszerzej znanych i popularnych języków, zwłaszcza wśród początkujących programistów.
Pierwszy masowo sprzedawany komputer IBM 650
Komputer ważył ponad 3 tony i zapełniał cały pokój .CPU miał 5 stóp przez 3 stopy przez 6 stóp i ważył blisko tonę .Zasilacz był o tym sam rozmiarze jak Cpu ale blisko jeden i pół tony lżejszy i to nie była kompletna maszyna. Była też jednostka wejściowa, która miała rozmiar pół CPU ale, ważyła pół tony . IBM 650 był pierwszym komputerem, na którym IBM zrobił znaczący zysk, sprzedając 2000 sztuk tych maszyn. Informacje zapisywane były na obracającym się magnetycznym bębnie, który pomieścił 10000 słów, a dostęp do nich był bardzo wolny. Maszyna była bardzo kosztowna. Cpu razem z zasilaczem kosztował $3200 na miesiąc. Podczas gdy wejściowa jednostka kosztowała $550 na miesiąc. Cała maszyna kosztowała pół miliona dolarów!

Komputerowa mysz
Ponad 30 lat temu, w roku 1968, Douglas C. Engel-bart. konstruktor zajmujący się techniką komputerową zaprezentował urządzenie, którego na początku nikt nie chciał mieć. Nazwał je wskaźnikiem pozycji x-y do systemów ekranowych. Ponieważ urządzenie było małą kanciastą skrzynką ze sterczącym ze środka kablem, zespół Engelbarta żartobliwe nazwał je myszą, l tak już zostało. W roku 1968 komputerami zajmowały się jedynie osoby, które potrafiły pisać programy. A takim użytkownikom mysz nie była bardzo potrzebna. Patent Engelbarta zniknął więc na pewien czas na dnie szuflady. Musiało upłynąć aż 16 lat, zanim inny komputerowy pionier przypomniał sobie o myszy i spowodował swoisty przełom. SteveJobs, założyciel firmy Apple, w roku 1984 dołączył jako pierwszy mysz do standardowego wyposażenia komputerów Macin-tosh. Dziś trudno sobie wyobrazić świat komputerów bez myszek. Nie ma znaczenia, czy surfujemy po internecie, oddajemy się bez reszty grom, czy zwyczajnie wykorzystujemy komputer do pracy - bez pomocy myszy nie możemy się już obejść. Tylko w roku 1997 sprzedano na całym świecie aż 86 milionów egzemplarzy tych urządzeń!
Nośnik danych
Karta perforowana - maszynowy nośnik danych przeznaczony do automatycznego wprowadzania do komputera. K.p. sporządzona jest z wysokogatunkowego kartonu o ściśle znormalizowanych wymiarach i odpowiednich właściwościach mechanicznych i elektrycznych. Sieć współrzędnych dzieli powierzchnię k.p. na kolumny i wiersze. Pojemność znakowa k.p. zależy od liczby kolumn (21-160). Najbardziej rozpowszechnione są k.p. o pojemności 80 i 90 kolumn. Zapis na k.p. dokonywany jest przez wydziurkowanie odpowiedniej dziurki (lub dziurek) prostokątnej lub okrągłej na przecięciu osi kolumny przeznaczonej na wniesienie zapisu z osią wiersza (wierszy) według zasad określonych kodem dziurkowania. W celu zapewnienia właściwego ułożenia k.p. mają ścięte lewe górne naroże.
Taśma perforowana - taśma wykonana z papieru, tworzywa sztucznego lub innego materiału i przeznaczona do zapisywania na niej informacji w postaci kombinacji dziurek. T.p. ma przeważnie długość ok. 300 m i szerokość od 17,5 mm do 25,4 mm, co zależy od liczby ścieżek informacyjnych, których może być od 5 do 8. T.p. otrzymuje się na dziurkarkach taśm lub uzyskuje się w wyniku pracy innych urządzeń (np. maszyn do pisania). T.p służy jako maszynowy nośnik danych w pracy komputera oraz stosowana jest do sterowania pracą maszyn i urządzeń.
Pamięć bębnowa - pamięć magnetyczna o dostępie bezpośrednim, w której do zapamiętywania danych służy warstwa magnetyczna naniesiona na bęben wykonany z lekkiego materiału niemagnetycznego. Zapisanie lub odczytanie danych w p.m. odbywa się za pomocą głowic zapisująco-odczytujących, usytuowanych w bardzo małej odległości od powierzchni wirującego ze stałą prędkością bębna. Dane zapisywane są na ścieżkach, których usytuowanie wyznaczają umieszczone nad powierzchnią bębna głowice magnetyczne. Pojemność p.b. osiąga liczbę ok. 70 Mbitów, a średni czas dostępu jest rzędu 6-20 ms.
Pamięć taśmowa - pamięć magnetyczna o dostępie sekwencyjnym, w którym do zapamiętywania danych służy (jako element wymienny) taśma magnetyczna. Ze względu na możliwość wymiany taśm magnetycznych pojemność p.t. jest w zasadzie nieograniczona; sekwencyjny dostęp do danych powoduje, że w porównaniu z innymi rodzajami pamięci magnetycznych czas dostępu jest stosunkowo duży.
Dyski stałe
Pierwsze dyski do komputerów osobistych były urządzeniami umieszczanymi w oddzielnych obudowach, zawierających oprócz dysku kartę sterownika i zasilacz. Jednym z pierwszych modeli był Segate ST-506 o pojemności 5 MB. Ładowanie systemu odbywało się z dyskietki. W roku 1983 powstał IBM XT z wbudowanym twardym dyskiem o pojemności 10 MB. Magnetyczny dysk twardy zawiera umieszczone na wspólnej osi krążki aluminiowe, ceramiczne lub szklane pokryte warstwą magnetyczną. Informacje są zapisywane na koncentrycznych ścieżkach. Identycznie położone ścieżki ze wszystkich powierzchni tworzą cylinder. W obecnych konstrukcjach tarcze pokrywa się cienką warstwą czystego metalu metodą galwaniczną lub metodą rozpylania katodowego. Powierzchnia takiego dysku jest chromowa, błyszcząca. Tarcze są napędzane przez silnik wrzecionowy. Sygnały sterujące są generowane przez informacje zapisane na powierzchni dysku podczas produkcji. Kolejność zapisywania sektorów nie zawsze jest identyczna z kolejnością fizyczną sektorów na ścieżce. Do odczytu i zapisu używa się cienkowarstwowe głowice indukcyjne lub głowice magnetorezystywne. Technologie cienkowarstwowych głowic indukcyjnych (TFI) opracowano w 1978 roku w firmie IBM. Głowice magnetorezystywne zastosowano po raz pierwszy w roku 1991 w firmie IBM. Ich głównymi zaletami w stosunku do głowic TFI jest możliwość zwiększenia gęstości zapisu i mniejszy koszt produkcji.
Dyski wymienne
Dysk elastyczny jest jednym z prostszych i tańszych nośników danych. Pierwszy dysk elastyczny o średnicy 8'' i pojemności 1 MB został wprowadzony na rynek w 1971 roku przez firmę IBM. Największe zastosowanie znalazły dyski o średnicach 5,25'' i 3,5''. DYSKIETKI Wewnątrz koperty ochronnej znajduje się krążek wykonany z giętkiego tworzywa sztucznego, pokryty obustronnie warstwą materiału magnetycznego. W kopercie nośnika o wielkości 5,25'' wycięte są cztery otwory: centralny służy do napędzania dysku, mały, umieszczony obok, określa początek zapisu, przez podłużny otwór odczytuje się dane, a wycięcie umieszczone na skraju, gdy jest zasłonięte, włącza blokadę zapisu. Dyskietka 3,5'' posiada sztywną kopertę z tworzywa sztucznego. Okienko dostępu głowicy jest zasłonięte ruchomą metalową przesłoną, która podczas wkładania dyskietki do napędu, automatycznie przesuwa się odsłaniając dostęp głowicy do powierzchni magnetycznej. Stopniowo tradycyjne dyski elastyczne są wypierane przez szybsze i bardziej pojemne nośniki.
CD-ROM (compact disc - read only memory)
W roku 1987 dwa wielkie przedsiębiorstwa - Philips i Sony - połączyły swoje siły w celu stworzenia nowego produktu - kompaktowego dysku audio (CD). Firmy opracowały standard, na który składała się specyfikacja nagrania, próbkowania, a przede wszystkim obowiązujący do dziś rozmiar nowych dysków : 4 3/4 cala. Jak głosi plotka rozmiar ten wybrano dlatego, że właśnie na takim dysku można było zmieścić Dziewiątą Symfonię Beethovena. Dysk mający średnicę 12 cm (4 3/4 cala), nieco ponad milimetr grubości i waży około 14 g(1/2 uncji). Fizycznie dysk składa się z uformowanego metodą wtryskową krążka z czystego poliwęglanu, bardzo cienkiej warstwy metalu , zwykle aluminium i ochronnej powłoki lakierowej lub plastikowego krążka zabezpieczającego znajdujące się pod nim dane. Warstwa metaliczna jest tą warstwą z której napęd CD-ROM odczytuje informacje. Dysk CD-ROM może przechowywać do 680 MB danych (co odpowiada pojemności 1500 dyskietek) - tekstu, obrazu, grafiki, dźwięku i animacji.
INTEL
Historia zaczyna się w 1968 r., kiedy to Robert Noyce i Gordon Moore zakładają przedsiębiorstwo o nazwie N M Electronics. Później nadają mu lepiej brzmiąca nazwę: ?Intel?. Ludzie ci mają jak na tamte czasy zwariowany pomysł ? planują wykorzystać ( najpierw zaprojektować) układy scalone i pamięci półprzewodnikowe. W czasach kiedy dominowały pamięci taśmowe, było to bardzo odważnym przedsięwzięciem. Pierwsze lata funkcjonowania Intela to konstruowanie głównie pamięci. W tym czasie grupa japońskich inżynierów z firmy ETI zaczęła szukać w Intelu partnera do produkcji układów dla kalkulatorów stołowych japońskiej firmy Busicom. Ted Marcian Hoff ? współpracownik naukowy Intela, zdołał namówić kontrahentów na swój pomysł ? zestaw składający się z czterech układów pełniących rolę jednostki arytmetyczno-logicznej, wykonującej instrukcje przechowywane w pamięci półprzewodnikowej. Była to maszyna Neumanna. Tak narodził się 4-bitowy mikroprocesor Intel 4004, (2.300 tranzystorów, taktowany zegarem 108 KHz) pokazany po raz pierwszy w wersji produkcyjnej w 1971 r.
Powstają kolejne wersje procesorów: Intel 8008 ? 8 bitowy, wykorzystany m.in. przez nastolatka Billa Gatesa w jego firmie, zajmującej się zliczaniem ruchu na autostradach. Taktowany zegarem 200 KHz. Na powierzchni 10 mikrometrów, zawierał 3500 tranzystorów. Kolejne lata to rozwój seryjnej sprzedaży mikrokomputerów wykorzystujących mikroprocesory Intela a także innych producentów np. MOS Technology oferujących modele 6501 i 6502. Ten drugi był początkowo wykorzystywany w Commodore Pet i Apple II (1977 r.). Kolejno powstają modele Intel 8080 w 1974 r. (taktowany był zegarem o częstotliwości 2 MHz, miał 8 bitowa szynę adresową i mógł wykonać pól miliona operacji na sekundę, posiadał 6000 tranzystorów), 8085 ( 1976 r.; 8 bitowy procesor; zawierał zegar o częstotliwości 5 MHz; na 3 mikrometrach powierzchni wbudowano 6500 tranzystorów), 8086 ( oparty na architekturze procesora 8080; uważany jest jako pierwszy z rodziny x86), 8088 (1978 r.; 16- bitowy; dla procesora 8088 zastał zaprojektowany system MS DOS), których szybkość sięga od 4,77 do 8 MHz (czyli przeliczały z szybkością dzisiejszego kalkulatora). Ówczesne modele zbudowane były z ok. 29.000 tranzystorów.
Kolejną linię procesorów Intela otwiera 16 bitowa ( szyna zewnętrzna i wewnętrzna) wersja 80186. Jednak procesor ten zawierał błędy i był niekompatybilny ze starszymi komputerami IBM PC. Zastosowanie znalazł głównie w przemyśle. Po nieudanym 80186, przyszedł czas w 1982 r. na 80286 ( zwany popularnie-286 ). Procesor ten oferował szybkość w zależności od wersji od 6 do 12 MHz. Posiadał kilka nowych cech, min. tryb wirtualny (Protected Mode) oraz tryb Real Mode naśladujący dokładnie procesor 8086. Korzystał z pełnej 16-bitowej architektury, posiadał 134.000 tranzystorów. Niestety tryb Protected Mode powodował często zablokowanie komputera, przez co chip ten zyskał miano ?brain dead?(czyli do końca taki bezawaryjny nie był).
W 1985 r. pojawił się 80386 lub jak kto woli po prostu 386. Posiadał jako pierwszy ( z pośród intelowskich) architekturę 32-bitową, wbudowany ?multitasking? (wielozadaniowość)i jednostkę zarządzająca pamięcią. ?Chodził? z prędkością od 12,5 do 33 MHz (12,5, 12.5, 16, 20, 25, 33 MHz ). Wydawany był w dwóch wersjach SX ( 16 bitowy, bez wbudowanego koprocesora) i SL ? zmienione później na DX. Komputery z procesorem 80386 jako pierwsze umożliwiały w miarę wygodną obsługę multimedialnych gier i programów, jako pierwszy również, wykorzystywał płyty główne z pamięcią Cache L2 o wielkości 128 KB. Posiadał 275.000 tranzystorów.
Jego następca był udany 80486. 486 można spotkać jeszcze do dzisiaj, zwłaszcza na terminalach sieciowych lub (sam wiem o tym dobrze), nadają się świetnie do małych, domowych sieci LAN. Jednostka ta wydawana była w dwóch zasadniczych rodzajach: DX i SX (386 także spotkałem w wersji DX i SX z 16-bitową szyną). W wersji 486DX po raz pierwszy zastosowano FPU (Floating Point Unit), eliminujący potrzebę nabycia oddzielnego matematycznego co-procesora (wbudowany ). 486 wprowadzał również po raz pierwszy w historii x86 pamięć L1 ( L1 cache) ? 8 Kb. Pierwotnie 486DX pracowały z szybkością 20, 25, 33 i 50 MHz. Przełomowy był również pod względem liczby tranzystorów ? 1.200.000 (technologia 0,8 mikrona) Procesory z serii 486 spowodowały istny boom u klientów. Sprzedawała się niczym świeże bułeczki :-). Później udostępniono wersję DX2 i DX4 (1994 r.), które podwoiły i potroiły wydajność magistrali systemowej. 486DX4 był już nawet 100MHz. Zastosowanie tego procesora w komputerach PC stanowiło pewien przełom gdyż był on już w stanie całkiem sprawnie obsługiwać zaawansowane aplikacje multimedialne, programy inżynierskie typu CAD, nowe systemy operacyjne itp.
1993 r. przyniósł nową, rewolucyjną serię procesorów opracowanych w technologii CISC z serii Pentium. Były to kolejno Pentium, MMX i Pro. Szyna procesora pracowała z transferem 64-bitowym, co pozwalało na osiąganie coraz większych prędkości. Pierwsze modele pracowały z częstotliwością 60 i 66 MHz. Zbudowane z 3.1 mln tranzystorów. Wkrótce po nim Intel wprowadził drugą wersję z nowym jądrem, potrafiącym osiągnąć częstotliwość od 75 do 200 MHz. Trzecia wersja wprowadziła rewolucyjne instrukcje MMX. Produkowane wtenczas CPU osiągały szybkość 166 ? 233 MHz. Pentium MMX z racji wykorzystywanych instrukcji MMX oraz posiadanej pamięci 32 kb, przeznaczony był głównie dla aplikacji multimedialnych.
W 1995 r. Intel wypuścił na rynek 32-bitowego, wielozadaniowego Pentium Pro, przeznaczone głównie do zastosowań sieciowych. Zawierał od 256 do 1 MB pamięci cache L2 Pamiętajmy, że `95 r. to jeszcze czas w którym znaczny procent rynku zajmowały aplikacje 16-bitowe. Dlatego procesor ten działał wolniej na tego typu programach. (5.5 mln tranzystorów). Potrafił pracować w kwartecie, czyli wspólnie z czterema procesorami na płycie głównej ( w końcu przecież skierowany był dla serwerów).
Pentium I był procesorem, który rozpoczął ?bitwę na megaherce?. Po nim powstawały procesory bardziej zaawansowane technologicznie min. Pentium II, III, IV, Celeron, ale istotne elementy budowy pozostały takie same.
Internet
L. Kleinrock z Massachusetts Institute of Technology przedstawia zarys teorii przełączania pakietów.
1965
T. Merril i L.G. Roberts za pomocą linii telefonicznej łączą między Massachusetts a Kalifornią dwa komputery.
1969
Powstaje ARPANet - pierwsza zdecentralizowana sieć komputerowa (początkowo były w niej cztery komputery). Dlaczego zdecentralizowana? Amerykańskie umiłowanie demokracji miało tu niewielkie znaczenie. Stratedzy z ARPA doszli do wniosku, że jeżeli wszystkie łącza wychodzą z centralnego komputera, wystarczy zbombardować jeden obiekt, by sparaliżować cały system. Decentralizacja miała temu zapobiec.
1970
Zaczyna działać pierwsza wersja protokołu transmisji plików (FTP). Dziś dzięki FTP każdy internauta może przenieść dowolny plik z jednej z wielkich bibliotek oprogramowania na swój domowy komputer.
1971
Ray Tomlinson wysyła pierwszą wiadomość e-mail przy pomocy programu o niezbyt wdzięcznej nazwie SNDMSG. Wiadomość przeznaczona była dla niego samego, odczytał ją na innym komputerze. Szybko okazało się, że poczta elektroniczna jest bardziej efektywna niż przesyłanie listów na papierze czy telegramów, przede wszystkim dzięki szybkości, nieformalności i braku instytucjonalnych pośredników. Według najnowszych szacunków, w 2000 roku ludzie wysłali łącznie 6 trylionów elektronicznych listów.
1973
Sieć komputerowa przekracza Atlantyk. Podłącza się do niej londyński University College i norweskie centrum radarowe Royal Radar Establishment. Wcześniej w sieci znalazły się czołowe amerykańskie instytuty badawcze i uniwersytety (MIT, Harvard, Stanford).
1974
W artykule wyjaśniającym działanie Protokołu Kontroli Transmisji (TCP) Vinton Cerf po raz pierwszy użył słowa "Internet". Sam protokół był udoskonalany: wydzielono część odpowiedzialną za adresowanie (Internet Protocol - IP) i drugą, odpowiedzialną za podział informacji na tzw. pakiety, ich transmisję oraz powtórne złożenie w całość (TCP). Wszystkie komputery połączone w ogólnoświatowej pajęczynie zaczęły z czasem porozumiewać się w tym "języku".
1979
Powstaje Usenet (od User's Network), sieć w sieci, zrzeszająca grupy dyskusyjne. Zasada działania Usenetu jest podobna do poczty elektronicznej, z tym, że w wymianie informacji bierze udział więcej osób i odbywa się ona w grupach tematycznych. Grupy te są w Internecie zhierarchizowane (np. skrót comp. sygnalizuje dyskusję o tematyce komputerowej, rec. oznacza rekreację, alt. - tematy "alternatywne" itd.). Obecnie liczba grup osiągnęła 50 tys. Poglądy wymieniane są na wszystkie możliwe tematy.
1980
Francuzi uruchamiają Minitel, czysto tekstowy, komputerowy system wymiany informacji. Można przy jego pomocy sprawdzić, kiedy odjeżdża pociąg albo zamówić pizzę. Do użytkowania systemu wystarczają proste terminale, dostarczane przez operatora telekomunikacyjnego. Minitel szybko podbił serca Francuzów. Niektórych z nich do dziś trudno przekonać, że Internet ma o wiele większe perspektywy.
1982
Nikomu jeszcze nawet nie śnią się graficzne przeglądarki czy ikonki, ożywiane jednym kliknięciem. Aby pozbawić teksty monotonii, wprowadzono tzw. "smileys" albo "emoticons" (po polsku najczęściej zwane "buźkami"). Od tej pory wystarczyło użyć znacznika :-) żeby wyrazić swoje zadwolenie, lub ;-) by powiedzieć coś z przymrużeniem oka.
1984
Na potrzeby Internetu opracowano hierarchiczny system unikatowych nazw domenowych i protokołów DNS (Domain Name System). Od tej pory każda domena adresowa musi być zarejestrowana na jednym z tzw. name serwers (serwerów nazw). Protokół DNS umożliwia wymianę danych pomiędzy tymi serwerami.
1985
William Gibson wydaje powieść s.f. "Neuromancer", w której po raz pierwszy pada słowo "cyberprzestrzeń". Od tej pory wszelkie wyrazy z przedrostkiem "cyber" robią szybką karierę. Powstaje też wtedy pierwsza domena komercyjna (adres zakończony na ".com"). Założyła ją firma Symbolics, producent sprzętu i oprogramowania niezbędnego do posługiwania się językiem komputerowym Lisp (nie zrobił kariery). Swą działalność rozpoczyna też America OnLine (AOL), obecnie największy komercyjny usługodawca internetowy na świecie.
1986
Amerykańska Narodowa Fundacja Nauki tworzy sieć NFSNet. Pięć uniwersyteckich superkomputerów zostało połączonych siecią szkieletową o prędkości 56 kbps (taką przepustowość zapewnia obecnie modem analogowy). W 2 lata później wprowadzono szybkie łącza T1 o przepustowości 1,5 Mbps. Naukowcy z prowicjonalnych ośrodków nie musieli już "pielgrzymować" do renomowanych uczelni, by na miejscu zapoznać się z wynikami najnowszych badań. Błyskawicznie rozszerzający się zasięg NFSNet sprawił, że nowa sieć stopniowo wypierała ARPANet, który to został ostatecznie zlikwidowany w 1990 roku.
1988
Fin Jarkko Oikarinen tworzy Internet Relay Chat (IRC), system który umożliwia prowadzenie w sieci rozmów w czasie rzeczywistum w tzw. kanałach (ich nazwy poprzedza znaczek #). Swoje kanały mają w IRC-u mieszkańcy poszczególnych krajów, miast, a także rozmaici hobbyści.
1990
Tim Berners-Lee, pracownik szwajcarskiego instytutu fizyki CERN, zaczyna używać hipertekstu, systemu aktywnych odnośników, którego koncepcja legła u podstaw World Wide Web - ogólnoświatowej sieci komputerowej. Pierwotnie system ten miał ułatwić naukowcom szybkie docieranie do określonych problemów badawczych i "przeskakiwanie" od tematu do tematu. Sieć odnośników z czasem ogarnęła pliki graficzne i dźwiękowe, tworząc nowy, multimedialny wymiar Internetu.
Na początku były trudności z wpisywaniem adresów, z którymi się chcemy połączyć. Ten problem został jednak szybko zlikwidowany i czterocyfrowe adresy IP (np. znany wszystkim ;) 127.0.0.1) zostały zastąpione przez domeny. Domeny - podobnie jak IPki oddzielone są od siebie kropkami. Dzielą się ponadto na poziomy. Domeny pierwszego poziomu to te na samym końcu adresu (po prawej stronie), grupujące serwery według ich znaczenia, treści i położenia geograficznego:
- .com - firmy, instytucje komercyjne, itp. (od angielskiego commercial)
- .edu - instytucje edukacyjne (education)
- .gov - instytucje rządowe (government)
- .org - różne organizacje (organization)
- .mil - instytucje wojskowe (military)
- .net - instytucje oferujące usługi sieciowe (internet)
1991
Z Inicjatywy grupy polskich naukowców uruchomiono pierwsze stałe łącze internetowe z Warszawy do Kophenhagi linią dzierżawioną od TP S.A.. W 2 lata później w sieci pojawia się pierwsza polska strona WWW - witryna Wydziału Fizyki Uniwersytetu Warszawskiego.
1993
Pojawia się Mosaic, pierwsza graficzna przeglądarka internetowa. W ciągu roku liczba użytkowników WWW wzrasta 3500-krotnie!!! Zasługę stworzenia Mosaic należy przypisać Markowi Andreessenowi.
1994
David Filo i Jerry Yang tworzą najsłynniejszy katalog zasobów internetowych - Yahoo. Na początku była to kolekcja odnośników, pozwalająca autorom efektywniej zajmować się własmymi hobby: golfem i zapasami sumo. Niestety również w tym roku odnotowano pierwsze przestępstwo internetowe. Matematyk Władimir Lewin z Petersburga włamał się do serwera oddziału Citybanku i "przerzucił" na własne konto 12mln USD. Z kolei firma prawnicza z Arizony, Canter&Siegel, chcąc promować własne usługi związane z amerykańską loterią wizową, rozesłała ofertę na adresy wszystkich grup dyskusyjnch. Dało to początek zjawisku znanemy jako "spam". Mimo licznych prób wykluczania "spamerów" z sieciowej społeczności, nachalne oferowanie usług wątpliwej wartości pozostaje jedną z głównych plag Internetu.
1995
Debiutuje przeglądarka Netscape Nawigator, dzieło Marka Andeessena, wcześniej współtwórcy Mosaic. Netscape szybko opanowuje 70% rynku. Bill Gates, który początkowo nie doceniał Internetu, dochodzi do wniosku, że jest to medium XXI wieku. Microsoft zaczyna oferować wraz z każdą kopią Windows 95 własną przeglądarkę Explorer. Rozpoczyna się "wojna przeglądarek", która po paru latach będzie dostarczać zajęcia urzędom antymonopolowym, sędziom i prokuratorom. Pojawia się technologia Real Audio, pozwalająca na słuchanie muzyki i odbieranie audycji radiowych w czasie rzeczywistym. Kolejne dane statystyczne dowodzą, że już blisko 45 mln osób używa internetu, z czego 30 mln to mieszkańcy Ameryki Północnej, 9 mln to Europejczycy, a 6 mln pochodzi z Azji i rejonu Oceanu Spokojnego. 43,2 mln gospodarstw domowych z USA (44%) posiada komputer, a 14 mln jest podłączonych do sieci.
1996
Kongres i Senat przegłosowują, a prezydent Clinton podpisuje tzw. Communications Decency Act. Ustawa ta przewidywała grzywny do 100 tys. USD i karę więzienia do 2 lat za publikowanie w sieci materiałów o charakterze obscenicznym i pornograficznym. Internauci protestowali, powołując się na konstytucyjnie zagwarantowaną wolność słowa. W 1997 roku amerykański Sąd Najwyższy odrzucił Communications Decency Act. Pornografia w Internecie pozostała realnym, nierozwiązanym problemem.
1997
Wraz z wielkim sukcesem gry "Quake" zaczyna się epoka gier online, dominacji rozrywki i komercji. W sieci transmitowane są na żywo koncerty, gwiazdy rozmawiają z IRC-ownikami. Jak grzyby po deszczu powstają internetowe sklepy i supermarkety. Wielki sukces odnosi księgarnia Amazon.com. Do rangi wydarzenia roku w Internecie pretenduje szeroko reklamowany mecz szachowy: Gari Kasparow-komputer IBM Deep Blue. Poszukiwanie i wymiana informacji schodzą na dalszy plan; 8 lipca transmisja z lądowania sondy Pathfinder na Marsie umieszczona na stronie NASA bije wszelkie rekordy - 46 mln odsłon w ciągu jednego dnia!!!
1998
Niemiłosierny tłok, panujący w Internecie, stał się na tyle poważnym problemem, że amerykańscy naukowcy podjęli pracę nad projektem o nazwie Internet 2. Na rzecz stworzenia niekomercyjnej, nowocześniejszej technologicznie sieci, która sprostałaby potrzebom współczesnej nauki, z gigantami przemysłu komputerowego i agentami rządowymi współdziała 150 uniwersytetów. Najważniejsze zastosowania "drugiego Internetu" to: telemedycyna (operacje na odległość), wirtualne labolatoria badawcze i elektroniczne biblioteki. Czy sukces tego projektu ma oznaczać śmierć Internetu nr 1 z powodu niewydolności i przepracowania? Miejmy nadzieję, że technologia ułatwi także życie użytkownikom "starej", poczciwej sieci.
1999
Na początku tego roku liczba użytkowników internetu sięga 150 mln, ponad 50% to mieszkańcy USA. A to kolejne dane tym razem o przyroście witryn: 1997 - 1,6 mln; 1998 - 2,9 mln; 1999 - 4,9 mln; 2000 - 7,4 mln; 2001 - 8,7 mln.
Bil Gates
Bill Gates zarobił fortunę, zakładając firmę Microsoft zajmującą się produkcją oprogramowania, które zdecydowanie uprościło obsługę komputera. Billa Gatesa, założyciela i prezesa Microsoft Corporation, można określić jako jednego z najbardziej wpływowych przedsiębiorców XX wieku. Jego firma zatrudnia 20000 ludzi w 48 krajach. Bez niego nie stworzono by prawdopodobnie standardów, które dziś uznaje się za obowiązujące w informatyce, a komputery pracowałyby w wielu różnych systemach. Gates wyznaczył sobie za cel, by w każdym domu i na każdym biurku znalazł się komputer i dążąc do realizacji tego pomysłu, stał się najbogatszym człowiekiem w USA, zajmując pierwsze miejsce na liście 400 najbogatszych Amerykanów czasopisma "Forbes" przez pięć lat z rzędu (1994-98) z fortuną ocenianą na 58,4 miliarda dolarów. William Henry Gates III urodził się 28 października 1955 roku w Seattle w stanie Waszyngton w USA. Jego ojciec, William H. Gates II, był prawnikiem, a jego matka wykładała na University of Washington. Bill wychowywał się w Seattle, razem z dwiema siostrami, uczęszczał tam do szkoły dla uczniów szczególnie uzdolnionych - Lakeside School. Tam właśnie nauczył się pierwszego języka programowania - BASIC. Gdy miał zaledwie 13 lat, sprzedał swój pierwszy program: system służący do układania planu zajęć, za który szkoła zapłaciła mu 4500 dolarów. Wkrótce potem napisał program wspomagający ocenę natężenia ruchu ulicznego, który sprzedał władzom lokalnym, jako część systemu kontroli ruchu. Zarobione pieniądze wykorzystał na założenie pierwszego własnego przedsiębiorstwa - Traf-O-Company. W roku 1973, w wieku 17 lat, Gates wstąpił na uniwersytet Harvarda, jednak studiował tylko przez dwa lata, potem zrezygnował. Wspólnie ze starym kolegą szkolnym, Paulem Allenem, postanowili pisać programy na łatwo dostępny, choć dysponujący ograniczonymi możliwościami, komputer Altair. Stwierdzili, że jeśli uda im się odpowiednio zaadaptować BASIC, który wykorzystywano na dużych komputerach systemowych, być może uda się stworzyć dość zaawansowane programy działające na małych maszynach domowych. Gates i Allen założyli przedsiębiorstwo w Nowym Meksyku i nazwali firmę Microsoft (skrót od microcomputer software - oprogramowanie dla mikrokomputerów). Od razu osiągnęli sukces. Największym potentatom w branży komputerowej (1980 rok) był w tym czasie IBM. Ujawnił się wtedy talent Billa Gatesa do robienia interesów - zamiast rozprowadzić swój nowy program bezpośrednio, sprzedał licencję IBM, ponieważ koncern pragnął wykorzystać go w swoim najnowszym komputerze osobistym. Narodził się MS-DOS (Microsoft Direct Operating System). Razem z DOS'em powstały programy kompatybilne ze standardem IBM. Ponieważ Gates wciąż dysponował prawami autorskimi do programu, mógł sprzedawać licencję innym producentom, dzięki czemu to oprogramowanie, a nie sprzęt stało się wyznacznikiem standardów w branży. Jednak na DOS'ie się nie skończyło. Gates chciałby każdy potrafił obsługiwać komputer. Dziś jego marzenie jest bliskie spełnienia. Bill Gates zwielokrotnił swą fortunę, kiedy w roku 1986 wprowadził na giełdę akcje Microsoftu. Jego partner, Allen, odszedł z firmy w roku 1983, gdy zapadł na chorobę Hodgkina, jednak wciąż pozostawał związany z przedsiębiorstwem. Ciągła konkurencja ze strony Apple Macintosh skłoniła Gatesa do stworzenia zupełnie nowego modelu komputera osobistego (PC), którego system operacyjny miał być bardziej zbliżony do prostego w obsłudze stylu pracy Macintosha. Windows, Windows '95 i Windows '98 stanowiły kolejne etapy unowocześniania systemu operacyjnego, co sprawiło, że obsługa PC stawała się coraz łatwiejsza. W roku 1993 już 90 procent użytkowników komputerów na świecie wykorzystywało systemy operacyjne firmy Microsoft. Teraz Gates posunął się jeszcze dalej, stwarzając programy współpracujące z jego systemami operacyjnymi. Rozpoczęła się ekspansja internetu, w efekcie której każdy komputer wyposażony w modem można podłączyć do każdego innego komputera na świecie. Gates zaczął tworzyć własną satelitarną sieć telekomunikacyjną, reklamując swe produkty na całym globie. Microsoft rozszerzył działalność także na inne dziedziny, kupując, na przykład, większościowe pakiety akcji korporacji wydawniczych, aby opanować instytucje rozpowszechniające informacje. Za każdym razem, gdy Gates decyduje się na zakup, jest to przemyślana inwestycja. Korporacja Microsoft ciągle jest atakowana - przez osoby prywatne, przedsiębiorstwa, nawet agencje rządowe - za plagiatowanie pomysłów konkurencji, stosowanie praktyk monopolistycznych (na przykład zintegrowanie własnej przeglądarki sieciowej z systemem operacyjnym Windows '98 bez możliwości stosowania programów tego typu innych firm na danym komputerze). Gates jest typowym pracoholikiem. Rzadko wychodzi z biura przed północą, a na początku kariery często pracował przez całą noc. Rozumie więc potrzebę dostosowywania czasu pracy do indywidualnych predyspozycji swoich pracowników i w jego firmie obowiązuje nienormowany czas pracy. Mimo wielkiej fortuny nie podróżuje pierwszą klasą w samolotach, choć lubi wydawać pieniądze na rzeczy, które go pasjonują. Oprócz golfa, narciarstwa, pokera i szachów, Gates uwielbia szybkie samochody - w garażach swej posiadłości trzyma pod pokrowcami kilka szczególnie cennych egzemplarzy. Również dom jest sprawą, której poświęca wiele uwagi. Zbudował wielką posiadłość nad brzegiem jeziora Washington, bardzo blisko centralnego biura Microsoftu. W budynku znajduje się sala kinowa na 20 osób, obiekty sportowe i garaże zdolne pomieścić do 30 samochodów. Gates poślubił pracownicę Microsoftu, Melindę French, w roku 1994, a w roku 1996 urodziła im się córka, Jennifer. Na każdym, kto poznaje Gatesa osobiście, wrażenie robi jego entuzjazm i pasja, którą żywi dla swojej firmy i pracy. Kiedy demonstruje swoje nowe pomysły, często zachowuje się jak przerośnięty chłopiec. W liście referencyjnym, który Gates wysłał do Harvardu, jego nauczyciel stwierdził: "Jako uczeń 10-tej klasy Bill Gates znany był w Lakeside jako zwariowany komputerowiec. Był młodym geniuszem, który wykonywał obliczenia matematyczne szybciej niż jego nauczyciele, i który wraz z dwoma przyjaciółmi zawarł kontrakt na stworzenie programu księgowego dla firmy z Portland (...) Umysł Gatesa chłonie pomysły i fakty i jak się wydaje, potrafi on natychmiast przywołać te wszystkie informacje. Gates jest jednym z uczniów, którzy są dobrzy we wszystkim." Słynna stała się deklaracja Gatesa, że planuje przekazać większość swej olbrzymiej fortuny fundacjom charytatywnym, gdy zakończy pracę w firmie, zatrzymując dla siebie tylko tyle, ile będzie potrzeba na dostatnie życie dla niego i jego rodziny. Jednak nie zamierza odejść na emeryturę wcześniej niż za 20 lat. "Sądzę, że bawię się lepiej niż którakolwiek ze znanych mi osób. Moja praca zmusza mnie do podejmowania ryzyka, ciągłego uczenia się nowych rzeczy. To jest marzenie, które stało się rzeczywistością.
1.3 Inne Ważne wydarzenia
1954 - Powstaje pierwsza drukarka, Uniprinter, opracowana przez Earla Mastersona. Drukuje 600 lini na minutę.
1954 - Texas Instruments przedstawia tranzystor krzemowy, który jest tańszy w produkcji od germanowego.
1958 - Bell opracowuje modem, który pozwala przesyłać dane po linii telefonicznej.
1959 - Xerox przedstawia pierwszą maszynę kopiującą.
1960 - W listopadzie firma DEC przedstawia PDP-1, pierwszy komputer wyposażony w monitor i klawiaturę.
1961 - Fernando Corbato z Uniwersytetu MIT wykorzystuje podział czasu procesora umożliwiając pracę na nim jednocześnie kilku użytkownikom.
1962 - 10 lipca wystrzelony zostaje satelita telekomunikacyjny Telstar, który umożliwia przekazy telewizyjne poprzez Atlantyk.
1962 - Opracowana zostaje pierwsza gra video.
1963 - Powstaje program Eliza, który wykazuje pewne przejawy inteligencji. Potrafi prowadzić proste rozmowy z człowiekiem.
1963 - Zatwierdzony zostaje 7-bitowy kod ASCII do wymiany informacji miedzy urządzeniami w komputerze.
1964 - Gordon Moore sugeruje, że poziom integracji systemów komputerowych (wydajności procesorów) podwaja się corocznie. Dzisiaj stwierdzenie to znane jest jako prawo Moora.
1968 - Jako standard przyjmuje się zapis daty w postaci sześciu cyfr (YYMMDD - rok - miesiąc - dzień) przy wymianie informacji. Cóż, był to ewidentny błąd, który spowodował po latach powstanie problemu roku 2000.
1970 - Dennis Ritchie i Kenneth Thomson opracowuje system operacyjny Unix w firmie Bell Labs.
1971 - Ray Tomlinson z firmy Bolt Beranek & Newman wysyła pierwszy e- mail.
1973 - Naukowcy z Xerox PARC opracowuje eksperymentalny komputer PC. Używa on myszy, sieci Ethernet i GUI.
1973 - Alan Kay opracowuje własną wersję domowego komputera PC. Bazuje on na języku Smalltalk, używa ikon i grafiki.
1973 - Rozpoczynają się prace nad protokołem TCP (Transmission Control Protocol) w laboratorium Stanford University. Prace nadzoruje Vinton Cerf.
1973 - Scelbi Computer Consulting Company oferuje pierwszy zestaw komputerowy do samodzielnego złożenia, oparty o procesor Intel 8008. Cena zestawu z 1 kB pamięci wynosi 565 USD, dodatkowe 15 KB kosztuje 2760 USD!
1975 - IBM przedstawia drukarkę laserową.
1976 - IBM opracowuje drukarkę atramentową.
1978 - Powstaje Wordstar, pierwszy procesor tekstu opracowany na komputery działające pod systemem operacyjnym CP/M, potem także pod DOSem.
1978 - Ron Rivest, Adi Shamir i Leonard Adelman opracowują standard szyfrowania danych RSA z kluczem publicznym.
1978 - W grudniu firma Atari wypuściła komputery Atari 400 i 800 z procesorem 6502.
1979 - 11 maja Don Bricklin i Bob Franston piszą pierwszy arkusz kalkulacyjny VisiCalc, dzięki niemu wzrasta zainteresowanie komputerami.
1979 - We wrześniu Motorola przedstawia procesor 68000, który składał się z 68 tys. tranzystorów (stąd jego nazwa). Stosowany min. W komputerach Amiga Commodore.
1980 - Wayne Ratliff pisze dBase II, pierwszą wersję bazy danych na komputery PC.
1980 - IBM wybiera PC-DOS Microsoftu, jako swój system operacyjny stosowany w komputerach PC.
1980 - W czerwcu Seagate Technologies prezentuje dysk Winchester 5,25 cala. Używa on czterech talerzy i ma 5 MB pojemności. Kosztuje 600 USD.
1984 - Powstaje interface MIDI (Musical Instrument Digital Interface) standard służący do wymiany informacji pomiędzy komputerami i urządzeniami muzycznymi.
1990 - Hewlett-Packard i IBM przedstawiają komputery oparte o procesor RISC.
1993 - Studenci z University of Illinois National Center for Supercomputing Applications piszą graficzną przeglądarkę stron WWW - NCSA Mosaic.
1995 - Wyprodukowany zostaje pierwszy film pełnometrażowy przy zastosowaniu wyłącznie techniki komputerowej - Toy Story.
1996 - Na rynku debiutuje Palm Pilot - prosty bezklawiaturowy model komputera naręcznego.
1996 - W październiku powstaje płyta wielokrotnego zapisu CD-RW (CD-ReWritable).
1997 - w meczu szachowym, komputer IBM Deep Blue po raz pierwszy pokonuje arcymistrza Garry Kasparowa. Pojawiają się w sprzedaży pierwsze modele odtwarzaczy płyt optycznych DVD.
1.4 Bibliografia

Polskie strony WWW

Encyklopedia internetowa Wirtualnej Polski http://encyklopedia.wp.pl/
Encyklopedia internetowa Onetu http://wiem.onet.pl/wiem/
Bit Zone - Jedna z lepszych stron w Polsce.
Komputery i ich historia - wiele informacji o konkretnych maszynach, ale jest także chronologia wydarzeń.
Kupa Złomu - Autor strony przedstawia opisy i mnóstwo zdjęć starych komputerów.
http://historia.adrem.pl/index.php3 - historia komputera.

Zagraniczne strony WWW

Chronology of Personal Computers - najważniejsze wydarzenia w historii komputerów osobistych.
A Chronology of Digital Computing Machines (to 1952) - historia komputerów od czasów najdawniejszych do roku 1952.
Computers: History and Development - niezbyt szczegółowa historia komputerów.
History of Computing Information - zbiór dokumentów dotyczących pierwszych komputerów, wiele fotografii.
History of Computing - informacje o historii komputerów poukładane chronologicznie.
The History of Modern Computers and their inventors - źródło informacji o komputerach oraz ich wynalazkach.
A Short History of the Computer - historia komputerów opisana w sposób zwięzły, aczkolwiek przystępny.
The History Of Computing Foundation - strona zawiera wiele informacji sklasyfikowanych w postaci chronologii, biografii, danych dotyczących konkretnych maszyn.

Drukowane

Rene Zey ?Leksykon wynalazców i odkrywców? 2000
Komputer Świat ?Encyklopedia wiedzy komputerowej? 2000
Encyklopedia Powszechna Bertelsmann (Fogra) 2001

Załączniki:
Czy tekst był przydatny? Tak Nie

Czas czytania: 41 minut