profil

Kamienie milowe w rozwoju technologii informacyjnej

poleca 85% 208 głosów

Treść
Grafika
Filmy
Komentarze

Kamienie milowe w technologii informacyjnej

mojej pracy pragnę przedstawić większe jak i mniejsze osiągnięcia technologii informacyjnej, które przyczyniły się do coraz to nowszych, bądź udoskonalanych technologii. Proces powstania jak i udoskonalania urządzeń elektronicznych trwa już od wielu lat i nadal zaskakuje nas nowościami. Jak można się domyślać nie był to tylko jeden wynalazek który przyczynił się do wszystkiego co mamy i co nasze młodsze pokolenia za kilka lub kilkanaście lat osiągną, ale było to często na zasadzie prób i błędów wiele odkryć w kierunku dzisiejszej, zaawansowanej technologii. Aby wprowadzić do tematu należy najpierw wyjaśnić co to jest informatyka, czego dotycz, czym się zajmuje oraz z jakimi dziedzinami się łączy.

Co to jest informatyka?

INFORMATYKA dziedzina nauki i techniki zajmująca się metodami zapisywania, przechowywania i przetwarzania informacji, zwłaszcza za pomocą sprzętu komputerowego. Obejmuje teorie informatyczne, budowanie systemów informatycznych (w tym programowanie), budowę i działanie sprzętu komputerowego, zastosowania metod informatycznych w różnych dziedzinach działalności ludzkiej i inne. Teorie informatyczne zajmują się badaniem zjawisk związanych z operowaniem informacją, jej przedstawianiem, przechowywaniem, uzyskiwaniem, porządkowaniem, przetwarzaniem. Prawa rządzące tymi zjawiskami leżą u podstaw budowy narzędzi informatyki, będących obiektami fizycznymi i logicznymi. Te z kolei stanowią przedmiot badań działów teoretycznych informatyki. Informatyka posługuje się językiem i metodami matematyki, logiki matematycznej i specyficznych dziedzin, takich jak: teoria języków formalnych i automatów abstrakcyjnych, teoria algorytmów, teoria kolejek. Teorie te tworzą również swój własny język i metody. Programowanie i budowanie systemów informatycznych obejmuje w szczególności tworzenie narzędzi ułatwiających programowanie i ogólnie posługiwanie się komputerami. Do narzędzi tych należą języki programowania, translatory, systemy operacyjne i inne. Do działu informatyki związanego z programowaniem należą też metody programowania i oceny programów. Dział informatyki związany ze sprzętem komputerowym wykorzystuje zarówno rozwój elektroniki, jak i modele obliczeniowe tworzone w celu szybkiego, algorytmicznego rozwiązywania zadań. Modele te stanowią teoretyczną podstawę tzw. architektur komputerowych, realizowanych następnie elektronicznie.

Tranzystor

TRANZYSTOR przyrząd półprzewodnikowy o co najmniej 3 elektrodach mający właściwość wzmacniania sygnałów elektrycznych.
23 grudnia 1948 pracownicy Bell Telephone Laboratories (J. Bardeen i W.H. Brattain) zbudowali pierwszy tranzystor, ostrzowy za co otrzymują Nagrodę Nobla w 1956 r. Wynalezienie tranzystora uważane jest za początek rewolucji elektronicznej XX w. Opracowanie w latach 60. metody fotograficznego maskowania i warstwowego trawienia, umożliwiającej miniaturyzację tranzystora, spowodowało znaczne potanienie produkcji i w konsekwencji masowe wytwarzanie tranzystorów oraz, zawierających ich setki, tysiące, a nawet miliony, układów scalonych.

Układ scalony

W połowie lat 50. tranzystory szybko stały się zjawiskiem powszednim. Można je było znaleźć praktycznie wszędzie. Były znacznie mniejsze od lamp próżniowych ale dla pewnych zastosowań nadal pozostawały za duże. Niestety, choćby ze względu na konieczność połączenia przewodami z innymi elementami, nie można ich było stale zmniejszać. Dwaj inżynierowie niezależnie od siebie i prawie w tym samym czasie wpadli na pomysł, aby zbudować cały układ elektroniczny składający się z tranzystorów, elementów dyskretnych i połączeń za jednym zamachem i na jednym kawałku podłoża.

Co to jest Układ Scalony?

Nie mówi się na co dzień o tym, co to tak właściwi jest układ scalony. A jest to nic innego jak, chip-zminiaturyzowany półprzewodnikowy układ elektroniczny zawierający od setek do wielu mln elementów składowych (czynnych ? tranzystorów lub diod, oraz biernych - rezystorów lub kondensatorów) powstających równocześnie w jednym cyklu produkcyjnym. Scalony układ może być wykonany z jednego kryształu półprzewodnika (tzw. scalone układy monolityczne) lub naniesiony warstwowo na izolujące podłoże (scalone układy cienkowarstwowe). Pierwsze scalone układy wytworzono w 1958 w USA. Tanie, masowo wytwarzane scalone układy otrzymuje się metodą fotograficznego maskowania i trawienia płytek krzemowych. Przykładami scalonych układów są mikroprocesory i moduły pamięci półprzewodnikowej.

Pierwsze nośniki danych

Powstają pierwsze magnetyczne nośniki danych. Są to sporej wielkości bębny magnetyczne.
NOŚNIK DANYCH (nośnik informacji), inform. materiał lub urządzenie przeznaczone do trwałego zapisywania w nim danych i ich późniejszego odtwarzania; np. dysk magnet., taśma magnetyczna.

Algorytmiczne języki programowania

Zespoły naukowców opracowują w latach sześćdziesiątych algorytmiczne języki programowania: Algol 60, Fortran, Cobol, Basic, Simula 67 (prototyp języka programowania obiektowego). N. Wirth projektuje język Pascal (1971), E. W. Dijkstra, C. A. R. Hoare formalizują programowanie strukturalne.
Język programowania, zbiór zasad składni, instrukcji, dzięki którym powstaje kod źródłowy programu. Procesor jest w stanie wykonywać program w kodzie maszynowym. Jednakże tworzenie programów w tym języku jest praktycznie niemożliwe. Dlatego programista używa języka zrozumiałego dla człowieka, który następnie jest kompilowany bądź interpretowany do postaci maszynowej.
Algol 60 (ALGOL, ALGOorithmic Language), język algorytmiczny, początkowo pomyślany jako język opisu algorytmów i komunikacji między użytkownikami komputerów, później implementowany w formie języka programowania. Początki prac nad Algolem sięgają 1955 (Darmstadt), raport o języku IAL (International Algebraic Language) pochodzi z 1958 (Algol 58); w 1960 P. Naur przedstawił szkic raportu na konferencji w Paryżu. Raport ostateczny ? Algol 60 ? sygnowało 13-osobowe grono matematyków i informatyków reprezentujących najważniejsze ośrodki światowe. Wzorcowy język Algol 60 zdefiniowano w sposób ścisły, przy użyciu formalnej notacji BNF. Jako charakterystyczną cechę tego języka wymienia się jego strukturę blokową, tj. możliwość spiętrzania konstrukcji syntaktycznej nazywanej blokiem. W odmianie Algolu 60 o nazwie Algol publikacyjny ogłoszono wiele algorytmów w czasopismach komputerowych. Do nielicznych udanych i pełnych realizacji maszynowych języka Algol 60 zalicza się polską implementację Algol 1204 dla maszyny Odra 1204 (J. Szczepkowicz, Krystyna Jerzykiewicz).Rozwinięciem Algolu 60 był Algol W, opracowany w 1966 przez N. Wirtha (Pascal) i C. A. R. Hoare'a.Algol 60 posłużył też jako jeden z punktów wyjścia do opracowania języka C.
Fortran, FORTRAN (angielskie FORTRAN, FORmula TRANslator), jeden z pierwszych szeroko używanych, algorytmicznych języków programowania, opracowany przez J. Backusa w 1957. Po wielu unowocześnieniach i zmianach (Fortran 77, Fortran 90) stosowany do dzisiaj. Język Fortran powstał jako wynik wczesnych doświadczeń w programowaniu komputerów za pomocą autokodów z lat 1951-56. Pierwszą implementację Fortranu wykonano dla maszyny IBM-704. W 1958 powstała wersja Fortran II wprowadzająca możliwość kompilacji niezależnej (IBM-704), a w 1959 jej odpowiednik dla komputera IBM-709. Kolejna wersja Fortranu nosiła nazwę XTRAN, jej autorzy weszli w skład grupy projektującej język Algol 58. Wersja Fortran IV nosiła już wyraźny wpływ języka Algol. W latach sześćdziesiątych XX w. IBM-owski Fortran spopularyzował się na komputerach różnych typów. Do końca lat siedemdziesiątych szeroko użytkowany jako język obliczeń inżynierskich i naukowych. Dostępny również na komputerach osobistych.
Cobol, COBOL (angielskie COmmon Business Oriented Language), uniwersalny język programowania zastosowań gospodarczych, wywodzący się z USA z końca lat pięćdziesiątych. Raport pierwotny o języku Cobol z 1961 (G. Hopper), ulepszany do 1965, kolejne wersje do 1973. Proces normalizacji języka Cobol podjęto w 1963. Język Cobol umożliwia przetwarzanie tabel, sekwencyjny i bezpośredni dostęp do danych, sortowanie i indeksowanie, generowanie raportów, segmentowanie programu i stosowanie bibliotek. Charakterystyczną cechą tego języka jest rozwlekła notacja (pełne słowa i pseudozdania języka angielskiego). W Cobolu wykonano olbrzymie ilości oprogramowania przetwarzania danych użytkowanego do dzisiaj.
Basic, BASIC (z angielskiego Beginners All-purpose Symbolic Instruction Code), przełomowy w chwili powstania w 1964, potem mocno krytykowany za brak strukturalności, prosty, interpretowany język programowania, spopularyzowany w komputerach ośmiobitowych i kalkulatorach programowanych. Jego twórcy ? J. Kemeny i T. Kurtz (Dartmouth College, USA) ? przedstawili go jako rewolucyjną propozycję wobec języków algolopodobnych. Basic z założenia nadawał się do pracy interakcyjnej i miał ujmować prostotą (m. in. brak typów, numerowane instrukcje ułatwiały redagowanie programu). Pierwsze implementacje Basica były wykonywane na minikomputerach, a nawet na komputerach stacjonarnych (m. in. na polskich komputerach ODRA 1204 i ODRA 1305, także w wersji kompilowanej). Oprzyrządowany w podstawowe operacje plikowe Basic na długo stał się nie tylko podstawowym językiem mikrokomputerów, lecz także ich systemem operacyjnym. Mimo przydatności do programowania doraźnego w małej skali, oryginalny Basic został odrzucony jako nieprzystosowany do nauczania początkowego informatyki i wyparty przez strukturalny język Logo. Odrodzony i zmetamorfozowany zarówno pod względem struktur sterowania i danych, jak i interfejsu systemowego Basic znajduje szerokie zastosowanie w programowaniu aplikacji dla komputerów typu IBM PC pod postacią platformy programowania RAD o nazwie VisualBasic. W tym nowoczesnym produkcie z Basica pozostała głównie nazwa.
Simula 67, język programowania opracowany w 1967 r. w Norweskim Ośrodku Obliczeniowym w Oslo przez O-J. Dahla, B. Myhrhauga i K. Nygaarda, rozszerzający Algol 60, pomyślany jako uniwersalny język symulacji. Ze swoją koncepcją klasy i obiektu Simula 67 stała się punktem wyjścia do projektowania języków obiektowych, zwłaszcza C .
Pascal, strukturalny język programowania stworzony przez N. Wirtha na początku lat 70. Jego zastosowanie w praktyce jest obecnie bardzo ograniczone. Najważniejszym zastosowaniem języka Pascal jest nauka programowania. Pozostaje on przez to jednym z najszerzej znanych i popularnych języków, zwłaszcza wśród początkujących programistów.
Pierwszy masowo sprzedawany komputer IBM 650

Komputer osobisty PC

Idea komputerów osobistych zrodziła się pod koniec lat 70-tych. Nie jest do końca jasne, który z komputerów można uznać za pierwszą tego typu maszynę. O palmę pierwszeństwa, kłócą się tu Xerox, Hewlett-Packard oraz IBM. Niewątpliwym faktem jest natomiast to, że pierwszym masowo produkowanym tego rodzaju komputerem, który faktycznie dotarł pod "strzechy" był Apple I. Intensywny rozwój komputerów osobistych rozpoczął w 1981 roku, kiedy to Apple II sprzedawany wraz z prostym edytorem tekstów - Apple Write oraz arkuszem kalkulacyjnym Lotus stał się faktycznie pożytecznym narzędziem przydatnym w prostych pracach biurowych. Rynek ten zauważył wtedy IBM, który dodał do idei prostej i taniej architektury Apple-a, ideę otwartej architektury budowy komputera i wypuścił swój pierwszy, masowo produkowany komputer osobisty IBM PC/XT, od którego wywodzi się cała rodzina komputerów klasy PC. Kolejnym krokiem rozwoju było przejście w komputerach osobistych z tekstowego interfejsu użytkownika do interfejsu graficznego GUI, który razem z myszą znacznie ułatwił obsługę tych maszyn. Pierwotnym wynalazcą GUI i myszki była firma Xerox, która jednak nie zdecydowała się na wejście na rynek komputerów osobistych i sprzedała prawa do swojego wynalazku firmie Apple. Apple rozwinął tę ideę i w 1984 roku wypuścił swój pierwszy komputer z GUI o nazwie Macintosh, który osiągnął niebywały sukces handlowy. W roku 1985 firmy Commodore i Atari zaprezentowały swoje modele komputerów Amiga 1000 oraz Atari 520ST posiadające własne GUI. Pod koniec lat 80-tych i w pierwszej połowie lat 90-tych największy sukces odniosły komputery klasy PC (IBM i innych producentów, którzy kopiowali te komputery) wraz z sytemem operacyjnym Windows produkcji Microsoft. Obecnie ok. 80% komputerów osobistych to PC-ty z Windowsami, a w Polsce odsetek ten wynosi prawdopodobnie powyżej 90%.

Co to jest PC?

PC z angielskiego znaczy: Personal Computer czyli dosłownie komputer osobisty, rodzaj komputera przeznaczony dla pojedynczego użytkownika. Początkowo komputery były dużymi urządzeniami przeznaczonymi tylko dla poważnych instytucji. W latach 80-tych nastąpił rozwój małych komputerów do prywatnego użytku, takich jak 8-bitowe Atari czy Commodore a także pierwsze Macintoshe firmy Apple i komputer XT produkowany przez IBM. Nazwa PC oznacza przede wszystkim komputery kompatybilne z IBM PC (XT i późniejsze modele).

Komputer ważył ponad 3 tony i zapełniał cały pokój .CPU miał 5 stóp przez 3 stopy przez 6 stóp i ważył blisko tonę .Zasilacz był o tym sam rozmiarze jak Cpu ale blisko jeden i pół tony lżejszy i to nie była kompletna maszyna. Była też jednostka wejściowa, która miała rozmiar pół CPU ale, ważyła pół tony . IBM 650 był pierwszym komputerem, na którym IBM zrobił znaczący zysk, sprzedając 2000 sztuk tych maszyn. Informacje zapisywane były na obracającym się magnetycznym bębnie, który pomieścił 10000 słów, a dostęp do nich był bardzo wolny. Maszyna była bardzo kosztowna. Cpu razem z zasilaczem kosztował $3200 na miesiąc. Podczas gdy wejściowa jednostka kosztowała $550 na miesiąc. Cała maszyna kosztowała pół miliona dolarów!

Sieć Internetowa

Ważnym punktem rozwoju jest Internet. Internet jest to globalna sieć komputerowa oparta na tzw. protokole komunikacyjnym TCP/ IP (angielskie Transfer Control Protocol/ Internet Protocol; największa sieć komputerowa na świecie, składa się z wielu tysięcy mniejszych sieci; powstała w USA z uruchomionej 1969 sieci ARPANET (przeznaczonej do celów militarnych) oraz z utworzonej 1984 sieci NSFNET (pierwotnie przeznaczonej dla ośrodków naukowych i szkolnictwa wyższego); ob. powszechnie wykorzystywana przez użytkowników komputerów, zwł. do wyszukiwania i pozyskiwania informacji i programów z zasobów dostępnych w sieci, do przesyłania poczty elektronicznej i in.; informacje tekstowe w Internecie są zwykle prezentowane w postaci hipertekstu (WWW); do ich wyszukiwania służą specjalne programy zw. przeglądarkami; Internet jest coraz częściej wykorzystywany także do przesyłania przedstawionych w postaci cyfrowej obrazów, sekwencji filmowych i zapisów dźwięku; wszelkiego rodzaju pliki mogą być w Internecie przekazywane za pomocą tzw. usługi FTP (angielskie File Transfer Protocol); korzystanie z Internetu wymaga uzyskania tzw. konta internetowego, tj. własnego adresu w sieci; liczba użytkowników Internetu bardzo szybko rośnie.

Hipertekst

Krokiem milowym w ciągłym ulepszaniu i rozwoju technologii informacyjnej jest hipertekst czyli forma prezentacji tekstu. Dokument hipertekstowy jest normalnym tekstem, z tym że niektóre słowa (bądź wyrażenia) stanowią odsyłacz (link) do innego dokumentu lub innego miejsca w bieżącym pliku. Słowa takie są z reguły prezentowane jako podkreślone, dodatkowo mogą być prezentowane w innym kolorze. Hipertekst występuje najczęściej na stronach WWW albo w systemach pomocy programów systemu Windows. Występuje on również w publikacjach multimedialnych, np. Multimedialna Encyklopedia Powszechna firmy Fogra Multimedia zawiera ponad 2 mln linków.

Podsumowanie
W erze gdzie praktycznie komputer jest wszech obecny, można go znaleźć w prawie wszystkich domach, wszystkich biurach i urzędach. Człowiek nawet nie interesuje się tym jak powstał komputer, jaka jest jego historia, dzięki komu zawdzięczamy urządzenie które zapewnia nam rozrywkę, szybki dostęp do informacji, zaoszczędzanie masy czasu.

Podsumowanie ? ważne daty

1954 - Powstaje pierwsza drukarka, Uniprinter, opracowana przez Earla Mastersona. Drukuje 600 lini na minutę.
1954 - Texas Instruments przedstawia tranzystor krzemowy, który jest tańszy w produkcji od germanowego.
1958 - Bell opracowuje modem, który pozwala przesyłać dane po linii telefonicznej.
1959 - Xerox przedstawia pierwszą maszynę kopiującą.
1960 - W listopadzie firma DEC przedstawia PDP-1, pierwszy komputer wyposażony w monitor i klawiaturę.
1961 - Fernando Corbato z Uniwersytetu MIT wykorzystuje podział czasu procesora
umożliwiając pracę na nim jednocześnie kilku użytkownikom.
1962 - 10 lipca wystrzelony zostaje satelita telekomunikacyjny Telstar, który umożliwia przekazy telewizyjne poprzez Atlantyk.
1962 - Opracowana zostaje pierwsza gra video.
1963 - Powstaje program Eliza, który wykazuje pewne przejawy inteligencji. Potrafi prowadzić proste rozmowy z człowiekiem.
1963 - Zatwierdzony zostaje 7-bitowy kod ASCII do wymiany informacji miedzy urządzeniami w komputerze.
1964 - Gordon Moore sugeruje, że poziom integracji systemów komputerowych (wydajności procesorów) podwaja się corocznie. Dzisiaj stwierdzenie to znane jest jako prawo Moora.
1968 - Jako standard przyjmuje się zapis daty w postaci sześciu cyfr (YYMMDD - rok - miesiąc - dzień) przy wymianie informacji. Cóż, był to ewidentny błąd, który spowodował po latach powstanie problemu roku 2000.
1970 - Dennis Ritchie i Kenneth Thomson opracowuje system operacyjny Unix w firmie Bell Labs.
1971 - Ray Tomlinson z firmy Bolt Beranek & Newman wysyła pierwszy e- mail.
1973 - Naukowcy z Xerox PARC opracowuje eksperymentalny komputer PC. Używa on myszy, sieci Ethernet i GUI.
1973 - Alan Kay opracowuje własną wersję domowego komputera PC. Bazuje on na języku Smalltalk, używa ikon i grafiki.
1973 - Rozpoczynają się prace nad protokołem TCP (Transmission Control Protocol) w laboratorium Stanford University. Prace nadzoruje Vinton Cerf.
1973 - Scelbi Computer Consulting Company oferuje pierwszy zestaw komputerowy do samodzielnego złożenia, oparty o procesor Intel 8008. Cena zestawu z 1 kB pamięci wynosi 565 USD, dodatkowe 15 KB kosztuje 2760 USD!
1975 - IBM przedstawia drukarkę laserową.
1976 - IBM opracowuje drukarkę atramentową.
1978 - Powstaje Wordstar, pierwszy procesor tekstu opracowany na komputery działające pod systemem operacyjnym CP/M, potem także pod DOSem.
1978 - Ron Rivest, Adi Shamir i Leonard Adelman opracowują standard szyfrowania danych RSA z kluczem publicznym.
1978 - W grudniu firma Atari wypuściła komputery Atari 400 i 800 z procesorem 6502.
1979 - 11 maja Don Bricklin i Bob Franston piszą pierwszy arkusz kalkulacyjny VisiCalc, dzięki niemu wzrasta zainteresowanie komputerami.
1979 - We wrześniu Motorola przedstawia procesor 68000, który składał się z 68 tys. tranzystorów (stąd jego nazwa). Stosowany min. W komputerach Amiga Commodore.
1980 - Wayne Ratliff pisze dBase II, pierwszą wersję bazy danych na komputery PC.
1980 - IBM wybiera PC-DOS Microsoftu, jako swój system operacyjny stosowany w komputerach PC.
1980 - W czerwcu Seagate Technologies prezentuje dysk Winchester 5,25 cala. Używa on czterech talerzy i ma 5 MB pojemności. Kosztuje 600 USD.
1984 - Powstaje interface MIDI (Musical Instrument Digital Interface) standard służący do wymiany informacji pomiędzy komputerami i urządzeniami muzycznymi.
1990 - Hewlett-Packard i IBM przedstawiają komputery oparte o procesor RISC.
1993 - Studenci z University of Illinois National Center for Supercomputing Applications piszą graficzną przeglądarkę stron WWW - NCSA Mosaic.
1995 - Wyprodukowany zostaje pierwszy film pełnometrażowy przy zastosowaniu wyłącznie techniki komputerowej - Toy Story.
1996 - Na rynku debiutuje Palm Pilot - prosty bezklawiaturowy model komputera naręcznego.
1996 - W październiku powstaje płyta wielokrotnego zapisu CD-RW (CD-ReWritable).
1997 - w meczu szachowym, komputer IBM Deep Blue po raz pierwszy pokonuje arcymistrza Garry Kasparowa. Pojawiają się w sprzedaży pierwsze modele odtwarzaczy płyt optycznych DVD.


Bibliografia
http://encyklopedia.wp.pl/
http://wiem.onet.pl/wiem/
http://historia.adrem.pl/
http://wikipedia.pl/
http://encyklopedia.pwn.pl/
http://encyklopedia.interia.pl/

Czy tekst był przydatny? Tak Nie

Czas czytania: 16 minut