sobota, 26 lipca 2014
Carpe diem - vivere est cogitare: Zygmunt Ryznar - Kim jesteśmy
Carpe diem - vivere est cogitare: Zygmunt Ryznar - Kim jesteśmy: Zygmunt Ryznar - Kim jesteśmy Sami stworzylismy sobie więzienie. Jesteśmy więźniami przyzwyczajeń, poglądów, uprzedzeń, norm społecznyc...
poniedziałek, 20 stycznia 2014
Dr Zygmunt Ryznar ©
O TYCH CO STWORZYLI PODSTAWY INFORMATYKI I PRZEMYSŁU KOMPUTEROWEGO
wersja rozszerzona
Niniejsza praca badawcza powstała w trybie hobbystycznym (pro publico bono) na podstawie pierwotnych materiałów źródłowych a nie wtórnych typu wikipedia. Zawiera fakty oraz moje własne opinie. Cytowanie dozwolone z powołaniem się na źródło.
Wstęp
To,co kryje się obecnie w pojęciu „informatyka” nie narodziło się w jednym akcie. Narastało powoli i od starożytności na kilku kontynentach (z „prehistorii” informatyki wymienić można takie postaci jak Pingala, Paniani, Leonardo da Vinci, Blaise Pascal, Gottfried von Leibniz, Charles Babbage itd. ale niewątpliwie największy wkład w jej głównym dorobku miało zaledwie kilka lub najwyżej kilkanaście osób.
Teoretyczne (i w duzym stopniu praktyczne) podstawy konstrukcyjne komputerów stworzone zostały w czasie i po II wojnie światowej głównie na uczelniach amerykańskich (von Neumann w Princeton, Atanasoff w Iowa, Eckert i Mauchly w Pensylwanii, Howard Aiken w Harvardzie). Dorobek naukowy wchłaniany był chętnie przez przemysł, często wraz z ludźmi (np. przejście Eckerta i Mauchly’ego do Remington Rand dały początek działowi komputerów komercyjnych UNIVAC w tej firmie).
Rozwój przemysłu komputerowego początkowo odbywał się w dużych firmach produkujących przedtem inne produkty (np. maszyny analityczne systemu kart dziurkowanych, maszyny do pisania, golarki elektryczne), a potem nabrał radykalnego przyśpieszenia dzięki inwencji kilku młodych prężnych i ambitnych osób (założycieli firm DEC, Apple, Dell). Od lat 70-tych postęp w konstrukcji komputerów zawdzięczamy już nie tyle uczelniom, ile takim wynalazcom-fascynatom jak Ken Olsen i Seymour Cray.
Produkcja minikomputerow i osobistych komputerów rozpoczęła nowy - równoległy do mainframe'ów - etap rozwoju przemysłu komputerowego. Na masową skalę produkowane są serwery, stacje robocze i komputery biurkowe. Niektóre gałęzie gospodarki (np. bankowość) funkcjonować mogą całkowicie elektronicznie bez udziału człowieka. Komputery osobiste wreszcie - dzięki taniości - trafiają wreszcie pod strzechy. Obecnie mamy do czynienia z inwazją tabletów i smartfonów . Należą zarówno do telefonii jak i informatyki. Komputeryzacja ogarnia wszystko - już znajduje miejsce np. w nowoczesnym sprzęcie AGD - gdzie można sobie posurfowac też w internecie.
Herman Hollerith (1860-1929)
Nie o wszystkich i nie o wszystkim wspomniałem, ale nie sposob pominąć Amerykanina niemieckiego pochodzenia Hermana Holleritha –twórcę, który zapoczątkował ponad stuletnią epokę maszyn analitycznych systemu kart dziurkowanych.
Dał on początek wielkiemu biznesowi w technice obliczeniowej, gdy w roku 1896 utworzył "Tabulating Machine Company" (TMC), która łącząc się z kilkoma innymi firmami dała w roku 1924 początek największej firmy komputerowej w dziejach świata -IBM, zatrudniającej od lat 60-tych nieprzerwanie kilkaset tysięcy osób. Był wybitnym wynalazcą - miał na koncie 38 patentów, jednakże najważniejszy w jego mniemaniu patent pneumatycznego odczytu kart dziurkowanych nigdy nie został zrealizowany, gdyż nawet w jego konstrukcjach stosowano przekaźnikowy odczyt elektryczny).
Maszyny licząco-analityczne długo opierały się inwazji komputerów elektronicznych. Przywiązanie do dziecka pierworodnego, czyli do tych maszyn, u prezesa IBM T.Watsona było tak wielkie, że z dystansem spoglądał na to, co się dzieje w przemyśle maszyn liczących. Nawet jeśli coś “za bardzo nowego” wyprodukował (lub sfinansował) to oddawał to innym (przypadek przekaźnikowego komputera MARK I na uniwersytecie Harvard). Dopiero w latach 1954-1956 IBM zaczął przestawiać produkcję z maszyn licząco-analitycznych na komputery, kiedy utracił swego podstawowego użytkownika jakim było amerykańskie Biuro Spisowe – Census Bureau, w którym zainstalowano pierwszy komputer do przetwarzania danych UNIVAC wyprodukowany przez konkurenta – firmę Remington Rand. Obie firmy miały też podobną przeszłość – Remington Rand produkowal kiedyś maszyny do pisania oraz maszynki do golenia (co robi zresztą obecnie zamiast komputerów) a IBM -kiedyś jako CTR- wagi przemysłowe i krajalnice do sera (czego już - odpukac w ... - nie robi).
Konrad Zuse [1910 - 1995]
W historii komputerów pionierską rolę odegrał niemiecki konstruktor Konrad Zuse. Mimo, iż miał dyplom inżyniera budownictwa, został twórcą pionierskich mechanicznych i przekaźnikowych maszyn liczących. Działał jako niezależny "samotnik" działający w oderwaniu od głównych trendów międzynarodowych. W czasie II wojny światowej wspomagał machinę wojenną Hitlera swoimi wynalazkami - skonstruował sterowany pocisk rakietowy Hs 293 do niszczenia okrętów, od zastosowania którego w 1943 roku zginęło ponad 1000 amerykańskich żołnierzy. Wszystko to znakomicie utrudniło uznanie jego wynalazczych zasług przez amerykańskich "kolegów po fachu". W latach 1936-1938 Zuse budował model Z1 - mechaniczno-elektryczny kalkulator pobierający rozkazy z taśmy dziurkowanej. Skonstruowany w 1939 roku model Z2 miał już złożoną z przekaźników jednostkę arytmetyczno-logiczną. Odnośnie pamieci, konstruktor przywiązany był do cienkich płytek blaszanych (patent 1936 r) zwanych mechanicznymi bitami, które były tańsze i zajmowały mniej miejsca niż przekaźniki. W 1941 r powstał całkowicie przekaźnikowy komputer Z3 - pierwszy programowalny komputer zmiennopozycyjny binarny i pierwsza maszyna Zusego przeznaczona do normalnej eksploatacji. W 1945 roku powstaje Z4, który po wojnie wynajmował instytutowi ETH w Zurychu. W tym samym roku opracował język programowania wysokiego poziomu, zwany Plankalku^l, za pomocą którego napisano program do gry w szachy.
Ostatnim wynalazkiem Zusego była wieża HelixPDF - elektrownia wiatrowa, która zmienia wysokość dostosowując się do siły wiatru.
Podonie jak twórca ENIACa Mauchly, Zuse był biznesmanem, gdyż 1 kwietnia 1941 roku założył firmę Zuse-Apparatebau, w 1949 r Zuse KG, które do 1967 wyprodukowało 251 komputerów a potem z powodu finansowych problemów zostało przejęte najpierw przez BBC, a później przez Siemensa; w 1971 roku nazwa firmy ostatecznie zniknęła z rejestru spółek.
Nie był wynalazcą systemu binarnego gdyż W 1936 roku Louis Couffignal wystąpił w Belgii o patent na maszynę liczącą w systemie dwójkowym; także uniwersalna maszyna Turinga była komputerem przechowującym programy w pamięci, a działającym w systemie dwójkowym.
Atanasoff vs Mauchly (czyli spór o to kto był pierwszy)
Presper Eckert i John Mauchly (twórcy ENIACa), John Atanasoff i Clifford Berry (twórcy ABC) i John von Neumann (twórca podstaw architektury komputerów) spotykali się i wymieniali poglądy związane z budową pierwszych komputerów. Neumann nie przywiązywał większej wagi do praw autorskich, traktując osiagnięcia naukowe jako wspólne dobro lub dzieło zbiorowe o licencji public domain, skoro projekt był finansowany przez rząd amerykański. Natomiast panowie Eckert i Mauchly jeszcze pracując nad ENIACiem weszli w spór ze swoim Uniwersytetem (Pensylvania Univ.) o wyłączność praw patentowych, związanych z konstrukcją tego komputera. Spór zakończył się przerwaniem z ich strony prac nad całkowicie binarnym komputerem EDVAC, odejściem z uniwersytetu i założeniem własnej firmy EMCC. Ponadto zarzucali Neumannowi, że w swoich raportach wykorzystywał ich dorobek naukowy. W końcu zdobyli prawa patentowe, ale historia – za pośrednictwem Johna Atanasoffa (twórcy w 1942 roku komputera ABC –Atanasoff Berry Computer) rozliczyła właściwie kwestie ich pierwszeństwa. Ignorowany przez nich wynalazca wytoczył w 1971 roku proces o prawa autorskie i po 2 latach procesowania się uzyskał pełną satysfakcję – patenty związane z ENIACiem zostały uznane za nieważne a Atanasoff uznany został za wynalazcę pierwszego elektronicznego cyfrowego komputera.
Niestety informacje o tym werdykcie nie zostały nalezycie rozpropagowane i pogląd o ENIACu jako pierwszym komputerze istnieje do tej pory nawet wśród osób jako tako zapoznanych z historią informatyki.
John von Neumann (1903-1957)
Po tych kontrowersjach wróćmy teraz do J.von Nemanna. Żył krótko , ale intensywnie, zajmując się – poza „computer science” - wieloma dziedzinami (m.i. teorią gier, fizyką nuklearną, teorią kwantów, a także wynalazkiem bomby wodorowej). Był Węgrem (urodził się w Budapeszcie), studiował chemię w Berlinie i Zurychu, doktorat z matematyki (teoria zbiorów) otrzymał na Uniwersytecie Budapeszteńskim. Wykładał w Berlinie i Hamburgu, a w wieku 27 lat wyemigrował do USA do Princeton, gdzie był jednym z założycieli Institute for Advanced Studies.
Problemy z rozwiązywaniem nieliniowych równań różniczkowych w hydrodynamice skierowały go w stronę obliczeń komputerowych, najpierw do komputera Mark I (autorstwa Howarda Aikena), a potem ENIACa.
Świadcząc usługi konsultanckie dla Eckerta i Mauchleya opracował fundamentalne zasady architektury komputerów jak np.:
- program ma być przechowywany w pamięci i poddawany przetwarzaniu ( podobnie jak dane) np. w celu generowania następnych rozkazów
3 podstawowe części komputera to: pamięć (dla programu i danych), procesor (w ramach którego wydzielona bywa część sterująca oraz część arytmetyczno-logiczna) i urządzenia wejścia-wyjścia.
Neumann otrzymał 7 doktoratów honorowych i w 1956 roku nagrodę im.Enrico Fermiego.
W gronie wynalazców komputera nie można pominąć Howarda Aikena i jego współpracownicy Grace Hopper. Opracowywali oni komputery MARK na uniwersytecie Harvard. Zbudowany na przekaźnikach i uruchomiony w 1944 r. MARK I, znany również pod nazwą ASCC -Automatic Sequence Controlled Computer, był pierwszym automatem liczącym w USA sterowanym przez program, prawdopodobnie wzorowanym na maszynie analitycznej Babbage'a. Ważył co najmniej 5 ton; dwie liczby dziesięciocyfrowe mnożył w 10 sekund.Wykorzystywano go do obliczeń balistycznych w US Navy do roku 1959. Uruchomiony w 1951 roku MARK III oprócz 2000 przekaźników, miał już 5000 lamp elektronowych i 1300 diod. Howard Aiken (1900-1973) był z wykształcenia inżynierem elektrykiem i fizykiem. W 1937 roku rozpoczął pracę nad komputerem MARK I, a w 1939 roku uzyskał tytuł doktora. Prace badawcze nad komputerem zaczęła finansować firma IBM i Aiken stanął na czele 3-osobowego zespołu, w skład którego wchodziła G.Hopper. W 1947 rok Aiken utworzył Harvard Computation Laboratory, a potem własną firmę Aiken Industries. Był zakochany w komputerach, ale nie przeczuwał ich późniejszego szerokiego rozprzestrzenienia. Uważa się, że do niego należy powiedzenie z 1947 roku: „Tylko sześć elektronicznych cyfrowych komputerów wystarczy do zaspokojenia potrzeb obliczeniowych całych Stanów Zjednoczonych.” Notabene podobne proroctwo z 1943 roku dotyczy Thomasa Watsona ( wówczas prezesa IBM) - „ Myślę, że dla całego świata wystarczy być może 5 komputerów”.
Grace Brewster Murray Hopper (1906-1992)
Była jedyną do tej pory kobietą w gronie znaczących twórców informatyki oczywiście nie licząc legendarnej córki poety Byrona Ady Byron - Lady Lovelace - wielbicielki maszyny Babbage’a, która opracowując dla niego procedurę obliczania liczb Bernouliego uchodzi za pierwszą programistkę. G.Hopper w cywilu była profesorem matematyki, a podczas wojny w 1943 roku na własne życzenie została pracownikiem marynarki (w Naval Reserve). Współpracę z Aikenem rozpoczęła w 1944 roku w końcowej fazie budowy komputera Mark I , niewątpliwie w związku z tym, że głównym użytkownikiem tego komputera miała być marynarka. Hopper była odpowiedzialna za testowanie komputera i wyłapywanie błędów . To ona właśnie jest autorem terminu „debug” (odpluskwiania).
W 1949 roku rozpoczęła pracę nad kompilatorem języka symbolicznego dla firmy EMCC (Eckert-Mauchly Computer Corporation), a następnie w Remington Rand/Sperry Rand była wiodącym członkiem zespołu, który dla komputera Univac opracował Flow-Matic jeden z pierwszych języków programowania rozpoznający komendy słowne (nie symboliczne) w języku angielskim.
Następnie opracowała język APT i była odpowiedzialna za weryfikację języka COBOL, którego współautorem była Betty Holberton.
Uhonorowano ją w 1969 roku po raz pierwszy wprowadzoną nagrodą „Postać Roku - Man of the Year" w dziedzinie computer science. Pod koniec życia w 1991 roku otrzymała medal „National Medal of Technology”. Służbowy kontakt z marynarką utrzymywała prawie do końca życia – mimo iż była od dawna w wojskowym wieku emerytalnym (najpierw zgodnie z prawem przymusowo skierowano ją na emeryturę, a potem przyjmowano z powrotem gdyż była niezastąpiona). Między innymi uznano ją za niezbędną do wdrażania języka COBOL i standaryzacji oprogramowania w marynarce.
W 1983 roku Prezydent USA mianował ją komandorem, a dwa lata później w wieku 79 lat (!) została pierwszą kobietą admirałem. W 1986 roku po 43 latach służby w marynarce przeszła wreszcie uroczyście na emeryturę. Nie zerwała jednak z informatyką, gdyż przez ostatnie lata życia była konsultantem w Digital Equipment Corporation. Jej życie było piękną wzorcowo zapisaną kartą, jakiej można życzyć każdemu informatykowi.
Kenneth H. Olsen (1926-2011)
Wynalazca minikomputerów i kreator dużej firmy
Ken Olsen już od wczesnej młodości miał pociąg do elektroniki. Jako chłopiec naprawiał w piwnicy radioodbiorniki, po wojnie studiował w MIT (1952 – M.S.), a następnie pracował na tej uczelni w Lincoln Laboratory, gdzie skonstruował kilka układów do wczesnotranzystorowych mainframów TX-0 i TX-2. W latach 60-tych uzyskał kilka patentów wynalazczych (m.in. na pamięć ferrytową, bufor drukarki wierszowej, układ diodowej bramki transformatorowej itp.).
W 1957 roku za 70 tys. dolarów otrzymanych od generała Doriot z American Research and Development Corporation założył wraz z Harlanem Andersonem (z którym razem opuścili Lincoln Laboratory) firmę Digital Equipment Corporation (DEC), która rozpoczęła działalność od wytwarzania układów logicznych do testowania urządzeń elektronicznych.
Olsen szybko doszedł do wniosku, że wiele zadań realizowanych przez mainfraimy można wykonać na mniejszych komputerach i jego firma z własnych układów skonstruowała w 1960 roku pierwszy minikomputer PDP-1 (Programmed Data Processor).
W ten sposób wprowadził firmę na drogę pełną sukcesów (stała się drugą na świecie po IBMie firmą komputerową wycenianą na 14 mld dolarów) i zbudował podstawę swojej 35-letniej kariery przedsiębiorcy.
Minikomputery kosztowały wielokrotnie mniej niż mainframe’y i zdobyły (m.i. dzięki promocjom ze strony DEC) mocną pozycję na uczelniach amerykańskich. Pozycja DECa wydawała się być niezagrożona i zbyt nieograniczony. Na przykład minikomputer PDP-11 (pierwszy 16-bitowy komputer) produkowany był od roku 1970 nieprzerwanie przez 20 lat mimo trwającego postępu technicznego. Następcą jego były 32-bitowe VAXy, a w latach 90-tych 64-bitowe ALPHy. DEC zawsze znajdował się w czołówce technologicznej.
W 1986 roku magazyn Fortune uznał go za najlepszego przedsiębiorcę w historii amerykańskiego biznesu. Olsen stosował w swojej korporacji nowoczesne metody zarządzania (m.i. wprowadził macierzowe struktury zarządzania, polegające głównie na podziale firmy na współpracujące ze sobą niezależne działy), lecz nie przewidział tego, że przyszłość przemysłu komputerowego tkwi w stacjach roboczych i komputerach osobistych.
To on był autorem niefortunnej wypowiedzi w 1977 roku, że nie widzi przyczyny, dla której ludzie mieli być mieć komputery w domach (później wyjaśniał, że chodziło mu o to aby komputer nie ingerował zbytnio w życie domowe).
Kłopoty w DEC zaczęły się pod koniec lat 80-tych, kiedy Sun Microsystems zaczął zdobywać rynek swoimi stacjami roboczymi opartymi na Unixie. Powstała w 1982 firma umiała trafić w trendy rozwojowe (architektura RISC, symetryczne wieloprzetwarzanie, technologia Javy) i znalazła dla siebie miejsce – swoją niszę rynkową – produkując komputery działające pod UNIXem (z własnym systemem operacyjnym Solaris) w środowisku sieciowym (stacje Sparc).
SUN umiał również nawiązać alianse partnerskie z czołowymi producentami oprogramowania bazodanowego ( Informix, Ingres, Oracle, Sybase) poszerzając w ten sposób potencjał zastosowań swoich komputerów. SUN produkował sprzęt oraz nie zrezygnował z prac rozwojowych. Można powiedzieć, że dzięki otwartości na to co dzieje się w świecie informatyki, SUNowi udało się to, na czym potknął się Digital. Można więc wyrazić uznanie dla czwórki założycieli tej firmy (Scott McNealy, Vinod Khosla, Bill Joy, Andy Bechtolsheim). Od 1992 roku firma Digital zaczęła ponosić poważne straty np. w 1994 roku 2 mld dolarów. Prawdopodobnie nakłady na prace rozwojowe były za duże (np. na unixowy system Ultrix) w stosunku do starań o zdobycie rynku. Zarząd - składający się głównie z "młodych wilków" - widział konieczność gruntownych zmian i poprosił Olsena o rezygnację.
Tak oto zakończyła się jego kariera przedsiębiorcy i wynalazcy, założyciela i CEO korporacji. Po odejściu Olsen nie wziął rozbratu z informatyką i poprowadził małą 40-osobowę firmę informatyczną, zajmującą się konsultingiem i dostawą sprzetu komputerowego.
Błąd strategiczny Olsena zaważył fatalnie na firmie, mimo iż od początku kładziono w niej nacisk na prace rozwojowe, zarówno w konstrukcji komputerów jak i oprogramowaniu, przyczyniając się w znacznym stopniu do rozwoju systemów operacyjnych (w tym do Unixa - poza własnym systemem OpenVMS) i takich urządzeń jak router, klastry komputerów oraz protokół ethernetu. W 1995 roku zanosiło się na to, że firma wychodzi z dołka dzięki rozpoczęciu produkcji procesorów ALPHA, gdyż zdołała wygospodarować zysk 122 ml $. Ale kiedy w Digitalu zaczęto produkować komputery osobiste, wystąpił ogólnoświatowa tendencja spadku opłacalności produkcji tych komputerów. Nie pomogła wyprzedaż różnych działów, w tym sprzedanie Intelowi sztandarowych procesorów Alpha. W 1998 roku Digital został przejęty przez Compaqa – firmę powstałą dopiero w 1982 roku i produkującą to, czego nie chciał kiedyś Olsen, czyli komputery osobiste. Rozwojem przemysłu komputerowego zaczęły rządzić jednak twarde prawa rynkowo-kapitałowe. Przekonał się o tym sam Compaq wchłonięty niedługo potem (w 2001r) przez Hewlett-Packard.
Dwóch Stevów (Jobs,Woz)
Zaczynali w garażu i konsekwentnie trzymali się własnej koncepcji rozwojowej
W 1976 roku dwóch Steve’ów – Wozniak (Woz) - polskiego pochodzenia) i Jobs – oraz Ronald Wayne (pracował tylko przez krótki okres w Apple) w garażu wyprodukowali swój pierwszy komputer Apple I. Ponieważ zatrudniająca Woza firma Hewlett Packard nie zainteresowała się maszyną, na której można było uruchamiać BASIC, założyli 3 stycznia 1977 roku firmę Apple. W ciągu roku sprzedali 200 egzemplarzy i rozpoczęli wytwarzanie Apple II. Wtedy na rynku mikrokomputerów królowała firma Commodore (4 milionów użytkowników w 1984 r.). Woz zademonstrował jej prototyp Apple II , lecz firma Commodore nie wykazała żadnego zainteresowania (!). Na sukces początkowy firmy Apple zapracowali obaj – inżynieryjne umiejętności Wożniaka i marketingowe zdolności Jobsa (który już miał pewne doświadczenie komputerowe z firmy Atari). Nie można pominąć Mike’a Markkula, który na początku zainwestował w firmę prawie 100 tysięcy dolarów. Los nie oszczędzał Woza. Jego zmysł wynalazcy nie kończył się nigdy.W 1981 roku rozbił się pilotowany przez niego samolot. Po hospitalizacji wyciągnął z tego praktyczne wnioski i zabrał się samodzielnie do projektowania automatycznego pilota. W Apple ustąpił pole Jobsowi, stając się pracownikiem z niewielkim wynagrodzeniem. Był raczej indywidualistą (chciał robić przede wszystkim to, co chciał sam) i praca w dużym zespole hamowała jego twórcze pomysły. Coraz mniej pracując w Apple, coraz bardziej angażował się w działalność charytatywną - założył w San Jose fundację Electronic Frontier Foundation, ufundował także muzeum Tech Museum of Innovation, wspierał finansowo budowę sieci komputerowej dla szkół. W roku 2001 założył firmę Wheel of Zeus, której zadaniem była popularyzacja platformy satelitarnego pozycjonowania GPS.
Steve Jobs (1955-2011):"Prostota może być trudniejsza od komplikacji: trzeba się ciężko napracować nad wydobyciem czystej myśli, która pozwala na prostotę." W 1985 Jobs odszedł z Apple, zakładając nową firmę – NeXT, która została przejęta przez Apple w 1996 roku, sprowadzając Jobsa z powrotem do macierzystej firmy, która zresztą zaczęła podupadać finansowo. Jobs odmienił sytuację dzięki wprowadzeniu na rynek komputera iMac, a następnie odtwarzacza iPod i internetowego sklepu muzycznego iTunes Store. Był wizjonerem i biznesmenem równocześnie. Pozostanie ikoną firmy Apple na zawsze.
Apple miał znaczne zasługi w tworzeniu podstaw komputerów osobistych – to ta firma wprowadziła w 1984 roku po raz pierwszy GUI (graphical user interface), uwalniając użytkowników od ubogiej komunikacji znakowej znanej z DOSa. Osiągnięcie to było w 1988 roku przedmiotem sporu z Microsoftem a proces trwał aż do 1997 roku i zakończył się niczym (żadna ze stron nie była w stanie udowodnić racji).
Seymour CRAY (1925-1996)
Wynalazca ciągle poszukujący lepszych rozwiązań technicznych i biznesowych – przykład „autorskiej” drogi innowacyjnej w przemyśle komputerowym. Karierę zaczynał w 1950 roku jako inżynier w Engineering Research Associates (ERA), gdzie pracował nad komputerem ERA 1101 przeznaczonym dla rządu amerykańskiego a potem nad innymi modelami. W 1957 roku wraz z kilkoma kolegami z ERY założył firmę CDC (Control Data Corporation) i tam był wiodącym konstruktorem kilku wówczas największych pod względem mocy obliczeniowej komputerów ogólnego przeznaczenia (np. chłodzonego freonem CDC 6600). Przedmiotem jego zainteresowania były nie tylko rozwiązania hardware’owe - opracował np. zestaw instrukcji programowych, które później określano jako RISC. Był uważany za „geniusza do szybkich komputerów”. Wyprzedzał możliwości przemysłu komputerowego - to on skonstruował pierwszy superkomputer wielowątkowy i wieloprocesorowy CDC8600, którego nie udało się dokończyć z powodu zbyt dużych nakładów. Do jego osiągnięć należy Cray T3E-1200E, który jako pierwszy osiągnął moc obliczeniową 1 teraflop/sek. może dlatego założył w 1972 roku firmę Cray Research, Inc. (w latach 1989-1995 Cray Computer Corp.), w której w 1976 roku wyprodukował superkomputer Cray-1. Piastował tam prawie wszystkie możliwe stanowiska kierownicze (dyrektora wykonawczego CEO i prezesa). W 1981 roku zrezygnował ze wszystkich stanowisk i poświęcił się pracy nad superkomputerem Cray-2 (o 10ciokrotnie większej szybkości niż jego poprzednik) i nowymi technologiami (gallium arsenic technology). Skonstruował jeszcze Craya-3, jednakże z powodu trudności technologicznych, opóźnień i braku sukcesów komercyjnych opuścił firmę. Wpływ na to miała zapewne chwila kiedy uświadomił sobie potencjał mikroprocesorów i ich niski koszt w stosunku do procesorów projektowanych indywidualnie. O wartości mikroprocesorów przekonał się już wcześniej, kiedy używał komputerów Apple do symulowania superkomputera Cray-3. W celu wykorzystania tej technologii założył następną firmę autorską SRC Computers, Niestety nie zdążył zrealizować następnego pomysłu, gdyż zmarł w wieku 71 lat w wyniku obrażeń odniesionych w wypadku samochodowym w 1996 r w Colorado Springs.
Edgar Frank Codd (1923-2003)
Twórca teorii relacyjnych baz danych z niespełnionymi nadziejami. Tak jak S.Cray był pionierem w konstruowaniu superkomputerów, to zasługą E.F.Codda było stworzenie podstaw relacyjnych baz danych, które stały się siłą napędową obecnego dużego biznesu (kilkunastu miliardowego-licząc w dolarach), skoncentrowanego na danych. Ale nie przyszło mu łatwo. Jego teorie na przełomie lat 60/70 tych za bardzo wyprzedzały ówczesną technologię, kiedy królowały sieciowe (np. typu DBTG Codasyl) i hierarchiczne bazy danych (np. IMS firmy IBM). A przecież nie proponował rzeczy bardzo złożonych, lecz proste tablice składające się z wierszy i kolumn, które obudował pewną notacją oraz regułami tzw.normalizacji przeciwdziałającej dublowaniu danych. . Zasługą jego jest to, że uznał iż w obsłudze zapytań lepiej stosować relacje oparte na wartości danych, niż popularne wówczas „łańcuchowanie” danych poprzez pointery wbudowane w rekordy. Po prostu nie uwierzono w tak proste rozwiązanie. Stworzenie pojemnych pamięci operacyjnych i dyskowych umożliwiło efektywną realizację tej technologii.
Studiował matematykę i chemię na uniwersytecie w Oksfordzie. W czasie II wojny światowej służył jako pilot w siłach powietrznych Wielkiej Brytanii. Po wojnie przeniósł się do USA. Pracował na początku jako programista w IBM. Na uniwersytecie stanu Michigan w Ann Arbor jako stypendysta IBMu uzyskał tytuł doktora „computer-science”, a następnie zamieszkał , w Kalifornii, gdzie ponownie podjął pracę dla IBM.
W 1970 wydał pracę "A Relational Model of Data for Large Shared Data Banks", w której przedstawił relacyjny model zarządzania bazami danych. Pracodawca jego – IBM – nie przyjął z entuzjazmem jego pracy i nie kwapił się z jej praktycznym wykorzystaniem, kierując się prawdopodobnie interesem dotychczasowej sztandarowej bazy danych IMS. IBM nawet odsunął Codda od prac nad Systemem R i nie wykorzystał jego relacyjnego języka Alpha, lecz opracowywał język Sequel. Codd uważał ten język za niezgodny ze swoją teorią, co w efekcie zaowocowało odejściem z IBM i założeniem (wspólnie z Chrisem Date) firmy consultingowej. W latach 90-tych z powodu pogorszenia stanu zdrowia przestaje pracować.
Teoria relacyjnych baz danych czekała prawie 10 lat na komercyjną realizację. W 1979 roku Larry Ellison – założyciel firmy Relational Software (przemianowanej 6 lat później na ORACLE) na bazie teorii Codda –stworzył Larry Ellison ( wraz z Bobem Minerem i Edem Oatesem) pierwszą komercyjną relacyjną bazę ORACLE. IBM pracował nad eksperymentalnym Systemem R i językiem Sequel, a dopiero w 1983 roku ogłosił opracowanie DB/2. Jednym z głównych ośrodków badawczych nad relacyjnymi bazami danych był Uniwersytet Berkeley (Ingres i język Quel) i to jego naukowcy utworzyli firmę Relational Technology, promującą Ingres. Quel się nie przyjął (choć był bardziej strukturalny), a Sequel (Structure English Query Language) z praktycznych względów został przemianowany na prostszą nazwę SQL.
Codd ma też poważne zasługi w innej dziedzinie bazodanowej, dotyczącej hurtowni danych, a więc technologii wielowymiarowych danych To on w 1993 roku ukuł termin OLAP (online analytical processing) i sformułował dwanaście reguł tej technologii. Jednakże za twórcę koncepcji hurtowni danych uważany jest Bill Inmon, w latach 90-tych twórca firm Prism Solutions i Pine Cone Systems tworzących software do administrowania danymi w środowisku hurtowni danych. Sformułował on takie cechy hurtowni danych jak zorientowanie na podmioty (np. produkty, klienci) uwzględnienie wymiaru czasu, nieulotność i integralność danych, ukierunkowanie użytkownika końcowego na wspomaganie decyzji nie zaś na obsługę transakcyjną. Przy okazji warto dodać, że podstawy teorii wielowymiarowych baz zapoczątkowali w 1972 r Jay Wurtz i Rick Karrash, wówczas studenci Sloan Management School, a potem twórcy pakietu Express, pierwszego produktu pracującego tak naprawdę na technologii olapowej (choć ten termin jeszcze wówczas nie istniał). Wprowadzenie OLAPu zmodernizowało relacyjne bazy danych o schematy gwiazdy (star) i śnieżynki (snowflake), służące do tworzenia tzw. kostek wielowymiarowych.
Linus Benedict Torvalds (ur.1969)
twórca - wystarczy chcieć i móc – czyli o narodzinach linuxa. wczesnych lat miał „skłonności” do komputerów. Najpierw był to dziadkowy Commodore Vic 20, a w wieku 18 lat kupuje za oszczędności 32-bitowy Sinclair QL z procesorem Motorola 68008, 7MHz, 128KB pamięci. Chęć doskonalenia systemu operacyjnego w Sinclairze nie mogła zostać zrealizowana, bo ten był wbudowany w ROM. W 1988 roku wstępuje na Uniwersytet Helsiński i tutaj w 1990 roku uczy się języka C, w którym wkrótce rozpoczyna pisać swój system operacyjny wzorowany na Unixie i MINIXie ( mały klon UNIXA opracowany przez Andrew Tanenbauma w Holandii do nauki studentów). Do DOSu Linus zraził się wystarczająco po zakupie komputera osobistego typu IBM. Tworzy w swoim wolnym czasie przy użyciu własnego sprzętu i nawet robi sobie przerwę w studiach aby skoncentrować się na zadaniu. Już w 1991 roku ukazuje się jądro systemu. Torvalds początkowo nazwał system Freax (Free uniX) ale za sugestią przyjaciela Ari Lemmke nazwa została zmieniona na Linux (LINUs uniX ).
Linux szybko zyskiwał popularność. W 1997 roku używany był już na ponad 3 milionach komputerów, a dwa lata później było ich już 7 ml. W tymże roku Linus Torvals – po 10 latach pobytu na Uniwersytecie w Helsinkach jako student i wykładowca – zdecydował się na wyjazd wraz z rodziną do doliny krzemowej. W Santa Clara w firmie Trameta pracował za przeciętną płacę programisty przy interfejsie pomiędzy systemami operacyjnymi (ale nie Linuxem) i mikroprocesorami tej firmy. Porozumienie z pracodawcą gwarantowało mu możliwość zajmowania się też Linuxem w celach nie związanych z firmą. Pewnym impulsem do wyjazdu była konieczność zarobkowania dla utrzymywania rodziny.
Praca Torvaldsa uzyskała przychylność nie tylko ze strony szerokiej szerzy współpracujących wolontariuszy programistów, lecz też niektórych ludzi biznesu, jak np. Paula Allena współzałożyciela Microsoftu, który udzielił mu wsparcia finansowego. Sam napisał decydujące 2% kodu jądra, co jest zrozumiałe, gdyż całość jest ogromna – wynosi ok.80MB, nie licząc wielu programów (takich jak GCC, edytor vi, XWindow System i KDE) opracowywanych poza ścisłym projektem Linuxa, lecz koordynowanych wspólnie. Jego sytuacja finansowa radykalnie polepszyła się w 1999 roku – został milionerem - kiedy firmy Red Hat i VA Linux ( VA Software), budujący linię Linuxa dla dużych przedsiębiorstw w dowód zasług podarowały mu akcje o ówczesnej wartości 20 ml dolarów.
Obecnie Torvalds pracuje na pełnym etacie w OSDL (Open Source Development Lab), założonym w 2000r i finansowanym przez konsorcjum firm komputerowych (m.in. IBM rocznie wykłada ok. 2 miliardy dolarów) oraz takie firmy software’owe jak Oracle, Intel, Netscape i Corel. Jest to oznaką, że Linux został doceniony jako system innowacyjny i należy go rozwinąć do obsługi dużych firm, co przekłada się m.in. na możliwości zarządzania bardzo obciążonymi serwerami ( Linux może pochwalić się sukcesem w postaci serwerów webowych Apache) . W ramach OSDL Torwalds podejmuje decyzje końcowe odnośnie zgłaszanych modyfikacji i uzupełnień, delegując pewne uprawnienia takim współpracownikom jak Alan Cox, Andrew Morton i Marcelo Tosatti. Do niego należy marka Linux, aczkolwiek samo oprogramowanie jest licencjonowane jako otwarte (GPL), co nie zabrania sprzedawania go dla zysku.
Linus T. wyznawał zasadę wolnego kodu źródłowego, nie obwarowanego patentami i licencjami oraz dostępnego do modyfikacji. Już wczesną wersję udostępnił na serwerze FTP w katalogu Linux). Na zarzut przedstawiciela Microsoftu Craiga Mundiego, że „open-source” niszczy własność intelektualną , odpowiedział następująco: "Zastanawiam się, czy Mundie słyszał kiedykolwiek o Izaaku Newtonie. Jest on sławny nie tylko ze względu na utworzenie podstaw mechaniki (i początki teorii grawitacji, o czym pamięta większość ludzi, łącznie z historią o jabłku), ale również z powodu stwierdzenia: Jeśli byłem w stanie spojrzeć dalej, to tylko dlatego, że stałem na ramionach olbrzymów’.
Jestem skłonny słuchać raczej Newtona niż Mundiego. Choć umarł prawie trzysta lat temu, mniej zasmradza pokój."Linus Torvalds nie jest starszym człowiekiem, ale uhonorowany został już wieloma wyróżnieniami:
w 1996 roku asteroida 9793 została nazwana jego imieniem
w 1998 roku otrzymuje nagrodę EFF Pioneer
w 1999 roku uzyskuje doktorat honorowy Uniwersytetu w Sztokholmie (warto dodać, że pochodzi ze szwedzkojęzycznej rodziny fińskiej), a w roku następnym Uniwersytetu w Helsinkach
w 2004 roku uplasował się na 16 miejscu na liście 100 najsłynniejszych Finów wszechczasów
w 2006 roku Time Magazine nazwał go jednym z najbardziej znaczących (revolutionary) bohaterów 60-lecia.
Wiliam (Bill) H.Gates (ur. w 1955 r)
Największy biznesmen i filantrop – człowiek któremu się powiodło
Można powiedzieć, że o ile Linus Torvalds pisał Linux dla przyjemności (powiedział: „I did it all just for fun"), to Bill Gates działał przede Przez kilkanaście lat był najbogatszym człowiekiem w świecie. Wartość jego majątku wahała się w zależności od notowań giełdowych Microsoftu (posiada kilkanaście procent akcji) od 43 do ponad 59 miliardów dolarów.. Ostatnio na 1szym miejscu został zastąpiony przez meksykańskiego biznesmena Carlosa Slima. (ponad 65 mld), , posiadacza 1/3 udziałów w spółce telekomunikacyjnej America Movil (to czołowy operator sieci komórkowej w Ameryce Łacińskiej)..Był założycielem Microsoftu, od początku jej szefem, a potem prezesem Rady Nadzorczej i Głównym Architektem Oprogramowania. Jego firma ma 50 miliardów rocznego dochodu i zatrudnienia 78 tysięcy osób w 105 krajach. W 1973 roku rozpoczął studia w Harvardzie, które przerwał 2 lata później, rozpoczynając partnerski biznes Micro-Soft z kolegą ze studiów Paulem Allenem. Już wcześniej zresztą obaj założyli firmę Traf-O-Data, do obliczeń dla potrzeb zarządzania ruchem drogowym, wykorzystując interpreter Basica, który opracowywali jeszcze podczas studiów na komputer Altair dla firmy MITS. Interpreter Basica był pierwszym masowym produktem dostarczanym w ciągu następnych paru lat dla prawie wszystkich mikrokomputerów amerykańskich i japońskich. Los sprzyjał Gatesowi. Niedługo potem IBM ogłosił planowaną premierę PC i pilnie potrzebował dla niego systemu operacyjnego. Microsoft podjął się realizacji zadania, wykupując od firmy Seattle Computer Products prawa do QDOSa ( Quick'n'Dirty Operating System ) i zatrudnił jego autora Tima Pattersona. QDOS został udoskonalony i jako MS-DOS przekazany firmie IBM do testowania. W lutym 1981 system został uruchomiony na prototypie IBM PC i w listopadzie ostatecznie zaakceptowany jako podstawowy system operacyjny dla nowych komputerów W następnych latach czołową rolę w biznesie komputerowym zaczęły odgrywać serwery. I tutaj Microsoft znalazł rozwiązanie. W 1988 r. zatrudnił Dave'a Cutlera, który opracowywał systemy operacyjne VAX/VMS i RSX-11M dla Digitala, a w Cutler zajął się 32-bitowym Windows NT. Innym produktem napędowym stał się pakiet biurowy MS Office i następne wersje systemu Windows. Firma jest też producentem encyklopedii Encarta, symulatora lotu MS Flight Simulator, a nawet klawiatur czy myszek komputerowych oraz konsoli do gier (Xbox). Tyle w skrócie o działalności Microsoftu i tylko tyle, ile potrzeba było aby zilustrowac mechanizmy napędowe firmy. A teraz o drugiej stronie medalu, czyli działalności charytatywnej państwa Melindy i Billa Gatesów. Od czerwca 2008 roku Bill chce poświęcić się całkowicie pracy w Bill & Melinda Gates Foundation nad poprawą stanu zdrowia i edukacji w świecie. Fundacja ta została przez małżeństwo Gatesów założona w styczniu 2005 roku z wkładem prawie 29 miliardów dolarów, a więc wielokrotnie większym niż zaangażowanie dotychczasowego największego amerykańskiego filantropa Johna D. Rockefellera< : "640 kilobajtów pamięci powinno wystarczyć każdemu " (wypowiedziane w 1981 roku) oraz później o Javie "Ktokolwiek myśli, że mały, składający się z 9000 linii program, który na dodatek jest rozprowadzany za darmo i może być sklonowany przez każdego, zmieni cokolwiek, co robimy w Microsofcie, musi mieć pomieszane w głowie" . Wizjonerem dobrym więc nie był, ale wszystko za co się brał w życiu kończył sukcesem.
Wnioski
Trudno być prorokiem we własnym domu (czytaj: własnym biznesie) - Przepowiednie największych postaci informatyki (5-6 komputerów zaspokoi świat, a 640 KB pamięci zaspokoi każdego) zamiast strzału w dziesiątkę, były kulą w płot.
Tam gdzie są duże pieniądze czasem pozostaje trochę serca (wątek filantropijny - Woz, Gates)
Trudno do końca pozostać na piedestale, nawet jak się stworzyło wszystko od początku (przypadek Kena Olsena w firmie DEC-Digital), gdyż interes pozostaje interesem.
Czasem bezinteresowność staje się „opłacalna” (przypadek Linusa Torvaldsa)
O TYCH CO STWORZYLI PODSTAWY INFORMATYKI I PRZEMYSŁU KOMPUTEROWEGO
wersja rozszerzona
Niniejsza praca badawcza powstała w trybie hobbystycznym (pro publico bono) na podstawie pierwotnych materiałów źródłowych a nie wtórnych typu wikipedia. Zawiera fakty oraz moje własne opinie. Cytowanie dozwolone z powołaniem się na źródło.
Wstęp
To,co kryje się obecnie w pojęciu „informatyka” nie narodziło się w jednym akcie. Narastało powoli i od starożytności na kilku kontynentach (z „prehistorii” informatyki wymienić można takie postaci jak Pingala, Paniani, Leonardo da Vinci, Blaise Pascal, Gottfried von Leibniz, Charles Babbage itd. ale niewątpliwie największy wkład w jej głównym dorobku miało zaledwie kilka lub najwyżej kilkanaście osób.
Teoretyczne (i w duzym stopniu praktyczne) podstawy konstrukcyjne komputerów stworzone zostały w czasie i po II wojnie światowej głównie na uczelniach amerykańskich (von Neumann w Princeton, Atanasoff w Iowa, Eckert i Mauchly w Pensylwanii, Howard Aiken w Harvardzie). Dorobek naukowy wchłaniany był chętnie przez przemysł, często wraz z ludźmi (np. przejście Eckerta i Mauchly’ego do Remington Rand dały początek działowi komputerów komercyjnych UNIVAC w tej firmie).
Rozwój przemysłu komputerowego początkowo odbywał się w dużych firmach produkujących przedtem inne produkty (np. maszyny analityczne systemu kart dziurkowanych, maszyny do pisania, golarki elektryczne), a potem nabrał radykalnego przyśpieszenia dzięki inwencji kilku młodych prężnych i ambitnych osób (założycieli firm DEC, Apple, Dell). Od lat 70-tych postęp w konstrukcji komputerów zawdzięczamy już nie tyle uczelniom, ile takim wynalazcom-fascynatom jak Ken Olsen i Seymour Cray.
Produkcja minikomputerow i osobistych komputerów rozpoczęła nowy - równoległy do mainframe'ów - etap rozwoju przemysłu komputerowego. Na masową skalę produkowane są serwery, stacje robocze i komputery biurkowe. Niektóre gałęzie gospodarki (np. bankowość) funkcjonować mogą całkowicie elektronicznie bez udziału człowieka. Komputery osobiste wreszcie - dzięki taniości - trafiają wreszcie pod strzechy. Obecnie mamy do czynienia z inwazją tabletów i smartfonów . Należą zarówno do telefonii jak i informatyki. Komputeryzacja ogarnia wszystko - już znajduje miejsce np. w nowoczesnym sprzęcie AGD - gdzie można sobie posurfowac też w internecie.
Herman Hollerith (1860-1929)
Nie o wszystkich i nie o wszystkim wspomniałem, ale nie sposob pominąć Amerykanina niemieckiego pochodzenia Hermana Holleritha –twórcę, który zapoczątkował ponad stuletnią epokę maszyn analitycznych systemu kart dziurkowanych.
Dał on początek wielkiemu biznesowi w technice obliczeniowej, gdy w roku 1896 utworzył "Tabulating Machine Company" (TMC), która łącząc się z kilkoma innymi firmami dała w roku 1924 początek największej firmy komputerowej w dziejach świata -IBM, zatrudniającej od lat 60-tych nieprzerwanie kilkaset tysięcy osób. Był wybitnym wynalazcą - miał na koncie 38 patentów, jednakże najważniejszy w jego mniemaniu patent pneumatycznego odczytu kart dziurkowanych nigdy nie został zrealizowany, gdyż nawet w jego konstrukcjach stosowano przekaźnikowy odczyt elektryczny).
Maszyny licząco-analityczne długo opierały się inwazji komputerów elektronicznych. Przywiązanie do dziecka pierworodnego, czyli do tych maszyn, u prezesa IBM T.Watsona było tak wielkie, że z dystansem spoglądał na to, co się dzieje w przemyśle maszyn liczących. Nawet jeśli coś “za bardzo nowego” wyprodukował (lub sfinansował) to oddawał to innym (przypadek przekaźnikowego komputera MARK I na uniwersytecie Harvard). Dopiero w latach 1954-1956 IBM zaczął przestawiać produkcję z maszyn licząco-analitycznych na komputery, kiedy utracił swego podstawowego użytkownika jakim było amerykańskie Biuro Spisowe – Census Bureau, w którym zainstalowano pierwszy komputer do przetwarzania danych UNIVAC wyprodukowany przez konkurenta – firmę Remington Rand. Obie firmy miały też podobną przeszłość – Remington Rand produkowal kiedyś maszyny do pisania oraz maszynki do golenia (co robi zresztą obecnie zamiast komputerów) a IBM -kiedyś jako CTR- wagi przemysłowe i krajalnice do sera (czego już - odpukac w ... - nie robi).
Konrad Zuse [1910 - 1995]
W historii komputerów pionierską rolę odegrał niemiecki konstruktor Konrad Zuse. Mimo, iż miał dyplom inżyniera budownictwa, został twórcą pionierskich mechanicznych i przekaźnikowych maszyn liczących. Działał jako niezależny "samotnik" działający w oderwaniu od głównych trendów międzynarodowych. W czasie II wojny światowej wspomagał machinę wojenną Hitlera swoimi wynalazkami - skonstruował sterowany pocisk rakietowy Hs 293 do niszczenia okrętów, od zastosowania którego w 1943 roku zginęło ponad 1000 amerykańskich żołnierzy. Wszystko to znakomicie utrudniło uznanie jego wynalazczych zasług przez amerykańskich "kolegów po fachu". W latach 1936-1938 Zuse budował model Z1 - mechaniczno-elektryczny kalkulator pobierający rozkazy z taśmy dziurkowanej. Skonstruowany w 1939 roku model Z2 miał już złożoną z przekaźników jednostkę arytmetyczno-logiczną. Odnośnie pamieci, konstruktor przywiązany był do cienkich płytek blaszanych (patent 1936 r) zwanych mechanicznymi bitami, które były tańsze i zajmowały mniej miejsca niż przekaźniki. W 1941 r powstał całkowicie przekaźnikowy komputer Z3 - pierwszy programowalny komputer zmiennopozycyjny binarny i pierwsza maszyna Zusego przeznaczona do normalnej eksploatacji. W 1945 roku powstaje Z4, który po wojnie wynajmował instytutowi ETH w Zurychu. W tym samym roku opracował język programowania wysokiego poziomu, zwany Plankalku^l, za pomocą którego napisano program do gry w szachy.
Ostatnim wynalazkiem Zusego była wieża HelixPDF - elektrownia wiatrowa, która zmienia wysokość dostosowując się do siły wiatru.
Podonie jak twórca ENIACa Mauchly, Zuse był biznesmanem, gdyż 1 kwietnia 1941 roku założył firmę Zuse-Apparatebau, w 1949 r Zuse KG, które do 1967 wyprodukowało 251 komputerów a potem z powodu finansowych problemów zostało przejęte najpierw przez BBC, a później przez Siemensa; w 1971 roku nazwa firmy ostatecznie zniknęła z rejestru spółek.
Nie był wynalazcą systemu binarnego gdyż W 1936 roku Louis Couffignal wystąpił w Belgii o patent na maszynę liczącą w systemie dwójkowym; także uniwersalna maszyna Turinga była komputerem przechowującym programy w pamięci, a działającym w systemie dwójkowym.
Atanasoff vs Mauchly (czyli spór o to kto był pierwszy)
Presper Eckert i John Mauchly (twórcy ENIACa), John Atanasoff i Clifford Berry (twórcy ABC) i John von Neumann (twórca podstaw architektury komputerów) spotykali się i wymieniali poglądy związane z budową pierwszych komputerów. Neumann nie przywiązywał większej wagi do praw autorskich, traktując osiagnięcia naukowe jako wspólne dobro lub dzieło zbiorowe o licencji public domain, skoro projekt był finansowany przez rząd amerykański. Natomiast panowie Eckert i Mauchly jeszcze pracując nad ENIACiem weszli w spór ze swoim Uniwersytetem (Pensylvania Univ.) o wyłączność praw patentowych, związanych z konstrukcją tego komputera. Spór zakończył się przerwaniem z ich strony prac nad całkowicie binarnym komputerem EDVAC, odejściem z uniwersytetu i założeniem własnej firmy EMCC. Ponadto zarzucali Neumannowi, że w swoich raportach wykorzystywał ich dorobek naukowy. W końcu zdobyli prawa patentowe, ale historia – za pośrednictwem Johna Atanasoffa (twórcy w 1942 roku komputera ABC –Atanasoff Berry Computer) rozliczyła właściwie kwestie ich pierwszeństwa. Ignorowany przez nich wynalazca wytoczył w 1971 roku proces o prawa autorskie i po 2 latach procesowania się uzyskał pełną satysfakcję – patenty związane z ENIACiem zostały uznane za nieważne a Atanasoff uznany został za wynalazcę pierwszego elektronicznego cyfrowego komputera.
Niestety informacje o tym werdykcie nie zostały nalezycie rozpropagowane i pogląd o ENIACu jako pierwszym komputerze istnieje do tej pory nawet wśród osób jako tako zapoznanych z historią informatyki.
John von Neumann (1903-1957)
Po tych kontrowersjach wróćmy teraz do J.von Nemanna. Żył krótko , ale intensywnie, zajmując się – poza „computer science” - wieloma dziedzinami (m.i. teorią gier, fizyką nuklearną, teorią kwantów, a także wynalazkiem bomby wodorowej). Był Węgrem (urodził się w Budapeszcie), studiował chemię w Berlinie i Zurychu, doktorat z matematyki (teoria zbiorów) otrzymał na Uniwersytecie Budapeszteńskim. Wykładał w Berlinie i Hamburgu, a w wieku 27 lat wyemigrował do USA do Princeton, gdzie był jednym z założycieli Institute for Advanced Studies.
Problemy z rozwiązywaniem nieliniowych równań różniczkowych w hydrodynamice skierowały go w stronę obliczeń komputerowych, najpierw do komputera Mark I (autorstwa Howarda Aikena), a potem ENIACa.
Świadcząc usługi konsultanckie dla Eckerta i Mauchleya opracował fundamentalne zasady architektury komputerów jak np.:
- program ma być przechowywany w pamięci i poddawany przetwarzaniu ( podobnie jak dane) np. w celu generowania następnych rozkazów
3 podstawowe części komputera to: pamięć (dla programu i danych), procesor (w ramach którego wydzielona bywa część sterująca oraz część arytmetyczno-logiczna) i urządzenia wejścia-wyjścia.
Neumann otrzymał 7 doktoratów honorowych i w 1956 roku nagrodę im.Enrico Fermiego.
W gronie wynalazców komputera nie można pominąć Howarda Aikena i jego współpracownicy Grace Hopper. Opracowywali oni komputery MARK na uniwersytecie Harvard. Zbudowany na przekaźnikach i uruchomiony w 1944 r. MARK I, znany również pod nazwą ASCC -Automatic Sequence Controlled Computer, był pierwszym automatem liczącym w USA sterowanym przez program, prawdopodobnie wzorowanym na maszynie analitycznej Babbage'a. Ważył co najmniej 5 ton; dwie liczby dziesięciocyfrowe mnożył w 10 sekund.Wykorzystywano go do obliczeń balistycznych w US Navy do roku 1959. Uruchomiony w 1951 roku MARK III oprócz 2000 przekaźników, miał już 5000 lamp elektronowych i 1300 diod. Howard Aiken (1900-1973) był z wykształcenia inżynierem elektrykiem i fizykiem. W 1937 roku rozpoczął pracę nad komputerem MARK I, a w 1939 roku uzyskał tytuł doktora. Prace badawcze nad komputerem zaczęła finansować firma IBM i Aiken stanął na czele 3-osobowego zespołu, w skład którego wchodziła G.Hopper. W 1947 rok Aiken utworzył Harvard Computation Laboratory, a potem własną firmę Aiken Industries. Był zakochany w komputerach, ale nie przeczuwał ich późniejszego szerokiego rozprzestrzenienia. Uważa się, że do niego należy powiedzenie z 1947 roku: „Tylko sześć elektronicznych cyfrowych komputerów wystarczy do zaspokojenia potrzeb obliczeniowych całych Stanów Zjednoczonych.” Notabene podobne proroctwo z 1943 roku dotyczy Thomasa Watsona ( wówczas prezesa IBM) - „ Myślę, że dla całego świata wystarczy być może 5 komputerów”.
Grace Brewster Murray Hopper (1906-1992)
Była jedyną do tej pory kobietą w gronie znaczących twórców informatyki oczywiście nie licząc legendarnej córki poety Byrona Ady Byron - Lady Lovelace - wielbicielki maszyny Babbage’a, która opracowując dla niego procedurę obliczania liczb Bernouliego uchodzi za pierwszą programistkę. G.Hopper w cywilu była profesorem matematyki, a podczas wojny w 1943 roku na własne życzenie została pracownikiem marynarki (w Naval Reserve). Współpracę z Aikenem rozpoczęła w 1944 roku w końcowej fazie budowy komputera Mark I , niewątpliwie w związku z tym, że głównym użytkownikiem tego komputera miała być marynarka. Hopper była odpowiedzialna za testowanie komputera i wyłapywanie błędów . To ona właśnie jest autorem terminu „debug” (odpluskwiania).
W 1949 roku rozpoczęła pracę nad kompilatorem języka symbolicznego dla firmy EMCC (Eckert-Mauchly Computer Corporation), a następnie w Remington Rand/Sperry Rand była wiodącym członkiem zespołu, który dla komputera Univac opracował Flow-Matic jeden z pierwszych języków programowania rozpoznający komendy słowne (nie symboliczne) w języku angielskim.
Następnie opracowała język APT i była odpowiedzialna za weryfikację języka COBOL, którego współautorem była Betty Holberton.
Uhonorowano ją w 1969 roku po raz pierwszy wprowadzoną nagrodą „Postać Roku - Man of the Year" w dziedzinie computer science. Pod koniec życia w 1991 roku otrzymała medal „National Medal of Technology”. Służbowy kontakt z marynarką utrzymywała prawie do końca życia – mimo iż była od dawna w wojskowym wieku emerytalnym (najpierw zgodnie z prawem przymusowo skierowano ją na emeryturę, a potem przyjmowano z powrotem gdyż była niezastąpiona). Między innymi uznano ją za niezbędną do wdrażania języka COBOL i standaryzacji oprogramowania w marynarce.
W 1983 roku Prezydent USA mianował ją komandorem, a dwa lata później w wieku 79 lat (!) została pierwszą kobietą admirałem. W 1986 roku po 43 latach służby w marynarce przeszła wreszcie uroczyście na emeryturę. Nie zerwała jednak z informatyką, gdyż przez ostatnie lata życia była konsultantem w Digital Equipment Corporation. Jej życie było piękną wzorcowo zapisaną kartą, jakiej można życzyć każdemu informatykowi.
Kenneth H. Olsen (1926-2011)
Wynalazca minikomputerów i kreator dużej firmy
Ken Olsen już od wczesnej młodości miał pociąg do elektroniki. Jako chłopiec naprawiał w piwnicy radioodbiorniki, po wojnie studiował w MIT (1952 – M.S.), a następnie pracował na tej uczelni w Lincoln Laboratory, gdzie skonstruował kilka układów do wczesnotranzystorowych mainframów TX-0 i TX-2. W latach 60-tych uzyskał kilka patentów wynalazczych (m.in. na pamięć ferrytową, bufor drukarki wierszowej, układ diodowej bramki transformatorowej itp.).
W 1957 roku za 70 tys. dolarów otrzymanych od generała Doriot z American Research and Development Corporation założył wraz z Harlanem Andersonem (z którym razem opuścili Lincoln Laboratory) firmę Digital Equipment Corporation (DEC), która rozpoczęła działalność od wytwarzania układów logicznych do testowania urządzeń elektronicznych.
Olsen szybko doszedł do wniosku, że wiele zadań realizowanych przez mainfraimy można wykonać na mniejszych komputerach i jego firma z własnych układów skonstruowała w 1960 roku pierwszy minikomputer PDP-1 (Programmed Data Processor).
W ten sposób wprowadził firmę na drogę pełną sukcesów (stała się drugą na świecie po IBMie firmą komputerową wycenianą na 14 mld dolarów) i zbudował podstawę swojej 35-letniej kariery przedsiębiorcy.
Minikomputery kosztowały wielokrotnie mniej niż mainframe’y i zdobyły (m.i. dzięki promocjom ze strony DEC) mocną pozycję na uczelniach amerykańskich. Pozycja DECa wydawała się być niezagrożona i zbyt nieograniczony. Na przykład minikomputer PDP-11 (pierwszy 16-bitowy komputer) produkowany był od roku 1970 nieprzerwanie przez 20 lat mimo trwającego postępu technicznego. Następcą jego były 32-bitowe VAXy, a w latach 90-tych 64-bitowe ALPHy. DEC zawsze znajdował się w czołówce technologicznej.
W 1986 roku magazyn Fortune uznał go za najlepszego przedsiębiorcę w historii amerykańskiego biznesu. Olsen stosował w swojej korporacji nowoczesne metody zarządzania (m.i. wprowadził macierzowe struktury zarządzania, polegające głównie na podziale firmy na współpracujące ze sobą niezależne działy), lecz nie przewidział tego, że przyszłość przemysłu komputerowego tkwi w stacjach roboczych i komputerach osobistych.
To on był autorem niefortunnej wypowiedzi w 1977 roku, że nie widzi przyczyny, dla której ludzie mieli być mieć komputery w domach (później wyjaśniał, że chodziło mu o to aby komputer nie ingerował zbytnio w życie domowe).
Kłopoty w DEC zaczęły się pod koniec lat 80-tych, kiedy Sun Microsystems zaczął zdobywać rynek swoimi stacjami roboczymi opartymi na Unixie. Powstała w 1982 firma umiała trafić w trendy rozwojowe (architektura RISC, symetryczne wieloprzetwarzanie, technologia Javy) i znalazła dla siebie miejsce – swoją niszę rynkową – produkując komputery działające pod UNIXem (z własnym systemem operacyjnym Solaris) w środowisku sieciowym (stacje Sparc).
SUN umiał również nawiązać alianse partnerskie z czołowymi producentami oprogramowania bazodanowego ( Informix, Ingres, Oracle, Sybase) poszerzając w ten sposób potencjał zastosowań swoich komputerów. SUN produkował sprzęt oraz nie zrezygnował z prac rozwojowych. Można powiedzieć, że dzięki otwartości na to co dzieje się w świecie informatyki, SUNowi udało się to, na czym potknął się Digital. Można więc wyrazić uznanie dla czwórki założycieli tej firmy (Scott McNealy, Vinod Khosla, Bill Joy, Andy Bechtolsheim). Od 1992 roku firma Digital zaczęła ponosić poważne straty np. w 1994 roku 2 mld dolarów. Prawdopodobnie nakłady na prace rozwojowe były za duże (np. na unixowy system Ultrix) w stosunku do starań o zdobycie rynku. Zarząd - składający się głównie z "młodych wilków" - widział konieczność gruntownych zmian i poprosił Olsena o rezygnację.
Tak oto zakończyła się jego kariera przedsiębiorcy i wynalazcy, założyciela i CEO korporacji. Po odejściu Olsen nie wziął rozbratu z informatyką i poprowadził małą 40-osobowę firmę informatyczną, zajmującą się konsultingiem i dostawą sprzetu komputerowego.
Błąd strategiczny Olsena zaważył fatalnie na firmie, mimo iż od początku kładziono w niej nacisk na prace rozwojowe, zarówno w konstrukcji komputerów jak i oprogramowaniu, przyczyniając się w znacznym stopniu do rozwoju systemów operacyjnych (w tym do Unixa - poza własnym systemem OpenVMS) i takich urządzeń jak router, klastry komputerów oraz protokół ethernetu. W 1995 roku zanosiło się na to, że firma wychodzi z dołka dzięki rozpoczęciu produkcji procesorów ALPHA, gdyż zdołała wygospodarować zysk 122 ml $. Ale kiedy w Digitalu zaczęto produkować komputery osobiste, wystąpił ogólnoświatowa tendencja spadku opłacalności produkcji tych komputerów. Nie pomogła wyprzedaż różnych działów, w tym sprzedanie Intelowi sztandarowych procesorów Alpha. W 1998 roku Digital został przejęty przez Compaqa – firmę powstałą dopiero w 1982 roku i produkującą to, czego nie chciał kiedyś Olsen, czyli komputery osobiste. Rozwojem przemysłu komputerowego zaczęły rządzić jednak twarde prawa rynkowo-kapitałowe. Przekonał się o tym sam Compaq wchłonięty niedługo potem (w 2001r) przez Hewlett-Packard.
Dwóch Stevów (Jobs,Woz)
Zaczynali w garażu i konsekwentnie trzymali się własnej koncepcji rozwojowej
W 1976 roku dwóch Steve’ów – Wozniak (Woz) - polskiego pochodzenia) i Jobs – oraz Ronald Wayne (pracował tylko przez krótki okres w Apple) w garażu wyprodukowali swój pierwszy komputer Apple I. Ponieważ zatrudniająca Woza firma Hewlett Packard nie zainteresowała się maszyną, na której można było uruchamiać BASIC, założyli 3 stycznia 1977 roku firmę Apple. W ciągu roku sprzedali 200 egzemplarzy i rozpoczęli wytwarzanie Apple II. Wtedy na rynku mikrokomputerów królowała firma Commodore (4 milionów użytkowników w 1984 r.). Woz zademonstrował jej prototyp Apple II , lecz firma Commodore nie wykazała żadnego zainteresowania (!). Na sukces początkowy firmy Apple zapracowali obaj – inżynieryjne umiejętności Wożniaka i marketingowe zdolności Jobsa (który już miał pewne doświadczenie komputerowe z firmy Atari). Nie można pominąć Mike’a Markkula, który na początku zainwestował w firmę prawie 100 tysięcy dolarów. Los nie oszczędzał Woza. Jego zmysł wynalazcy nie kończył się nigdy.W 1981 roku rozbił się pilotowany przez niego samolot. Po hospitalizacji wyciągnął z tego praktyczne wnioski i zabrał się samodzielnie do projektowania automatycznego pilota. W Apple ustąpił pole Jobsowi, stając się pracownikiem z niewielkim wynagrodzeniem. Był raczej indywidualistą (chciał robić przede wszystkim to, co chciał sam) i praca w dużym zespole hamowała jego twórcze pomysły. Coraz mniej pracując w Apple, coraz bardziej angażował się w działalność charytatywną - założył w San Jose fundację Electronic Frontier Foundation, ufundował także muzeum Tech Museum of Innovation, wspierał finansowo budowę sieci komputerowej dla szkół. W roku 2001 założył firmę Wheel of Zeus, której zadaniem była popularyzacja platformy satelitarnego pozycjonowania GPS.
Steve Jobs (1955-2011):"Prostota może być trudniejsza od komplikacji: trzeba się ciężko napracować nad wydobyciem czystej myśli, która pozwala na prostotę." W 1985 Jobs odszedł z Apple, zakładając nową firmę – NeXT, która została przejęta przez Apple w 1996 roku, sprowadzając Jobsa z powrotem do macierzystej firmy, która zresztą zaczęła podupadać finansowo. Jobs odmienił sytuację dzięki wprowadzeniu na rynek komputera iMac, a następnie odtwarzacza iPod i internetowego sklepu muzycznego iTunes Store. Był wizjonerem i biznesmenem równocześnie. Pozostanie ikoną firmy Apple na zawsze.
Apple miał znaczne zasługi w tworzeniu podstaw komputerów osobistych – to ta firma wprowadziła w 1984 roku po raz pierwszy GUI (graphical user interface), uwalniając użytkowników od ubogiej komunikacji znakowej znanej z DOSa. Osiągnięcie to było w 1988 roku przedmiotem sporu z Microsoftem a proces trwał aż do 1997 roku i zakończył się niczym (żadna ze stron nie była w stanie udowodnić racji).
Seymour CRAY (1925-1996)
Wynalazca ciągle poszukujący lepszych rozwiązań technicznych i biznesowych – przykład „autorskiej” drogi innowacyjnej w przemyśle komputerowym. Karierę zaczynał w 1950 roku jako inżynier w Engineering Research Associates (ERA), gdzie pracował nad komputerem ERA 1101 przeznaczonym dla rządu amerykańskiego a potem nad innymi modelami. W 1957 roku wraz z kilkoma kolegami z ERY założył firmę CDC (Control Data Corporation) i tam był wiodącym konstruktorem kilku wówczas największych pod względem mocy obliczeniowej komputerów ogólnego przeznaczenia (np. chłodzonego freonem CDC 6600). Przedmiotem jego zainteresowania były nie tylko rozwiązania hardware’owe - opracował np. zestaw instrukcji programowych, które później określano jako RISC. Był uważany za „geniusza do szybkich komputerów”. Wyprzedzał możliwości przemysłu komputerowego - to on skonstruował pierwszy superkomputer wielowątkowy i wieloprocesorowy CDC8600, którego nie udało się dokończyć z powodu zbyt dużych nakładów. Do jego osiągnięć należy Cray T3E-1200E, który jako pierwszy osiągnął moc obliczeniową 1 teraflop/sek. może dlatego założył w 1972 roku firmę Cray Research, Inc. (w latach 1989-1995 Cray Computer Corp.), w której w 1976 roku wyprodukował superkomputer Cray-1. Piastował tam prawie wszystkie możliwe stanowiska kierownicze (dyrektora wykonawczego CEO i prezesa). W 1981 roku zrezygnował ze wszystkich stanowisk i poświęcił się pracy nad superkomputerem Cray-2 (o 10ciokrotnie większej szybkości niż jego poprzednik) i nowymi technologiami (gallium arsenic technology). Skonstruował jeszcze Craya-3, jednakże z powodu trudności technologicznych, opóźnień i braku sukcesów komercyjnych opuścił firmę. Wpływ na to miała zapewne chwila kiedy uświadomił sobie potencjał mikroprocesorów i ich niski koszt w stosunku do procesorów projektowanych indywidualnie. O wartości mikroprocesorów przekonał się już wcześniej, kiedy używał komputerów Apple do symulowania superkomputera Cray-3. W celu wykorzystania tej technologii założył następną firmę autorską SRC Computers, Niestety nie zdążył zrealizować następnego pomysłu, gdyż zmarł w wieku 71 lat w wyniku obrażeń odniesionych w wypadku samochodowym w 1996 r w Colorado Springs.
Edgar Frank Codd (1923-2003)
Twórca teorii relacyjnych baz danych z niespełnionymi nadziejami. Tak jak S.Cray był pionierem w konstruowaniu superkomputerów, to zasługą E.F.Codda było stworzenie podstaw relacyjnych baz danych, które stały się siłą napędową obecnego dużego biznesu (kilkunastu miliardowego-licząc w dolarach), skoncentrowanego na danych. Ale nie przyszło mu łatwo. Jego teorie na przełomie lat 60/70 tych za bardzo wyprzedzały ówczesną technologię, kiedy królowały sieciowe (np. typu DBTG Codasyl) i hierarchiczne bazy danych (np. IMS firmy IBM). A przecież nie proponował rzeczy bardzo złożonych, lecz proste tablice składające się z wierszy i kolumn, które obudował pewną notacją oraz regułami tzw.normalizacji przeciwdziałającej dublowaniu danych. . Zasługą jego jest to, że uznał iż w obsłudze zapytań lepiej stosować relacje oparte na wartości danych, niż popularne wówczas „łańcuchowanie” danych poprzez pointery wbudowane w rekordy. Po prostu nie uwierzono w tak proste rozwiązanie. Stworzenie pojemnych pamięci operacyjnych i dyskowych umożliwiło efektywną realizację tej technologii.
Studiował matematykę i chemię na uniwersytecie w Oksfordzie. W czasie II wojny światowej służył jako pilot w siłach powietrznych Wielkiej Brytanii. Po wojnie przeniósł się do USA. Pracował na początku jako programista w IBM. Na uniwersytecie stanu Michigan w Ann Arbor jako stypendysta IBMu uzyskał tytuł doktora „computer-science”, a następnie zamieszkał , w Kalifornii, gdzie ponownie podjął pracę dla IBM.
W 1970 wydał pracę "A Relational Model of Data for Large Shared Data Banks", w której przedstawił relacyjny model zarządzania bazami danych. Pracodawca jego – IBM – nie przyjął z entuzjazmem jego pracy i nie kwapił się z jej praktycznym wykorzystaniem, kierując się prawdopodobnie interesem dotychczasowej sztandarowej bazy danych IMS. IBM nawet odsunął Codda od prac nad Systemem R i nie wykorzystał jego relacyjnego języka Alpha, lecz opracowywał język Sequel. Codd uważał ten język za niezgodny ze swoją teorią, co w efekcie zaowocowało odejściem z IBM i założeniem (wspólnie z Chrisem Date) firmy consultingowej. W latach 90-tych z powodu pogorszenia stanu zdrowia przestaje pracować.
Teoria relacyjnych baz danych czekała prawie 10 lat na komercyjną realizację. W 1979 roku Larry Ellison – założyciel firmy Relational Software (przemianowanej 6 lat później na ORACLE) na bazie teorii Codda –stworzył Larry Ellison ( wraz z Bobem Minerem i Edem Oatesem) pierwszą komercyjną relacyjną bazę ORACLE. IBM pracował nad eksperymentalnym Systemem R i językiem Sequel, a dopiero w 1983 roku ogłosił opracowanie DB/2. Jednym z głównych ośrodków badawczych nad relacyjnymi bazami danych był Uniwersytet Berkeley (Ingres i język Quel) i to jego naukowcy utworzyli firmę Relational Technology, promującą Ingres. Quel się nie przyjął (choć był bardziej strukturalny), a Sequel (Structure English Query Language) z praktycznych względów został przemianowany na prostszą nazwę SQL.
Codd ma też poważne zasługi w innej dziedzinie bazodanowej, dotyczącej hurtowni danych, a więc technologii wielowymiarowych danych To on w 1993 roku ukuł termin OLAP (online analytical processing) i sformułował dwanaście reguł tej technologii. Jednakże za twórcę koncepcji hurtowni danych uważany jest Bill Inmon, w latach 90-tych twórca firm Prism Solutions i Pine Cone Systems tworzących software do administrowania danymi w środowisku hurtowni danych. Sformułował on takie cechy hurtowni danych jak zorientowanie na podmioty (np. produkty, klienci) uwzględnienie wymiaru czasu, nieulotność i integralność danych, ukierunkowanie użytkownika końcowego na wspomaganie decyzji nie zaś na obsługę transakcyjną. Przy okazji warto dodać, że podstawy teorii wielowymiarowych baz zapoczątkowali w 1972 r Jay Wurtz i Rick Karrash, wówczas studenci Sloan Management School, a potem twórcy pakietu Express, pierwszego produktu pracującego tak naprawdę na technologii olapowej (choć ten termin jeszcze wówczas nie istniał). Wprowadzenie OLAPu zmodernizowało relacyjne bazy danych o schematy gwiazdy (star) i śnieżynki (snowflake), służące do tworzenia tzw. kostek wielowymiarowych.
Linus Benedict Torvalds (ur.1969)
twórca - wystarczy chcieć i móc – czyli o narodzinach linuxa. wczesnych lat miał „skłonności” do komputerów. Najpierw był to dziadkowy Commodore Vic 20, a w wieku 18 lat kupuje za oszczędności 32-bitowy Sinclair QL z procesorem Motorola 68008, 7MHz, 128KB pamięci. Chęć doskonalenia systemu operacyjnego w Sinclairze nie mogła zostać zrealizowana, bo ten był wbudowany w ROM. W 1988 roku wstępuje na Uniwersytet Helsiński i tutaj w 1990 roku uczy się języka C, w którym wkrótce rozpoczyna pisać swój system operacyjny wzorowany na Unixie i MINIXie ( mały klon UNIXA opracowany przez Andrew Tanenbauma w Holandii do nauki studentów). Do DOSu Linus zraził się wystarczająco po zakupie komputera osobistego typu IBM. Tworzy w swoim wolnym czasie przy użyciu własnego sprzętu i nawet robi sobie przerwę w studiach aby skoncentrować się na zadaniu. Już w 1991 roku ukazuje się jądro systemu. Torvalds początkowo nazwał system Freax (Free uniX) ale za sugestią przyjaciela Ari Lemmke nazwa została zmieniona na Linux (LINUs uniX ).
Linux szybko zyskiwał popularność. W 1997 roku używany był już na ponad 3 milionach komputerów, a dwa lata później było ich już 7 ml. W tymże roku Linus Torvals – po 10 latach pobytu na Uniwersytecie w Helsinkach jako student i wykładowca – zdecydował się na wyjazd wraz z rodziną do doliny krzemowej. W Santa Clara w firmie Trameta pracował za przeciętną płacę programisty przy interfejsie pomiędzy systemami operacyjnymi (ale nie Linuxem) i mikroprocesorami tej firmy. Porozumienie z pracodawcą gwarantowało mu możliwość zajmowania się też Linuxem w celach nie związanych z firmą. Pewnym impulsem do wyjazdu była konieczność zarobkowania dla utrzymywania rodziny.
Praca Torvaldsa uzyskała przychylność nie tylko ze strony szerokiej szerzy współpracujących wolontariuszy programistów, lecz też niektórych ludzi biznesu, jak np. Paula Allena współzałożyciela Microsoftu, który udzielił mu wsparcia finansowego. Sam napisał decydujące 2% kodu jądra, co jest zrozumiałe, gdyż całość jest ogromna – wynosi ok.80MB, nie licząc wielu programów (takich jak GCC, edytor vi, XWindow System i KDE) opracowywanych poza ścisłym projektem Linuxa, lecz koordynowanych wspólnie. Jego sytuacja finansowa radykalnie polepszyła się w 1999 roku – został milionerem - kiedy firmy Red Hat i VA Linux ( VA Software), budujący linię Linuxa dla dużych przedsiębiorstw w dowód zasług podarowały mu akcje o ówczesnej wartości 20 ml dolarów.
Obecnie Torvalds pracuje na pełnym etacie w OSDL (Open Source Development Lab), założonym w 2000r i finansowanym przez konsorcjum firm komputerowych (m.in. IBM rocznie wykłada ok. 2 miliardy dolarów) oraz takie firmy software’owe jak Oracle, Intel, Netscape i Corel. Jest to oznaką, że Linux został doceniony jako system innowacyjny i należy go rozwinąć do obsługi dużych firm, co przekłada się m.in. na możliwości zarządzania bardzo obciążonymi serwerami ( Linux może pochwalić się sukcesem w postaci serwerów webowych Apache) . W ramach OSDL Torwalds podejmuje decyzje końcowe odnośnie zgłaszanych modyfikacji i uzupełnień, delegując pewne uprawnienia takim współpracownikom jak Alan Cox, Andrew Morton i Marcelo Tosatti. Do niego należy marka Linux, aczkolwiek samo oprogramowanie jest licencjonowane jako otwarte (GPL), co nie zabrania sprzedawania go dla zysku.
Linus T. wyznawał zasadę wolnego kodu źródłowego, nie obwarowanego patentami i licencjami oraz dostępnego do modyfikacji. Już wczesną wersję udostępnił na serwerze FTP w katalogu Linux). Na zarzut przedstawiciela Microsoftu Craiga Mundiego, że „open-source” niszczy własność intelektualną , odpowiedział następująco: "Zastanawiam się, czy Mundie słyszał kiedykolwiek o Izaaku Newtonie. Jest on sławny nie tylko ze względu na utworzenie podstaw mechaniki (i początki teorii grawitacji, o czym pamięta większość ludzi, łącznie z historią o jabłku), ale również z powodu stwierdzenia: Jeśli byłem w stanie spojrzeć dalej, to tylko dlatego, że stałem na ramionach olbrzymów’.
Jestem skłonny słuchać raczej Newtona niż Mundiego. Choć umarł prawie trzysta lat temu, mniej zasmradza pokój."Linus Torvalds nie jest starszym człowiekiem, ale uhonorowany został już wieloma wyróżnieniami:
w 1996 roku asteroida 9793 została nazwana jego imieniem
w 1998 roku otrzymuje nagrodę EFF Pioneer
w 1999 roku uzyskuje doktorat honorowy Uniwersytetu w Sztokholmie (warto dodać, że pochodzi ze szwedzkojęzycznej rodziny fińskiej), a w roku następnym Uniwersytetu w Helsinkach
w 2004 roku uplasował się na 16 miejscu na liście 100 najsłynniejszych Finów wszechczasów
w 2006 roku Time Magazine nazwał go jednym z najbardziej znaczących (revolutionary) bohaterów 60-lecia.
Wiliam (Bill) H.Gates (ur. w 1955 r)
Największy biznesmen i filantrop – człowiek któremu się powiodło
Można powiedzieć, że o ile Linus Torvalds pisał Linux dla przyjemności (powiedział: „I did it all just for fun"), to Bill Gates działał przede Przez kilkanaście lat był najbogatszym człowiekiem w świecie. Wartość jego majątku wahała się w zależności od notowań giełdowych Microsoftu (posiada kilkanaście procent akcji) od 43 do ponad 59 miliardów dolarów.. Ostatnio na 1szym miejscu został zastąpiony przez meksykańskiego biznesmena Carlosa Slima. (ponad 65 mld), , posiadacza 1/3 udziałów w spółce telekomunikacyjnej America Movil (to czołowy operator sieci komórkowej w Ameryce Łacińskiej)..Był założycielem Microsoftu, od początku jej szefem, a potem prezesem Rady Nadzorczej i Głównym Architektem Oprogramowania. Jego firma ma 50 miliardów rocznego dochodu i zatrudnienia 78 tysięcy osób w 105 krajach. W 1973 roku rozpoczął studia w Harvardzie, które przerwał 2 lata później, rozpoczynając partnerski biznes Micro-Soft z kolegą ze studiów Paulem Allenem. Już wcześniej zresztą obaj założyli firmę Traf-O-Data, do obliczeń dla potrzeb zarządzania ruchem drogowym, wykorzystując interpreter Basica, który opracowywali jeszcze podczas studiów na komputer Altair dla firmy MITS. Interpreter Basica był pierwszym masowym produktem dostarczanym w ciągu następnych paru lat dla prawie wszystkich mikrokomputerów amerykańskich i japońskich. Los sprzyjał Gatesowi. Niedługo potem IBM ogłosił planowaną premierę PC i pilnie potrzebował dla niego systemu operacyjnego. Microsoft podjął się realizacji zadania, wykupując od firmy Seattle Computer Products prawa do QDOSa ( Quick'n'Dirty Operating System ) i zatrudnił jego autora Tima Pattersona. QDOS został udoskonalony i jako MS-DOS przekazany firmie IBM do testowania. W lutym 1981 system został uruchomiony na prototypie IBM PC i w listopadzie ostatecznie zaakceptowany jako podstawowy system operacyjny dla nowych komputerów W następnych latach czołową rolę w biznesie komputerowym zaczęły odgrywać serwery. I tutaj Microsoft znalazł rozwiązanie. W 1988 r. zatrudnił Dave'a Cutlera, który opracowywał systemy operacyjne VAX/VMS i RSX-11M dla Digitala, a w Cutler zajął się 32-bitowym Windows NT. Innym produktem napędowym stał się pakiet biurowy MS Office i następne wersje systemu Windows. Firma jest też producentem encyklopedii Encarta, symulatora lotu MS Flight Simulator, a nawet klawiatur czy myszek komputerowych oraz konsoli do gier (Xbox). Tyle w skrócie o działalności Microsoftu i tylko tyle, ile potrzeba było aby zilustrowac mechanizmy napędowe firmy. A teraz o drugiej stronie medalu, czyli działalności charytatywnej państwa Melindy i Billa Gatesów. Od czerwca 2008 roku Bill chce poświęcić się całkowicie pracy w Bill & Melinda Gates Foundation nad poprawą stanu zdrowia i edukacji w świecie. Fundacja ta została przez małżeństwo Gatesów założona w styczniu 2005 roku z wkładem prawie 29 miliardów dolarów, a więc wielokrotnie większym niż zaangażowanie dotychczasowego największego amerykańskiego filantropa Johna D. Rockefellera< : "640 kilobajtów pamięci powinno wystarczyć każdemu " (wypowiedziane w 1981 roku) oraz później o Javie "Ktokolwiek myśli, że mały, składający się z 9000 linii program, który na dodatek jest rozprowadzany za darmo i może być sklonowany przez każdego, zmieni cokolwiek, co robimy w Microsofcie, musi mieć pomieszane w głowie" . Wizjonerem dobrym więc nie był, ale wszystko za co się brał w życiu kończył sukcesem.
Wnioski
Trudno być prorokiem we własnym domu (czytaj: własnym biznesie) - Przepowiednie największych postaci informatyki (5-6 komputerów zaspokoi świat, a 640 KB pamięci zaspokoi każdego) zamiast strzału w dziesiątkę, były kulą w płot.
Tam gdzie są duże pieniądze czasem pozostaje trochę serca (wątek filantropijny - Woz, Gates)
Trudno do końca pozostać na piedestale, nawet jak się stworzyło wszystko od początku (przypadek Kena Olsena w firmie DEC-Digital), gdyż interes pozostaje interesem.
Czasem bezinteresowność staje się „opłacalna” (przypadek Linusa Torvaldsa)
Subskrybuj:
Posty (Atom)