Nowe technologie komputerowe Procesory Intel • Obecnie rodziny jej procesorów to: Pentium – wersje M (do laptopów), wersje podstawowe 2,3,4, wersja D –
Download
Report
Transcript Nowe technologie komputerowe Procesory Intel • Obecnie rodziny jej procesorów to: Pentium – wersje M (do laptopów), wersje podstawowe 2,3,4, wersja D –
Nowe technologie komputerowe
Procesory Intel
• Obecnie rodziny jej procesorów to:
Pentium – wersje M (do laptopów), wersje
podstawowe 2,3,4, wersja D – dwurdzeniowa,
Celeron – wersje M (do laptopów) i D, Xeon i
Itanium – procesory do serwerów,
Core oraz Core 2 – procesory jedno, dwu i
czterordzeniowe,
Core i7 - najnowszy procesor czterordzeniowy.
Core Duo
• Core Duo to rodzina procesorów 32 bitowych. Procesory te
zawierają 151 milionów tranzystorów, wliczając w to 2 MB cache L2.
W Core Duo zastosowano 12-fazowy potok wykonawczy,
co pozwoliło na osiągnięcie maksymalnej częstotliwości taktowania
2,33-2,5 GHz. Dostęp do pamięci cache L2 za pomocą wspólnego
kontrolera przyspiesza procedury zachowania spójności pamięci
cache,
jednak wydłuża opóźnienia w dostępie do niej (z 10 cykli w Pentium
M do 14 w Core).
Core, pomimo tego, iż używał podstawki Socket M, tej samej, której
używały procesory Pentium M, nie był obsługiwany przez starsze
chipsety.
Chipsety, które obsługiwały procesory Intel Core: 945GM, 945PM,
945GT, 965GM, 965PM, oraz 965GT.
Pentium Dual Core
•
Pentium Dual Core to dwurdzeniowe niskobudżetowe procesory firmy Intel, należące do rodziny
Core. Produkowane są w wersjach dla komputerów stacjonarnych (rodzina E2000)
oraz przenośnych (rodzina T2000). E2000 i T2000 wytwarzane są w procesie technologicznym 65
nm, zaś E5000, E6000 oraz T4200 w procesie technologicznym 45 nm.
W strukturze procesorów Intela mieszczą się między Celeronami Dual Core (rodzina E1000), a
tańszymi procesorami Core 2 Duo (rodzina E4000 i E7000).
Wersje mobilne procesorów budowane są w oparciu o rdzenie Yonah i Merom, wersje desktop w
oparciu o rdzeń Allendale i Wolfdale. E2000 jak i T2000 posiadają wspólną pamięć podręczną
drugiego poziomu (L2) o pojemności 1 MB, E5000 oraz E6000 posiadają jej 2 MB. Procesory
przeznaczone na rynek komputerów stacjonarnych z rodziny E2000 i E5000 pracują na szynie FSB
o częstotliwości 200 MHz (w trybie Quad Pumped Bus-800 MHz), zaś procesory z rodziny E6000
pracują na szynie FSB o częstotliwości 266 MHz (w trybie Quad Pumped Bus-1066).
Wersje mobilne pracują na szynie 133 MHz
(w trybie Quad Pumped Bus-533 MHz).
Wspierają 64-bitowe instrukcje, co oznacza, że można na nich uruchamiać 64-bitowe systemy
operacyjne. Mają zaimplementowaną obsługę technologii Executive Disable Bit (XD-Bit)
oraz Enhanced Intel SpeedStep Technology (EIST). Większość wersji Pentium Dual Core nie
obsługuje sprzętowej wirtualizacji (IVT/Vanderpool).
Wyjątkami są niektóre E5300 i E5400 oraz wszystkie E6300. Procesory Pentium Dual Core (E2000,
E5000 i E6000), tak jak cała rodzina Core, oraz niektóre modele Pentium 4 (Prescott i późniejsze)
oraz Pentium D, wykorzystują płyty główne oparte o Socket LGA 775. Zgodnie z założeniami ich TDP
nie może przekraczać poziomu 65 W.
Procesory mobilne (T2000), działają na podstawce Socket M.
Intel Core 2
•
Intel Core 2 to ósma generacja mikroprocesorów firmy Intel w architekturze x86. Wykorzystana jest
w niej nowa mikroarchitektura Intel Core, która zastąpiła architekturę NetBurst,
na której oparte były wszystkie procesory tej firmy powstałe po 2000 roku.Architektura Intel Core
wywodzi się, tak jak Pentium II, Pentium III i Pentium M, z architektury Pentium Pro.
W procesorach opartych na architekturze NetBurst (np. Pentium 4, Pentium D) najważniejszym
czynnikiem decydującym o wydajności była częstotliwość taktowania, natomiast technologia Core 2
kładzie nacisk na zwiększenie ilości pamięci podręcznej (cache) oraz liczby rdzeni. Procesory z serii
Core 2 charakteryzują się zdecydowanie mniejszym zużyciem prądu niż procesory Pentium,
a co za tym idzie wydzielają mniej ciepła.
Procesory Core 2 odznaczają się stosunkowo wysokim współczynnikiem IPC (Instructions Per Cycle)
- około 3,5. Oznacza to, że potrafią one w jednym cyklu rozkazowym wykonać średnio 3,5 rozkazu.
Sporym ulepszeniem w stosunku do dwurdzeniowych procesorów Pentium 4 jest zastosowanie
wspólnej pamięci cache dla obu rdzeni procesora.
Dzięki temu uniknięto konieczności "mozolnego" uzgadniania zgodności pamięci podręcznych L2
(cache) w obu rdzeniach.
Mimo powyższych zalet procesory z serii Core 2 wciąż wypadają słabiej w porównaniu do
procesorów AMD, jeśli chodzi o dostęp do pamięci RAM.
Intel Core 2 Duo
• Jest to wersja procesora Intel Core 2 posiadająca
dwa rdzenie. Występują trzy linie procesorów:
• linia T (od T5250 do T9500 - taktowane zegarem
od 1,5 GHz do 2,6 GHz i FSB: 667MHz bądź
800MHz),
• linia E (od E2140[1] do X6800 - taktowane
zegarem od 1,6GHz do 3,33GHz i FSB: 8001333MHz),
• energooszczędna linia L (od L7200 do L7400 taktowane zegarem od 1,33 GHz do 1,50 GHz i
FSB: 667 MHz).
Penryn
• Następcą serii Core2 jest rodzina procesorów
Penryn. Penryn jest nieco ulepszoną architekturą
Core 2, wzrost wydajności sięga do 5%.
Zmniejszenie rozmiaru tranzystora z 65nm na 45
nm obniżyło pobór energii przez układ o około
40%, ale zwiększyło nieznacznie z nieznanych
przyczyn średnią temperaturę pracy.
Nowością w Penrynie jest również usprawnienie
jednostek SSE4 oraz dodanie algorytmu Radix-16
co przyśpieszyło pracę procesora w czasie
dzielenia.
Intel Core i3
• kolejna generacja procesorów Intela oparta na
architekturze x86-64.
• Są to pierwsze procesory Intela z wbudowanym
układem graficznym (choć został on umieszczony
jedynie na tej samej podstawce - fizycznie jest on
oddzielnym układem wykonanym w procesie
technologicznym 45 nm).
Sama część procesorowa to jądro Hillel, produkowana
jest ona w wymiarze 32 nm i stanowi oczywiście
oddzielny układ na jednej podstawce.
• Procesory mające znak "M" lub "E" są przeznaczone dla
nootebooków lub netbooków.
Core i5
• Core i5 (o nazwie kodowej Lynnfield) to generacja
procesorów firmy Intel, wykonana w technologii x86-64.
Premiera odbyła się 7 września 2009 roku
Procesory te są zaprojektowane na bazie mikroarchitektury
o nazwie kodowej Nehalem, która jest też wykorzystywana
w procesorach serii Intel Core i7.
• Intel Core i5 ma być wariantem serii Intel Core i7. Procesory
serii Core i5 będą posiadać zintegrowany kontroler pamięci
DDR3 dual-channel, zintegrowany kontroler karty graficznej
PCI Express
oraz kontroler Direct Media Interface do komunikacji z
chipsetem Intel P55 (Ibexpeak)[4]. Jego socketem jest LGA
1156.
Intel Core i7
• Intel Core i7 - generacja procesorów firmy Intel oparta na
architekturze x86-64, premiera układu miała miejsce 3 listopada
2008 roku.
Wykorzystuje ona mikroarchitekturę procesora o nazwie Nehalem.
Jest to następca układów Intel Core 2 Duo i Intel Core 2 Quad z
rdzeniem Penryn.
• Jak dotąd dostępne są tylko czterordzeniowe i sześciordzeniowe
procesory, jednak Intel w przyszłości ma zamiar wprowadzić także
procesory ośmiordzeniowe.
• Core i7 zostały wykonane w technologii 45 nm. Taktowanie rdzeni
wynosi od 2.66 do 3.33(z Intel® Turbo Boost Technology 3.6) GHz.
Pierwsze procesory z tej serii ukazały się 3 listopada 2008 roku.
Mogą one współpracować jedynie z pamięciami DDR3 (w 3
kanałach), a pierwszym chipsetem obsługującym podstawkę LGA
1366 jest X58.
Core I7
•
•
•
•
•
•
•
•
Wszystkie procesory z rodziny Core i7 mają taką samą ilość pamięci cache:
po 32KB pamięci instrukcyjnej L1 i 32KB pamięci danych L1 na każdy z rdzeni
po 256KB współdzielonej pamięci instrukcyjnej/danych L2 na każdy z rdzeni
8MB współdzielonej pamięci instrukcyjnej/danych L3 wspólnej dla wszystkich rdzeni
Są wyposażone w najnowsze technologie oszczędzania energii, dzięki którym komputery
stacjonarne mogą przechodzić w tryby uśpienia poprzednio dostępne dla notebooków.
Udostępniają także nową funkcję zwiększającą wydajność - Nehalem Turbo Boost lub Intel Turbo
Boost, która automatycznie zwiększa szybkość taktowania jednego lub kilku rdzeni procesora w
przypadku obciążenia,
jeśli procesor nie przekroczy swojego TDP. Dzięki niej wydajność procesora zwiększa się (zarówno w
aplikacjach jedno jak i wielowątkowych), jednocześnie nie zwiększając poboru prądu w trakcie
spoczynku.
Ciekawostką jest powrót technologii Hyper-Threading (wykorzystywanej wcześniej w Pentium 4 i
procesorach Xeon), która umożliwia jednoczesne wykonywanie wielu nie kolidujących ze sobą
wątków obliczeniowych. Oznacza to, że każdy rdzeń może robić dwie rzeczy naraz, np.
czterordzeniowy procesor Core i7 może wykonywać 8 wątków jednocześnie.
Nowością jest również bufor BTB drugiego poziomu, sprowadzający dane do pamięci podręcznej,
oraz bufor RSB, zapobiegający błędnemu przewidywaniu pojawiających się w trakcie wykonywania
programu instrukcji powrotnych.
Moduły procesora podzielone zostały na dwie grupy: Core (część rdzenia) i Uncore (pozostałe
elementy). W obydwu grupach można dodawać lub odejmować elementy zgodnie z potrzebami i
wymaganiami rynku
Core I7 – cechy podstawowe
• Obsługa pamięci DDR3
• Technologia Hyper-Threading
• Wbudowany trójkanałowy kontroler pamięci DDR3, IMC
(Integrated Memory Controller)
• Nowa szyna systemowa, QPI
• Siedem nowych instrukcji SSE4
• Natywna czterordzeniowość (jak w AMD Phenom)
• Obsługa ośmiu wątków
• Turbo boost
• 45 nm proces produkcyjny
• Gniazdo LGA 1366 (zwane także Socket 1366 lub Socket B)
lub LGA 1156
• 8 MB pamięci podręcznej trzeciego poziomu
Intel Core i7 975 Extreme Edition
• Model Core i7 975 Extreme oprócz wysokiego
zegara bazowego (3,33GHz) udostępnia w
pełni odblokowany mnożnik oraz
zabezpieczenia prądowe, które pozwalają na
bezproblemowy overclocking
oraz łatwe eksperymenty z procesorem. Warto
wspomnieć, że niedawno padł nowy rekord
podkręcenia modelu Extreme 965 - aż do
5709.73 MHz.
Procesory Intel® do serwerów
•
•
•
•
•
Procesor Intel® Xeon® z serii 7500 >
Procesor Intel® Xeon® z serii 5600 >
Procesor Intel® Xeon® z serii 5500 >
Procesor Intel® Xeon® z serii 3400 >
Procesor Intel® Itanium® z serii 9300 >
Procesor Intel® Xeon® z serii 7500
• Doskonała wydajność, przeznaczona głównie do
wirtualizacji obsługuje większą liczbę maszyn
wirtualnych na jeden serwer
• Skalowalność do 32 procesorów
• Zaawansowana niezawodność na potrzeby
migracji z serwerów opartych na procesorach
RISC
• Optymalizuje efektywność serwerów
• Zaawansowane możliwości dla kluczowych
aplikacji serwerowych
Procesor Intel® Itanium® z serii 9300
• Procesory Intel® Itanium® z serii 9300, które zapewniają najwyższą
wydajność i nieprzerwane działanie, sprawdzają się idealnie w
aplikacjach istotnych w działalności firmy
i doskonale zastępują rozwiązania oparte na architekturze RISC.
Procesory te mają ponad dwukrotnie wyższą wydajność niż
poprzednia generacja, a także oferują do sześciu razy większą
przepustowość pamięci, do dziewięciu razy większą przepustowość
połączeń wewnętrznych oraz do ośmiu razy większą pojemność
pamięci.
• Serwery oparte na procesorze Intel® Itanium® z serii 9300 zostały
zaprojektowane dla najbardziej wymagających zastosowań, takich
jak bazy danych, zastosowania w systemach BI czy ERP.
Serwery te doskonale nadają się również do konsolidacji dużej liczby
aplikacji w celu uproszczenia centrum przetwarzania danych i
obniżenia łącznych kosztów.
Zmiany, rozwój
• Bezprzewodowy dostęp do Internetu: WIFI, sieci
komórkowe
• Przenośne komputery
– notebooki
– mniejsze palmptopy PDA (Personal Digital Assistant) oraz
– telefony komórkowe, palmpfony/ smartphony decydują o mobilności
• Komórkowy Internet
Sieci bezprzewodowe
• Sieć bezprzewodowa LAN w standardzie WiFi
(802.11b) to największy hit w ostatnich
miesiącach. Producenci mają w ofercie
dodatki sieciowe do swoich modeli lub od razu
go implementują.
Moduł tego typu jest instalowany w gnieździe
rozszerzeń kart flash (standard CF).
Rywalem standardu WiFi jest Bluetooth
Moduł GPS (Global Positioning System)
• Moduł GPS przydaje się do nawigacji, nie tylko
po bezdrożach ale też w mieście.
• Najbardziej przydaje się do lokalizowania tzw.
Hot Spotów, gdzie znajdują się pola
bezprzewodowego dostępu do Internetu
Aparat cyfrowy
• Jeżeli palmptop nie ma wbudowanego aparatu
cyfrowego, to na ogół jest możliwość
dołączenia modułu z takim aparatem przez
gniazdo kart rozszerzeń (Compact Flash).
Aparaty takie mają matryce o niskiej
rozdzielczości ale pozwalają przesłać
błyskawicznie zdjęcie lub zgrać je do innego
komputera i posłać dalej pocztą elektroniczną.
Klasy sieci komputerowych
•
•
Miejskie sieci komputerowe MAN - obszar miasta w oparciu o światłowód. Pętle
światłowodowe zamknięte. Komunikacja w jednym kierunku poprzez routery.
Obecnie ATM jako sieć szkieletowa. (150Mbit/sek). Możliwość przesyłania danych,
głosu, obrazów. Banki, instytucje - Warszawa, Kraków, Wrocław, Poznań.
Sieci radiowe - jako medium używa się fal radiowych. Transmisję gwarantują stacje
odbiorczo nadawcze, stałe lub ruchome. Zasięg ograniczony. Protokół AX25 (CB
radio - dostęp do Internetu)
Sieć satelitarna - telefony komórkowe przez satelitę - ok. 100tys (nie 3 mln).
Sieci satelitarne - budowane w oparciu o satelity geostacjonarne. Transmisje z
opóźnieniem do 0.25 sek. Satelity muszą być wymieniane.
Sieci fotoniczne (photonics networks) - na łączach światłowodowych. Impulsy
światła o różnej długości fali. 10Gbit/sek - multimedia, telewizja, przystawki do
telewizorów - Internet.
HSLN - High Speed Local Network - lepszy protokół (światłowód)
Sieć ATM (Asynchronous Transfer Mode) jest powszechnie uważana za docelową
technikę komutacji i transmisji danych w sieci szerokopasmowej ISDN. ATM działa
jako sieć szkieletowa - np. między bankami.
Internet
Olbrzymia sieć rozległa, która łączy komputery na całym świecie.
Ogólnoświatowa sieć połączonych ze sobą komputerów.
Zbiór rozmaitych siec o mniejszym zasięgu, komunikujących sie ze sobą za
pośrednictwem serwerów. Połączone różne rodzaje komputerów od
starych IBM PC do mainframe (duże komputery).
Do połączeń między komputearmi i serwerami wykorzystywane są
specjalne linie przeznaczone wyłącznie do łączności w Internecie, a także
zwykłe linie telefoniczne.
Do połączeń między komputermi i serwerami wykorzystywane są
specjalne linie przeznaczone wyłącznie do łączności w Internecie, a także
zwykłe linie telefoniczne.
Internet to tysiące sieci lokalnych połączonych ze sobą, używających do
komunikacji protokołu IP. Aby komunikacja miedzy różnymi komputerami
była możliwa, ustalony został zbiór reguł, który musi być spełniony.
Najpopularniejszym protokołem transmisji danych jest TCP/IP (Transport
Control Protocol/Internet Protocol). Internet jest instytucją w 100%
demokratyczną, tzn. nie posiada żadnej centralnej władzy.
Nowości, trendy, uwagi
Niezawodność komputerów
Zabezpieczenie przed wyłączeniem napięcia – UPS.
Czas zabezpieczenia dla zwykłych UPS-ów- minut do 30 min, cena 150 – 500zł
klastry – grupa komputerów połączona siecią (każdy może się zepsuć, pracują poprawnie),
Macierz RAID (Redundant array)
Użytkowanie komputerów – 90% wina człowieka (np. złośliwość pracownika odchodzącego)
LAN – Local Area Network.
Komputery połączone Ethernetem lub bezprzewodowo, serwer.
Co daje LAN:
Dostęp do wspólnych programów, danych, urządzeń
Archiwizacja danych – kopia ważnych danych na sieci (dramat, gdy giną dane)
Poczta elektroniczna lokalna
Internet, firewall
Niezawodność (luster, macierze, RAID)
Serwer – komputer lub zestaw sprzężonych komputerów – urządzenia wspólne, np. drukarki.
Komputery przenośne
:
•
Laptop, notebook, netbook.
Mają własne zasilanie. Zintegrowane części: monitor, klawiatura. Przeważnie kamera internetowa.
Dysk tradycyjny lub typu flash, zwykle 3 x USB.
Najważniejsze parametry: czas pracy na bateriach, wydajność, masa.
Parametry: procesor, (np. 2-rdzeniowy Intel Core Duo – wydajny, lub prosty Atom do netbooków),
HDD 250-500 GB lub 160 GB do netbooka, SSD 126-256
CD/DVD – super Multi, czytnik flash, ekran 10”, 12”, 15”, 17”, WiFi
Urządzenia zewn. Blutooth, Wire Fire, 3xUSB, Express Card.
Złącze replikatora portów.
Czas pracy na bateriach
Replikator portów, stacja dokująca: wszystkie urządzenia podłączone, jak myszka, monitor.
• Uwagi eksploatacyjne:
– Wyłączyć bluetooth i inne zbędne urządzenia, przechodzić w stan uśpienia, mniejsza
jaskrawość ekranu, zamknąć nieużywane programy, nie za częsty zapis automatyczny,
oszczędzać akumulator.
•
Podstawki pod laptop na kolanie.
•
Tendencje przyszłości: ogniwa na alkohol, prąd na odległość, laptop z bateriami słonecznymi
w torbie.
•
Niebezpieczeństwo laptopów:
kradzieże – zabezpieczenia: smycz, alarm dystansu, skradziony laptop wysyła IP
niezaszyfrowane dane
Palmptop, smartphone
• PALMPTOP – PDA
• Smartphone – kalendarz, książka,
synchronizacja z PC – kontakty, WiFI,
Bluetooth, GPS
Czystość komputerów – główna przechowalnia
brudu i bakterii.
SUPERKOMPUTERY
• Superkomputery – komputery o dużych
możliwościach
• Przetwarzanie rozproszone
• Klastrowe systemy komputerów
Superkomputery
•
•
BOINC, SETI (Search for Extra Terrestrial Intelligence Civilisations) – nasłuchują
sygnały z kosmosu – 630 tys. Osób, 1 300 tys komputerów w 245 krajach.
•
•
Inne cele – np. poszukiwanie lekarstw (np. na raka)
Berkeley Open Infrastructure for Network Computing (BOINC)
(Otwarta Infrastruktura Przetwarzania Rozproszonego Berkeley) to niekomercyjne
rozwiązanie z dziedziny obliczeń rozproszonych, które pierwotnie powstało dla potrzeb
projektu SETI@home,
aktualnie wykorzystywane jest również w projektach innych niż SETI.
Jest to niekomercyjne oprogramowanie pośredniczące pozwalające na udział zwykłego
użytkownika komputera w naukowych projektach.
BOINC jest rozwijany na Uniwersytecie Kalifornijskim w Berkeley przez zespół pod kierunkiem
szefa projektu SETI@home, Davida Andersona.
BOINC jest wolnym i otwartym oprogramowaniem wydawanym na licencji GNU LGPL i jest
wspierany finansowo przez amerykańską rządową agencję National Science Foundation.
SETI (ang. Search for Extra-Terrestrial Intelligence) to rozbudowany, wieloletni projekt
naukowy, którego celem jest znalezienie kontaktu z pozaziemskimi cywilizacjami
poprzez poszukiwanie sygnałów radiowych i świetlnych sztucznie wytworzonych,
pochodzących z przestrzeni kosmicznej, a nie będących dziełem człowieka.
GRID – komputery połączone ze sobą
•
•
GRID
•
Grid (ang. grid, w Polsce niekiedy mylnie nazywany siatką komputerową) – system, który
integruje i zarządza zasobami będącymi pod kontrolą różnych domen (od instytucji po
system operacyjny) i połączonymi siecią komputerową, używa standardowych, otwartych
protokołów i interfejsów ogólnego przeznaczenia (odkrywania i dostępu do zasobów,
autoryzacji, uwierzytelniania) oraz dostarcza usług odpowiedniej jakości (QoS, oferuje usługi
wyższego poziomu).
Celem technologii gridowej jest stworzenie prostego, lecz mimo to wielkiego i potężnego,
wirtualnego komputera z ogromnej ilości połączonych, niejednorodnych systemów
współdzielących różnego rodzaju zasoby. Wyłaniający się standard dla współdzielenia
zasobów wraz z dostępnością większych szerokości pasm transmisyjnych stanowią szansę na
duży ewolucyjny krok w obliczeniach gridowych.
W sensie ogólnym "grid computing" oznacza przetwarzanie danych traktowane jako usługa
użyteczności publicznej.
Inaczej mówiąc, dla klienta nie jest ważne, gdzie są przechowywane jego dane ani który
komputer wykonuje zlecenie.
Natomiast koncepcja grid computing widziana od strony usługodawcy oznacza alokację
zasobów, współużytkowanie informacji oraz konieczność zapewnienia wysokiej dostępności.
Pojęcia tego jako pierwszy użył Ian Foster, profesor na Uniwersytecie w Chicago, naukowiec
pracujący w ANL (ang. Argonne National Laboratory). Idea ta ciągle ewoluuje,
znajdowane są nowe obszary jej potencjalnego zastosowania.
Grid jest rozwinięciem idei klastra poza tradycyjne granice domeny.
Wirtualizacja
• Podłączone dyski – 1 wirtualny dysk - oszczędność pamięci
• On demand computing – np. w domu słaby komputer, szybki Internet,
operacja na komputerze zdalnym.
• Wirtualizacja – szerokie pojęcie odnoszące się do abstrakcji zasobów w
różnych aspektach komputeryzacji.
Wirtualizacja umożliwia efektywniejsze wykorzystanie istniejących
zasobów sprzętowych środowiska informatycznego poprzez dowolne
(w ramach możliwości sprzętowych czy programowych oraz założeń
projektowych) modyfikowanie cech wirtualizowanych zasobów,
dostosowując je do wymagań użytkownika.
Jedną z pierwszych szeroko stosowanych technik wirtualizacji była technika
wirtualizacji pamięci operacyjnej.
Obecnie technika ta jest powszechna nie tylko w superkomputerach,
serwerach czy komputerach osobistych, ale także w systemach
wbudowanych.
Inną techniką wirtualizacji jest wirtualizacja sprzętu komputerowego w
celu umożliwienia jednoczesnego uruchamiania wielu systemów
operacyjnych.
Moce dużych komputerów
Roadrunner - superkomputer zbudowany przez IBM dla amerykańskiego Departamentu Energii, mieszczący
się w Narodowym Laboratorium Los Alamos w stanie Nowy Meksyk w Stanach Zjednoczonych.
25 maja 2008 roku osiągnął moc obliczeniową 1,026 PFLOPSa w benchmarku LINPAC].
Czyni go to pierwszym w historii superkomputerem o mocy obliczeniowej przewyższającej 1 PFLOPS.
Roadrunner zbudowany jest w oparciu o 12960 mikroprocesorów PowerXCell 8i oraz 6912
dwurdzeniowych mikroprocesorów AMD Optero.
Roadrunner działa pod kontrolą systemów operacyjnych Red Hat Enterprise Linux oraz Fedora. Zajmuje
powierzchnię 560 m². Został uruchomiony w 2008 roku.
Roadrunner ma być wykorzystywany do symulacji procesu starzenia się materiałów nuklearnych, co ma
pomóc w odpowiedzeniu na pytanie jak długo amerykańskie głowice nuklearne
mogą być uznawane za sprawne.
Poza tym zastosowania Roadrunnera obejmują takie dziedziny, jak nauki ścisłe, ekonomia, przemysł
lotniczy i samochodowy.
Earth Simulator Center – Japonia – symulacja ruchów skorupy ziemskiej
http://www.top500.org/list/2004/06
Earth Simulator to nazwa superkomputera, który w latach 2002 - 2004 był najszybszą maszyną na świecie.
Obecnie na liście pięciuset najszybszych superkomputerów zajmuje 49 miejsc. Zlokalizowany jest w Earth
Simulator Centre koło Jokohamy w Japonii
W Polsce: Zeus – Cyfronet AGH Kraków – 384 procesory, 2 GB flopy
•
PC – moc oblicz. 100 flopsów, karta graficzna – 1000 flopsów.
Problem śmieci: komputery zmieniamy co 4-5 lat.
W Polsce kupujemy rocznie ok. 2 mln komputerów.
W komputerze cała tablica Mendelejewa.
Robotyka
3 prawa robotyki Asimowa (Science Fiction)
– Robot nie może skrzywdzić człowieka
– Robot musi być posłuszny człowiekowi, chyba, że to sprzeczne z punktem 1szym
– Robot musi chronić sam siebie, o ile to nie stoi w sprzeczności z punktami
wyżej
Predektor – samolot, śledzi rejony świata.
Pracuje się, by dac mu samodzielność, by strzelał i zabijał.
Google – 1/1000 informacji na świecie.
Informacje są dobierane przez komputery w zależności od rejonizacji.
Są rejony świata, gdzie informacja nie dociera.
Nawet w samochodach są komputery, np. ABS.
•