niedziela, 22 maja 2011

Tani hosting VPS: 10 porad, jak dokonać dobrego wyboru

Tani hosting VPS: 10 porad, jak dokonać dobrego wyboru

Autorem artykułu jest VPSimple Staff



VPS może być odpowiednim rozwiązaniem dla tych administratorów systemowych i web deweloperów, którzy nie chcą inwestować w serwer dedykowany, ale potrzebują czegoś więcej niż zwykły (współdzielony) hosting. Na serwerze wirtualnym możliwy jest hosting stron WWW i baz danych, poprzedzony testowaniem serwera.

Zacznijmy od wyjaśnienia, czym jest VPS. Serwer wirtualny (VPS, ang. Virtual Private Server) pozwala pokonać ograniczenia tradycyjnych konfiguracji usług hostingowych. VPS posiada pewne cechy serwera dedykowanego, które wykorzystywane są dla wszystkich aplikacji, które wymagają wysokiej wydajności, specyficznej konfiguracji i całkowitej izolacji od innych usług. Zadaniem serwera wirtualnego jest dostarczenie niezależnych części wydajnego serwera, który jest bezpiecznie współdzielony z innymi klientami.

Tanie rozwiązanie

VPS może być odpowiednim rozwiązaniem dla tych administratorów systemowych i web deweloperów, którzy nie chcą inwestować w serwer dedykowany, ale potrzebują czegoś więcej niż zwykły (współdzielony) hosting. Na serwerze wirtualnym możliwy jest hosting stron WWW i baz danych, poprzedzony testowaniem serwera.

Co wziąć pod uwagę? Porady

1. Czas trwania kontraktu
Dostawcy często wprowadzają ograniczenia co do możliwości nabycia VPS, które zmuszają klientów do zakupu usługi na narzucony z góry, minimalny okres czasu. Przykładem może być minimalny, miesięczny okres użytkowania VPS z koniecznością zapłaty za 3 miesiące z góry. Radzimy unikać takich ofert i poszukać dostawcy, który zaproponuje bardziej elastyczne rozwiązanie. Mamy tu na myśli możliwość testowania serwera przez krótki okres czasu, podczas którego możemy ocenić wydajność i niezawodność systemu. Dlatego też zalecamy, aby wybrać hostingodawcę, który oferuje kontrakt bez ograniczeń na długość jego trwania i pozwala korzystać z VPS przez kilka dni lub kilka tygodni.

2. Koszty aktywacji
W niektórych przypadkach do opłaty miesięcznej zostaje nam doliczony koszt aktywacji usługi. Co gorsze, nie zawsze aktywacja ta jest natychmiastowa - zazwyczaj musimy odczekać kilka dni zanim dane nam będzie rozpoczęciem korzystania z VPS. Wybór dostawcy, który nie naliczy nam tej opłaty jest niewątpliwą zaletą, szczególnie w połączeniu z możliwością natychmiastowej aktywacji VPS.


3. Zasoby RAM i CPU
Gwarancja zasobów pamięci RAM i procesora jest niezwykle ważna. Sprawdź, czy oferowane serwery są oparte o technologię Xen (oprogramowanie open source rozpowszechniane na licencji GNU / GPL, które oferuje wydajność porównywalną do rozwiązań niewirtualnych - ~ 8% przewodów napowietrznych) lub wirtualizację VMware.

4. Fizyczna jakość serwerów
Biorąc pod uwagę technologię, zwracajmy uwagę nie tylko na wizerunek firmy. Dostawcy, którzy korzystają z markowego sprzętu na pewno oferuje większą niezawodność, niż ci, którzy decyduje się na montowane serwery. Moc obliczeniowa maszyn odgrywa równie ważną rolę - 16-rdzeniowe procesory są doskonałą gwarancją niezawodności.

5. Dystrybucje
Nie jest problemem znaleźć VPS z różnymi dystrybucjami Linuksa. Tylko niewielu dostawców oferuje dystrybucję Windows, z której chętnie skorzystają webmasterzy preferujący system operacyjny Microsoft.

6. Administracyjny dostęp do serwera
Web deweloperzy i administratorzy systemowi są przyzwyczajeni do współdzielonego hostingu, który zapewnia ograniczony panel sterowania. Pełne dystrybucje VPS z nieograniczonym dostępem pozwalają użytkownikom pracować swobodnie i w pełni dostosować swoje otoczenie.

7. Zarządzanie adresem IP
Wspólny publiczny adres IP jest standardowym rozwiązaniem dostępnym na rynku. Warto wybrać hostingodawcę, który oferuje dedykowany publiczny adres IP. Zalecamy sprawdzić również, czy zamierza wprowadzić prywatny IP, a także High Availability (HA).

8. Fizyczna lokalizacja maszyn
Upewnij się, że dostawca jest właścicielem farmy serwerów lub jest obsługiwany przez zewnętrzne Data Center. Nazwy głównych firm telekomunikacyjnych są niewątpliwie gwarancją bezpieczeństwa i niezawodności. Sprawdź, czy posiadają zasilanie redundantne i czy mają certyfikat ISO27001 (SLA powinno przekraczać 99%.).

9. Usługi dodatkowe
Czy VPS posiada dodatkowe usługi, takie jak firewall? Czy będziesz mógł ustawić i dostosować swoje reguły? Te aspekty odgrywają kluczową rolę, jeśli chcesz zapewnić swojemu serwerowi maksymalne bezpieczeństwo. Czy Twój hostingodawca oferuje proaktywny monitoring usług i zasobów maszyny? Czy możesz go konfigurować w zależności od swoich potrzeb?

10. Backup
Zaplanowana kopia zapasowa serwera jest usługą, której nie możesz zaniedbać. Jeśli dostawca gwarantuje wysoką jakość w wyborze konfiguracji sprzętu i maszyn, twoje dane są bezpieczne od samego początku użytkowania serwera.
Zalecamy wybrać dostawcę, który używa wysoki poziom zabezpieczeń t.j. używa dysków RAID10, które są synonimem niezawodności i ochrony dysków przed awarią.

---

Aby uzyskać więcej informacji o wyborze VPS, zajrzyj na stronę http://www.vpsimple.com


Artykuł pochodzi z serwisu www.Artelis.pl

SSD – szybka i solidna alternatywa dla dysku twardego

SSD – szybka i solidna alternatywa dla dysku twardego

Autorem artykułu jest OPCJA



Dyski Solid-State Drives wyróżniają się wyjątkową szybkością i wydajnością. Pracują cicho i niezawodnie. To doskonała alternatywa dla tradycyjnych dysków twardych.

Czym jest SSD?

Dysk SSD (z ang. Solid State Drive) to urządzenie pamięci masowej, służące do przechowywania danych, zbudowane w oparciu o pamięć typu flash. Taki dysk nie posiada żadnych elementów ruchomych, w przeciwieństwie do tradycyjnego dysku twardego.

Z początku technologia SSD została przesłonięta atrakcyjną ceną oraz pojemnością tradycyjnych dysków HDD (z ang. Hard Disk Drive). Z SSD korzystało jedynie wojsko oraz duże koncerny. Dziś jednak dyski te są obecne na rynku w niższych cenach i posiadają większe pojemności, dając możliwość skorzystania z ich atutów przeciętnym użytkownikom komputerów.

Zalety SSD - szybkość i niezawodność

Dysk SSD Niewątpliwie największą potwierdzoną zaletą korzystania z dysku SSD jest większa prędkość odczytywania danych, a pisząc precyzyjniej - czas dostępu do danych. Zastąpienie tradycyjnego dysku twardego komputera, dyskiem SSD na którym zainstalowany jest system operacyjny, z pewnością poprawi jakość pracy, przyspieszając czas reakcji systemu. Poprawi się również szybkość wyszukiwania danych na komputerze, a największą różnicę odczujemy przy... starcie systemu! Właśnie przy starcie trzeba szybko odczytać wiele małych plików z czym najlepiej radzą sobie dyski SSD.

Dyski SSD charakteryzują się także całkowicie bezgłośną pracą oraz o wiele większą odpornością na uszkodzenia mechaniczne (powodowane np. wstrząsami w czasie pracy lub upadkiem z wysokości) niż dyski HDD – są więc bardziej niezawodne. Wynika to z faktu, że nie posiadają one części ruchomej, czyli obracających się talerzy czy precyzyjnych ruchomych głowic jak w zwykłych dyskach HDD.

Taki dysk jest również bardziej odporny na zmiany temperatur (od -40 °C aż do +85 °C), co dodatkowo wpływa na jego niezawodność. Nie zaszkodzi mu również pole magnetyczne lub promieniowanie, którym można uszkodzić lub zniszczyć tradycyjny dysk twardy.

Ponadto, dyski SSD pobierają mniej energii elektrycznej niż tradycyjne dyski, co czyni je idealnym rozwiązaniem dla urządzeń mobilnych.

Wadą wczesnych generacji dysków SSD była stosunkowo krótka żywotność wynikająca z ograniczonej liczby cykli zapisu. We współczesnych produktach przestało to być problemem. Przykładowo dyski Intela z serii X25-V mają średni czas między uszkodzeniami na poziomie 1.200.000 godzin, czyli... ok. 136 lat.

Wiele z dostępnych dysków SSD zawiera zarówno tradycyjny interfejs SATA, jak i wejście na kabel USB, co czyni je uniwersalnymi urzędzeniami z możliwością zastosowania jako dysk twardy komputera lub jako dysk przenośny.

Szybkość kosztuje

Jeśli chodzi o wady takich dysków, to na pewno barierą jest wciąż ich cena. Za dysk o pojemności 80 GB zapłacimy ok. 800 zł, czyli około 3 razy więcej niż za tradycyjny dysk o tej samej pojemności. Ich ceny są jednak z roku na rok coraz niższe. Należy oczekiwać, że w miarę rosnącego zainteresowania stosowaniem SSD w urządzeniach mobilnych, a co za tym idzie zapotrzebowania na produkcję, staną się one bardziej konkurencyjne. Najtańsze dyski 40 GB kosztują ok. 390 zł.

W chwili obecnej, również pojemności dysków SSD są mniejsze, choć i tutaj przewiduje się szybkie zmiany. Wciąż najłatwiej jest o dyski w rozmiarach 40 GB, 80 GB i 160 GB – czyli w sam raz dla przeciętnego użytkownika. Dużo trudniej o dyski SSD o większej pojemności, co nie stanowi problemu w przypadku tradycyjnego dysku twardego.

Kto skorzysta na SSD?

Dysk SSD to doskonałe rozwiązanie dla graczy i projektantów, którym zależy na wydajnym systemie, radzącym sobie z zaawansowaną grafiką. Ale również zwykły użytkownik odczuje zmianę na lepsze, jeśli korzysta z jednego z nowoczesnych i zaawansowanych graficznie systemów operacyjnych, jak na przykład Windows 7.

Zainteresowani powinni być również użytkownicy ceniący sobie bezpieczeństwo swoich danych, którzy korzystają z laptopów i chcą mieć pewność, że ich dane będą odporne na wstrząsy czy uszkodzenia spowodowane zmianami temperatur. Dłuższa praca na bateriach będzie dla nich dodatkową korzyścią.

Czy dyski SSD zastąpią nam tradycyjne dyski twarde? Z pewnością jeszcze nie teraz. Biorąc jednak pod uwagę gwałtowny wzrost popularności podobnych technologii, np. pamięci typu pen drive, możemy podejrzewać, że wraz z pojawieniem się kolejnych większych i zarazem tańszych opcji SSD, mogą one stać się kolejnym hitem na rynku przechowywania danych. Z pewnością, rosnące potrzeby mobilności i wydajności będą sprzyjały takiemu rozwojowi wypadków.



---

www.opcja.pl


Artykuł pochodzi z serwisu www.Artelis.pl

O Spamie słów kilka

O Spamie słów kilka

Autorem artykułu jest Jakub Frankiewicz



Najprostsza i zarazem najczęściej spotykana definicja spamu określa go jako pojęcie zaczerpnięte z informatyki, które oznacza reklamy i niechciane wiadomości w poczcie elektronicznej lub artykuły wieloadresowe wysyłane na wiele grup dyskusyjnych...

1.Próba zdefiniowania pojęcia SPAM.

Najprostsza i zarazem najczęściej spotykana definicja spamu określa go jako pojęcie zaczerpnięte z informatyki, które oznacza reklamy i niechciane wiadomości w poczcie elektronicznej lub artykuły wieloadresowe wysyłane na wiele grup dyskusyjnych.1

Przywołana przeze mnie przed chwilą definicja jest nieprecyzyjna i nie zawiera w sobie wszystkich kluczowych elementów, które pozwoliłby przeciętnemu użytkownikowi poczty elektronicznej łatwo i bez zbędnego trudu rozstrzygnąć co uznać możemy, a co nie za SPAM. W związku z tym sięgnijmy po bardziej rozbudowaną definicję:

Spam

1.Junk e-mail. Pocztowy śmieć. Nieproszony list elektroniczny ? najczęściej reklama, ?łańcuszek szczęścia?, obietnica dużych zarobków przy niewielkim wkładzie czasu i pieniędzy, itp.

2 Także: bulk e-mail. Metoda przeniesienia kosztów reklamy na użytkowników polegająca na masowym wysyłaniu wiadomości e-mail zawierających materiały promocyjne lub publikowaniu wielu kopii tego samego artykułu reklamowego w grupach dyskusyjnych oraz listach dyskusyjnych (jednak posiadając konto pocztowe na jednym z darmowych serwerów, należy liczyć się z otrzymywaniem spamu. Zgoda na takie działania stanowi jeden z punktów regulaminu i wyrażana jest przez użytkownika podczas zakładania konta).

3.Nadużycie jakiejkolwiek usługi sieciowej w celach promocyjnych. Przykładem jest zawyżanie pozycji własnej witryny w wyszukiwarkach poprzez nieadekwatne do zawartości stron definiowanie znaczników META.2

Dodać należy również, że za spam uznać możemy wiadomość, która zawiera w swojej treści trzy ważne punkty tj:

treść i kontekst wiadomości są niezależne od tożsamości odbiorcy, ponieważ ta sama treść może być skierowana do wielu innych potencjalnych odbiorców,

jej odbiorca nie wyraził uprzedniej, możliwej do weryfikacji, zamierzonej, wyraźnej i zawsze odwoływalnej zgody na otrzymanie tej wiadomości,

treść wiadomości daje odbiorcy podstawę do przypuszczeń, iż nadawca wskutek jej wysłania może odnieść korzyści nieproporcjonalne w stosunku do korzyści odbiorcy wynikających z jej odebrania.

2. Etymologia i historia powstania SPAMU.

Historia każdego współczesnego wynalazku czy zjawiska społecznego ma swoją ciekawą i interesującą historię. Nie inaczej jest w przypadku etymologii SPAMU. Samo słowo pochodzi z języka angielskiego i było początkowo nazwą bardzo popularnej, taniej i podobno pożywnej konserwy mielonej. Na marginesie warto dodać, że stanowiła ona część wyżywienia amerykańskich żołnierzy w trakcie II Wojny Światowej. Nowe znaczenie SPAM uzyskał dzięki skeczowi kabaretu Monty Pythona, w którym to klienci przychodzą do restauracji i próbują zamówić jakiś posiłek. W tym samym czasie kelner wciąż proponuje im zakup spamu (?mielonki?) serwowanej w wielu odmianach ("Well, we have spam, tomato & spam, egg & spam, egg,bacon & spam... Spam spam spam spam, spam spam spam spam, lovely spam, wonderful spam..."). Spam jest tutaj synonimem ?gadulstwa?, ?słowotoku? i nie potrzebnej informacji. Do słownika terminów stosowanych w sieciach komputerowych słowo to wprowadził najprawdopodobniej Joel Furr3, choć jak podają niektóre źródła termin ten był już wcześniej stosowany przez młodzież jako określenie niechcianej poczty rozsyłanej drogą tradycyjną. Inni z kolei twierdzą, że termin upowszechnili w latach 80 miłośnicy MUDów4 piętnując w ten sposób tych graczy, którzy - zamiast uczestniczyć w grze - wysyłali do innych bezsensowne komunikaty, wyłącznie w celu blokowania serwerów. Następnie termin ten przeszedł do Usenetu5, gdzie spamem zaczęto nazywać sposób zwalczania nielubianych dyskutantów poprzez zarzucanie ich setkami maili o bezsensownej treści.

Wydaje się, że trudno będzie dociec, kto ma całkowitą rację. Można byłoby powiedzieć, że ?sukces? ma wielu ojców i każdy z nich chciałby, choć na chwilę znaleźć się w centrum uwagi. Dodać muszę, że jak w przypadku wielu podobnych terminów i zjawisk po fakcie tworzono również wiele fikcyjnych rozwinięć słowa ?spam? (np. stupid person advertisement, stupid pointless annoying messages), mało jednak prawdopodobne, aby któreś z nich miało cokolwiek wspólnego z rzeczywistością.

Jak podaje serwis pl.wikipedia.org:

Za pierwszy odnotowany w historii sieci spam uznać należy wiadomość wysłaną 1 maja 1978 przez Einara Stefferuda. Korzystając z dostępu do kompletnego zbioru adresów mailowych w sieci ARPANET6 (ok. 1000 maili) wysłał on zaproszenie na swoje urodziny. Jego mail uruchomił całą serię złośliwych i zabawnych odpowiedzi, które zablokowały twarde dyski na serwerze pierwszego spamera.

Z kolei za pierwszy reklamowy spam napisał 1 maja 1978 r. Gary Thuerk, a wysłał go 3 maja. Była to reklama producenta mini-komputerów, firmy Digital Equipment Corp., która zapraszała wszystkich użytkowników Arpanetu z Zachodniego Wybrzeża USA na ?dzień otwarty? ? prezentację najnowszych produktów firmy.

Pierwszy odnotowany spam w Usenecie miał miejsce w 1988 roku, kiedy to Rob Noha wysyłał systematycznie post z tytułem ?HELP ME!? do wszystkich możliwych grup. W poście tym prosił o pomoc finansową dla swojego kolegi, któremu zabrakło funduszy na kontynuowanie studiów.

Pierwszą osobą, z Usenetu, w stosunku, do której użyto określenia spamer, był Richard Depew. W 1993 roku próbował on napisać skrypt, który automatycznie usuwał z grup newsowych posty niezgodne z netykietą danej grupy. Skrypt wymknął mu się spod kontroli i zamiast kasować, wysłał ciąg 200 postów na grupę news.admin.policy. Wiele z osób czytających tę grupę było też zapalonymi graczami w MUD-y i zastosowali oni znane z mudów pojęcie spamer do Richarda.

W 1994 firma adwokacka Canter & Siegel z Phoenix w stanie Arizona rozesłała do niemal wszystkich grup Usenetu swoją ofertę usług w zakresie wypełniania formularzy amerykańskiej loterii wizowej. W odpowiedzi prawnicy spotkali się z tzw. bombardowaniem pocztowym (mail-bombing), czyli "zasypaniem" ich skrzynki pocztowej listami od tysięcy "zaatakowanych" ich reklamą użytkowników, wyrażających swoje niezadowolenie z tego typu praktyk. Megabajty zapełniających dyski listów skłoniły providera, u którego Canter i Siegel mieli wykupione konto, do zablokowania go. W wyniku pertraktacji z providerem, prawnicy uzyskali odblokowanie konta, musieli jednak podpisać zobowiązanie, że nie będą się więcej dopuszczać takich czynów. Wobec ponownego, kilkakrotnego złamania tego zobowiązania, w lutym 1995 zostali odcięci od sieci całkowicie. W międzyczasie zdołali jednak napisać świetnie sprzedającą się książkę o marketingu w Internecie, w której zachwalają zalety i opisują sposób przeprowadzania rozmaitych akcji typu spam.

W tym samym roku miał miejscy pierwszy gigantyczny atak, spamu, który zablokował serwery Usenetu. Został on rozesłany w liczbie kilkunastu tysięcy do wszystkich grup, newsowych, a także na setki tysięcy prywatnych adresów mailowych. Miał on tytuł: ?Global Alert for All: Jesus is Coming Soon? i został wysłany przez chorego psychicznie studenta z uniwersytetu stanowego Ohio.

Źródło:

1 Encyklopedia PWN online : http://encyklopedia.pwn.pl/haslo.php?id=3978016 ( zrzut 04.05.2008 r.)

2 Michał Czajkowski, ?Wielka encyklopedia Internetu i nowych technologii?, wyd. Edition 2000

3 Patrz: http://www.komputerwfirmie.pl/itbiznes/1,54788,5095000.html

4 wirtualne światy ? opowiadania oparte na klimacie fantasy, w których użytkownicy wcielali w wybraną przez siebie postać i przy pomocy komunikatów tekstowych decydowali o zachowaniu swojego bohatera

5 odpowiednik dzisiejszych list i grup dyskusyjnych

6 ARPANET (Advanced Research Project Agency NET-work) - pierwsza zdecentralizowana sieć komputerowa(USA 1969)

Creative Commons License
O Spamie słów kilka by Jakub Frankiewicz - www.jakubfrankiewicz.eu is licensed under a Creative Commons Uznanie autorstwa-Użycie niekomercyjne 3.0 Polska License.

---

Autor tekstu: Jakub Frankiewicz

www.jakubfrankiewicz.eu - Zapraszam


Artykuł pochodzi z serwisu www.Artelis.pl

Co to są gry casual?

Co to są gry casual?

Autorem artykułu jest Damian Rams



Nazwa gry casual z pewnością brzmi dla Ciebie obco. Czy słusznie? Mogę się założyć, że nie – z pewnością spotykałeś się już bowiem w życiu z podobną formą rozrywki. Kiwasz głową w przeczącym geście? Spokojnie, po przeczytaniu tego tekstu z pewnością będziesz wiedzieć, na czym stoisz.

Terminologia

Gry casual tak naprawdę nie mają jeszcze oficjalnego polskiego tłumaczenia, dlatego są nazywane na kilka sposobów. Najpopularniejszy z nich to gry niedzielne (stąd też nazwa naszego serwisu). Jest ona związana z grupą odbiorców casuali, czyli tak zwanymi graczami niedzielnymi – osobami, które nie są zapalonymi graczami, gdyż nie jest to ich hobby i nie poświęcają mu kilku godzin swojego czasu dziennie. Preferują raczej niezobowiązującą partyjkę w przerwie na kawę lub krótkie posiedzenie w sielankowe, niedzielne popołudnie. Grupa ta rośnie proporcjonalnie do upowszechniania się Internetu oraz technologii informacyjnych i w Polsce osiągnęła już naprawdę spore rozmiary.

Czym są gry casual?

Gry niedzielne od tradycyjnych gier, zwanych w bardziej fachowym języku „core games” wyróżnia kilka charakterystycznych cech. Są to mianowicie:

* prostota obsługi – odbiorca nie musi poświęcać wielu godzin na opanowanie sterowania i zasad rządzących rozgrywką, gdyż są one bardzo proste i łatwe do zrozumienia

* dostępność – gry casual doskonale nadają się do szybkiej, niezobowiązującej partyjki – włączasz, grasz 15 minut, wyłączasz, a w międzyczasie świetnie się bawisz

* małe wymagania sprzętowe – w erze drogich i super mocnych komputerów gry niedzielne wyróżniają się tym, że działają na praktycznie każdym laptopie, netbooku czy PC, co automatycznie zwiększa ich zasięg.

* niska cena – koszt gry casual to w naszym kraju zwykle około 19,99 zł. Dla porównania tradycyjne gry po pojawieniu się w sklepach kosztują od 100 złotych w górę.

* cyfrowa dystrybucja – nabywanie gry casual jest bardzo łatwe i szybkie. Ściągasz niewielki plik, następnie błyskawicznie instalujesz, dokonujesz płatności internetowej za pełną wersję i cieszysz się grą. Cały zabieg zajmuje około 10-15 minut!

* darmowa wersja próbna – każda gra niedzielna posiada całkowicie darmową wersję demonstracyjną. Pozwala to sprawdzić produkcję własnoręcznie i to bez płacenia ani grosza. W zależności od wydawcy testować grę można 30-60 minut. Zawsze wiesz, co kupujesz!

Jakie są typy gier casual?

Wśród gier niedzielnych zdarzają się pozycje wyjątkowo nietuzinkowe i zaskakujące nawet największych wyjadaczy w tej branży, ale większość z nich można z łatwością zakwalifikować do jednego z popularnych gatunków. Najczęściej na rynku ukazują się pozycje spod szyldów:

* dopasuj 3 – gry polegają na łączeniu ze sobą trzech lub więcej elementów tego samego typu, np. kolorowych kulek czy kamieni. Przykłady: Skarby Montezumy, Skarby Montezumy 2, Stoneloops! Of Jurassica

* ukryte obiekty – tutaj zadaniem gracza jest kolekcjonowanie przedmiotów porozrzucanych po planszy. Przykłady: Hania: Pomocnik Świętego Mikołaja, Sherlock Holmes: Tajemnica Perskiego Dywanu

* na czas – jak sama nazwa wskazuje, głównym przeciwnikiem w grach tego typu jest upływający czas. Musimy się więc szybko uwijać i wykonać postawione przed nami cele w ustalonym okresie czasu. Przykłady: Odlotowa Farma, Odlotowa Farma 2, Supermarket Mania

* zręcznościowe – gry niedzielne z tego gatunku nie odbiegają zbytnio od tradycyjnych zręcznościówek – liczą się tutaj przede wszystkim szybkie palce, spostrzegawczość i dobra koordynacja. Przykłady: Karol Jaskiniowiec: Świąteczna Przygoda, Azangara, Podniebne Taxi

Dlaczego gry casual świetnie się sprzedają i są popularne?

Odpowiedź na powyższe pytanie częściowo można znaleźć powyżej, czytając o charakterystycznych cechach gier niedzielnych. Prostota obsługi, niska cena oraz wygodny dla gracza model dystrybucji sprawiają, że grupa odbiorców casuali jest ogromna. Dalej wyciągnięcie odpowiedniego wniosku nie jest już niczym trudnym – im więcej konsumentów, tym większa popularność, większa sprzedaż, większe przychody i naturalnie większe zyski. Gry casual zaliczają się do grupy produktów, które są przeznaczone – jak to się przyjęło mówić – dla mas. Gry niedzielne w przemyśle elektronicznej rozrywki można porównać do mleka w przemyśle spożywczym. Zdecydowana większość ogólnej liczby konsumentów kupujących na danym rynku decyduje się na wybór tego właśnie produktu.

---

Odlotowa Farma download - pobierz i zagraj już teraz w najlepszy symulator farmy!


Artykuł pochodzi z serwisu www.Artelis.pl

Wideo rządzi siecią – dostosuj się albo zginiesz

Wideo rządzi siecią – dostosuj się albo zginiesz

Autorem artykułu jest agata



Internet to potęga. Swoim użytkownikom oferuje więcej możliwości niż wszystkie inne media razem wzięte. Może dzięki temu, że rozwija się szybciej niż pozostałe środki przekazu

Jeśli zależy ci na tym by na stałe zagościć w internetowej społeczności musisz dostosować się do jego wymagań i iść w kierunku w którym zmierza jego rozwój.

Już teraz jest pewne, że przyszłością internetu będzie video. Coraz więcej serwisów internetowych dostrzega przewagę formy video nad suchą treścią. Witryny internetowe zawierające jedynie tekst są uważane za mniej atrakcyjne – zarówno przez użytkowników sieci jak i samą wyszukiwarkę

Na ten moment dominują raczej krótkie formy video. Lubimy to co sensacyjne, kontrowersyjne. Ale coraz częściej pojawiają się także video poradniki, video konferencje emitowane w sieci w czasie rzeczywistym, rośnie liczba kanałów z materiałami video do pobrania.

Dzięki nowoczesnej technice każdy z nas może aktywnie uczestniczyć w życiu społeczności internetowej. Serwisy informacyjne uruchamiają video panele, na których internauci mogą zamieszczać swoje video materiały. Dzięki temu w siłę rośnie dziennikarstwo obywatelskie.

Badania pokazują, że liczba osób oglądających video w sieci rośnie w bardzo szybkim tempie. Nie należy bagatelizować tego trendu. Prawda jest taka, że internauci mają coraz większe wymagania, domagają się prostych, jasnych komunikatów, ciekawych rozwiązań a wszystko to w łatwej, przystępnej formie.

Video pojawiło się na portalach społecznościowych jak krótkie, zabawne filmiki kręcone amatorskim sprzętem. Ich popularność skłoniła także przedsiębiorców do wykorzystania takiej formy promocji w sieci. Okazało się, że jest to świetna droga uzyskania kontaktu z internautami i potencjalnymi klientami oraz nowy sposób na kreowanie wizerunku własnej firmy w sieci.

Coraz więcej firm decyduje się na pokazanie swojej oferty właśnie za pomocą materiału video umieszczonego w sieci. Dzięki ogromnemu popytowi na taką formę przekazu jest szansa dotarcia do ogromnej liczby odbiorców.

Prawda jest taka, że video to przyszłość internetu. Kto się nie dostosuje do nowych trendów niestety zginie w tłumie konkurencji.

---

agata b.


Artykuł pochodzi z serwisu www.Artelis.pl

Optymistyczne prognozy dotyczące phishingu

Optymistyczne prognozy dotyczące phishingu

Autorem artykułu jest agata



Dla niewtajemniczonych phising to termin wywodzący się branży komputerowej. Mówiąc krótko oznacza on podstępne wykradanie haseł oraz poufnych informacji od użytkownika sieci.

Oszuści często podają się za jakąś instytucję bądź osobę godną zaufania by w ten sposób wyłudzić dane do naszego konta w celu wykorzystania go do celów przestępczych, min. do wysyłania spamu.

Ofiarami sieciowych przestępców pada bardzo wielu internautów. Na szczęście prognozy dotyczące globalnego spamu są coraz bardziej optymistyczne.

Według raportu opracowanego przez KaperskyLab ilość niechcianej poczty znacząco spada. Radykalnie zmniejszył się także odsetek maili zawierających phisingowe odnośniki. Przyczyn należy szukać w rosnącej świadomości internetowej społeczności na temat phisingu i nielegalnego spamu.

Coraz więcej osób otrzymując od swojego banku lub innej instytucji maila, który zawiera odnośnik kierujący do zupełnie innej strony rozpoznaje go jako bezprawne działanie i najczęściej ignoruje.

Phising najmocniej celuje w branże finansową, narażeni są więc posiadacze internetowych kont bankowych czy internauci robiący zakupy w sieci. Mniej zagrożeni są posiadacze kont na portalach społecznościowych, gdyż jak pokazuje raport ataki na tym polu są sporo rzadsze.

W niechlubnym zestawieniu państw najbardziej narażonych na globalny spam Polska znajduje się nadal w czołówce. Co prawda jest lepiej niż w poprzednim roku, nadal jednak zajmujemy wysoką – ósmą pozycję. W czołówce znalazły się także Włochy, Rosja i Wietnam. Bezapelacyjne pierwsze miejsce nadal przysługuje USA.

Prognozy są jednak optymistyczne. Z jednej strony rośnie bowiem świadomość użytkowników na temat oszustw w sieci, z drugiej coraz więcej specjalistów walczy z nielegalnym spamem. Pozostaje nam mieć nadzieję, że za jakiś czas w ogóle nie będziemy mieć do czynienia z tym zjawiskiem.

---

agata b.


Artykuł pochodzi z serwisu www.Artelis.pl

Projektowanie stron www vs. Pozycjonowanie.

Projektowanie stron www vs. Pozycjonowanie.

Autorem artykułu jest Jaspis



W dzisiejszych czasach chyba każdy zdaje sobie sprawę, że stworzenie strony www to dopiero początek przygody z marketingiem internetowym. Jeśli tak nie jest to najczęściej taka firma bardzo krótko utrzymuje się na rynku, ponieważ nie przewidziała środków na promocję swojej strony.

Jak taki proces wygląda? Firmy nawet z dużym doświadczeniem orientują się, że tracą spory potencjał przez fakt braku istnienia w Internecie. Znajdują firmę, która zajmuje się tworzeniem stron www i zlecają im wykonanie takowej. Oczywiście bardzo często strona musi być ósmym cudem świata, ale za minimalne stawki. Firma zlecająca wykonanie strony www jednak nie przewidziała możliwości promowania strony w wyszukiwarkach. Jaki jest tego efekt? Ich strona już istnieje w sieci, ale za żadne skarby nie można jej znaleźć w wyszukiwarkach. I tu zaczynają się schody. Zleceniodawca przecież był przekonywany, że strona będzie przystosowana do pozycjonowania. Zgłasza reklamacje do Zleceniobiorcy. Oczywiście kończy się to na niczym, ponieważ Zleceniobiorca wywiązał się z umowy i strona faktycznie ma podstawy do tego by się pozycjonować, ale jednak proces pozycjonowania nie kończy się na tak zwanej optymalizacji strony www. To dopiero początek.

Projektowanie stron www wymaga wzięcia pod uwagę optymalizację strony. Bardzo często taka firma, która w swoich usługach ma tworzenie stron po prostu nie jest specjalistą w branży pozycjonowania. Dobrze jest jeśli ma zaprzyjaźnioną osobę czy firmę, która na etapie kodowania strony podpowie jak należy zbudować daną stronę, aby była przyjazna dla wyszukiwarek. Tak jak pisałem już wcześniej to niestety dopiero początek przygody z promowaniem strony. Teraz trzeba ją wypozycjonować. W skrócie pozycjonowanie to zdobywanie wartościowych linków prowadzących do Twojej strony www. Ilość i jakość tych linków ma kluczowy wpływ na późniejszą pozycję Twojej strony www. Pamiętaj jednak, że pozycjonowanie to proces i nie wolno go przyspieszać.

Podsumowując tworzenie stron wymaga również odrobiny wiedzy z dziedziny pozycjonowania stron. Jeśli firma, która tworzy Ci stronę www takową posiada, możesz być pewny, że Twoja strona zostanie skutecznie wypozycjonowana.

---

Artykuł pochodzi z serwisu www.Artelis.pl

L.A. Noire

L.A. Noire

Autorem artykułu jest egocentryk



L.A. Noire to najnowszy projekt zespołu deweloperskie Team Bondi. Wydawca gry, Rockstar Games, pierwotnie zapowiedział tytuł jedynie na PlayStation 3, jednakże z czasem plany zostały zmienione, a sama gra przygotowywana jest również na konsolę Xbox 360.

Linia fabularna L.A. Noire przenosi nas w lata 40-te ubiegłego wieku, w perfekcyjnie odwzorowane Los Angeles tamtych lat - jako gracze wcielamy się w postać Cole'a Phelpsa, młodego detektywa wydziału zabójstw, który przydzielony został do rozwiązania sprawy tajemniczych morderstw.

Jak sugeruje już sam tytuł gra czerpie garściami z konwencji (zarówno pod względem scenariusza jak i formy) popularnych w latach 40-tych i 50-tych filmów noir, podzielając tym samym podobny styl wizualny oraz tematy przewodnie takie jak przestępstwa, seks, odpowiedzialność moralna, etc. Silne nawiązanie do klimatu ówczesnych produkcji wyrażane jest przez twórców również poprzez oszczędną, korzystającą z niewielu odcieni kolorystykę L.A. Noire.

Pierwsze informacje na temat gry pojawiły się już w lutym 2004 roku - właśnie wtedy Brendan McNamara, prezes Team Bondi, w wywiadzie udzielonym Kristen Reed wspomniał, że projekt całkowicie finansowany jest przez Amerykański oddział Sony Computer Entertainment. Dopiero w 2008 roku długoletnia ekskluzywna umowa została zmieniona, a wydanie samej gry planowane jest również na konsolę Xbox 360.

Proces deweloperski L.A. Noire trwa już 6 lat i wszystko wskazuje na to, że premiera gry nie odbędzie się zbyt szybko - liczba informacji na temat tytułu nadal jest znikoma (mimo obszernego reportażu na łamach Game Infomer), a deweloperzy robią wszystko, by projekt był skończony wtedy, gdy osiągną swój zamierzony cel - zrobić perfekcyjną grę typu sandbox.

---

Artykuł pochodzi z serwisu www.Artelis.pl

Pamięć komputerowa - pamięc cache, rejestratory i wiele innych

Pamięć komputerowa - pamięc cache, rejestratory i wiele innych

Autorem artykułu jest RatujPC



Pamięć komputerowa to różnego rodzaju urządzenia i bloki funkcjonalne komputera, służące do przechowywania danych i programów (systemu operacyjnego oraz aplikacji). Potocznie przez "pamięć komputerową" rozumie się samą pamięć operacyjną.

Hierarchia pamięci opiera się na „oddaleniu” od procesora, gdzie odległość określa czas dostępu do danych.

Rejestry procesora to komórki pamięci o niewielkich rozmiarach (najczęściej 4/8/16/32/64/128 bitów) umieszczone wewnątrz procesora i służące do przechowywania tymczasowych wyników obliczeń, adresów lokacji w pamięci operacyjnej itd. Większość procesorów przeprowadza działania wyłącznie korzystając z wewnętrznych rejestrów, kopiując do nich dane z pamięci i po zakończeniu obliczeń odsyłając wynik do pamięci.

Rejestry procesora stanowią najwyższy szczebel w hierarchii pamięci, będąc najszybszym z rodzajów pamięci komputera, zarazem najdroższą w produkcji, a co za tym idzie - o najmniejszej pojemności. Realizowane zazwyczaj za pomocą przerzutników dwustanowych, z reguły jako tablica rejestrów (blok rejestrów, z ang. register file).

Liczba rejestrów zależy od zastosowania procesora i jest jednym z kryteriów podziału procesorów na klasy CISC i RISC. Proste mikroprocesory mają tylko jeden rejestr danych zwany akumulatorem, procesory stosowane w komputerach osobistych - kilkanaście, natomiast procesory w komputerach serwerowych mogą mieć ich kilkaset.

Cache (pamięć podręczna) to mechanizm, w którym ostatnio pobierane dane dostępne ze źródła o wysokiej latencji i niższej przepustowości są przechowywane w pamięci o lepszych parametrach.

Cache jest elementem właściwie wszystkich systemów - współczesny procesor ma 2 albo 3 poziomy pamięci cache oddzielającej go od pamięci RAM. Dostęp do dysku jest buforowany w pamięci RAM, a dokumenty HTTP są buforowane przez pośredniki HTTP oraz przez przeglądarkę.

Systemy te są tak wydajne dzięki lokalności odwołań - jeśli nastąpiło odwołanie do pewnych danych, jest duża szansa, że w najbliższej przyszłości będą one potrzebne ponownie. Niektóre systemy cache próbują przewidywać, które dane będą potrzebne i pobierają je wyprzedzając żądania. Np. cache procesora pobiera dane w pakietach po kilkadziesiąt czy też więcej bajtów, cache dysku zaś nawet do kolejnych kilkuset kilobajtów czytanego właśnie pliku.

Pamięć operacyjna (en. internal memory, Primary storage). Jest to pamięć adresowana i dostępna bezpośrednio przez procesor, a nie przez urządzenia wejścia-wyjścia procesora. W pamięci tej mogą być umieszczane rozkazy (kody operacji) procesora (program) dostępny bezpośrednio przez procesor i stąd nazwa pamięć operacyjna. W Polsce często pamięć ta jest utożsamiana z pamięcią RAM, choć jest to zawężenie pojęcia, pamięcią operacyjną jest też pamięć nieulotna (ROM, EPROM i inne jej odmiany) dostępna bezpośrednio przez procesor. Obecnie pamięci operacyjne są wyłącznie pamięciami elektronicznymi, dawniej używano pamięci ferrytowych.

W obecnych komputerach głównym rodzajem pamięci operacyjnej jest pamięć RAM, wykonana jako układy elektroniczne, wykorzystywana przez komputer do przechowywania programu i danych podczas jego pracy.

Pamięć masowa (ang. mass memory, mass storage) – pamięć trwała, przeznaczona do długotrwałego przechowywania dużej ilości danych w przeciwieństwie do pamięci RAM i ROM. Pamięć masowa zapisywana jest na zewnętrznych nośnikach informacji. Nośniki informacji zapisywane i odczytywane są w urządzeniach zwanych napędami.

Nośniki magnetyczne:

dyski stałe - pamięć o dostępie bezpośrednim; nośniki danych zainstalowane w macierzach dyskowychtaśmy magnetyczne - pamięć o dostępie sekwencyjnym zapisywana i odczytywana w napędzie taśmowym

Napędy optyczne:


CD-ROMpłyty DVDpłyty Blu-Ray Diskpłyty HD DVD

Pamięci półprzewodnikowe (pozbawione części mechanicznych), współpracujące z różnymi złączami komunikacyjnymi:


pamięci USB.karty pamięci

Pamięć offline tworzą dane, które są składowane na nośniku poza serwerem. Najbardziej popularnymi pamięciami offline są nośniki taśm i nośniki optyczne. Chociaż nośniki optyczne stają się coraz bardziej popularne, to nośniki taśm są stosowane najczęściej. Inną opcją, której można używać, są wirtualne nośniki optyczne. Wirtualnych nośników optycznych można używać do składowania obrazów wirtualnych na jednostkach dyskowych. Następnie obrazy takie można kopiować na dyski CD lub DVD albo rozpowszechniać je przez sieć.

---

Pomoc Drogowa Katowice


Artykuł pochodzi z serwisu www.Artelis.pl

Pamięci RAM - pamięci DRAM

Pamięci RAM - pamięci DRAM

Autorem artykułu jest RatujPC



Informacje przechowywane są w pamięci DRAM, pod postacią ładunku zgromadzonego przez kondensator Cs. Na skutek rozładowania kondensatora, ustala na nim napięcie odpowiadające logicznemu zeru, natomiast poprzez proces ładowania, ustalone napięcie odpowiada jedynce logicznej.

Charakterystyka pamięci DRAM

Organizując adres jak na rysunku, komórka posiada wejście adresowe W dla wierszy, oraz pojedynczą linię danych wspólną dla komórek o adresie określanym przez kolumnę B. Wspólny dla kolumny adresowej B jest wzmacniacz odczytu. Po wybraniu komórki, na wejściach adresowych B oraz W ustala się stan wysoki, a pojemność Cs jest dołączana do linii danych. Podczas zapisu doprowadzane jest do niej napięcie ze wzmacniacza zapisu, które odpowiada logicznej jedynce lub zeru. Po fazie odczytu ładunek znajdujący się w pojemności Cs stopniowo ładuje dużo większą pojemność Cb, na którą składa się dodatkowo pojemność drenu, dlatego napięcie odczytu powinno być dużo wyższe od napięcia na kondensatorze Cs. Odczyt powinien być wzmacniany dobrym układem uzupełnionym o elementy odświeżające pamięć, które będą odświeżały poszczególne kolumny niezależnie od wykonywanego cyklu. Innym rozwiązaniem jest zastosowanie wielotranzystorowych komórek pamięciowych z dużo prostszym układem odświeżania oraz prostym wzmacniaczem odczytu/zapisu.

Typowa struktura pamięci dynamicznej, posiadającej pojemność 64 kilobitów, przedstawia się jako matryca zbudowana z 256 wierszy oraz 256 kolumn. Aby zmniejszyć liczbę wyprowadzeń pamięci dynamicznej oraz ułatwić jej odświeżanie, należy multipleksować wejścia adresowe. Adresowanie pamięci polega na podaniu ośmiu ważniejszych bitów adresu, co stanowi adres wiersza, następnie podawane są wartości ośmiu młodszych bitów, stanowiących adres kolumny. Adres wiersza wpisywany jest do rejestru wiersza przy opadającym zboczu sygnału ~RAS. Następnie dekoder adresu, którym jest zwykły multiplekser wybiera odpowiadający żądanemu adresowi wiersz. Podobnie adres kolumny wpisywany jest z wejść do rejestru kolumny po stwierdzeniu opadającego zbocza sygnału CAS. Demultiplekser wybiera odpowiednią kolumnę o żądanym adresie. Wybranie wiersza oraz kolumny w matrycy pamięciowej odpowiada wskazaniu jednej konkretnej komórki pamięci, przy zaoszczędzeniu połowy wyprowadzeń. Jeżeli podczas operacji wskazania adresu, na pinie WE był stan logicznego 0, to zawartość komórki przesyłana jest na wyjście układu, ma wtedy miejsce operacja odczytu. Gdy WE = 1 następuje zapis wejściowej informacji do komórki o podanym adresie.

---

Suknie Ślubne Katowice


Artykuł pochodzi z serwisu www.Artelis.pl

Pamięci RAM - budowa i informacje ogólne cz.2

Pamięci RAM - budowa i informacje ogólne cz.2

Autorem artykułu jest RatujPC



W dzisiejszych czasach pamięć RAM realizowana jest sprzętowo, w postaci układów scalonych, które występują w różnych technologiach, także jako fragmenty znacznie bardziej złożonych układów scalonych, na przykład pamięć podręczna procesora.

Pamięci RAM z jakimi mamy najczęściej do czynienia znajdują swe największe zastosowanie w komputerach osobistych.

Pamięć RAM jest wykorzystywana do operacji ciągłego zapisu danych w postaci bajtu lub słowa, do tymczasowego zapamiętywania oraz odczytu informacji. Znając podstawy teorii automatów wiadomo, że każda czynność zapamiętywania pociąga za sobą stosowanie odpowiednich układów sekwencyjnych, w których informacje tego typu mogą być zapisywane, bądź odczytywane zgodnie z określoną kolejnością. Dostęp do danej komórki pamięci zależy od miejsca w którym się ona znajduje oraz czasu, który mija przed rozpoczęciem operacji zapisu lub odczytu.

Podział pamięci RAM

Rozróżniamy dwa podstawowe rodzaje pamięci RAM:

Pamięci statyczne - SRAM. Elementem pamiętającym w tego typu pamięci jest bistabilny przerzutnik asynchroniczny typu RS. Komórki wykonywane były dawniej w technologii bipolarnej, obecnie stosuje się specjalne układy MOS. Informacja w tych pamięciach jest utrzymywana dopóty, dopóki nie zostanie zastąpiona inną lub napięcie zasilające nie zostanie odłączone.Pamięci dynamiczne - DRAM. Elementem pamiętającym w tego typu pamięciach są pojemności wejściowe tranzystorów typu MOS, które gromadzą ładunek, lub go odprowadzają. Istnieje konieczność odświeżania tego typu pamięci w celu uzupełniania ładunku, który dosyć szybko zanika. Do poprawnej pracy tej pamięci nie wystarczy więc tylko podłączenie go do zasilania, w przypadku braku częstych cykli zapisu lub odczytu, zawartość komórki zostałaby stracona.

Pamięci DRAM możemy dodatkowo podzielić na kilka podtypów, w zależności od implementacji na:

EDO DRAM - Extended Data Out DRAMFPM DRAM - Fast Page Mode DRAMSDRAM - Synchroneus DRAMDDRGDDR

W pamięciach RAM poszczególne komórki są ułożone w wybierane liniami adresu wejściowego słowa. Dla łatwiejszego wyobrażenia sobie struktury pamięci, przedstawmy ją jako dwuwymiarową matrycę, która składa się z n słów zawierających m bitów, dodatkowo podzieloną na obszary robocze zwane strefami.

Dekodery wejścia oraz wyjścia kooperują z równoległymi rejestrami pamiętającymi przychodzące dane, ponieważ operacja odczytu i zapisu do pamięci trwa zwykle przez sporą ilość cykli zegarowych. Zawartości linii adresowej i danych mogą się w tym momencie zmienić, dzięki użyciu rejestrów o odpowiednich długościach, żadna z informacji nie jest tracona. Serwis komputerowy ma odpowiednie narzędzia ktore wykryją różnice i problemy w działaniu pamięci.

Zależnie od stanu logicznego na wejściu R/W komórki pamięciowe przyjmują informację z rejestru danych, następuje wtedy cykl zapisu pamięci, albo wyprowadzają na rejestr danych zawartość komórki pamięci, w cyklu odczytu. Rejestr przekazuje dalej informację lub ją odbiera z szyny danych, stanowi on zatem bufor dwukierunkowy.

---

Naprawa Komputera


Artykuł pochodzi z serwisu www.Artelis.pl

Pamięci RAM - budowa i informacje ogólne cz.1

Pamięci RAM - budowa i informacje ogólne cz.1

Autorem artykułu jest RatujPC



Pamięci są układami logicznymi wykorzystywanymi do przechowywania, wydawania i przyjmowania zakodowanych danych informacyjnych. Podstawowym typem pamięci, powszechnie dzisiaj wykorzystywanym jest pamięć półprzewodnikowa.

Przekazywana informacja jest zapisywana w postaci binarnej, jest to więc ciąg zer i jedynek. Każdy z podstawowych elementów danej nazywany jest bitem, gdy połączymy ze sobą 8 bitów dostaniemy jeden bajt, natomiast 16 bitowy element nazywany jest słowem. Podstawowymi parametrami opisującymi każdy typ pamięci są:

Szybkość Pojemność Pobór mocy Koszt

Pojemność każdej pamięci, to ilość informacji którą dana pamięć jest w stanie przechować. Mierzy się ją zazwyczaj w bitach, bajtach i słowach. Wyrażana jest w kilobitach - kb, megabitach - Mb, gigabitach - GB, oraz analogicznie w kilobajtach - kB, megabajtach MB i w gigabajtach GB. Obecnie ilość pamięci mierzy się już tylko korzystając z miar megabajtów oraz gigabajtów. Pojemność pamięci jest zatem określana liczbą słów i długością słowa. Liczbę słów podaje się za pomocą odpowiednich przedrostków, którym odpowiadają określone mnożniki.

Zależności pomiędzy jednostkami pojemności:

1 KB pojemności odpowiada liczbie 1024 bajtów1 MB pojemności odpowiada liczbie 1024 * 1024 bajtów1 GB pojemności odpowiada liczbie 1024 * 1024 * 1024 bajtów

Szybkość jest parametrem określającym jak często procesor, lub inne urządzenie wykorzystujące pamięć mogą z niej korzystać. Szybkość pamięci jest określana kilkoma precyzyjnymi parametrami:

Czasem dostępu - access time. Jest to czas upływający od momentu w którym wysyłane jest żądanie dostępu do pamięci do czasu w którym informacja zwrotna ukaże się na jej wyjściu. Czas dostępu szybkich pamięci operacyjnych waha się w granicach od 20 do 200 ns.Czasem cyklu - cycle time. Jest to czas najkrótszy, który upływa między dwoma kolejnymi żądaniami dostępu do pamięci. Czas ten jest zawsze dłuższy od czasu dostępu, co wynika z fizycznej budowy pamięci, chodzi tu głównie o opóźnienia wnoszone przez wszystkie elementy elektroniczne.Szybkością transmisji - transfer speed. Szybkość transmisji mierzymy liczbą bitów, bądź bajtów, którą jesteśmy w stanie przesłać pomiędzy urządzeniem, a pamięcią. Ten parametr jest bardzo ważny w pamięciach, adresowanych ilością bitów większą od słowa, na przykład pamięci na dyskach magnetycznych. Ze względu na konieczność odczytu i zapisu bloku słów, mniej istotny staje się czas dostępu, natomiast ważniejszy jest czas w którym porcja danych może zostać przesłana. Szybkość transmisji mierzymy w bajtach lub bitach na sekundę.

Każda nowo wprowadzana technologia pozwala zmniejszyć koszt produkcji pamięci oraz ulepszyć zarazem jej parametry. Dlatego nowe pamięci dosyć szybko się starzeją, naturalnie pod względem technologicznym. Bardzo często czas użytkowania danego typu pamięci na przykład w komputerach klasy PC wynosi zaledwie kilka lat, później należy zaopatrzyć się w nowsze rozwiązania. Los taki spotkał popularne w latach sześćdziesiątych ubiegłego wieku ferrytowe pamięci rdzeniowe, które obecnie można spotkać już chyba tylko w muzeum. Na dzień dzisiejszy najniższym kosztem, a także dobrymi parametrami charakteryzują się pamięci półprzewodnikowe. Istnieje ich ogromne zróżnicowanie ze względu na pojemność, szybkość działania oraz oczywiście cenę. Tanie pamięci półprzewodnikowe oparte na układach scalonych cechują się niewielką szybkością działania. Szybkie pamięci mają zazwyczaj mniejsze pojemności przy dosyć dużej cenie. Z tych powodów szuka się ciągle nowych rozwiązań architektury komputerów, które pozwoliłyby na optymalną ich współpracę z posiadanymi na pokładzie pamięciami. Pewnym rozwiązaniem pamięci operacyjnych jest stosowanie dwóch rodzajów pamięci półprzewodnikowych, pamięci bardzo szybkich o małych pojemnościach, oraz pamięci wolniejszych o dużych pojemnościach, które nie są zbyt często czytane przez procesor. Dzięki temu będziemy posiadali pamięć operacyjną o dużej pojemności, a także o szybkim działaniu w przypadku procesów krytycznych do poprawnego działania systemu operacyjnego. Bardzo szybka pamięć o małej pojemności, która współpracuje z pamięcią operacyjną jest nazywana pamięcią typu Cache.

Również pobór mocy stanowi bardzo ważny parametr, który staje się problemem przy budowaniu urządzeń zasilanych bateryjnie, jak komputery kieszonkowe, laptopy. Również urządzenia wyposażone w pamięci operacyjne o bardzo dużych pojemnościach. Istnieje wtedy problem z połączeniem wielkiej liczby układów scalonych oraz z odpowiednim odprowadzeniem wydzielanego ciepła.

Pamięć zbudowana jest z rejestrów komórek pamięci, w których zapamiętane są słowa jednobitowe, czterobitowe lub bajtowe. W każdej komórce odpowiada jej adres, czyli numer zapisany w postaci dwójkowej, który oznacza położenie tej informacji w pamięci. Chcąc dokonać operacji odczytu lub zapisu na pamięci należy podać na wejścia adresowe tej pamięci odpowiedni numer komórki którą chcemy modyfikować lub odczytać, a na wejścia sterujące odpowiednią daną, w przypadku zapisu. Chcąc zaadresować 2n komórek pamięci należy użyć n wejść adresowych. Przykładowo do zaadresowania pamięci o pojemności 64KB, czyli 65536 bajtów, należy użyć 16 wejść adresowych. Jak wiadomo informacje są zapisywane w pamięci w postaci binarnej, dlatego najwygodniej jest używać liczb zapisanych w postaci szesnastkowej, zwanej też heksadecymalną. Każdy serwis komputerowy powinien posiadać pamięci w każdej specyfikacji.

Pamięci posiadają następujące piny wejścia/wyjścia:

Wejścia adresowe oznaczane A0….An, gdzie n - liczba wyprowadzeń potrzebna do zaadresowania 2n komórek pamięci.Wejścia/wyjścia informacji - danych D0.…Dm, gdzie m jest długością słowa zapisywanego pod jedną komórką pamięci.Wejścia sterujące, które służą do wyboru funkcji jaką pamięć ma wykonać. Są to wejścia WE - Write Enable, CS - Chip Selekt, CE - Clock Enable oraz OE - Output Enable.Wejścia strobu adresu: ALE - Adress Latch Enable, RAS - Row Adress Select, CAS - Column Adress Select.

Więcej informacji w kolejnej odsłonie.

---

Pomoc Drogowa Katowice


Artykuł pochodzi z serwisu www.Artelis.pl

Pamięci RAM- pamięć wirtualna

Pamięci RAM- pamięć wirtualna

Autorem artykułu jest RatujPC



to mechanizm komputerowy zapewniający procesowi wrażenie pracy w jednym dużym, ciągłym obszarze pamięci operacyjnej podczas gdy fizycznie może być ona pofragmentowana, nieciągła i częściowo przechowywana na urządzeniach pamięci masowej.

Systemy korzystające z tej techniki ułatwiają tworzenie rozbudowanych aplikacji oraz poprawiają wykorzystanie fizycznej pamięci RAM. Często popełnianym błędem jest utożsamianie pamięci wirtualnej z wykorzystaniem pamięci masowej do rozszerzenia dostępnej pamięci operacyjnej. Rozszerzenie pamięci na dyski twarde w rzeczywistości jest tylko naturalną konsekwencją zastosowania techniki pamięci wirtualnej, lecz może być osiągnięte także na inne sposoby, np. nakładki lub całkowite przenoszenie pamięci procesów na dysk, gdy znajdują się w stanie uśpienia. Pamięć wirtualna działa na zasadzie przedefiniowania adresów pamięci tak, aby "oszukać" procesy i dać im wrażenie pracy w ciągłej przestrzeni adresowej.

Obecnie wszystkie systemy operacyjne ogólnego przeznaczenia wykorzystują techniki pamięci wirtualnej dla procesów uruchamianych w ich obrębie. Wcześniejsze systemy takie, jak DOS, wydania Microsoft Windows[1] z lat 80. oraz oprogramowanie komputerów mainframe z lat 60. nie pozwalały pracować w środowisku z pamięcią wirtualną. Godnymi odnotowania wyjątkami były komputery Atlas, B5000 oraz Apple Lisa.

Pamięć wirtualna wymaga wykonania pewnych dodatkowych nakładów pracy przy próbie odczytu lub zapisu, dlatego systemy wbudowane lub szczególnego przeznaczenia, gdzie czas dostępu jest czynnikiem krytycznym i musi być przewidywalny, często z niej rezygnują za cenę zmniejszonego determinizmu.

Stronicowana pamięć wirtualna

Prawie wszystkie istniejące obecnie implementacje dzielą wirtualną przestrzeń adresową procesu na strony. Strona jest to obszar ciągłej pamięci o stałym rozmiarze, zazwyczaj 4 KB. Systemy, gdzie zapotrzebowanie na wielkość wirtualnej przestrzeni adresowej jest większe lub dysponujące większymi zasobami pamięci operacyjnej mogą używać stron o większym rozmiarze. Rzeczywista pamięć operacyjna podzielona jest na ramki, których rozmiar odpowiada wielkości stron. System operacyjny według uznania może przydzielać ramkom strony pamięci lub pozostawiać je puste.

---

Serwis Laptopów Katowice


Artykuł pochodzi z serwisu www.Artelis.pl

Budowa i organizacja pamięci podręcznej

Budowa i organizacja pamięci podręcznej

Autorem artykułu jest RatujPC



Pamięć cache jest zorganizowana w linijki (o rozmiarach 16 lub 32 bajty - 128 lub 256 bitów), w których są przechowywane informacje pobrane z RAM w postaci słów binarnych.

Jedna linijka jest najmniejszą porcją informacji - blokiem danych jaki układ cache wymienia z pamięcią operacyjną RAM. W różnych linijkach może być więc zapisana kopia zawartości odległych bloków z pamięci głównej.

Poniżej opisano budowę 32-bajtowej linijki pamięci podręcznej L1 w procesorze Pentium (rys. 3). W innych procesorach mogą być zastosowane trochę inne rozwiązania, jednak ogólna zasada organizacji cache w linijki pozostaje taka sama.

Procesor Pentium posiada oddzielną pamięć podręczną poziomu L1 dla kodu programu (8kB) i oddzielną dla danych (8kB). Każda z nich jest podzielona na 256 linijek (256 x 32 B = 8kB).

Aby zbiór takich linijek był dla procesora użyteczną strukturą, w której łatwo odszukać potrzebne dane, musi istnieć mechanizm zapisywania i kodowania dodatkowych informacji na temat każdej linijki. Przede wszystkim potrzebna jest informacja o tym, które fragmenty zawartości pamięci RAM są aktualnie skopiowane w poszczególnych linijkach. Jest to niezbędne, aby podczas żądania procesora odczytu z pamięci, kontroler cache mógł poprawnie określić czy dane są dostępne w linijkach, czy trzeba je sprowadzić z RAM. Wszystkie te informacje przechowuje się w katalogu cache (czasem określanym skrótem TAG-RAM). Jest on częścią pamięci podręcznej, która zawiera rekordy odpowiadające każdej linijce cache. Są w nich zakodowane informacje na temat danych aktualnie zapisanych w odpowiednich linijkach. Wartości poszczególnych pół tych rekordów mogą także wskazywać, że dana linijka jest wolna.

Podczas dostępu procesora do cache układy logiczne dzielą przekazywany przez niego adres na następujące części:

Znacznik (20 bitów) jest porównywany ze znacznikiem w katalogu cache. Na podstawie porównania znaczników określa się, czy potrzebne procesorowi dane są w linijce cache (określanie trafienia). Wiersz (7 bitów) określa, która pozycja (indeks) w katalogu 1 i katalogu 2 może odwzorowywać potrzebne dane.Słowo (3 bity) pozwala na określenie, które z ośmiu 32-bitowych słów przechowywanych w linijce zawiera dane potrzebne procesorowi.Bajt (2 bity) określa, który bajt w 32- bitowym słowie jest aktualnie potrzebny mikroprocesorowi.

W wypadku braku trafienia, tak zbudowany adres wskazuje blok w pamięci operacyjnej RAM, zawierający potrzebne dane. Zgodnie z zasadą działania cache, po odczytaniu zawartości bloku z RAM musi ona być zapisana do pamięci podręcznej. Na podstawie bitu LRU oraz części adresu (pola wiersz) jest wyznaczana linijka, do której można dokonać zapisu.

Skrót MESI używany do określania bitów w katalogu cache, został utworzony od pierwszych liter angielskich określeń czterech możliwych stanów linijki (Modified, Exclusive, Schared, Invalid). Na podstawie stanu bitów MESI można także określić, czy dane w poszczególnych linijkach są także zapisane w innych poziomach pamięci podręcznej. Stan bitów MESI zmienia się również podczas modyfikacji danych w pamięci. Dotychczas omawiane były jedynie zagadnienia związane ze skróceniem czas dostępu do danych i rozkazów podczas ich odczytu. Jednak procesor nie tylko odczytuje z pamięci RAM. W trakcie wykonywania programu musi też tam zapisywać wyniki swoich peracji, modyfikować pewne zmienne i dane. Niektóre z nich mogą być w tym czasie skopiowane także do pamięci podręcznej. Wiąże się z tym konieczność zadbania o aktualność obu kopii danych. Serwis komputerowy katowice poleca zwrócić uwagę jakie pamięci funkcnojują w naszym komputerze.

Do pamięci operacyjnej oprócz procesora mogą też mieć dostęp inne urządzenia. Mogą one zapisywać i odczytywać RAM bez udziału mikroprocesora. Jeśli dokonają zmiany słowa w RAM, którego kopia aktualnie jest przechowywana w cache, mogą spowodować, że procesor posiada w pamięci podręcznej nieaktualne dane. Również gdy procesor w trakcie programu dokona zmiany danych tylko w cache, inne urządzenia mogą odczytać bezpośrednio z RAM stare błędne wartości. Należy zaznaczyć, że taka niespójność może występować tylko dla pamięci podręcznej danych. W oddzielnej pamięci podręcznej kodu programu procesor nie zapisuje swoich wyników, gdyż przechowuje ona jedynie dla niego instrukcje - kolejne rozkazy. Są różne rozwiązania problemu spójności danych stosowane w różnych procesorach, jednakże generalnie można wyróżnić dwa sposoby:

Write Trougch (zapis jednoczesny)

W tym sposobie każdy zapis danych wykonywany jest jednocześnie zarówno do pamięci głównej jak i do cache. Każdy zapis wymaga więc dostępu procesora do pamięci RAM. Również każdy bezpośredni zapis do RAM wykonywany przez inne urządzenia musi być monitorowany przez procesor. W ten sposób może on w razie potrzeby uaktualnić zawartość cache. Jest to więc najbardziej naturalny sposób, jednak generuje znaczny przepływ danych między pamięciami co powoduje duże opóźnienia.

Wirte Back (zapis opóźniony)

W tym trybie przy zapisie procesor aktualizuje tylko pamięć podręczną. Jednocześnie dla zmodyfikowanych linijek układ cache ustawia odpowiednie statusy (na bitach MES). Zawartość pamięci głównej jest aktualizowana później na żądanie. Może ono być wyrażone przez instrukcję programową WBINVO (Write Back and Invalid Data Cache), lub specjalny sterujący sygnał sprzętowy.
Aktualizacja jest też wyzwalana w wyniku braku trafienia w fazie odczytu z pamięci głównej. Gdy trzeba dokonać wymiany linijki cache, zawartość linijki usuwanej mającej status zmodyfikowany (zakodowany na bitach MESI), musi być koniecznie zapisana do RAM.

Taka implementacja sposobu utrzymania spójności danych jest bardziej wydajna, minimalizuje ilość cyklów zapisu do pamięci głównej. Problemem jest jednak to, że bezpośredni dostęp zewnętrznych modułów wejścia-wyjścia do RAM także powoduje konieczność uaktualniania pamięci cache co może powodować pewne opóźnienia.

W trakcie wykonywania programu może też nastąpić konieczność zapisu danych w obszarach RAM, które nie są aktualnie skopiowane do pamięci podręcznej. Niektóre procesory w takim wypadku mogą po prostu dokonywać zapisu w RAM z pominięciem układu cache. W nowszych generacjach procesorów stosuje się mechanizm, w którym zapis danych pociąga za sobą skopiowanie odpowiedniego bloku RAM do linijki cache, gdzie jest on modyfikowany.

Dzięki temu ewentualny odczyt lub zapis tych samych danych w następnych rozkazach procesora może przebiegać już bez konieczności odwoływania się do RAM.

---

Pomoc Drogowa Katowice


Artykuł pochodzi z serwisu www.Artelis.pl

Pamięć podręczna CACHE- informacje

Pamięć podręczna CACHE- informacje

Autorem artykułu jest RatujPC



fektywność stosowania cache zależy w znacznej mierze od sposobu ułożenia kodu programów i danych pobieranych z pamięci przez mikroprocesory. Zwykle kod i dane nie są "porozrzucane" przypadkowo po całej dostępnej przestrzeni adresowej w pamięci RAM.

Większość odwołań do pamięci w trakcie wykonywania programu odbywa się przez pewien czas pracy mikroprocesora w wąskim obszarze. Zjawisko to jest określane mianem lokalności odniesień.

Lokalność odniesień można uzasadnić intuicyjnie w następujący sposób:

Z wyjątkiem rozkazów skoku i wywołania procedury, realizacja programów ma charakter sekwencyjny. Tak więc, w większości przypadków następny rozkaz przewidziany do pobrania z pamięci następuje bezpośrednio po ostatnio pobranym rozkazie. Rzadkością jest występowanie w programach długich, nieprzerwanych sekwencji wywołań procedury (procedura wywołuje procedurę itd.), a potem długiej sekwencji powrotów z procedur. Wymagałoby to ciągłego odwoływania się do oddalonych od siebie obszarów pamięci głównej, zawierających kody poszczególnych procedur. Większość pętli (konstrukcji bardzo często występujących w programach) składa się z małej liczby wielokrotnie powtarzanych rozkazów. Podczas iteracji następuje kolejne powtarzanie zwartej części programu. W wielu programach znaczna część obliczeń obejmuje przetwarzanie struktur danych, takich jak tablice lub szeregi rekordów ułożone kolejno w pamięci operacyjnej. Tak, więc procesor pobiera dane zapisane w sposób uporządkowany w małym jej fragmencie.

Oczywiście w długim czasie wykonywania programu procesor potrzebuje dane rozmieszczone w różnych odległych miejscach pamięci. Zwykle jednak, po wykonaniu skoku następne odniesienia odbywają się już lokalnie. Przepisanie bloku kolejnych komórek pamięci do szybkiego układu cache może, więc skutecznie przyspieszyć dostęp do pamięci.

W stosowanych obecnie rozwiązaniach można wyróżnić następujące poziomy pamięci podręcznej.

L1 - (level 1) zintegrowana z procesorem - umieszczona wewnątrz jego struktury. L2 - (level 2) umieszczona w jednej obudowie układu scalonego mikroprocesora lub na wspólnej płytce hybrydowej (Pentium II). L3 - (level 3) występuje w bezpośrednim sąsiedztwie procesora ITANIUM.

Pamięć podręczna najniższego poziomu (L1 – Level 1) jest stosunkowo mała, ale dane w niej zgromadzone są szybko dostępne dla procesora. W wypadku braku potrzebnych w danym momencie danych (braku trafienia), następuje odwołanie do pamięci kolejnych, wyższych poziomów. Po ich odczycie następuje przepisanie do niższych poziomów, tak by były szybciej dostępne w kolejnych odwołaniach. Jeśli dane nie są aktualnie buforowane w cache, następuje odczyt bloku pamięci głównej RAM, który je zawiera i wymiana zawartości cache. Pamięci niższych poziomów mogą mieć mniejszą pojemność i być bardziej efektywne. Procesor może szybko odczytywać mniejsze porcje danych w jednym cyklu zegara. Wyższe poziomy cache mają większe pojemności, dzięki czemu odwołania do RAM mogą odbywać się rzadziej. Można też w jednym odczycie przepisać większą porcję danych z RAM.

Ważnym zagadnieniem, jest podział pamięci podręcznej na oddzielny blok dla kodu programu i oddzielny blok dla danych. W taki sposób jest podzielona pamięć poziomu L1 procesora ITANIUM - Pamięć cache poziomów L2 i L3 jest już wspólna dla rozkazów i danych. W wielu (szczególnie starszych) procesorach wykorzystuje się również jednolitą pamięć podręczną poziomu L1. Takie rozwiązanie też posiada pewne zalety. Poniżej przedstawiono korzyści płynące z zastosowania pamięci oddzielnej i jednolitej.

Pamięć oddzielna kod i dane

Eliminowana jest rywalizacja o dostęp do pamięci między układem pobierania i dekodowania rozkazów w procesorze, a jednostką wykonującą w tym samym czasie inne, poprzednio pobrane rozkazy, które mogą wymagać odczytu pewnych zmiennych z cache. Ma to szczególne znaczenie w przypadku procesorów superskalarnych, w których kilka rozkazów jest wykonywanych równolegle. Dlatego we współczesnych procesorach poziom pamięci podręcznej L1 jest zawsze dzielony na blok danych i instrukcji.

Pamięć łączna dla kodu i danych

Poprawia się współczynnik trafień w tak zorganizowanej pamięci podręcznej, dzięki temu, że naturalnie równoważy się zapotrzebowanie na przechowywanie rozkazów i danych. Jeśli na przykład program wymaga ciągłego pobierania rozkazów i w małym stopniu korzysta z danych, dostępna pamięć podręczna zapełni się w większości rozkazami. Oddzielna cache dla danych w takiej sytuacji pozostałaby niewykorzystana. Drugą zaletą jest to, że upraszcza się układ procesora - łatwiej jest zrealizować w jego strukturze jeden bufor pamięci cache niż dwa.

---

Serwis Laptopów Katowice


Artykuł pochodzi z serwisu www.Artelis.pl

Pamięci RAM- przerwanie

Pamięci RAM- przerwanie

Autorem artykułu jest RatujPC



Przerwanie (ang. interrupt) lub żądanie przerwania (IRQ – Interrupt ReQuest) – sygnał powodujący zmianę przepływu sterowania, niezależnie od aktualnie wykonywanego programu.

Pojawienie się przerwania powoduje wstrzymanie aktualnie wykonywanego programu i wykonanie przez procesor kodu procedury obsługi przerwania (ang. interrupt handler).

Przerwania dzielą się na dwie grupy:

Sprzętowe: Zewnętrzne – sygnał przerwania pochodzi z zewnętrznego układu obsługującego przerwania sprzętowe; przerwania te służą do komunikacji z urządzeniami zewnętrznymi, np. z klawiaturą, napędami dysków itp.Wewnętrzne, nazywane wyjątkami (ang. exceptions) – zgłaszane przez procesor dla sygnalizowania sytuacji wyjątkowych (np. dzielenie przez zero); dzielą się na trzy grupy: faults (niepowodzenie) – sytuacje, w których aktualnie wykonywana instrukcja powoduje błąd; gdy procesor powraca do wykonywania przerwanego kodu wykonuje tę samą instrukcję która wywołała wyjątek;traps (pułapki) – sytuacja, która nie jest błędem, jej wystąpienie ma na celu wykonanie określonego kodu; wykorzystywane przede wszystkim w debugerach; gdy procesor powraca do wykonywania przerwanego kodu, wykonuje następną, po tej która wywołała wyjątek, instrukcję;aborts – błędy, których nie można naprawić. Programowe – z kodu programu wywoływana jest procedura obsługi przerwania; najczęściej wykorzystywane do komunikacji z systemem operacyjnym, który w procedurze obsługi przerwania (np. w DOS 21h, 2fh, Windows 2fh, Linux x86 przerwanie 80h) umieszcza kod wywołujący odpowiednie funkcje systemowe w zależności od zawartości rejestrów ustawionych przez program wywołujący, lub oprogramowaniem wbudowanym jak procedury BIOS lub firmware.

W następnym artykule trochę więcej w temacie.

---

Obsługa Informatyczna


Artykuł pochodzi z serwisu www.Artelis.pl

Sieci komputerowe- omówienie ogólne- część 1

Sieci komputerowe- omówienie ogólne- część 1

Autorem artykułu jest RatujPC



Internet jest siecią komputerową. Sieć komputerowa jest zespołem komputerów pracujących w grupie, połączonych
na różne sposoby (konfiguracje połączeń komputerów sieci nazywa się fachowo topologią), które mogą się ze sobą komunikować.

W najprostszym przypadku sieć można porównać do prymitywnych lampek choinkowych, które połączone są jedna z drugą, a awaria jednej lampki unieruchamia wszystkie pozostałe. Prąd w takich lampkach płynie przez każdą z osobna, zanim dotrze do ostatniej – i na odwrót. Jeśli zechcesz przesłać jakiekolwiek dane do użytkownika znajdującego się na końcu sieci lub z końca na początek, będę one musiały „przewędrować” po kolei przez każdy komputer, zanim dotrą do ostatecznego adresata. Zatem uszkodzenie jednego stanowiska będzie wiązało się z wyłączeniem z działania wszystkich pozostałych maszyn.

Poniższa ilustracja przedstawia opisywany problem:

sieć

Każde stanowisko działa wedle własnego uznania, musi być wyposażone we w pełni funkcjonalne programy i zabezpieczenia. Jest to rozwiązanie bardzo mało odporne na awarie oraz mało wydajne ekonomicznie. Co zapewne cieszy serwisy komputerowe.

sieci lan

Wystarczy, że niesforny gryzoń przegryzie okablowanie, żeby do czasu
rozwiązania problemu sieć musiała zostać wyłączona.

Obecnie jednak mamy do czynienia z lampkami, które mogą działać nawet z kilkoma przepalonymi lub brakującymi żarówkami. Również sieć komputerowa działająca na zasadzie nowocześniejszych lampek choinkowych jest o wiele wydajniejsza niż ta pierwsza. W takim przypadku zainfekowanie wirusem jednej maszyny nie musi wcale oznaczać awarii całej sieci, gdyż odpowiednio wcześnie odłączony komputer nie będzie zakłócał pracy pozostałych. Bardzo ważną różnicą
między opisywanymi rodzajami sieci jest sposób zarządzania ich działaniem. W pierwszym przypadku brakuje czegoś odpowiedzialnego za koordynację działania sieci – każdy komputer sobie rzepkę skrobie. To trochę tak, jakby człowiek był w stanie żyć bez głowy i nie miał kontroli nad poszczególnymi częściami ciała, które same robiłyby,
co by chciały. Drugi przypadek sieci to już człowiek z głową, której funkcję pełni centralny komputer, zwany serwerem. Spójrz na poniższe ilustracje:
sieci z serwerem

Taka konstrukcja daje możliwość przechowywania głównych programów oraz
danych w jednym centralnym miejscu, dzięki czemu są one dostępne dla
wszystkich użytkowników sieci.

---

Pomoc Drogowa Katowice


Artykuł pochodzi z serwisu www.Artelis.pl

Sieci komputerowe- omówienie ogólne- część 2

Sieci komputerowe- omówienie ogólne- część 2

Autorem artykułu jest RatujPC



Na serwerze, podobnie jak w głowie, znajdują się wszystkie potrzebne innym maszynom dane, o które muszą one „poprosić” komputer centralny. Po otrzymaniu „prośby” serwer wysyła poszczególnym komputerom dane, o które one „prosiły”.

W zależności od liczby „próśb” poszczególnych komputerów, dane przesyłane są wolniej lub szybciej – mówimy, że serwer jest mało obciążony lub bardzo obciążony. Należy zwrócić uwagę, że szybkość wysyłania informacji jest uzależniona nie tylko od ilości „próśb” kierowanych do serwera, ale też od sposobu połączenia komputerów z centralną maszyną. Sposób połączenia to rodzaj kabli fizycznie użytych przy konstrukcji sieci, który charakteryzuje się określoną przepustowością (dalej będę określał przepustowość jako szerokość danego połączenia, przez które przepływają informacje; wygodnie jest wyobrazić sobie łącze sieciowe jako rurę, a informacje jako wodę – im większą średnicę ma rura, tym więcej wody może nią popłynąć). Główne komputery w sieci są zazwyczaj połączone najszerszymi łączami, natomiast cała reszta nieco węższymi. Im węższe łącze, tym wolniej przepływają wspomniane listy elektroniczne oraz jakiekolwiek inne zasoby – zdjęcia, filmy,muzyka.

W tym miejscu możesz się zacząć zastanawiać, jak to jest, że zasoby i informacje mogą zmieścić się w pojedynczym kablu. Wyjaśnienie tego problemu wymagałoby sporo czasu, dlatego ograniczę się do porównania przesyłania danych kablami do nowego środka lokomocji (nie przeznaczonego niestety dla ludzi), który jest o wiele szybszy niż samochody i samoloty. Samochód podczas jazdy napotyka na swojej drodze przeszkody, przez które musi zwalniać, aby się z nimi nie zderzyć, natomiast jedynym ograniczeniem samolotu jest opór powietrza. W obydwu przypadkach występują jakieś niekorzystne warunki, które przeszkadzają w szybkości podróży bądź przelotu. Tylko i wyłącznie na potrzeby zrozumienia pewnych treści chciałbym, abyś przyjął, że informacje, które płyną kablami, poruszają się bez oporu, dlatego są w stanie tak szybko dotrzeć do adresata. Sieci komputerowe są naprawdę obszernym tematem, któremu poświęcono wiele książek. Mam nadzieję, że do tego miejsca udało Ci się, w mniejszym lub większym stopniu, zrozumieć ich działanie. Nie martw się, jeśli nadal nie czujesz się zbyt pewnie w tej tematyce, nie musisz jej wcale znać, aby móc korzystać z Internetu. Możesz jednak sobie pogratulować, ponieważ odważyłeś się na zaznajomienie z wiedzą, której przeważająca część polskich seniorów się boi lub twierdzi, że nie jest im ona do niczego przydatna. Zapoznanie się z nią miało na celu jedynie poszerzenie Twojego postrzegania nowoczesnych sposobów komunikowania się.

---

Serwis Komputerowy Katowice


Artykuł pochodzi z serwisu www.Artelis.pl

Dyski Twarde- pamięć masowa - część 1- historia

Dyski Twarde- pamięć masowa - część 1- historia

Autorem artykułu jest RatujPC



Historia pamięci masowych sięga połowy dziewiętnastego wieku – już wtedy używano kart perforowanych do wprowadzania danych do mechanicznych maszyn liczących.


Pierwsze elektroniczne komputery korzystały z pamięci zbudowanej z lamp elektronowych, potem zaczęły pojawiać się różnej maści pamięci magnetyczne – bąbelkowe, taśmowe, bębnowe. Pierwszy w historii twardy dysk pojawił się w 1957 roku. Wtedy to IBM zaprezentował urządzenie o nazwie RAMAC 350 – złożony z pięćdziesięciu 24-calowych dysków zespół miał pojemność 5 MB, a koszt jego rocznej dzierżawy wynosił 35 tys. dolarów; jak nietrudno policzyć, oznaczało to 7 tys. dolarów za megabajt... W epoce maszyn mainframe budowano całe „farmy dysków” z zamkniętymi w klimatyzowanych pomieszczeniach zestawami talerzy o średnicach 14 czy 8 cali, wartymi grube dziesiątki tysięcy dolarów. Pojawienie się IBM PC w roku 1981 wcale nie zapowiadało rewolucji w dziedzinie pamięci masowych – system operacyjny „prapeceta” zawierał procedury obsługi pamięci w postaci magnetofonu kasetowego, choć oczywiście istniała także możliwość korzystania ze stacji dyskietek. Lista opcjonalnego wyposażenia IBM PC/XT z roku 1983 obejmuje już twardy dysk o pojemności 5 lub 10 MB – ówczesne napędy o znajomej średnicy 5,25" miały wysokość trzech cali (podobnie zresztą, jak wczesne stacje dyskietek) i stąd właśnie określenie „full height” (współczesny czytnik CD-ROM to „half height”). W roku 1984 Western Digital skonstruował - dzierżący przez kilka lat godność „standardu przemysłowego”, zastosowany w IBM PC/AT interfejs ST506, zaś w 1986 – opracowany do spółki z firmą Compaq dobrze nam znany interfejs IDE (Integrated Drive Electronics). Mniej więcej rok później w komputerach stacjonarnych zaczęto instalować dyski 3,5" (o wysokości 1", czyli „low profile”) – dopiero potem znalazły one zastosowanie w przenośnych laptopach. Postęp technologii powodował ciągły wzrost pojemności i szybkości urządzeń, przy jednoczesnym spadku zapotrzebowania na energię, coraz mniejszej hałaśliwości i większej niezawodności. Wyniki tego wyścigu obserwujemy na co dzień.

W dwudziestoletniej historii PC najbardziej eksponowany był zawsze postęp technologii półprzewodnikowej. Postęp w innych, bezpośrednio z nią związanych dziedzinach technologii był zawsze mniej eksponowany – w ciągu tego samego czasu, gdy stopniowo dokonywano 100-krotnego przyspieszania zegara procesora, pojemność typowego dysku stałego wzrosła 1000-krotnie. Dysk stały, dopóki działa i do momentu, gdy mieszczą się na nim bez kłopotów nasze dane i programy, rzadko bywa przedmiotem szczególnego zainteresowania. Tylko w momencie zakupu staramy się uzyskać możliwy kompromis pomiędzy pojemnościami – dysku i portfela, później dysk schodzi do swojej służebnej roli. Tymczasem od pojemności i szybkości dysku zależy wydajność komputera i wygoda jego użytkowania, a niezawodność dysku to w wielu przypadkach sprawa nie tylko bardzo ważna, ale wręcz kluczowa. Przeciętny użytkownik komputera traktuje dysk jako „czarne pudełko” zdolne do zapamiętania pewnej ilości danych – im więcej, tym lepiej. Bardziej dociekliwi zwracają uwagę również na jego parametry wydajnościowe – średni czas dostępu do danych oraz szybkość odczytu i zapisu. Parametry eksploatacyjne każdego urządzenia wynikają z jego konstrukcji, dlatego najdociekliwsi użytkownicy lubią wiedzieć również, co jest wewnątrz „czarnego pudełka” i jak to działa.

---

Pomoc Drogowa Katowice


Artykuł pochodzi z serwisu www.Artelis.pl

Dlaczego Linux ?

Dlaczego Linux ?

Autorem artykułu jest RatujPC



Dlaczego warto przesiąść się na linuxa-- dla każdego może być to coś innego , dla jednych daltego że to już nudne przechodzić 100 raz quake , dla innych z powodu poznania czegoś nowego ,czegoś ciekawego ,czegoś innego ,a może po prostu dla większego konfortu ?

Linux nie zawiesza się tak często jak windows (ale się zawiesza) większość programów jest darmowa, coraz więcej znanych firm angażuje się w rozwuj linux-a ,więc dlaczego nie spróbować .
Jeśli mamy modem w swoim kompie to spokojnie możemy instalować linux-a ponieważ na wszystkie problemy jest rozwiązanie w sieci jest wiele kanałów irc, -poświęconych linux-owi ,na których też możemy popytać o pomoc .Nie chce krytykować windowsa ponieważ sam siedziałem na nim dłuższy czas -ale on po jakimś czasie przestaje bawić , prawdą jest że musimy dać coś za coś tak więc przesiadając się na linux-a musimy zrezygnować z gier (chodź nie koniecznie możemy mieć też windowsa i linux-a na jednej partycji - ale to już nie to samo:-). ale dostajemy za to profesjonalny system nafaszerowany programami sieciowymi ,na linux-ie możemy prawie wszystko zrobić o czym słyszeliśmy
np:Jeśli mieszkasz na osiedlu (lub w bloku) a niedaleko ciebie kumple z kompami możecie założyć lokalną sieć gdzie twój komputer może służyć jako server ,do obioru poczty, server www, server irc, i wiele innych .
Na początku zanim przesiądziesz się na linux-a proponuje ci zainstalowanie windowsa i linux-a ,zanim się przyzwyczaisz do tego systemu ,a gdy upłynie kilka miesięcy zapewniam cię że windows zniknie z twojego dysku. .Oczywiście jeśli interesuje cię coś innego poza graniem , bo mam kumpli którzy by tylko grali - a to jest prawie jedyna rzecz jakiej musisz się wyżec jak zainstalujesz linux-a . Jeśli lubisz oglądać filmy jest kilka odtwarzaczy ustępujących windows-sowskim a powiedział bym że nawet przewyszające te na windows-a ,jest też duża liczba otwarzaczy mp3 (xmms -bardzo podobny do winap-a )programów do odbioru poczty jest mnóstwo tak samo jak programów biurowych
Ale to już wasz wybór czy zainstalujecie linux-a czy pozostaniecie przy windows-sie.

W razie problemów serwis komputerowy służy pomocą.

---

Serwis Laptopów Katowice


Artykuł pochodzi z serwisu www.Artelis.pl

Kompilacja jądra - Linux

Kompilacja jądra - Linux

Autorem artykułu jest RatujPC



Jądro (ang. kernel) jest główną częścią systemu Linux. Pierwsze jądro zostało stworzona przez Linusa Torwaldsa. Obecnie rozwijane jest przez ludzi z całego świata.

Teraz z każdą dystrybucją Linuksa dostajemy gotowe, skompilowane "fabrycznie" jajko. Nadchodzi moment kiedy musimy samemu skompilować jego najnowszą wersję. Kiedy samemu je kompilujemy możemy odrzucić niepotrzebne funkcje, czym przyśpieszymy jego działanie oraz zmniejszymy rozmiary. Nowsze wersje przeważnie posiadają nowe sterowniki, poprawione błędy i więcej funkcji. Własnoręczna kompilacja jest zalecana, gdyż jądra gotowe są raczej przygotowane pod kątem wieleplatformowości, a nie szybkości.

Najpierw musimy zdobyć najnowszą wersję jajka. Najlepszym miejscem w sieci jest serwer ftp ftp://ftp.pl.kernel.org"/. Jeżeli łączymy się za pomocą modemu nie jest dobrym
pomysłem ściągać je z sieci, gdyż jego wielkość to ok. 20 Mb (spakowane!). Wtedy jedynym wyjściem jest kupno pisma z kompaktem, na którym jest jądro, lub zgranie go
od kolegi, który ma łącze stałe. Spakowane jądro ma nazwę linux-X.Y.Z.tar.gz. X i Z oznaczją konkretne numery wersji jajka. Y oznacza czy jest to wersja stabilna, czy
rozwojowa. Jeżeli ta liczba jest parzysta, to wersja jest stabilna. Gdy jest liczbą nieparzystą, jądro jest rozwojowe.

Spakowany plik zgrywamy do katalogu /usr/src. Jeżeli w /usr/src posiadamy katalog linux, to musimy go skasować lub zmienić mu nazwę. Rozpakowywujemy jądro: tar
-zxf linux-X.Y.Z.tar.gz. Spakowany plik nie będzie nam już potrzebny, więc go kasujemy rm linux-X.Y.Z.tar.gz. Wchodzimy do katalogu linux. Teraz musimy dostosować
konfigurację do własnych potrzeb. Do tego celu możemy się posłużyć jednym z trzech programów:

make config - najprostszy ze wszystkich. O każdą opcję będziemy osobno pytani.
make menuconfig - będziemy konfigurować jajko przy pomocy ładnego i intuicyjnego interfejsu
make xconfig - jeżeli używamy X Window, to możemy użyć programu w trybie graficznym

Po wpisaniu jednego z powyższych poleceń dostosowywujemy konfigurację do swoich potrzeb/upodobań. Jeżeli obok opcji są nawiasy kwadratowe, to oznacz że daną
funkcję możemy wkompilować w jądro, lub nie. Jeżeli są nawiasy trójkątne możemy skompilować daną funkcję w postaci modułu (). Moduły nie zwiększają objętości
jądra, mogą być dynamicznie ładowane kiedy będą potrzebne. W ten sposób nie zajmują miejsca w pamięci. Jak już skończymy, to wychodzimy z programu i wydajemy
polecenia make dep i make clean. Jądro kompilujemy poleceniem make zImage. Podczas kompilacji, może się okazać, że jajko zajmuje za dużo miejsca i musimy wydać
polecenie make bzImage, aby stworzyć wersję skompresowaną. Skompresowane jądro same się rozpakuje do pamięci podczas uruchomienia systemu. Jeżeli od razu
chcemy wygenerować skompresowane jądro, wystarczy zamiast make zImage wpisać make bzImage.

Mamy już nowe jądro. Teraz musimy skompilować i zainstalować moduły. Robimy to dwoma poleceniami: make modules i make modules_install. Teraz powinniśmy
utworzyć plik /lib/modules/WERSJA_KERNELA/modules.dep dla właśnie skompilowanych modułów, robimy to poleo poleceniem depmod -a. Ten plik jest używany m.in. przez
program modprobe, określa zależności między modułami, czyli jakich modułów wymaga inny moduł, coś podobnego jak z pakietami.

Skompilowane jajko jest w katalogu /usr/src/linux/arch/i386/boot/zImage lub /usr/src/linux/arch/i386/boot/bzImage, jeżeli tworzyliśmy je poleceniem make bzImage.
Jądro kopiujemy np. do /boot/vmlinuz-nowe i ustawiamy tak naszego bootloader'a, aby można było uruchomić system z nowym jądrem. Warto na jakiś czas zostawić
możliwość uruchomienia systemu ze starym jajkiem, gdyby nowe się nie sprawdziło. Kiedy nowe jądro okaże się dobre, możemy skasować stare i jego moduły z katalogu
/lib/modules/X.Y.Z.

W niektórych sytuacjach będziemy zmuszeni do użycia łat (ang. patch) na jądro. Łaty umożliwiają wkompilowanie w jądro dodatkowego kodu, który udostępnia różne
funkcje. Może to być łata umożliwiająca obsługę JFS (system księgowania plików), lub zapewniająca większe bezpieczeństwo. "Łatania" dokonujemy przed
skonfigurowaniem jądra. Zgrywamy łatę do katalogu /usr/src. Jeżeli jest spakowana gzipem, to najpierw ją rozpakowywujemy gunzip plik_z_łatą.gz, a później wydajemy
polecenie: patch -p0 < plik_z_łatą. Po "załataniu" postępujemy jak przy normalnej kompilacji jądra.


---

Serwis Laptopów Katowice


Artykuł pochodzi z serwisu www.Artelis.pl

Linuks- pytania i odpowiedzi- część 3

Linuks- pytania i odpowiedzi- część 3

Autorem artykułu jest RatujPC



Ostatnia już w tym cyklu część pytań i odpowiedzi dla użytkowników ( lub przyszłych użytkowników) Linuksa. Zapraszam do zapoznania się z pytaniami i odpowiedziami.

Które pakiety instalować ?

Wszystkie. Tak tak, jeżeli jesteś początkującym linuksowcem nie zastanawiaj się ani chwili. Dlatego właśnie zalecałem Ci wcześniej zrobienie aż pięciogigabajtowej partycji. Na niej zmieści się raczej każda cała dystrybucja. Później, gdy już rozeznasz się w linuksie i będziesz wiedział co Ci jest potrzebne, będziesz wybierał pakiety do instalacji. Zresztą po zainstalowaniu zawsze możesz 'odinstalować' niepotrzebne Ci pakiety. Teraz instaluj wszystko - przynajmniej rozejrzysz się, jakie niekiedy dziwne programy masz w dystrybucji ;-).

Jak to w końcu jest z tym lilo ?

Istnieją różne szkoły instalowania lilo. Jedni mówią, by instalować w rekordzie startowym dysku (boot record), inni że nie, że na partycji aktywnej. Ja zalecam jednak instalowanie w boot record. ma to swoją wadę - gdy później zainstalujesz Windows zniknie Ci możliwość wyboru systemu. Co wtedy? Uruchom system z płyty lub dyskietki, podmontuj system plików i zainstaluj jeszcze raz lilo. U mnie (Slackware) sprowadza się to do uruchomienia z płyty, podczas startu podaję 'linux root=/dev/hda3', bo na hda3 mam linuksa. System się uruchamia, sam podmontowuje partycję root i po zalogowaniu się na użytkownika root wpisuję 'lilo' i enter. I już mam, jak miałem wcześniej. Gdybyś natomiast chciał usunąć lilo z boor recordu, to uruchom Windows i wpisz 'fdisk /mbr'. Odświeży tre boot record i lilo zniknie.

W konfiguracji lilo możesz podać wiele różnych systemów startowych oraz wiele innych opcji - np. czas, po którym automatycznie uruchomi się 'difoltowy' :P (dafault - standardowy, podstawowy, domyślny) system, ilość pamięci systemu czy tryb karty graficznej, w jakim uruchomi się linuks. O tym wszytskim później.

Restart systemu - a co jeśli nie zadziała ?

A nic, nie martw się. Jeżeli nie startuje linuks lub w ogóle widzisz jakieś LI.. i i nic więcej na ekranie, uruchom komputer z płyty czy dyskietki tak, jako opisałem w poprzednim punkcie i zainstaluj lilo jeszcze raz, może automatycznie albo w trybie expert. O dane się nie martw, one nie zginęły. Jeżeli nie pomoże, przejdź do jednej z następnych części faq, może tam znajdziesz odpowiedź. W najgorszym razie uruchom z Windows 'fdisk /mbr' i Windows będzie działał. A do linuksa się nie zrażaj - pamiętasz jak pierwszy raz instalowałeś Windows?

---

Serwis Komputerowy Katowice


Artykuł pochodzi z serwisu www.Artelis.pl

Linuks- pytania i odpowiedzi- część 2

Linuks- pytania i odpowiedzi- część 2

Autorem artykułu jest RatujPC



Druga odsłona pytań i odpowiedzi na nurtujące użytkowników pytania w kwestii MS Windows i Linux. Jeśli nie znajdziecie tego co potrzebujecie- na pewno będzie to zawarte w poprzednich lub następnych artykułach.

Czy mogę mieć linuksa i MS Windows na jednym dysku ?

Jeśli chodzi o mnie, to mi to nie przeszkadza ;-). A tak na poważnie - oczywiście możesz. Właśnie temu służy lilo, byś mógł załadować jeden z kilku zainstalowanych systemów. Co więcej, będziesz mógł korzystać z partycji z Windows pod linuksem, odczytywać z niej dane i zapisywać na niej. Linux obsługuje kilkadziesiąt systemów plików. Mam nadzieję, że po kilkukrotnym zajrzeniu na moją stronę i kilkumiesięcznej pracy z linuksem pozostaną Ci tylko dwie partycje na dysku. Z czego jedną będzie swap...

Jak podzielić dysk na partycje ?

Co do tej sprawy zdania są podzielone. Moja rada jest następująca: zostaw sobie Windows na pierwszej partycji, zajmującej pewną część dysku, tak, by zostało Ci około 5 gigabajtów wolnego miejsca. To wolne miejsce przeznacz na dwie partycje - linuksa i swap. Najpierw zainstaluj Windows. Później po uruchomieniu linuksa z płyty czy dyskietki uruchom program fdisk służący właśnie do podziału dysku. Tu mała dygresja - fdisk nie jest jedynym linuksowym programem tego typu. Istnieje bardziej przyjazny cfdisk oraz DiskDruid. Podejrzewam, że są także inne. Jednak polecam fdisk. Koniec dygresji. Fdisk uruchom poleceniem fdisk /dev/hda. /dev/hda oznacza tu pierwszy dysk na pierwszej szynie IDE. Jeżeli masz jeden dysk (a pewnie tak jest) zrób własnie w ten sposób. Zobaczysz zachętę do podania komendy. Podaj na początek 'm' i wciśnij enter. Widzisz pomoc. Co nas interesuje? Ano trzeba dodać partycję. Ale najpierw zobaczmy, co juz mamy na dysku. Więc 'p' i enter. O - jest już coś. A co to jest /dev/hda1? No nie. Przecież już wiesz, że /dev/hda oznacza pierwszy dysk na pierwszym interfejsie IDE. A ta jedynka to numer partycji. System plików jak widzisz na końcu, to WIN95 FAT32. Więc dodajemy naszą partycję - wciskamy 'n' i enter. Podaj numer partycji od 1 do 4. Pierwszą już mamy, więc chyba 2? '2' i enter. Rodzaj partycji - primary lub logical. Proponuję na początek primary. Ok. Teraz wymiary partycji. Wielkość partycji możesz podać w blokach lub megabajtach. Podaj taki, by zostało Ci około 120 MB na partycję swap. Ok. Już jest. Teraz swap. Znowu 'n', enter, numer 3, rodzaj jak poprzednio, początek i koniec (możesz klepnąć enter) i już masz. Daj teraz 'p'. Widzisz, że są trzy? Ale czemu dwie typu 'Linux native'? Własnie. Wciśnij 't', podaj numer partycji identyfikator partycji swap - czyli 82. Enter. Znowu 'p'. O już jest. Jeżeli się pomyliłeś, naciśnij CTRL+c lub 'q' i enter. Wyjdziesz bez zapisania danych. Dobrze jest? No to zapisujemy konfigurację. 'w', enter czyli zapisz i wyjdź. Już mamy swoje partycje. Teraz możesz przejść do dalszej części instalacji - 'setup' i enter.

Gdy będziesz bardziej zaawansowanym użytkownikiem dysk podzielisz troszkę inaczej. Katalogi domowe użytkowników będziesz trzymał na oddzielnej partycji, na oddzielnej będziesz także trzymał logi systemu. Na razie uznaj, że taki podział jest najlepszy.

Jeszcze jedna dygresja. Niektóre nowe dystrybucje (a w zasadzie większość) posiadają graficzne instalatory, do tego po polsku. Powyższy opis przedstawia w zasadzie samo posługiwanie się fdiskiem. Jeżeli będziesz instalował np. Mandrake w wersji 8, to standardowo dostępny będzie graficzny instalator z polskimi komunikatami (o ile wybierzesz język polski). Tam znajdziesz wskazówki, jak to zrobić w Twojej dystrybucji.

Z płyty, dyskietki, inaczej ?

Linuksa możesz instalować na kilka sposobów. Możesz uruchomić komputer z płyty startyjącej, możesz uruchomić z dyskietek. Jeżeli masz w miarę nowy sprzęt to nie będzie problemu z uruchomieniem systemu z płyty (musisz ustawić kolejność startowania w biosie). Jest to sposób najprostszy, ale nie dla każdego dostępny. Jeżeli Twój komputer nie ma możliwości uruchomienia z płyty, to musisz zrobić dyskietki startowe. Dokładny opis jak to zrobić znajdziesz w głównym katalogu na płycie z linuksem. Pokrótce powiem jak to zrobić, ale ogólnie. Więc będziesz potrzebował dwie czyste dyskietki. Na płycie znajdziesz program 'rawrite.exe'. Jest on przeznaczony do uruchomienia w DOSie, ale w Windows też nie będzie problemu. Niektóre dytrybucje mają odpowiednik tego programu dla Windows - z okienkami i bajerami. Idea jest taka. Robisz jedną dyskietkę typu 'boot', drugą typu 'root'. W Slackware obrazy dyskietek masz w katalogach '/bootdsks.144' i '/rootdsks.144'. Jeżeli masz standardowe urządzenia w komputerze (zwykłe dyski IDE, cdrom IDE, kolorową kartę grafiki :P) to obrazy robisz z plików 'bare.i' i 'color.gz'. Czyli 'rawrite bare.i a:' i enter oraz 'rawrite color.gz' i enter. Pierwsza dyskietka będzie startową, drugą włożysz do stacji gdy Cię o to system poprosi. Płytę trzymaj w cdromie, z niej będzie instalował się system. Po włożeniu drugiej dyskietki i wczytaniu jej przez system zostaniesz poproszony o podanie hasła roota, wciśniesz enter i już możesz 'partycjonować' dysk.

Istnieje też możliwość instalacji całego linuksa z dyskietek (stanowczo odradzam) oraz z sieci lokalnej i z internetu. Wskazówki, jak to zrobić, znajdziesz na plycie z dystrubucją linuksa. Jeżeli masz niestandardowe urządzenia, odpowiednie dla nich obrazy dyskietek też znajdziesz na płycie. Celowo nie zamieszczam dokładnego opisu - jest on, jak to już kilka razy uparcie powtórzyłem, na płycie.

---

Pomoc Drogowa Katowice


Artykuł pochodzi z serwisu www.Artelis.pl