Co to jest e-atx. Najpopularniejsze typy płyt głównych. Standardowe złącza w obudowie ATX to

Nowoczesne współczynniki kształtu

ATX (Advanced Technology Extended) – ta forma komputerów stacjonarnych jest dominującym standardem w masowo produkowanych systemach komputerowych od 2001 roku. Była to pierwsza rewolucyjna zmiana w konstrukcji płyt głównych. Łączy w sobie najlepsze cechy standardów Baby-AT i LPX oraz zawiera wiele dodatkowych ulepszeń. Należy jednak pamiętać, że konstrukcja ATX nie jest fizycznie kompatybilna ani z Baby-AT, ani z LPX. Wymiary płyty 12x9,6 cala (lub 305x244 mm). Zasadniczo ATX to płyta Baby-AT leżąca na boku ze zmodyfikowanym złączem zasilania i innym umiejscowieniem zasilania. Architektura ta instalowana jest w jednostkach systemowych typu MiniTower i FullTower.

Pierwsza oficjalna specyfikacja ATX została opublikowana przez firmę Intel w lipcu 1995 roku w celu zastąpienia długo używanej płyty AT. Płyty główne ATX trafiły na rynek około połowy 1996 roku i szybko zastąpiły używane wcześniej płyty Baby-AT. W lutym 1997 ukazała się wersja 2.01 specyfikacji ATX, po której wprowadzono kilka kolejnych drobnych zmian. W maju 2000 roku ukazała się najnowsza (obecnie) rewizja specyfikacji ATX (zawierająca zalecenie PI Engineering Change Revision), która otrzymała numer 2.03. Firma Intel opublikowała szczegółową specyfikację ATX, otwierając ją w ten sposób dla producentów zewnętrznych i zasadniczo tworząc nowy standard branżowy ATX. Inne nowoczesne standardy (Micro-ATX, Flex-ATX, Mini-ATX - patrz rysunek 9) zwykle zachowują główne cechy ATX, zmieniając jedynie rozmiar płyty i liczbę gniazd rozszerzeń. Obecnie ta architektura jest najpopularniejszym formatem płyt głównych zalecanym dla większości nowych systemów.

Micro-ATX (µATX, mATX, uATX) – format płyty głównej o wymiarach 9,6 x 9,6 cala (244 x 244 mm). Wprowadzona przez firmę Intel w grudniu 1997 jako wersja mniejszej płyty ATX przeznaczonej dla małych i niedrogich systemów. Używany zarówno dla procesorów x86, jak i x64. Zmniejszenie rozmiaru standardowej płyty ATX doprowadziło do zmniejszenia rozmiaru obudowy, płyty głównej i zasilaczy, a ostatecznie do obniżenia kosztu całego systemu. Obudowa została opracowana z uwzględnieniem pełnej kompatybilności elektrycznej i mechanicznej z ATX. Płyty główne mATX można stosować w obudowach ATX, ale nie odwrotnie. Kiedy wypuszczane są płyty główne, płyty główne w formacie ATX i mATX są często wydawane na tym samym chipsecie, przy czym różnica zwykle polega na liczbie gniazd PCI i zintegrowanych urządzeń peryferyjnych. Następująca różnica jest bardzo powszechna: płyty mATX są produkowane z wbudowaną kartą graficzną, ATX - bez (mATX jest przeznaczony do pracy biurowej i generalnie nie jest przeznaczony do zastosowań w grach wymagających wydajnych kart graficznych).

Ta specyfikacja została opracowana przez firmę Intel w 1999 roku jako zamiennik formatu Micro-ATX. Obecnie aktualne, ale niepopularne. Flex-ATX definiuje rozmiar płyty głównej jako nie większy niż 9x7,5 cala lub 229x191 mm (ta płyta główna jest najmniejszą z rodziny ATX), a także umieszczenie na niej nie więcej niż 3 gniazd rozszerzeń. Flex-ATX jest zbudowany na tych samych podstawowych komponentach co ATX i Micro-ATX, ma układ otworów montażowych zgodny z Micro-ATX i ten sam układ złączy I/O co ATX i Micro-ATX, ale łączy wszystkie komponenty na mniejszej powierzchni . Podobnie jak Mini-ITX, Flex-ATX jest przeznaczony do komputerów przemysłowych.

W przeciwieństwie do innych, dość rygorystycznych specyfikacji, NLX zapewnia producentom znacznie większą swobodę w podejmowaniu decyzji. Rozmiary płyt głównych NLX wahają się od 8 x 10 cali do 9 x 13,6 cali (203 x 254 i 229 x 345 mm). Korpus NLX musi być w stanie obsłużyć oba te dwa formaty oraz wszystkie formaty pośrednie. Cechą szczególną obudowy NLX jest umiejscowienie portów USB na przednim panelu. Architekturę tę można wyróżnić także po rozmieszczeniu złączy portów I/O na tylnym panelu jednostki systemowej: po lewej stronie złącza są ułożone w jednym rzędzie, po prawej - po dwa. Niskoprofilowa obudowa miała zastąpić niestandardowy LPX. Został wprowadzony w listopadzie 1997 roku i szybko zyskał popularność na rynku komputerów stacjonarnych dla przedsiębiorstw. Konstrukcja ta jest podobna do pierwszego LPX i można ją uznać za ulepszoną wersję niestandardowego LPX. Jeśli na płytach LPX nie dało się zainstalować najnowszych procesorów ze względu na ich większe rozmiary i zwiększone odprowadzanie ciepła, to w rozwoju NLX problemy te zostały doskonale rozwiązane. Norma przeznaczona jest do stosowania w obudowach niskoprofilowych. Aby zainstalować kartę rozszerzeń, w specjalnym złączu na płycie instaluje się kartę w jodełkę z wieloma gniazdami rozszerzeń. Zapewniony jest AGP, chłodzenie jest lepsze niż LPX. Ale pomimo tych wszystkich zalet format nie stał się powszechny.

Standard został opracowany przez firmę Intel w 1998 roku specjalnie dla potężnych ówczesnych serwerów na platformie Xeon. Pomimo obecności w momencie pojawienia się standardu dwóch innych standardów współczynników kształtu - AT i ATX, których koncepcja umożliwiała zastosowanie zasilaczy o mocy wystarczającej do zaspokojenia potrzeb komputera PC, standardy te nie zostały wystarczy dla wydajnych stacji roboczych i serwerów. Dodatkowo w ich przypadku istniała ogromna potrzeba zapewnienia normalnego chłodzenia, wygodnej obsługi konfiguracji wieloprocesorowych, rozmieszczenia dużej ilości pamięci RAM, portów kontrolerów, urządzeń do przechowywania danych oraz portów I/O. W związku z tymi problemami stworzono specyfikację WTX, mającą na celu obsługę dwuprocesorowych płyt głównych o dowolnej konfiguracji i różnych technologiach kart graficznych i pamięci. Architektura ta jest znacznie większa niż płyty ATX (14 x 16,75 cala lub 355,6 x 425,4 mm), co umożliwiło umieszczenie dwóch lub więcej procesorów. Wersja 1.0 została wprowadzona we wrześniu 1998 roku, a w lutym następnego roku opracowano drugą wersję (1.1). Od tego czasu WTX nie był aktualizowany i zaprzestano wsparcia, ale architektura jest nadal powszechna.

Chipset płyty głównej CEB

Pełna nazwa projektu to SSI CEB (CEB – Compact BaySpecification). Jest to standardowa płyta główna dla wysokowydajnych stacji roboczych i serwerów średniej klasy. Płytka jest pochodną standardu ATX i ma wymiary 12x10,5 cala (305x267 mm). Standard został opracowany w 2005 roku wspólnie przez Intel, Dell, IBM i Silicon Graphics w ramach forum SSI (Server System Infrastructure). Ostatnią z trzech wersji standardu 1.1 opisano w Specyfikacji Compact Electronics Bay.

Kształt obudów komputerowych i płyt głównych jest jedną z ich znaczących cech. Ludzie często spotykają się z niezrozumieniem różnicy między ATX i mATX, zarówno podczas montażu nowego systemu, jak i modernizacji starego. Większość ludzi zna tylko te skróty, chociaż inne mogą pojawiać się w kontekście. Obydwa standardy są do siebie podobne i mają identyczne wymagania dotyczące szeregu cech wielu komponentów, dlatego warto rozważyć ATX i mATX konkretnie w odniesieniu do płyt głównych - tutaj decydujący będzie współczynnik kształtu.

Definicja

ATX— współczynnik kształtu pełnowymiarowych płyt głównych do komputerów stacjonarnych, który określa wymiary, liczbę portów i złączy oraz inne cechy. Jest to również współczynnik kształtu osobistych komputerów stacjonarnych, określający wymiary obudowy, lokalizację mocowań, rozmieszczenie, rozmiar i charakterystykę elektryczną zasilacza.

mATX- współczynnik kształtu płyt głównych o zmniejszonych wymiarach i zmniejszonej liczbie portów i interfejsów. Również - współczynnik kształtu obudów jednostek systemowych.

Porównanie

Różnica między ATX i mATX polega przede wszystkim na rozmiarze. Pełnowymiarowe płyty główne są instalowane w obudowach typu full-tower i midi-tower, płyty główne mATX są również instalowane w obudowach mini-tower. Standardowe wymiary płyt ATX to 305x244 mm, chociaż mogą mieć nieco mniejszą szerokość - do 170 mm. Standardowe wymiary płyt mATX (często nazywanych micro-ATX) to 244x244 mm, ale można je zmniejszyć do 170 mm. Normy nie są bardzo rygorystyczne, a różnica kilku milimetrów w stosunku do tego czy innego producenta jest powszechna i nie ma na nic wpływu. Ale miejsca do montażu są sztywno znormalizowane pod względem kształtu i absolutnie zawsze pokrywają się z otworami obudowy do montażu płyt głównych. Wizualnie określa się to następująco: pierwszy pionowy rząd otworów od wtyczki jest uniwersalny, drugi przeznaczony jest dla płyt mATX, a trzeci dla płyt ATX. W małych obudowach mATX nie da się zamontować płyty ATX, wręcz przeciwnie, w zdecydowanej większości przypadków instalacja nie sprawi trudności.

Kolejna różnica dotyczy liczby portów i interfejsów. Nie podlega to standaryzacji i pozostaje w gestii producenta, jednakże w większości płyty mATX posiadają minimalny zestaw dla dżentelmena: dwa, a nie jak w ATX cztery, sloty na pamięć RAM, mniej interfejsów SATA i USB, jedno wyjście wideo na tylny panel (jeśli tak), porty I/O, często łączone, minimum USB, najczęściej nie ma żadnych bajerów typu eSATA czy HDMI. Wszystkie dzisiejsze płyty główne są wyposażone w port Ethernet. Liczba gniazd PCI na płytach mATX jest minimalna, więc zainstalowanie karty graficznej i kilku dodatkowych kart rozszerzeń jest spełnieniem marzeń. Ponadto, ze względu na zmniejszenie powierzchni małych płytek, integracja jest zawsze istotna, a liczba lutowanych części jest mniejsza.

W praktyce użytkownik komputera nie znajdzie prawie żadnych różnic pomiędzy kształtami płyt głównych. Ze względu na niewielkie rozmiary obudów i „klastrowanie” elektroniki mATX, mATX może się bardziej nagrzewać, a instalowanie nowych podzespołów może być niewygodne ze względu na zaoszczędzoną przestrzeń.

Strona internetowa z wnioskami

  1. ATX jest większy zarówno jako obudowa płyty głównej, jak i obudowa.
  2. mATX ma ograniczoną funkcjonalność ze względu na zmniejszenie liczby portów i złączy.
  3. Płyty mATX można montować w obudowach ATX, a nie odwrotnie.
  4. W niektórych przypadkach mATX powoduje niedogodności podczas instalowania komponentów.
Pytanie: Jaka jest płyta główna?
Odpowiedź: Płyta systemowa (inaczej zwana płytą główną) jest głównym elementem każdego współczesnego komputera i łączy w sobie prawie wszystkie urządzenia wchodzące w jego skład. Podstawą płyty głównej jest zestaw kluczowych chipów, zwany także zestawem logiki systemowej lub chipsetem (więcej o tym poniżej). Rodzaj chipsetu, na którym zbudowana jest płyta główna, całkowicie determinuje rodzaj i liczbę podzespołów tworzących komputer, a także jego potencjalne możliwości. A przede wszystkim - rodzaj procesora. Mogą to być procesory „desktopowe” (od Desktop - procesory do komputerów stacjonarnych) - Intel Pentium/Celeron/Core, instalowane w Socket 370/478/LGA 775, AMD Athlon/Duron/Sempron - w Socket 462/754/939/AM2 . Ponadto w sektorze korporacyjnym można znaleźć wysokowydajne rozwiązania dwu-, cztero-, a nawet ośmioprocesorowe.

Płyta systemowa zawiera również:

  • Gniazda DIMM do instalacji modułów pamięci SDRAM/DDR/DDR2 (różne dla każdego typu pamięci). Najczęściej jest ich 3-4, choć na płytach kompaktowych można znaleźć tylko 2 takie sloty;
  • specjalistyczne złącze typu AGP lub PCI-Express x16 do instalacji karty graficznej. Jednak ostatnio, wraz z powszechnym przejściem na najnowszy typ interfejsu wideo, często można znaleźć płyty z dwoma, a nawet trzema złączami wideo. Istnieją również płyty główne (najtańsze) w ogóle bez złączy wideo - ich chipsety mają wbudowany rdzeń graficzny i zewnętrzna karta graficzna nie jest dla nich konieczna;
  • obok slotów na karty graficzne znajdują się zazwyczaj sloty do podłączenia dodatkowych kart rozszerzeń w standardzie PCI lub PCI-Express x1 (w przeszłości były też sloty ISA, ale obecnie takie karty to muzealna rzadkość);
  • Kolejną dość ważną grupą złączy są interfejsy (IDE i/lub nowszy Serial ATA) służące do podłączania dysków twardych i napędów optycznych. Jest jeszcze jeszcze złącze na stację dyskietek (dyskietka 3,5"), choć wszystko zmierza do tego, że wkrótce zostanie całkowicie porzucone. Wszystkie dyski podłączane są do płyty głównej za pomocą specjalnych kabli, potocznie zwanych też "pętlami" ;
  • w pobliżu procesora znajdują się złącza do podłączenia zasilania (najczęściej dwóch typów - 24-pin ATX i 4-pin ATX12V dla dodatkowej linii +12 V) oraz dwu-, trój- lub czterofazowy moduł regulacji napięcia VRM (Voltage Moduł Regulacyjny), składający się z tranzystorów mocy, dławików i kondensatorów. Moduł ten przetwarza, stabilizuje i filtruje napięcia dostarczane z zasilacza;
  • Tył płyty głównej zajmuje panel ze złączami do podłączenia dodatkowych urządzeń zewnętrznych - monitora, klawiatury i myszy, urządzeń sieciowych, audio, USB itp.
  • Oprócz powyższych gniazd i złączy każda płyta główna ma dużą liczbę pomocniczych zworek (zworek) i złączy. Mogą to być styki do podłączenia głośnika systemowego oraz przycisków i wskaźników na przednim panelu obudowy, a także złącza do podłączenia wentylatorów i kostki stykowe do podłączenia dodatkowych złączy audio oraz złączy USB i FireWire.

Każda płyta główna musi mieć specjalny układ pamięci, najczęściej instalowany w specjalnym gnieździe (w żargonie „łóżko”); jednak niektórzy producenci, aby zaoszczędzić pieniądze, wlutowują go w płytkę. Chip zawiera oprogramowanie układowe BIOS-u oraz baterię, która zapewnia zasilanie w przypadku utraty napięcia zewnętrznego. Zatem za pomocą wszystkich tych gniazd i złączy, a także dodatkowych kontrolerów, płyta główna łączy wszystkie urządzenia tworzące komputer w jeden system. Pytanie: Jakie rozmiary są dostępne na płytach głównych?
Odpowiedź: Płyty główne oprócz funkcjonalności różnią się między sobą również rozmiarem. Rozmiary te są znormalizowane i nazywane współczynnikami kształtu (Tabela 1):

Tabela 1

Obudowa określa nie tylko wymiary płyty głównej, ale także miejsce jej zamocowania do obudowy, lokalizację interfejsów magistrali, portów wejścia/wyjścia, gniazda procesora i gniazd pamięci RAM, a także rodzaj złącza do podłączenia zasilania dostarczać. Obecnie najpopularniejszym formatem jest ATX (Advanced Technology eXtended), którego wystarczająco duży rozmiar pozwala producentom zintegrować dużą liczbę funkcji z płytą główną. Potencjał mniejszych opcji ATX jest oczywiście znacznie niższy, jednak obecnie, gdy postęp w dziedzinie zintegrowanych kontrolerów różnego typu praktycznie zrównał ich podstawowe możliwości z rozwiązaniami dyskretnymi (głównie kontrolery sieciowe i audio, w mniejszym stopniu wideo ), większości niepozornych użytkowników typowych systemów biurowych (i nie tylko) niczego więcej nie potrzeba. Chociaż opcje mniejszych płyt będą pasować do standardowych obudów ATX, mają one największy sens, gdy są używane w kompaktowych obudowach Micro-ATX. Pytanie: Platforma Intel Viiv – co to jest?
Odpowiedź: Platforma sprzętowo-programowa dla „cyfrowego domu” Viiv (wymawiane „viv”), według firmy Intel, jest przeznaczona do użytku w multimedialnych centrach domowej rozrywki. Oprócz dużych możliwości oglądania filmów, telewizji, słuchania muzyki, pracy z obrazami cyfrowymi i grami, komputery zbudowane zgodnie z koncepcją Viiv powinny wyróżniać się „oswojonym” designem, pozwalającym organicznie wpasować się w design w domu, a także niski poziom hałasu przy wystarczającej wydajności. Aby system mógł nosić logo Intel Viiv, musi posiadać następujący zestaw komponentów:

  • dwurdzeniowy procesor Intel z rodziny Pentium D, Pentium Extreme Edition lub Intel Core 2 Duo;
  • płyta główna oparta na chipsecie Intel 975, 965 lub 945, obsługująca powyższe procesory, z odpowiednią wersją mostka południowego ICH7DH lub ICH8DH (specjalne wersje dla Digital Home);
  • Kontroler sieci Ethernet firmy Intel (Pro/1000 PM lub Pro/100 VE/VM, obecność modułu komunikacji bezprzewodowej nie jest wymagana);
  • Kodek Intel High Definition Audio i zestaw odpowiednich wyjść audio - 6 złączy RCA lub jedno cyfrowe SPD/F;
  • Dyski twarde SATA z obsługą NCQ;
  • Sterownik Intel Quick Resume Technology, zapewniający niemal natychmiastowe włączenie/wyłączenie komputera (jak w przypadku zwykłego urządzenia domowego);
  • system operacyjny Windows XP Media Center Edition z pakietem aktualizacji 2;
  • zestaw oprogramowania Intel Viiv Media Server umożliwiający wyszukiwanie i katalogowanie plików multimedialnych w Internecie, co według samego Intela może znacznie ułatwić życie przeciętnemu użytkownikowi.

Pilot zdalnego sterowania, choć nie jest obowiązkowym atrybutem platformy Viiv, jest jednak stosowany w systemach multimedialnych już od dłuższego czasu i bez wątpienia będzie poszukiwany w nowej platformie Intela. Pytanie: Platforma AMD Quad FX – co to jest?
Odpowiedź: Platforma Quad FX (dawniej 4x4) jest odpowiedzią firmy AMD na pojawienie się czterordzeniowych procesorów Intel Kentsfield i jest pozycjonowana przez producenta jako rozwiązanie dla entuzjastów użytkowników, którzy chcą osiągnąć maksymalną wydajność swoich systemów bez względu na cenę. AMD Quad FX, oparta na architekturze DSDC (Dual Socket Direct Connect), to dwuprocesorowa płyta główna przeznaczona do instalacji w jednym systemie pary dwurdzeniowych procesorów z rodziny Athlon 64 FX-7x (rdzeń Windsor 90 nm) w wersji Socket F, która umożliwia jednoczesną realizację czterech wątków obliczeniowych. Platforma Quad FX wykorzystuje niestandardowy chipset NVIDIA nForce 680a SLI, który obsługuje dwie magistrale graficzne PCI Express x16 i dwie PCI Express x8. Tym samym w systemie można zainstalować aż 4 karty graficzne NVIDIA w konfiguracjach Quad SLI lub SLI (w tym drugim przypadku wolne sloty można wykorzystać na akceleratory fizyki). AMD wiąże dalszy rozwój pomysłów wbudowanych w platformę Quad FX z platformą nowej generacji, znaną pod kryptonimem FASN8 (od słowa „fascynować”, co w języku angielskim oznacza „urzekać”). W odróżnieniu od Quad FX będzie wykorzystywał podzespoły wyłącznie własnej produkcji AMD – czterordzeniowe procesory Phenom FX, karty graficzne z rodziny Radeon HD 2xxx i odpowiadające im chipsety. Ponieważ w takim „uroczym” systemie będą działać jednocześnie dwa czterordzeniowe procesory, łączna liczba zaangażowanych rdzeni osiągnie osiem.

Chipsety

Pytanie: Co to jest chipset?
Odpowiedź: Chipset (ChipSet - zestaw chipów) lub zestaw logiki systemowej to jeden lub więcej chipów specjalnie zaprojektowanych w celu zapewnienia interakcji procesora ze wszystkimi innymi komponentami komputera. Chipset określa, jaki procesor może pracować na danej płycie głównej, rodzaj, organizację i maksymalną ilość wykorzystanej pamięci RAM (chyba że nowoczesne modele procesorów AMD mają wbudowane kontrolery pamięci), ile i jakie urządzenia zewnętrzne można podłączyć do komputera. 5 firm opracowuje chipsety do komputerów stacjonarnych: Intel, NVIDIA, AMD, VIA i SIS. Najczęściej chipset składa się z 2 układów scalonych, zwanych mostkami północnym i południowym. Mostek północny (lub w przypadku Intela MCH - Memory Controller Hub) zapewnia wzajemne połączenie pomiędzy procesorem (przez FSB - Front Side Bus), pamięcią RAM (SDRAM, DDR, DDR2 i w niedalekiej przyszłości DDR3), kartą graficzną (interfejsy AGP ) lub PCI Express) i poprzez specjalną magistralę z mostkiem południowym (mostkiem południowym, czyli ICH - I/O Controller Hub), w którym zlokalizowana jest większość kontrolerów interfejsów I/O. Niektóre mostki północne zawierają rdzeń graficzny korzystający z wewnętrznego interfejsu AGP lub PCI Express - chipsety te nazywane są zintegrowanymi.

Urządzenia wbudowane w mostek południowy obejmują kontrolery magistrali PCI (Peripheral Components Interconnect) i/lub PCI Express, napędy dyskowe (dyski twarde IDE i SATA oraz napędy optyczne), wbudowane kontrolery audio, sieciowe, USB i RAID. Most południowy zapewnia także normalną pracę zegara systemowego (RTC – Real Time Clock) i układu BIOS. Czasami istnieją chipsety składające się tylko z jednego chipa (chipsety jednoskładnikowe), łączące funkcjonalność obu mostków. Pytanie: Jakie chipsety produkuje Intel do swoich procesorów?
Odpowiedź: Obecnie dominującą pozycję w tym segmencie rynku zajmuje rodzina chipsetów Intel 965 Express, która oficjalnie obsługuje procesory Core 2 Duo/Extreme. Więcej informacji na temat tych chipsetów można znaleźć w artykule „Chipset Intel 96x: Opcje ustawień Core 2 Duo Diamond”.

Rodzina chipsetów Intel 3x (znana jako Bearlake) wkrótce zastąpi (lub uzupełni?) chipsety Intel 965 Express. Całkiem kompletna informacja na ich temat zawarta jest w artykule „Wszystko o chipsetach Intel z serii 3 Pytanie: Jakie inne chipsety są dostępne dla procesorów Intel?
Odpowiedź: Poważnym konkurentem Intela jest NVIDIA. Aktualna dzisiaj jest 600. seria chipsetów NVIDIA nForce, która obejmuje zarówno rozwiązania najwyższej klasy (nForce 680i SLI i 680i LT SLI), jak i średniej półki (nForce 650i SLI i 650i Ultra). Więcej o tych chipsetach i ich możliwościach w porównaniu z ich głównymi konkurentami możesz przeczytać w następujących artykułach:

  • Testy porównawcze chipsetów dla procesorów Intel;
Jeśli chodzi o innych uczestników rynku chipsetów do procesorów Intela, którzy do niedawna odgrywali na nim bardzo znaczącą rolę – firmy VIA i SiS – dziś ich rola jest dość skromna. Po „święcie gigantów” Intela i NVIDII pozostał im bardzo mały segment niedrogich rozwiązań budżetowych. O chipsetach do starszych procesorów Intel przeczytasz w artykule „Nowoczesne chipsety do procesorów Intel”. Pytanie: Jakie chipsety są dostępne dla procesorów AMD?
Odpowiedź: Jeśli na rynku chipsetów do procesorów Intel króluje dual power, to z chipsetami do procesorów AMD wszystko jest znacznie prostsze - dominacja tutaj produktów NVIDIA jest obecnie niezaprzeczalna. Wyższą i średnią klasę chipsetów NVIDIA reprezentują zarówno nForce z serii 600, jak i 500 (odpowiednio nForce 680a SLI, 590 SLI i nForce 570 SLI, 570 LT SLI, 570 Ultra, 560, 550, 520), a w dolnej , klasa budżetowa, w której dominują zintegrowane chipsety 6100/6150 i dyskretny nForce 520 LE. Więcej na ich temat przeczytasz w artykule „Testowanie porównawcze płyt głównych dla procesorów AMD Socket AM2”. Firmy VIA i SiS, jak to ostatnio przyjęło, są dość zadowolone ze swojego miejsca „w marginesach budżetowych” i nie pretendują do pełnienia jakiejś zauważalnej roli na rynku. To prawda, że ​​​​dzisiejsza „stagnacja” sytuacji może się zmienić - w końcu AMD po przejęciu ATI otrzymało do swojej dyspozycji dość poważny dział zajmujący się rozwojem logiki systemowej. I chociaż wszystkie własne osiągnięcia ATI w tej dziedzinie, pomimo ich całkiem przyzwoitego poziomu (w szczególności ATI CrossFire Xpress 3200), pozostają niczym więcej niż egzotyką, zespół AMD dokłada wszelkich starań, aby zostać liderem. Pierwszym krokiem w tym kierunku było wypuszczenie dość udanego chipsetu ze zintegrowaną grafiką (rdzeń wideo Radeon X1250 ze sprzętową obsługą DirectX 9.0) AMD 690G/690V, które są całkowitymi analogami dość popularnego mobilnego chipsetu Radeon Xpress 1150. A Unikalną cechą AMD 690G jest obsługa wyjścia sygnału wideo przez 2 niezależne wyjścia (HDMI, DVI i VGA), podczas gdy uproszczony AMD 690V wykorzystuje wyłącznie analogowy interfejs wideo VGA. Więcej o tym chipsecie i płytach głównych na nim opartych przeczytasz w artykule „Mards od MSI i ECS na chipsecie AMD 690G”. Pytanie: Co to jest Pierwszy Pakiet?
Odpowiedź: Technologia priorytetyzacji ruchu sieciowego FirstPacket jest stosowana w kontrolerach sieciowych chipsetów NVIDIA i zapewnia minimalizację opóźnień podczas przesyłania pakietów określonego strumienia ruchu sieciowego. Technologia ta w pewnym stopniu może kompensować niewystarczającą przepustowość komunikacji (co jest szczególnie ważne dla użytkowników domowych) w aplikacjach takich jak gry online i telefonia IP. Niestety technologia FirstPacket ma istotne ograniczenie - zapewnia jedynie „ruch jednokierunkowy” i jest skuteczna wyłącznie w przypadku przepływu danych wychodzących, natomiast ruch przychodzący jest zasadniczo poza jej kontrolą. Pytanie: Czy są jakieś korzyści z używania w twoim systemie chipsetu i karty graficznej tego samego producenta?
Odpowiedź: Chociaż producenci nowoczesnych chipsetów i kart graficznych (dziś jest ich tylko dwóch - NVIDIA i AMD) starają się w jakiś sposób „związać” klientów z całą gamą swoich produktów, oferując unikalne, autorskie funkcje, takie jak SLI czy CrossFire, większość użytkowników, szczerze mówiąc, jest mało prawdopodobne, kiedy zostaną wykorzystane? A w standardowej konfiguracji „jedna karta graficzna na płycie głównej” każdy chipset idealnie pasuje do dowolnej karty graficznej, niezależnie od jej producenta.

Pytanie: Jakie ograniczenia pamięci narzucają nowoczesne systemy operacyjne Windows?
Odpowiedź: Przestarzały, ale wciąż spotykany w niektórych miejscach, system operacyjny Windows 9x/ME może działać tylko z 512 MB pamięci. I chociaż konfiguracje o dużej wydajności są dla nich całkowicie możliwe, stwarzają one znacznie więcej problemów niż korzyści. Nowoczesne 32-bitowe wersje systemów Windows 2000/2003/XP i Vista teoretycznie obsługują do 4 GB pamięci, ale w rzeczywistości na aplikacje dostępne jest nie więcej niż 2 GB. Z kilkoma wyjątkami podstawowe systemy operacyjne Windows XP Starter Edition i Windows Vista Starter mogą pracować z nie więcej niż odpowiednio 256 MB i 1 GB pamięci. Maksymalny obsługiwany wolumin 64-bitowego systemu Windows Vista zależy od jego wersji i wynosi:
  • Domowy Podstawowy – 8 GB;
  • Domowa Premium – 16 GB;
  • Ostateczny – ponad 128 GB;
  • Biznes – ponad 128 GB;
  • Enterprise — ponad 128 GB.
Pytanie: Co to jest DDR SDRAM?
Odpowiedź: Pamięć typu DDR (Double Data Rate) zapewnia transmisję danych wzdłuż magistrali pamięci-chipsetu dwa razy na zegar, po obu stronach sygnału zegara. Zatem, gdy magistrala systemowa i pamięć działają z tą samą częstotliwością zegara, przepustowość magistrali pamięci jest dwukrotnie większa niż w przypadku konwencjonalnej pamięci SDRAM. W oznaczeniu modułów pamięci DDR wykorzystuje się zwykle dwa parametry: albo częstotliwość roboczą (równą dwukrotności częstotliwości zegara) - na przykład częstotliwość taktowania pamięci DR-400 wynosi 200 MHz; lub szczytowa przepustowość (w Mb/s). Ten sam DR-400 ma przepustowość około 3200 Mb/s, więc można go oznaczyć jako PC3200. Obecnie pamięć DDR straciła na znaczeniu i w nowych systemach jest prawie całkowicie zastępowana przez nowocześniejszą pamięć DDR2. jednakże, aby utrzymać na rynku dużą liczbę starszych komputerów z zainstalowaną pamięcią DDR, jej produkcja nadal trwa. Najpopularniejszymi 184-pinowymi modułami DDR są standardy PC3200 i, w mniejszym stopniu, PC2700. DDR SDRAM może mieć opcje zarejestrowane i ECC. Pytanie: Co to jest pamięć DDR2?
Odpowiedź: Pamięć DDR2 jest następcą pamięci DDR i jest obecnie dominującym typem pamięci w komputerach stacjonarnych, serwerach i stacjach roboczych. DDR2 jest przeznaczony do pracy na wyższych częstotliwościach niż DDR, charakteryzuje się niższym poborem energii, a także zestawem nowych funkcji (prefetching 4 bity na takt, wbudowana terminacja). Ponadto, w przeciwieństwie do chipów DDR, które były produkowane zarówno w pakietach TSOP, jak i FBGA, chipy DDR2 produkowane są wyłącznie w pakietach FBGA (co zapewnia im większą stabilność przy wysokich częstotliwościach). Moduły pamięci DDR i DDR2 nie są ze sobą kompatybilne nie tylko elektrycznie, ale także mechanicznie: DDR2 wykorzystuje paski 240-pinowe, podczas gdy DDR wykorzystuje paski 184-pinowe. Obecnie najpopularniejsza pamięć pracująca z częstotliwością 333 MHz i 400 MHz, oznaczona jest odpowiednio jako DDR2-667 (PC2-5400/5300) i DDR2-800 (PC2-6400). Pytanie: Co to jest pamięć DDR3?
Odpowiedź: Pamięć DDR trzeciej generacji - DDR3 SDRAM powinna wkrótce zastąpić obecną pamięć DDR2. Wydajność nowej pamięci podwoiła się w porównaniu z poprzednią: teraz każda operacja odczytu lub zapisu oznacza dostęp do ośmiu grup danych DDR3 DRAM, które z kolei są multipleksowane na pinach I/O przy użyciu dwóch różnych oscylatorów odniesienia przy czterech razy częstotliwość zegara Teoretycznie efektywne częstotliwości DDR3 będą zlokalizowane w przedziale 800 MHz - 1600 MHz (przy częstotliwościach taktowania 400 MHz - 800 MHz), zatem oznaczenie DDR3 w zależności od szybkości będzie wynosić: DDR3-800, DDR3-1066, DDR3 -1333, DDR3-1600 . Wśród głównych zalet nowego standardu warto przede wszystkim zwrócić uwagę na znacznie niższy pobór mocy (napięcie zasilania DDR3 – 1,5 V, DDR2 – 1,8 V, DDR – 2,5 V). Wadą DDR3 w porównaniu z DDR2 (a zwłaszcza w porównaniu z DDR) jest duże opóźnienie. Moduły pamięci DDR3 DIMM do komputerów stacjonarnych będą miały 240-pinową strukturę, znaną nam z modułów DDR2; jednakże nie będzie między nimi fizycznej kompatybilności (ze względu na „lustrzany” układ pinów i różne lokalizacje kluczy złączy). Aby uzyskać więcej informacji, zobacz artykuł z często zadawanymi pytaniami dotyczącymi pamięci DDR3. Pytanie: Co to jest pamięć SLI-Ready?
Odpowiedź: Pamięć SLI-Ready, zwana inaczej pamięcią z EPP (Enhanced Performance Profiles – profile zwiększające wydajność), stworzona przez działy marketingu firm NVIDIA i Corsair. Do chipa modułu SPD zapisywane są profile EPP, w których oprócz standardowych taktowań pamięci „przepisuje się” także wartość optymalnego napięcia zasilania modułów, a także niektóre dodatkowe parametry. Dzięki profilom EPP zmniejsza się pracochłonność niezależnej optymalizacji działania podsystemu pamięci, chociaż „dodatkowe” taktowania nie mają znaczącego wpływu na wydajność systemu. Dlatego nie ma znaczących korzyści z używania pamięci SLI-Ready w porównaniu z konwencjonalną, ręcznie optymalizowaną pamięcią. Pytanie: Co to jest pamięć ECC?
Odpowiedź: ECC (Error Correct Code) służy do korygowania losowych błędów pamięci spowodowanych różnymi czynnikami zewnętrznymi i jest ulepszoną wersją systemu „kontroli parzystości”. Fizycznie ECC jest zaimplementowany w postaci dodatkowego 8-bitowego układu pamięci instalowanego obok głównych. Zatem moduły z ECC są 72-bitowe (w przeciwieństwie do standardowych modułów 64-bitowych). Niektóre typy pamięci (rejestrowana, w pełni buforowana) dostępne są tylko w wersji ECC. Pytanie: Co to jest pamięć rejestrowana?
Odpowiedź: Rejestrowane moduły pamięci są stosowane głównie w serwerach pracujących z dużą ilością pamięci RAM. Wszystkie posiadają ECC, tj. są 72-bitowe i dodatkowo zawierają dodatkowe chipy rejestrów do częściowego (lub całkowitego - takie moduły nazywane są Full Buffered, czyli FB-DIMM) buforowania danych, zmniejszając w ten sposób obciążenie kontrolera pamięci. Buforowane moduły DIMM są generalnie niekompatybilne z modułami niebuforowanymi. Pytanie: Czy można używać pamięci zarejestrowanej zamiast zwykłej i odwrotnie?
Odpowiedź: Pomimo fizycznej kompatybilności złączy, zwykła pamięć niebuforowana i pamięć rejestrowana nie są ze sobą kompatybilne, w związku z czym użycie pamięci rejestrowanej zamiast zwykłej i odwrotnie jest niemożliwe. Pytanie: Co to jest SPD?
Odpowiedź: Na każdym module pamięci DIMM znajduje się mały układ SPD (Serial Presence Detect), w którym producent zapisuje informacje o częstotliwościach pracy i odpowiadających im opóźnieniach układów pamięci niezbędnych do zapewnienia normalnej pracy modułu. Informacje z SPD są odczytywane przez BIOS na etapie autotestu komputera jeszcze przed uruchomieniem systemu operacyjnego i pozwalają automatycznie optymalizować parametry dostępu do pamięci. Pytanie: Czy moduły pamięci o różnych częstotliwościach mogą ze sobą współpracować?
Odpowiedź: Nie ma zasadniczych ograniczeń w działaniu modułów pamięci o różnych częstotliwościach. W tym przypadku (przy automatycznym dostrajaniu pamięci na podstawie danych z SPD) o szybkości działania całego podsystemu pamięci będzie decydowała prędkość najwolniejszego modułu. Pytanie: Czy można zainstalować analog o wyższej częstotliwości zamiast typu pamięci zalecanego przez producenta?
Odpowiedź: Tak, możesz. Wysoka nominalna częstotliwość taktowania modułu pamięci w żaden sposób nie wpływa na jego zdolność do pracy przy niższych częstotliwościach taktowania, ponadto dzięki niskim taktowaniu, które można osiągnąć przy niższych częstotliwościach pracy modułu, opóźnienie pamięci jest zmniejszone (czasami znacznie). . Pytanie: Ile i jakiego rodzaju moduły pamięci muszą być zainstalowane na płycie głównej, aby pamięć działała w trybie dwukanałowym?
Odpowiedź: Ogólnie rzecz biorąc, aby zorganizować pracę pamięci w trybie dwukanałowym, należy zainstalować parzystą liczbę modułów pamięci (2 lub 4), a parami moduły muszą być tej samej wielkości i najlepiej (choć niekoniecznie ) - z tej samej partii (lub w najgorszym przypadku tego samego producenta). Na nowoczesnych płytach głównych gniazda pamięci dla różnych kanałów są oznaczone różnymi kolorami. Kolejność instalowania w nich modułów pamięci, a także wszystkie niuanse działania tej płyty z różnymi modułami pamięci, są zwykle szczegółowo opisane w instrukcji płyty głównej. Pytanie: Na jakich producentów pamięci warto zwrócić uwagę w pierwszej kolejności?
Odpowiedź: Istnieje kilku producentów pamięci, którzy godnie sprawdzili się na naszym rynku. Będą to np. moduły marek firm OCZ, Kingston, Corsair, Patriot, Samsung, Transcend. Oczywiście ta lista nie jest kompletna, ale kupując pamięć od tych producentów, z dużym prawdopodobieństwem możesz być pewien jej jakości.

Autobusy komputerowe

Pytanie: Co to jest magistrala komputerowa?
Odpowiedź: Magistrala komputerowa służy do przesyłania danych pomiędzy poszczególnymi blokami funkcjonalnymi komputera i jest zbiorem linii sygnałowych posiadających określone właściwości elektryczne oraz protokoły przesyłania informacji. Magistrale mogą różnić się pojemnością, sposobem transmisji sygnału (szeregowa lub równoległa, synchroniczna lub asynchroniczna), przepustowością, liczbą i rodzajem obsługiwanych urządzeń, protokołem działania, przeznaczeniem (wewnętrznym lub interfejsowym). Pytanie: Co to jest QPB?
Odpowiedź: 64-bitowa magistrala procesora QPB (Quad-Pumped Bus) zapewnia komunikację pomiędzy procesorami Intel i mostkiem północnym chipsetu. Jego cechą charakterystyczną jest transmisja czterech bloków danych (i dwóch adresów) w jednym cyklu zegara. Zatem dla częstotliwości FSB wynoszącej 200 MHz efektywna częstotliwość przesyłania danych będzie równa 800 MHz (4 x 200 MHz). Pytanie: Co to jest HyperTransport?
Odpowiedź: Szeregowa dwukierunkowa magistrala HyperTransport (HT) została opracowana przez konsorcjum firm pod przewodnictwem AMD i służy do komunikacji procesorów z rodziny AMD K8 zarówno między sobą, jak i z chipsetem. Ponadto wiele nowoczesnych chipsetów wykorzystuje technologię HT do komunikacji pomiędzy mostami, znalazła ona także miejsce w wysokowydajnych urządzeniach sieciowych - routerach i przełącznikach. Cechą charakterystyczną magistrali NT jest jej organizacja w schemacie Peer-to-Peer (point-to-point), zapewniająca dużą prędkość wymiany danych przy małych opóźnieniach, a także szerokie możliwości skalowania - magistrale o szerokości od 2 do W każdym kierunku obsługiwane są 32 bity (każda linia - dwóch przewodów), a „szerokość” kierunków w przeciwieństwie do PCI Express nie musi być taka sama. Przykładowo możliwe jest wykorzystanie dwóch linii HT do odbioru i 32 do transmisji. „Bazowa” częstotliwość zegara szyny HT wynosi 200 MHz, wszystkie kolejne częstotliwości zegara są definiowane jako wielokrotności tej częstotliwości - 400 MHz, 600 MHz, 800 MHz i 1000 MHz. Częstotliwości zegara i szybkości transmisji danych magistrali HyperTransport w wersji 1.1 przedstawia tabela 2:

Tabela 2

Częstotliwość, MHz

Szybkość transmisji danych (w Gb/s) dla szerokości magistrali:

W chwili obecnej konsorcjum HyperTransport opracowało już trzecią wersję specyfikacji HT, zgodnie z którą magistrala HyperTransport 3.0 pozwala na możliwość „gorącego” łączenia i odłączania urządzeń; może pracować na częstotliwościach do 2,6 GHz, co pozwala na zwiększenie prędkości przesyłu danych do 20800 Mb/s (w przypadku magistrali 32-bitowej) w każdym kierunku, będąc zdecydowanie najszybszą magistralą tego typu. Pytanie: Co to jest PCI?
Odpowiedź: Magistrala PCI (Peripheral Component Interconnect), pomimo swojego więcej niż przyzwoitego (według standardów komputerowych) wieku, jest nadal główną magistralą służącą do podłączania szerokiej gamy urządzeń peryferyjnych do płyty głównej komputera. 32-bitowa magistrala PCI umożliwia dynamiczną konfigurację podłączonych urządzeń i działa z częstotliwością 33,3 MHz (szczytowa przepustowość 133 Mb/s). Serwery korzystają z jej rozszerzonych wersji PCI66 i PCI64 (odpowiednio 32 bity/66 MHz i 64 bity/33 MHz), a także PCI-X – 64-bitowej magistrali przyspieszanej do 133 MHz. Inne opcje magistrali PCI to popularna w przeszłości magistrala graficzna AGP oraz para interfejsów dla komputerów mobilnych: wewnętrzna magistrala mini-PCI i magistrala PCMCIA/Card (opcje 16/32-bitowe dla interfejsu urządzeń zewnętrznych, umożliwiających „hot” podłączanie urządzeń peryferyjnych). Pomimo szerokiego zastosowania, czas magistrali PCI (i jej pochodnych) dobiega końca – są one zastępowane (aczkolwiek nie tak szybko, jak chcieliby tego twórcy) nowoczesną, wysokowydajną magistralą PCI-Express. Pytanie: Co to jest PCI-Express?
Odpowiedź: PCI-Express to interfejs szeregowy opracowany przez organizację PCI-SIG pod przewodnictwem firmy Intel i przeznaczony do stosowania jako magistrala lokalna zamiast PCI. Cechą charakterystyczną PCI-Express jest jej organizacja na zasadzie punkt-punkt, co eliminuje arbitraż magistrali i tym samym tasowanie zasobów. Połączenia między urządzeniami PCI-Express nazywane są łączami i składają się z jednej (zwanej 1x) lub wielu (2x, 4x, 8x, 12x, 16x lub 32x) dwukierunkowych linii szeregowych (ścieżek). Przepustowość nowoczesnej magistrali PCI-Express w wersji 1.1 przy różnej liczbie linii przedstawiono w tabeli 3:

Tabela 3

Liczba linii PCI Express

Przepustowość w jednym kierunku, Gb/s

Całkowita przepustowość, Gb/s

Jednak w tym roku upowszechni się nowa specyfikacja PCI-Express 2.0, w której przepustowość każdego łącza wzrosła do 0,5 Gb/s w każdym kierunku (przy zachowaniu kompatybilności z PCI-Express 1.1). Dodatkowo PCI-Express 2.0 podwaja moc dostarczaną przez magistralę – 150 W wobec 75 w pierwszej wersji standardu; a także, podobnie jak HT 3.0, zapewnia potencjał dla kart interfejsów z możliwością wymiany podczas pracy (ogłoszonych, ale nie zaimplementowanych w wersji 1.1).

dysk twardy

Pytanie: Dlaczego mój rzeczywisty wolumen dysku twardego jest nieprawidłowo określony?
Odpowiedź: Rozbieżność pomiędzy pojemnością dysku twardego deklarowaną przez producenta a pojemnością pokazywaną w BIOS-ie lub w narzędziach testowych/informacyjnych systemu Windows wynika z faktu, że prawie wszyscy producenci dysków twardych podają swoją pojemność w gigabajtach „dziesiętnych”, przeliczoną jako moc z „10”: 1 GB = 1000 MB = 1000000 KB. Większość narzędzi testowych (i sam system Windows) działa z „binarnymi” (jako potęgą 2) gigabajtami: 1 GB = 1024 MB = ~1048576 KB. Pytanie: Co powinienem zrobić, jeśli nowo zainstalowany dysk twardy nie zostanie wykryty w systemie Windows XP?
Odpowiedź: Jeśli nowy dysk twardy jest rozpoznawany w systemie BIOS i w „Menedżerze urządzeń”, ale nie ma go w folderze „Mój komputer”, musisz utworzyć na nim jedną lub więcej partycji (woluminów). Odbywa się to za pomocą specjalnych narzędzi (Norton Partition Magic lub Acronis Disk Director/Partition Expert). Oprócz nich możesz także użyć standardowego narzędzia Windows (chociaż jego możliwości są o rząd wielkości gorsze niż wskazanych narzędzi) - w aplecie „Zarządzanie komputerem” musisz wybrać sekcję „Zarządzanie dyskami”. Tam możesz także sformatować istniejące partycje, a także zmienić przypisany im domyślnie indeks literowy. Pytanie: Dlaczego musisz podzielić dysk twardy na partycje?
Odpowiedź: Podział dysku twardego na partycje pozwala na uporządkowanie i uporządkowanie przechowywanych na nim danych. Dlatego wskazane jest wydzielenie osobnej sekcji dla systemu operacyjnego (lub, jeśli jest ich kilka, sekcji dla każdego), przydzielenie sekcji do pracy z bieżącymi danymi i do przeprowadzania eksperymentów z nowym oprogramowaniem; wydzielona sekcja dla gier i wreszcie osobne archiwum do przechowywania plików, filmów itp. Podział ten pozwoli na zapisanie danych w przypadku jakichkolwiek konfliktów z systemem operacyjnym, a także ułatwi zorganizowanie ich ochrony przed nieuprawnionym dostępem (jeśli nagle pojawi się taka potrzeba). Dzięki temu niezwykle łatwo jest przywrócić „awarię” systemu operacyjnego, ponieważ można go po prostu przywrócić z wcześniej utworzonego obrazu partycji, nie martwiąc się o „utracone” dane. Pytanie: Jak prawidłowo podłączyć kabel IDE?
Odpowiedź: W przypadku korzystania z 80-żyłowego kabla IDE urządzenia pracujące w trybie „Master” podłącza się do jego skrajnego złącza (zwykle czarnego), urządzenia pracujące w trybie „Slave” podłącza się do środkowego (szarego) złącza, a drugie skrajne złącze (niebieski) jest podłączony do płyty systemowej. Urządzenia ustawione w tryb „Wybór kabla” można podłączyć do złączy czarnych lub szarych. Należy po prostu unikać podłączania dwóch urządzeń (zwłaszcza działających w różnych trybach) do tego samego kabla IDE, gdyż wpłynie to negatywnie na ich wydajność, jeśli będą ze sobą współpracować. Pytanie: Jakie typy interfejsów SATA są obecnie istotne?
Odpowiedź: Pierwsza wersja interfejsu napędu dyskowego Serial ATA (SATA/150) charakteryzowała się maksymalną przepustowością 150 MB/s (lub 1,2 Gbit/s), czyli nieco wyższą niż równoległe interfejsy ATA100 i ATA133, które zastąpiła (100 i 133 MB/s). Druga generacja Serial ATA - SATA/300, pracuje z częstotliwością 3 GHz, zapewniając przepustowość do 300 Mb/s (2,4 Gb/s). Dyski SATA/300 zyskują także pełną obsługę technologii Native Command Queuing (NCQ), która optymalizuje kolejność przetwarzania poleceń sterujących. Kolejną dość interesującą innowacją jest możliwość podłączenia do jednego kanału SATA/300 aż do 15 dysków twardych za pośrednictwem specjalnych koncentratorów (zwykły SATA mógł działać tylko w trybie „jedno złącze - jeden dysk”). Teoretycznie urządzenia SATA/150 i SATA/300 powinny być w pełni kompatybilne, jednak niektóre urządzenia i kontrolery wymagają ręcznego przełączania pomiędzy typami interfejsów (np. za pomocą specjalnej zworki). Aby podłączyć urządzenia zewnętrzne, użyj interfejsu eSATA (zewnętrzny SATA), który obsługuje tryb „hot-plug”. Do podłączenia urządzeń eSATA potrzebne są dwa kable: do magistrali danych (o długości nie większej niż 2 m) i do zasilania. Maksymalna prędkość przesyłania danych przez interfejs eSATA jest wyższa niż w przypadku USB czy FireWire i sięga 2,4 Gbit/s (w porównaniu do 480 Mbit/s dla USB i 800 Mbit/s dla FireWire). Jednocześnie procesor komputera jest znacznie mniej obciążony. Pytanie: Co to jest RAID i do czego służy?
Odpowiedź: Macierze RAID umożliwiają traktowanie wielu dysków fizycznych jako jednego urządzenia. Po co? Aby zwiększyć niezawodność przechowywania danych, a także zwiększyć prędkość podsystemu dyskowego. Obydwa te problemy rozwiązują tablice RAID kilku typów:
  • RAID 0 (Stripe) - kilka dysków fizycznych (minimum 2) łączy się w jeden dysk „wirtualny”, co zapewnia maksymalną wydajność (poprzez rozproszenie danych na wszystkich dyskach macierzy) operacji dyskowych, ale niezawodność przechowywania danych nie przekracza niezawodność oddzielnego dysku;
  • RAID 1 (Mirror) kilka dysków fizycznych (minimum 2) pracuje synchronicznie podczas nagrywania, całkowicie duplikując wzajemną zawartość. Najbardziej niezawodny sposób ochrony informacji przed awarią jednego z dysków, ale jednocześnie najbardziej „marnotrawny” - dokładnie połowa objętości macierzy jest wydawana na tworzenie kopii zapasowych danych;
  • RAID 0+1 (czasami nazywany RAID 10) to połączenie dwóch pierwszych opcji, łączące w sobie wysoką wydajność RAID 0 i niezawodność RAID 1, zachowując jednak ich wady. Do stworzenia takiej macierzy potrzebne są co najmniej 4 dyski;
  • RAID 5 to swego rodzaju kompromis pomiędzy macierzami RAID 0 i RAID 1: wykorzystuje rozproszone przechowywanie danych podobnie jak RAID 0, ale niezawodność przechowywania danych jest zwiększona poprzez włączenie redundantnych informacji (kodów parzystości) zapisywanych kolejno na różnych dyskach macierzy . Aby zorganizować macierz RAID 5, należy użyć co najmniej 3 dysków;
  • Matrix RAID to technologia wdrażana przez firmę Intel w najnowszych modelach swoich mostków południowych (począwszy od ICH6R), która pozwala na organizację kilku macierzy RAID 0 i RAID 1 na zaledwie dwóch dyskach fizycznych.
Ponadto macierze RAID 0 często korzystają z trybu „Span” (inaczej JBOD), gdy wszystkie dostępne dyski są po prostu łączone w jeden, bez rozpraszania danych pomiędzy dyskami. Ten tryb zapewnia największą efektywną pojemność macierzy, ale prędkość systemu będzie stosunkowo niska. Pytanie: Gdzie mogę znaleźć sterowniki "raid" do dysku SATA, bez których nie da się na nim zainstalować systemu?
Odpowiedź Uwaga: sterownik SATA RAID musi znajdować się na płycie CD dołączonej do każdej płyty głównej. Jeśli z jakiegoś powodu takiego dysku brakuje lub chcesz zainstalować najnowszą wersję sterownika (co w większości przypadków jest w pełni uzasadnione), możesz pobrać go ze strony producenta płyty głównej lub w skrajnych przypadkach chipset używany na płycie systemowej. Aby system Windows mógł wykryć dysk twardy SATA, już na samym początku instalacji w trybie tekstowym należy nacisnąć klawisz „F6”, a następnie włożyć do napędu dyskietkę ze sterownikami (w nowoczesnych komputerach, które nie posiadają stacji dyskietek, można skorzystać z zewnętrznej pamięci USB). Następnie program instalacyjny będzie przebiegał normalnie, czyli wykona standardowe operacje. Jeśli w systemie jest tylko jeden dysk twardy SATA, należy upewnić się, że kontroler RAID wbudowany w chipset jest wyłączony w BIOSie płyty głównej. W przypadku płyt głównych z chipsetami Intel/NVIDIA można to zrobić poprzez dezaktywację pozycji menu „SATA RAID” (lub czegoś podobnego). Płyty oparte na chipsetach VIA, w przypadku instalacji systemu na dysku SATA, w każdym przypadku (niezależnie od obecności lub braku macierzy RAID) wymagają instalacji dodatkowego sterownika.

BIOS

Pytanie: Co to jest BIOS i dlaczego jest potrzebny?
Odpowiedź: BIOS (Basic Input/Output System) – podstawowy system wejścia/wyjścia, wbudowany w pamięć ROM (stąd nazwa – ROM BIOS) to zestaw programów niezbędnych do szybkiego testowania i niskopoziomowej konfiguracji sprzętu komputerowego, a także do organizowanie późniejszego ładowania systemów operacyjnych. Zazwyczaj każdy model płyty głównej opracowuje własną wersję (oprogramowanie sprzętowe w slangu komputerowym) podstawowego BIOS-u, opracowaną przez jedną z wyspecjalizowanych firm - Phoenix Technologies (Phoenix Award BIOS) lub American Megatrends Inc. (BIOS AMI). Wcześniej BIOS był flashowany w jednorazowej programowalnej pamięci ROM (oznaczenie chipa 27xxxx) lub w pamięci ROM z kasowaniem ultrafioletowym (na korpusie chipa znajduje się przezroczyste okienko), więc flashowanie go przez użytkownika było prawie niemożliwe. Obecnie płyty produkowane są głównie z elektrycznie reprogramowalnymi ROMami (Flash ROM, oznaczenie chipa 28xxxx lub 29xxxx), które umożliwiają flashowanie BIOS-u przy pomocy samej płyty, co pozwala na szybkie dodanie obsługi nowych urządzeń (lub funkcji) do systemu, poprawne drobne wady programistów, zmiana ustawień fabrycznych itp. Pytanie: Jak uzyskać optymalne ustawienia BIOS?
Odpowiedź: Optymalną wydajność przy akceptowalnej stabilności komputera zapewniają fabryczne ustawienia BIOS-u. Można to wywołać, przechodząc do ustawień BIOS i wybierając polecenie „Załaduj zoptymalizowane ustawienia domyślne” (lub „Załaduj ustawienia optymalne” lub „Załaduj ustawienia domyślne” - w różnych BIOS-ach). Następnie ogólnie lepiej nie dotykać niczego w BIOS-ie rękami, zwłaszcza jeśli nie jesteś zbyt pewny swoich kwalifikacji. Chyba że możesz skonfigurować kolejność urządzeń rozruchowych (w sekcji „Zaawansowane funkcje BIOS”) i wyłączyć nieużywane urządzenia i kontrolery (w sekcji „Zintegrowane urządzenia peryferyjne”). Zdarzają się jednak sytuacje, gdy na pierwszy plan wysuwa się maksymalna stabilność systemu (aczkolwiek kosztem wydajności). W takim przypadku powinieneś wybrać opcję „Załaduj domyślne ustawienia awaryjne” (lub coś podobnego). Pytanie: Gdzie mogę znaleźć aktualizację BIOS-u?
Odpowiedź: Najnowsze wersje oprogramowania do aktualizacji BIOS-u można zwykle znaleźć w odpowiednich sekcjach (najczęściej w sekcjach „Pobieranie” lub „Wsparcie”) na oficjalnych stronach internetowych producentów płyt głównych. Adresy ich stron internetowych zawsze znajdziesz w instrukcjach do płyt głównych. Przed pobraniem oprogramowania nie zaszkodzi jeszcze raz upewnić się, że wybrałeś właściwy nie tylko model swojej płyty, ale także jej modyfikację - jest to bardzo ważne, ponieważ w wielu przypadkach oprogramowanie różnych wersji ta sama płyta główna nie jest ze sobą kompatybilna. Oprócz oficjalnych stron internetowych producentów płyt głównych, w Internecie istnieje wiele wyspecjalizowanych zasobów, które oferują odwiedzającym sterowniki i oprogramowanie sprzętowe dla szerokiej gamy sprzętu komputerowego. Dlatego na stronie X-Drivers.ru dostępna jest duża kolekcja oprogramowania układowego BIOS-u dla różnych płyt głównych. Pytanie: Przy każdym ponownym uruchomieniu system z jakiegoś powodu pyta o hasło BIOS-u. Co należy zrobić, aby się go pozbyć?
Odpowiedź: Ustawienie hasła użytkownika, które blokuje ładowanie systemu, jest jednym z najstarszych systemów ochrony komputera przed nieautoryzowanym dostępem. A zatem jeden z najbardziej zawodnych. W końcu większość płyt głównych ma specjalną zworkę do czyszczenia CMOS (pamięć, w której przechowywane są wszystkie ustawienia BIOS-u, w tym hasło użytkownika). Zwykle ta zworka (lub tylko dwa styki, które można zewrzeć metalowym przedmiotem) znajduje się w pobliżu małej okrągłej baterii na płycie systemowej. Po wyłączeniu komputera należy zapiąć tę zworkę zworką na kilka sekund (dla pewności należy odczekać 10 - 20 sekund). Następnie zdejmując zworkę, włącz ponownie komputer. Następnie komputer uruchomi się normalnie, z tą różnicą, że wszystkie ustawienia systemu BIOS (w tym hasło użytkownika) zostaną zresetowane. Jeśli Twój komputer nie ma takiej zworki (lub po prostu jej nie znalazłeś), możesz to zrobić: wyłącz zasilanie, wyjmij baterię na te same 10–20 sekund, a następnie zwróć ją (w żadnym wypadku odwrócić polaryzację!). Efekt będzie taki sam. Pytanie: Zaktualizowałem BIOS i zauważyłem, że komputer zaczął działać znacznie wolniej z dyskiem flash. Co robić?
Odpowiedź: Po flashowaniu BIOS-u często zdarza się, że kontroler USB 2.0 (może być oznaczony jako „Kontroler USB EHCI”) jest wyłączony. W takim przypadku kontroler USB rozpoczyna pracę w trybie USB FullSpeed/USB 1.1 (maksymalna prędkość nie przekracza 12 Mbit/s) zamiast w trybie USB HiSpeed/USB 2.0 (480 Mbit/s). Aby przywrócić maksymalną prędkość USB, należy w sekcji „Zintegrowane urządzenia peryferyjne” znaleźć pozycję „Konfiguracja USB” (lub coś podobnego) i włączyć tryb „Kontroler USB 2.0/Kontroler USB EHCI”.

Obudowa to nie tylko wygląd komputera, ale także jego ochrona, dodatek i integralna część. Obudowa systemowa to główny element systemu komputerowego, na którym montowane są wszystkie jego urządzenia. Dlatego też obudowę komputera należy wybierać mając świadomość ich rodzajów i funkcjonalności. Jaka jest więc różnica między „zewnętrznymi powłokami” komputera i jakie wskazówki możesz dać przy wyborze obudowy komputera?

Obudowy mogą mieć różne kształty - pionowe i poziome.

Pionowy- wieża ( wieża) zwykle znajduje się obok monitora lub jest umieszczony pod stołem w dół. Wieże pionowe dzielą się na następujące formaty: mini-tower, midi-tower, big-tower.

Miniwieża - ciało jest dość niskie. Początkowo, w dobie dominacji płyt głównych w formacie Baby AT, był on najbardziej rozpowszechniony, dziś jednak jest znacznie mniej powszechny, gdyż mogą pojawić się problemy z umieszczeniem w nim pełnowymiarowych płyt głównych ATX, pozostają jedynie małogabarytowe płyty w formatach micro-ATX i flex-ATX. Obudowy takie najczęściej stosowane są w komputerach o najprostszych konfiguracjach i wykorzystywane są jako maszyny biurowe czy terminale sieciowe.

Midi-wieża – obecnie najpopularniejszym formatem obudów jest midi (średni)-tower ATX. Pozwala na zastosowanie dużej liczby dysków i niemal wszystkich typów płyt głównych o akceptowalnych gabarytach. Ten typ obudowy nadaje się do prawie wszystkich maszyn domowych i biurowych i jest używany wszędzie.

Wielka wieża – są największymi obudowami i zapewniają miejsce na płyty główne dowolnej wielkości oraz największą liczbę urządzeń w formacie 5,25", najczęściej 4 - 6. Dodatkowo najczęściej wyposażane są w zasilacze dużej mocy. Obszar główny zastosowaniem takich przypadków są stacje robocze, małe serwery i komputery dla zaawansowanych użytkowników.

Poziomy formularz nazywa się „pulpit” ( pulpit). Zwykle znajduje się pod monitorem. Ten projekt wygląda bardzo elegancko. Jednakże montaż i naprawa komputera stacjonarnego jest trudna i niewygodna. Ponadto objętość poziomej obudowy jest znacznie mniejsza, a zasilacze charakteryzują się małą mocą.

Mówiąc o wewnętrznej strukturze obudowy, należy powiedzieć, że obudowy dzielą się na formaty: ATX i BTX oraz ich podtypy.

Współczynnik kształtu ATX

ATX (z angielskiego Advanced Technology Extended) to format, w jakim występuje zdecydowana większość nowoczesnych (2005-2008) komputerów osobistych.

ATX to najnowocześniejsza obudowa i większość obecnych płyt głównych jest zaprojektowana specjalnie dla niej. ATX charakteryzuje się łatwiejszym dostępem do wewnętrznych urządzeń komputera (nawet bez użycia śrubokręta). Charakteryzuje się także ulepszoną wentylacją wewnątrz obudowy, możliwością instalacji większej liczby pełnowymiarowych kart rozszerzeń i rozszerzonymi możliwościami zarządzania energią.

ATX został stworzony przez firmę Intel w 1995 roku i zastąpił stosowany od dawna format AT (prawdziwe wyparcie poprzedniego standardu nastąpiło pod koniec 1999 roku - na początku 2001 roku). Inne nowoczesne standardy (microATX, flexATX, mini-ITX) zwykle zachowują główne cechy ATX, zmieniając jedynie rozmiar płyty i liczbę gniazd rozszerzeń.

ATX definiuje następujące cechy:

  • wymiary geometryczne płyt głównych
  • ogólne wymagania dotyczące rozmieszczenia złączy i otworów w obudowie
  • położenie zasilacza w obudowie
  • wymiary geometryczne zasilacza
  • charakterystyka elektryczna zasilacza
  • kształt i położenie szeregu złączy (głównie zasilania)

Wymiary płyt w formacie ATX - 3 0,5x24,4cm.

Wymiary zmniejszonych wersji płyt głównych ATX:

Mini-ATX - 28,4 x 20,8 cm
Micro-ATX - 24,4 x 24,4 cm
Flex-ATX - 22,9 x 20,3 cm

Podstawowe różnice w stosunku do formatu AT

Moc procesora jest kontrolowana przez płytę główną, aby zapewnić działanie jednostki sterującej i niektórych urządzeń peryferyjnych, nawet po wyłączeniu, na płytkę dostarczane jest napięcie 5 woltów. (Aby zapewnić izolację galwaniczną, wiele zasilaczy ATX ma wyłącznik na obudowie.)

Zmieniło się złącze zasilania: poprzedni standard (AT) wykorzystywał dwa podobne złącza zasilania, które można było pomylić (choć jest zasada - cztery czarne przewody (wspólne) powinny być umieszczone obok siebie), w ATX standardowo złącze ma jednoznaczne włączenie.

Zmieniono tylny panel, w standardzie AT na tylnym panelu znalazło się jedynie złącze klawiatury i otwory na gniazda rozszerzeń (czyli „wtyczki” ze złączami podłączanymi do płyty głównej za pomocą elastycznych kabli); W standardzie ATX na tylnym panelu znajduje się prostokątny otwór o stałej wielkości.

Wewnątrz tego otworu producent płyty głównej może ułożyć złącza w dowolnej kolejności; płyta główna dostarczana jest w komplecie z „płytką IO” ze szczelinami na złącza konkretnej płyty głównej (pozwala to na użycie tej samej obudowy dla płyt głównych z zupełnie różnymi zestawami złącza).

Połączenie klawiatury i myszy było ujednolicone, w standardzie AT zastosowano bardzo duże 5-pinowe złącze DIN dla klawiatury, nie było standardowego złącza dla myszy; Standard ATX wykorzystuje dwa złącza PS/2.

Obudowa MicroATX (µATX, mATX, uATX)

MicroATX (µATX, mATX, uATX) — format płyty głównej 9,6 x 9,6" ( 24,4 x 24,4 cm), opracowany przez firmę Intel w 1997 r. Używany tylko w procesorach o architekturze x86.

Obudowa została zaprojektowana tak, aby była w pełni elektrycznie i mechanicznie kompatybilna z formatem ATX. Płyty główne µATX można stosować w obudowach ATX (ale nie odwrotnie). Kiedy wypuszczane są płyty główne, płyty główne w formatach ATX i µATX są często wydawane na tym samym chipsecie, przy czym różnica zwykle polega na liczbie gniazd PCI i zintegrowanych urządzeń peryferyjnych. Dość często robi się następującą różnicę: płyty µATX są produkowane z wbudowaną kartą graficzną, ATX – bez (µATX jest przeznaczony do pracy biurowej i nie jest przeznaczony do zastosowań w grach wymagających wydajnych kart graficznych).

Obudowa Mini-ITX (µITX, mITX)

Mini-ITX to format płyt głównych opracowany przez VIA Technologies. Zachowując kompatybilność elektryczną i mechaniczną z formatem ATX, płyty główne mini-ITX są znacznie mniejsze ( 17 na 17 cm).

W 2001 roku stworzono format ITX (21,5 x 19,1 cm) w celu promowania procesora C3 (kupionego przez Cyrix). W praktyce nie był używany, zamiast tego zaczęto aktywnie stosować „zredukowaną” formę - mini-ITX .

Jedną z cech płyt głównych mini-ITX jest obecność lutowanego procesora, co zmniejsza całkowity koszt komputera. Ze względu na stosunkowo niskie odprowadzanie ciepła, wiele płyt głównych mini-ITX wykorzystuje pasywny system chłodzenia. W połączeniu z dyskami SSD pozwala to na tworzenie cichych komputerów, które nie zawierają ruchomych części mechanicznych.

Ze względu na swoje rozmiary płyty główne mini-ITX są stosowane w komputerach wbudowanych, cienkich klientach i niewymagających komputerach domowych.

W 2005 roku VIA wprowadziła mniejszą wersję mini-ITX o nazwie nano-ITX (12 x 12 cm).

Obecnie większość producentów płyt głównych ogłosiła swoje rozwiązania w formacie mini-ITX, a twórcy komputerów mogą wybierać rozwiązania na różnych platformach architektonicznych: VIA, AMD, Intel. Tak szeroki wybór daje możliwość budowy małogabarytowych, ekonomicznych systemów realizujących szeroką gamę zadań, począwszy od wbudowanych systemów sterowania, poprzez terminale płatnicze, aż po centra multimedialne. Stosunkowo niska wydajność platform Mini-ITX, powiązana z ich zmniejszonym odprowadzaniem ciepła, sprawia, że ​​rozwiązania te idealnie nadają się do zastosowania w dyskach sieciowych NAS, SAN, a także w domowych miniserwerach.

Współczynnik kształtu BTX

BTX (Balanced Technology Extended) to format zaproponowany przez firmę Intel w 2005 roku. Założono, że BTX zastąpi format ATX.

Format został zaproponowany pod koniec 2004 - na początku 2005 roku przez firmę Intel (autora standardu ATX), jednak okazał się mało popularny, dlatego na początku 2006 roku większość komputerów stacjonarnych (wg froogle) była sprzedawane w formacie ATX lub microATX. Pierwszy komputer w formacie BTX został sprzedany przez firmę Gateway Inc. Dell produkował również komputery w tej obudowie.

Jednak stale rosnące odprowadzanie ciepła przez procesory Pentium 4, które było głównym powodem powstania BTX, zmusiło Intela do przejścia na inne sposoby zwiększania mocy, a generacja Intel Core była już znacznie bardziej energooszczędna i chłodniejsza. Tym samym główna przewaga BTX stała się nieistotna i pojawiły się wątpliwości co do celowości jego dalszego wsparcia.

We wrześniu 2006 roku Intel zrezygnował ze wsparcia standardu BTX.

Główne zalety:

  • Zmniejszenie wysokości płyty głównej z zainstalowaną chłodnicą procesora, zmniejszenie wysokości płyty IO.
  • zapewnienie chłodzenia wszystkich elementów komputera (biorąc pod uwagę nie tylko nagrzewanie się procesora, ale także bardzo gorących kart graficznych, dysków twardych) poprzez wytwarzanie bezpośrednich prądów powietrza wewnątrz obudowy. W tym celu płytę główną instaluje się pionowo na lewej ścianie obudowy (w ATX - po prawej), dzięki czemu karty peryferyjne są ustawione ku górze wraz z radiatorami. Takie rozwiązanie sprzyja wymianie powietrza.
  • redukcja poziomu hałasu.

Współczynnik kształtu eATX (EATX)

Współczynnik kształtu eATX (EATX) - (angielski rozszerzony ATX) różni się od ATX głównie rozmiarem. Standard ten pozwala na instalację płyt głównych o wymiarach do 30,48x33,02 cm.W większości obudów EATX można również zainstalować płyty główne ATX.

(płyta systemowa), czasami nazywana płytą główną, płytą główną lub płytą główną; wszystkie te terminy są używane zamiennie. Prawie wszystkie wewnętrzne elementy komputera osobistego pasują do płyty głównej i to właśnie jej cechy decydują o możliwościach komputera, nie mówiąc już o jego ogólnej wydajności. W tym rozdziale przyjrzymy się głównym typom płyt głównych, ich komponentom i złączom interfejsów.

Przy opracowywaniu płyt głównych bierze się pod uwagę kilka najpopularniejszych czynników kształtu. Współczynnik kształtu określa parametry fizyczne płytki i rodzaj obudowy, w której można ją zainstalować. Kształty płyt głównych mogą być standardowe (tj. wymienne) i niestandardowe. Niestandardowe obudowy stanowią niestety przeszkodę w modernizacji komputera, dlatego lepiej unikać ich używania. Poniżej wymieniono najbardziej znane obudowy płyt głównych.

W ciągu ostatnich kilku lat nastąpiło odejście od oryginalnych płyt głównych Baby-AT, stosowanych w pierwszych komputerach IBM PC i XT, na rzecz płyt głównych w formatach BTX i ATX, stosowanych w większości pełnowymiarowych komputerów stacjonarnych i komputerów typu tower. Istnieje kilka wariantów formatu ATX, w tym microATX (mniejsza wersja formatu ATX używana w małych systemach) i FlexATX (jeszcze mniejsza wersja przeznaczona dla komputerów domowych z niższej półki). Obudowa BTX obejmuje zmianę położenia głównych komponentów w celu poprawy chłodzenia systemu, a także zastosowanie modułu termicznego. Istnieją również mniejsze wersje tej obudowy – microBTX i picoBTX. Istnieją również inne kompaktowe obudowy, takie jak DTX i mini-ITX, które są mniejszą wersją FlexATX. Obudowa NLX została zaprojektowana dla korporacyjnych systemów stacjonarnych, ale z czasem została zastąpiona formatem FlexATX. Obudowa WTX została opracowana dla stacji roboczych i serwerów o średnim obciążeniu, ale nie była powszechnie stosowana. Nowoczesne obudowy i obszary ich zastosowań przedstawiono w poniższej tabeli.

Pomimo powszechnego stosowania płyt Baby-AT, pełnowymiarowych płyt AT i LPX, zostały one zastąpione płytami głównymi o bardziej nowoczesnych obudowach. Nowoczesne formaty są właściwie standardem branżowym, gwarantującym kompatybilność z każdym typem płyty. Oznacza to, że płytę główną ATX można wymienić na inną płytę tego samego typu, zamiast płyty BTX można zastosować inną płytę główną BTX itp. Dzięki dodatkowej funkcjonalności nowoczesnych płyt głównych branża komputerowa mogła szybko przejść na nowe obudowy. Dlatego zdecydowanie zaleca się zakup systemów opartych na jednej z nowoczesnych form.

Płyty główne, których parametry nie mieszczą się w żadnym ze standardowych formatów branżowych, należy traktować jako niewymienne. Kupuj komputery z niestandardowymi płytami głównymi tylko w wyjątkowych sytuacjach. Naprawy i modernizacje takich układów są dość kosztowne, co wynika przede wszystkim z braku możliwości wymiany płyt głównych, obudów czy zasilaczy na inne modele. Niezależne systemy o obudowie są czasami nazywane komputerami stacjonarnymi „jednorazowego użytku”, co staje się oczywiste, gdy przychodzi czas na ich modernizację lub naprawę po upływie okresu gwarancyjnego.

Uwaga!
Obecnie „jednorazowe” komputery PC są bardziej powszechne niż kiedykolwiek wcześniej. Według niektórych szacunków stanowią one ponad 60% sprzedanych komputerów. Nie ma to nic wspólnego z zastosowanymi płytami głównymi (płyty główne FlexATX i microATX są dziś częściej używane niż poprzedzające je modele LPX), ale z malutkimi zasilaczami SFX i wąskimi obudowami typu micro-tower, które zajmują uprzywilejowaną pozycję we współczesnych komputerach PC rynek. Tanie systemy wykorzystujące małą obudowę i mały zasilacz są w zasadzie bardziej odpowiednie do modernizacji niż poprzednie modele. Ale jeśli potrzebujesz innego złącza rozszerzeń lub na przykład dodatkowego napędu dyskowego, to po chwili dosłownie „wpadniesz na ścianę”. Systemy typu minitower są dość ciasne i ograniczone, więc sądzę, że wkrótce staną się „jednorazowe”, podobnie jak systemy LPX, które zastąpiły.

Należy zachować szczególną ostrożność w przypadku nowszych systemów zgodnych ze standardami branżowymi, takich jak modele komputerów Dell wyprodukowane od 1996 r. do chwili obecnej. Komputery te wykorzystują zmodyfikowany zasilacz i zmodyfikowane złącza zasilania płyty ATX, co czyni te podzespoły całkowicie niekompatybilnymi ze standardowymi płytami głównymi i zasilaczami. Dlatego w celu modernizacji zasilacza będziesz musiał użyć specjalnego urządzenia kompatybilnego z Dell. Co więcej, wymieniając płytę główną na standardową, będziesz musiał zakupić odpowiedni zasilacz, a może nawet obudowę.

Jeśli więc potrzebujesz systemu z naprawdę możliwością rozbudowy, wybierz komputer z płytą główną ATX lub BTX i obudową typu mid-tower (lub większą) z co najmniej pięcioma kieszeniami na dyski.

Każda obudowa mieszcząca pełnowymiarową płytę główną AT może pomieścić także płytę główną Baby-AT. Wyprodukowano ogromną liczbę płyt głównych Baby-AT do komputerów PC, wyposażonych w procesory niemal wszystkich typów - od pierwszego 8088 po Pentium III czy Athlon; Instalacja nowoczesnych procesorów wydawała się jednak bardzo trudnym zadaniem. Jak widać płyty główne Baby-AT produkowane są już od dość długiego czasu. Chociaż standard Baby-AT (ryc. 1) jest już przestarzały, standard ATX w pełni odziedziczył swoją filozofię wymienności. Na ryc. Rysunek 2 pokazuje przykład całkiem nowoczesnej płyty głównej Baby-AT zawierającej złącza USB, SIMM i DIMM, a także złącze do podłączenia zasilacza ATX.

System klasy Baby-AT najłatwiej rozpoznać po spojrzeniu na tylny panel obudowy. Karty rozszerzeń wkłada się bezpośrednio do złączy na płycie systemowej i są względem niej ustawione pod kątem 90°; innymi słowy, karty rozszerzeń są umieszczone prostopadle do płyty systemowej. Jednocześnie na tylnym panelu płyty głównej Baby-AT widoczne jest tylko jedno złącze - 5-pinowe złącze DIN przeznaczone do podłączenia klawiatury; Należy jednak zaznaczyć, że niektóre systemy klasy Baby-AT zostały wyposażone w mniejsze 6-pinowe złącza mini-DIN (złącza te często nazywane są PS/2), a nawet złącze myszy. Wszystkie pozostałe złącza umieszczono albo bezpośrednio na płycie głównej, albo na zdalnych złączach, które podłączano do płyty głównej za pomocą kabli. Złącze do podłączenia klawiatury widoczne jest przez otwór w etui.

Obrazek 1

Rysunek 2

Wszystkie płyty główne Baby-AT spełniają szereg specyfikacji dotyczących wysokości, rozmieszczenia otworów montażowych i złączy (w tym złącza klawiatury), ale mogą różnić się szerokością. Płyty główne mniejsze niż standardowe 9 x 13 cali (22,86 x 33,02 cm) często klasyfikowano jako mini-AT, micro-AT, a czasami 2/3-Baby lub 1/2-Baby. Jednocześnie można je normalnie instalować w standardowych obudowach Baby-AT.

Płyty LPX i Mini-LPX zostały opracowane przez firmę Western Digital w 1987 roku dla ich komputerów. W nazwie „LPX” skrót LP oznacza „Low Profile”. Ponieważ złącza zostały rozmieszczone w taki sposób, aby wszystkie karty rozszerzeń były równoległe do płyty głównej, możliwa stała się produkcja obudów niskoprofilowych, które były mniejsze niż systemy klasy Baby-AT.

Choć płyty główne do komputerów PC nie są już produkowane przez firmę Western Digital, z ich konstrukcji korzysta kilku innych producentów. Niestety pełna specyfikacja nigdy nie została opublikowana; Dotyczy to szczególnie położenia złączy do instalowania kart zdalnych. W rezultacie płyty główne różnych producentów okazały się niewymienne. Niektórzy dostawcy, tacy jak IBM i HP, oferowali systemy LPX, które wykorzystywały karty nośne w kształcie litery T, umożliwiające umieszczenie kart rozszerzeń prostopadle do płyty systemowej, ale nadal w pewnej odległości od niej. Brak standaryzacji powoduje, że jeśli masz w swoim systemie zainstalowaną płytę LPX, w zdecydowanej większości przypadków nie będziesz mógł jej zastąpić płytą główną LPX innego producenta. W efekcie mamy do czynienia z systemem, którego dalsza modernizacja i naprawa jest praktycznie niemożliwa. Dlatego nie polecam zakupu systemów LPX.

W tamtym czasie mało kto był zainteresowany tak „zamkniętą” architekturą systemów tego standardu, a płyty te cieszyły się dużą popularnością od końca lat 80. do połowy lat 90. XX wieku. Były to przede wszystkim systemy firm Compaq i Packard Bell, a także kilku innych firm, które w swoich systemach klasy podstawowej stosowały płyty główne LPX. Płyty główne LPX najczęściej stosowano w obudowach niskoprofilowych, chociaż spotykano je także w obudowach typu tower. Jak zauważono, były to najczęściej niedrogie układy sprzedawane w supermarketach z elektroniką. Dziś format LPX jest uważany za przestarzały.

Płyty LPX (patrz zdjęcie poniżej) znacznie różnią się od pozostałych. Na przykład ich złącza rozszerzeń są zamontowane na osobnej płycie zdalnej, która jest wkładana do płyty systemowej. Karty rozszerzeń wkłada się do karty zdalnej, a ich płaszczyzny są równoległe do płyty systemowej, co umożliwia zmniejszenie wysokości obudowy komputera. Złącza rozszerzeń, w zależności od konstrukcji, mogą być umieszczone po jednej lub obu stronach płytki zdalnej. Producenci stosujący obudowy typu tower czasami stosowali płytki zdalne w kształcie litery T, co umożliwiało umieszczenie złączy rozszerzeń prostopadle do płyty głównej, ale w nieco podwyższonej pozycji nad nią.

Kolejną różnicą pomiędzy płytami LPX jest charakterystyczne rozmieszczenie złączy na tylnej ściance – w jednym rzędzie. Obejmuje to złącza monitora VGA (15 pinów), port równoległy (25 pinów), dwa porty szeregowe (9 pinów każdy) oraz złącza mini-DIN dla klawiatury i myszy PS/2. Wszystkie te złącza są montowane na samej płycie i po instalacji umieszczane są naprzeciwko odpowiednich otworów w obudowie. Niektóre płyty główne LPX mają dodatkowe wbudowane złącza, takie jak adapter sieciowy lub SCSI. Ponieważ systemy LPX zawierały wysoce zintegrowane płyty główne, wielu producentów płyt głównych, obudów i systemów LPX często określało swoje rozwiązania jako „wszystko w jednym”.

Wymiary płyt LPX i Mini-LPX przedstawiono na poniższym rysunku.

Często jestem pytany jak rozpoznać obecność płytki LPX w systemie. Aby to zrobić, nie musisz nawet demontować obudowy. Płyty główne LPX różnią się tym, że znajdujące się w nich gniazda magistrali umieszczone są na osobnej płycie podłączonej do płyty systemowej, podobnie jak w przypadku płyt w formacie NLX. Dlatego wszystkie jego złącza są równoległe do płyty głównej. Można to łatwo ustalić, patrząc na tył obudowy. Jeśli wszystkie złącza są równoległe do płyty systemowej, używana jest karta zdalna. To pewny znak LPX. Dodatkowo w LPX wszystkie złącza znajdują się na dole i są ułożone w jednej linii. Wszystkie płyty główne LPX, niezależnie od kształtu, rozmiaru i umiejscowienia obejścia, wymagają, aby wszystkie porty zewnętrzne znajdowały się na tylnej krawędzi płyty (patrz rysunek poniżej). Jednocześnie, zgodnie ze standardem Baby-AT, złącza służą do portów szeregowych i równoległych, portu PS/2, a także portów USB. W tym przypadku na płytach głównych ATX i BTX wszystkie porty zewnętrzne są zgrupowane po lewej stronie złączy rozszerzeń.

Jak już wspomniano, płyta zdalna jest również używana w płytach NLX. Ale w LPX jest on umieszczony na środku płyty głównej, a w NLX z boku i faktycznie jest podłączony do płyty głównej.

Poniższy rysunek pokazuje dwa typowe przykłady złączy na płytach głównych LPX. Należy pamiętać, że nie wszystkie płyty LPX mają wbudowane audio, więc odpowiednie złącza mogą nie być dostępne. Ponadto może brakować portów USB (lub innych), chociaż ogólny układ portów pozostaje taki sam. Złącza wzdłuż tylnej krawędzi płytek mogą „konfliktować” ze złączami magistrali. Dlatego właśnie używane są zdalne tablice. Obecność wbudowanych złączy jest niewątpliwą zaletą LPX, a niestety płytom Baby-AT tego brakuje. Jednak płyty LPX nie są ustandaryzowane i nie są w pełni wymienne, więc wyboru płyty w formacie LPX nie można nazwać sukcesem. Nowe płyty główne, takie jak ATX, microATX i NLX, mają wbudowane złącza i również spełniają pewne standardy. Konstrukcja karty wyłamującej LPX umożliwiła projektantom systemów tworzenie komputerów o małych rozmiarach, co jest trendem kontynuowanym w nowej obudowie NLX. W rzeczywistości ten współczynnik kształtu został stworzony jako nowoczesny zamiennik LPX.