Reklama

Komputery zaczynają pączkować

Dziś zarówno SLI, jak i CrossFire są technologiami szeroko dostępnymi i dopracowanymi. A mimo to, niewielu użytkowników zdecydowało się w taki sposób zwiększyć wydajność swojego komputera. Ciągle znacznie popularniejsze jest kupowanie pojedynczej, wydajniejszej karty, niż dwóch słabszych, nawet jeśli drugą możemy dokupić po pewnym czasie. NVIDIA nie daje jednak za wygraną i już za kilka miesięcy zaprezentuje nam SLI w wersji 2.0, które pozwolić ma na kojarzenie prawie dowolnych kart, a także na budowę systemów złożonych z czterech, sześciu, a nawet 8 GPU. Pytanie tylko, jak to zostanie zrealizowane?

Reklama

Dzisiejsze GPU, np. GeForce 8800 GTX, składają się z gigantycznej liczby tranzystorów (681 mln) i do wydajnej pracy wymagają nie tylko potężnego systemu chłodzenia, ale i pojemnej pamięci zainstalowanej na karcie. Powstaje więc pytanie, jak zmieścić na jednej płytce drukowanej kilka takich GPU, tym bardziej, że już dziś mówi się, że najnowszy Radeon (nazwa kodowa R600) w swojej najwydajniejszej wersji będzie instalowany na kartach o monstrualnych rozmiarach.

Oczywiście można sobie wyobrazić wariacje powstałe na wzór GeForce 7950 GX2 (wolniejsze taktowanie rdzenia i pamięci, ale za to więcej GPU), łączone w jedną, czy nawet dwie pary, ale nadal nie wiadomo, jak taką graficzną farmę zasilać i gdzie w komputerze, który przecież staje się coraz mniejszy i zgrabniejszy, to wszystko zmieścić? O ile więc dublowanie rdzeni w przypadku procesorów wydaje się czymś naturalnym i dla nas przynosi duże korzyści, o tyle dublowanie z natury potężnych i złożonych rdzeni graficznych jest zdecydowanie problematyczne i często zbyt kosztowne. No chyba, że jedną taką kartę będziemy mogli wykorzystać jako super wydajny system zajmujący się liczeniem fizyki gry, a coś takiego być może już całkiem niedługo trafić ma na sklepowe półki.

Pamięć absolutna

Obecnie w większości sprzedawanych komputerów znaleźć możemy podsystem pamięci oparty na dwóch, pracujących równoległe, modułach pamięci. Rozwiązanie to na rynek masowego odbiorcy wprowadził Intel, prezentując na przełomie 1999 i 2000 roku chipset i840 (Caramel), zdolny do obsługi dwóch modułów RDRAM jednocześnie. Choć może wprowadził to jednak za dużo powiedziane - koszt takiego systemu opartego na pamięciach korporacji RAMBUS był kosmicznie wysoki, przez co tylko nieliczni mogli sobie na niego pozwolić. Pierwszym, dwukanałowym rozwiązaniem dla przeciętnego użytkownika był zaprezentowany pod koniec 2002 roku chipset nForce2 firmy NVIDIA. Obsługiwał on dwa, znacznie tańsze od pamięci RDRAM, moduły DDR DRAM i przeznaczony był dla procesorów z rodziny Athlon XP. Rok później także Intel w końcu przekonał się do pamięci DDR i zaprezentował konkurencyjne rozwiązanie - chipset E7205 (Granite Bay).

Dowiedz się więcej na temat: układ | firmy | intel | karty | komputery | wydajność

Reklama

Reklama

Reklama

Reklama

Strona główna INTERIA.PL

Polecamy

Rekomendacje