Stare, ale jare - porównanie starszych akceleratorów

Autor: Dawid Kosiński 2008-11-07 23:29

Wprowadzenie

W kolejnej części porównania akceleratorów graficznych nie zobaczymy już konstrukcji drogich, niedostępnych dla potencjalnego usera. Tym razem skupimy się na kartach jeszcze tańszych – kosztujących od 400 do 600 zł*. Ujrzymy więc produkty interesujące może nie największą, ale i tak niezwykle liczną grupę odbiorców. Są to karty, które pozwalają na granie w większość gier na 19”, a nawet 22” monitorach, nie dziurawiąc przy tym naszego portfela. Spełniają zatem wszystkie warunki typowego użytkownika komputera. Przetestowane dzisiaj konstrukcje to modele GeForce 8800GT, 8800GTS oraz 3850/3870 X2. Który z nich jest propozycją godną uwagi? Nie pozostaje nam nic innego, jak to sprawdzić. Zapraszamy do lektury artykułu!

 *Ze względu na dużą podwyżkę cen dolara amerykańskiego ceny te mogły się sporo zwiększyć. Nie edytowaliśmy tego fragmentu, gdyż na dobrą sprawę nie wiemy, jak zachowają się amerykańska oraz polska waluta w najbliższym czasie. Ponadto artykuł musiałby być napisany od nowa i nie wiadomo czy pojawiłyby się w nim te same konstrukcje co dzisiaj.

Radeon RV680

"

Chip kart AMD Radeon HD 3870 X2 i 3850 X2 to RV680. Składa się on z dwóch procesorów graficznych RV670, stosowanych w akceleratorach 3870 i 3850. Opiszę więc pokrótce jego budowę:
Układ RV670 wywodzi się w prostej linii od dawno znanego R600, na którym bazują Radeony 2900. Architektura układu R600, została opisana tutaj (Radeon - kilka słów o architekturze). Teraz zajmiemy się różnicami między chipami. Pierwsza z nich to zmiana procesu technologicznego na 55nm względem 80nm w HD 2000. Dzięki temu powierzchnia procesora graficznego zmniejszyła się z 408 do 192 mm^2. Powoduje to znaczące zmniejszenie emisji ciepła, co z kolei powoduje możliwość montowania chłodzeń cichszych niż startujący Jumbo-jet (Takie były spotykane w Radeonach X1900XT/X i HD 2900XT). W związku z powyższym drastycznie zmniejszył się pobór prądu. Teraz do karty wystarczy podłączyć jedną wtyczkę 6pin, a nie dwie, jak to miało miejsce u poprzednika.

"

Jak widać, są to zmiany na plus, ale musimy do tej beczki miodu dodać łyżkę dziegciu. Jest nią dwukrotne zmniejszenie szerokości szyny danych. Wynosi ona jedynie 256bitów. AMD jednak twierdzi, iż jest to wartość wystarczająca, w żaden sposób nieograniczająca układu. Radeon 3870 korzysta z pamięci DDR4, pracujących wyraźnie szybciej niż DDR3 zastosowane w Radeonach 3850 i 3870 X2. Karty referencyjne pracują z zegarami 775MHz/2250MHz (Radeon 3870), 670/1660MHz (Radeon 3850) i 825/1000MHz (Radeon 3870 X2). Niestety DDR4 w porównaniu z tańszymi DDR3 dają mały przyrost mocy, więc niektórzy producenci (np. Gigabyte) wyprodukowali Radeony 3870 posiadające pamięci DDR3. Na pierwszy rzut oka widać więc, że 3870 i 3850 to bardzo podobne układy i można przypuszczać, iż tańszy Radeon po OC dogoni swojego mocniejszego brata. O nieopłacalności najnowszych DDR4 świadczy też fakt, że w 3870X2 AMD/ATi na powrót zdecydowało się umieścić „stare, ale jare” pamięci DDR trzeciej generacji.

"

Układy z rodziny AMD Radeon HD 3000 jako jedyne wspierają DirectX 10.1 i Shader Model 4.1. Są to poprawki do najnowszego API Microsoftu. Zadebiutują one wraz z premierą pierwszego Service Packa do systemu Windows Vista. AMD ich pełną obsługę przedstawia jako dużą przewagę nad konkurencją w postaci nVidii. Według AMD tylko ich karty pozwalają na uzyskanie efektów takich jak Global Illumination przy zachowaniu rozsądnej wydajności akceleratora. Nawet jeśli z przymrużeniem oka uznać to za prawdę, to twórcy Radeonów mogą nie wykorzystać tej wątpliwej przewagi. Koronnym argumentem udowadniającym tą tezę jest fakt, iż blisko półtora roku po pojawieniu się DX10, gier komputerowych wykorzystujących nowe API jest jak na lekarstwo. Nie możemy również zapominać o programie nVidii „Meants to be played”. Zieloni na pewno nie pozwolą na to, by ich karty były gorsze od konkurencji. Ale na rynku ważną rolę odgrywa również marketing. I jeśli AMD sprawnie go wykorzysta, to mimo gorszych wyników kart w grach, może sprzedać więcej akceleratorów aniżeli konkurencja. Dobrym sposobem na to jest 3DMark Vantage i oczekiwane wysokie wyniki kart AMD w nim, gdyż będzie on zawierał testy DX10.1.

Technologie wspierane przez RV670/RV680:

  • ATi PowerPlay – Technologia oszczędzania energii, powoduje ona zmianę taktowania rdzenia karty graficznej i jego napięć zasilających zależnie od jednego z trzech trybów, w którym ona się znajduje. Są to użytkowy (2D), średniego obciążenia (niewymagające gry) i wysokiego obciążenia (wymagające gry). Przykładowo, w trybie 2D procesor graficzny pracuje z częstotliwością 300MHz.
  • UVD – Odpowiednik Pure Video od nVidii. Zabrakło go w karcie HD 2900XT, co nie przysporzyło jej wielu przyjaciół. AMD/ATi twierdziło wówczas, że osoba kupująca ich topowy akcelerator na pewno ma procesor umożliwiający bezproblemowe dekodowanie materiału Video. Na szczęście firma nadrobiła zaległości i w Radeonach 3000 znajdziemy UVD. Wydajność tej technologii jest wyższa aniżeli rozwiązania konkurencyjne. Jest również przy tym tańszy od Pure Video nVidii , bowiem AMD (w przeciwieństwie do producenta z Santa Clara) nie każe sobie płacić za sterowniki niezbędne do dekodowania materiału video.
  • CrossFireX – technologia łączenia kart graficznych, konkurencyjna dla nVidia SLi. Pozwala na współpracę maksymalnie czterech, połączonych ze sobą za pomocą specjalnych mostków, akceleratorów. Rozwiązanie to ma przyszłość, ale jego efektywne wykorzystanie zależy od twórców gier i sterowników. Musimy przecież pamiętać, że wiele gier do dzisiaj nie wspiera obsługi dwóch kart, nie mówiąc o trzech lub czterech akceleratorach.

G92 – co tam, Panie, u zielonych?

Akceleratory bazujące na rdzeniu G92 można określić jako stare-nowe. Jest tak, ponieważ najnowszy chip jest bardzo podobny do poprzedniego G80 (jego architektura została opisana tutaj). Zmiany zaszły, owszem, ale nie w sposobie działania, tylko w ilości i wielkości wszystkiego, krótko mówiąc, w liczbach. Najistotniejsze jest zredukowanie procesu technologicznego z 90 do 65nm. Powoduje to wydzielanie mniejszej ilości ciepła (110W zamiast 140W), zredukowanie kosztów produkcji oraz zmniejszenie powierzchni chipu (330mm^2 względem 480mm^2), który ma teraz 754 zamiast 681 milionów tranzystorów. Może się to wydawać dziwne, w końcu względem starszej wersji nastąpiły cięcia. Należy jednak zauważyć, iż chip posiada zintegrowany układ odpowiedzialny za SLI i wyjścia obrazu, wcześniej był on osobnym elementem karty graficznej. Kolejne zmiany dotyczą już ilości jednostek w samych układach zbudowanych na G92. Wersja 8800GT posiada 112 zunifikowanych Shaderów (US), 56 jednostek teksturujących (TMU) i 16 jednostek końcowego renderingu (ROP). 8800GTS 512MB zaś ma kolejno po 128US, 64TMU i 16ROP. Widać tu zmiany względem pierwszej karty z serii GeForce 8, czyli 8800GTX. Ta posiada 128 shaderów i 24ROPy, ale już tylko 32 jednostki teksturujące. Obie nowe karty mają też węższą, bo 256-bitową zamiast 384-bitowej szynę pamięci. GeForce 8800GT występuje w wersjach 256, 512 i 1024MB, 8800GTS rev. 2 tylko w wersji 512MB, a 9800GX2 w odmianie 1GB (2x512MB). Referencyjne taktowania 8800GT wynoszą 600/900MHz, GTS 650/970MHz, zaś 9800GX2 (600/1000MHz)

Technologie wspierane przez G92:

  • Hybrid SLi

    SLi do tej pory było technologią łączenia dwóch takich samych kart graficznych z rodziny GeForce. nVidia postanowiła jednak ją odświeżyć i dodać dwa zupełnie nowe tryby wymagające użycia zintegrowanej karty graficznej. Ich nazwy to Hybrid Power i GeForce Boost. Pierwszy z nich pozwala na wykorzystanie mocy „integry” i zewnętrznej karty, drugi zaś na wyłączanie klasycznego akceleratora, gdy jest on niepotrzebny. Brzmi obiecująco, ale także ta technologia ma swoje wady. Najważniejszą jest konieczność posiadania karty GeForce 9. Karty starsze, nawet GeForce 8800GT i GTS oparte o chip G92, nie będą w żaden sposób wspierały tych trybów. Skoro trzeba posiadać nową kartę graficzną, to i płytę główną.

    Dobrodziejstwa hybrydowego łączenia kart graficznych ujrzymy tylko i wyłącznie, gdy nasza płyta główna będzie wyposażona w chipset GeForce 8200 lub nForce 780a. Tak, nie pomyliłem się. Topowy chipset przeznaczony dla platformy AMD będzie miał w wyposażeniu zintegrowany układ graficzny. Zawsze podniesie to nasze wyniki w benchmarkach o kilka punktów, które być może pozwolą nam bić światowe rekordy ; ). Ostatnią niedogodnością są ewentualne opóźnienia wynikające z podłączenia monitora do wyjścia zintegrowanej karty graficznej. nVidia twierdzi, że zjawisko to nie będzie występować, ale każdy wie, że dłuższa droga przy tej samej prędkości owocuje dłuższym czasem podróży. To jest oczywista oczywistość. Chociaż jeśli opóźnienia obrazu będą niezauważalne, to nikt (poza fanboyami AMD) nie będzie miał tego nVidii za złe. Co z tego wyniknie? Czas pokaże.

  • DirectX 10.1

    GeForce’y z serii 9 nie obsługują nowej wersji DirectXa oznaczonej numerkiem 10.1. Zostaną przy „starym” DirectX 10. Na szęście nie powinniśmy odczuć tego skutków, gdyż DirectX 10.1 stanowi jedynie wprowadzenie do standardu do tej pory opcjonalnych efektów graficznych.

  • PhysX

    Jest to technologia nowoczesnego obliczania fizyki w grach komputerowych wymyślona przez firmę Ageia. To właśnie ona wypuściła akceleratory fizyki, które miały zapewnić nam niezapomniane wrażenia w wielu grach. Niestety pomysł ten nie został zaaprobowany przez twórców gier, PhysX znalazło się w zaledwie kilku tytułach, takich jak Unreal Tournament III. Jednak potencjał tego rozwiązania doceniła dopiero nVIDIA. Firma z Santa Clara wykupiła Ageię i zaimplementowała instrukcje PhysX w swoich kartach graficznych z serii GeForce 8, GeForce 9 oraz GeForce GTX 200. Wg nVIDII PhysX kiedyś będzie standardem, który przebije nawet Havoka należącego obecnie do Intela.

Strony: 1 - 2 - 3 - 4 - 5 - 6 - 7 - 8 - 9 - 10 - 11 - 12 - 13 - 14 - 15 - 16 - 17 - 18 - 19 - 20 - 21 - 22 - 23 - 24 - 25 - 26 - 27 - 28 - 29 - 30 - 31 - 32 - 33 - 34 -