Przygody z komputerem: modernizacja.

Całkiem niedawno (wrzesień 2003r.) wymieniłem starą kartę graficzną RivaTNT2 na Radeona 9100. Rezultaty tej wymiany mocno mnie rozczarowały. Pojawił się zamysł, by przestrzec użytkowników przed zbyt entuzjastycznym zakupem reklamowanych produktów.

Spis treści

Zamiast wstępu

Moje przygody z komputerami zaczęły się bardzo wcześnie, bo jeszcze w czasach PRL. Pierwszym komputerem, z którym się zetknąłem, była polska ODRA w Wojewódzkim Biurze Projektów w Zabrzu. Był rok 1982. Miałem wtedy niecałe osiem lat. Okazją do zabawy z komputerem stało się oczekiwanie na wyjazd na letnie kolonie. Wyjazd odbywał się z Zabrza w dzień powszedni. Mój ojciec rzecz jasna pracował, więc do czasu odjazdu autokaru miałem "przechomikować" się w biurze.

Moim pierwszym własnym komputerem był osmiobitowy ATARI 65XE (64 kilobajty pamięci, procesor 6502), który otrzymałem w letnie wakacje 1986 roku. Od pierwszego dnia ujawniły się ciągoty i predyspozycje do komputerów. Ojciec kupił komputer (w Pewexie) bez jakichkolwiek pamięci masowych (stacji dysków, magnetofonu). Do czasu zakupu magnetofonu, jedyne co mogłem robić, to odszyfrowywać, jak hieroglify, przykładowe programy w BASICu zawarte w angielskiej instrukcji obsługi. Wtedy to właśnie, jako niespełna jedenastoletni chłopiec, kierując się intuicją, napisałem mój pierwszy program (tak na prawdę była to modyfikacja programu z instrukcji :))

Do 1992r zetknąłem się w różnych okolicznościach (np. na osiedlowych kółkach komputerowych, na koloniach) także z innymi komputerami, np. z Amstradem CPC6128, Spectra Video, ZX Spectrum, Commodore 64, Amigą 500, Meritum (polski komputerek).
Rok 1992 okazał się być przełomowy, bo wtedy zakupiony został na potrzeby ojca firmy (prywatnej) składak IBM PC. Była to maszyna trzydziestodwubitowa z 4 MB (megabajtami) pamięci RAM, procesorem AMD 386DX 25 MHz, dyskiem twardym o pojemności 40 MB oraz kolorową kartą graficzną SVGA Paradise 512 KB, wymienioną parę dni później na sprawnego Tridenta 5200 512 KB. Sprzęt ten służy do dziś.
W 1997 roku mój brat, konsultując się ze mną, zakupił do pracy nowy sprzęt; komputer klasy Pentium z procesorem Cyrix PR150, 16 MB RAM, 1 GB dyskiem twardym (1 GB - gigabajt = 1024 MB) i pierwszą na rynku komputerów domowych kartą do grafiki trójwymiarowej S3 Virge 2 MB. W międzyczasie, bo w 1994, do swojej "trzyosiemszóstki" dokupiłem za własne pieniądze kartę dźwiękową Sound Blaster Pro. I tak oto rozpocząły się moje niezliczone zabawy z modernizowaniem komputerów.
Od tego czasu, dziesiątki jeśli nie setki razy, pomagałem rodzinie i znajomym rozwiązywać kłopoty z komputerami, doradzałem w unowocześnianiu, sam montowałem sprzęt. Zdobyte na tym polu doświadczenia, przemyślenia i tak nie zdołały uchronić mnie przed nietrafnymi decyzjami.

Rok 2000 był szczególny, ponieważ wtedy (w lutym) pierwszy raz zakupiłem cały komputer z dużym udziałem moich oszczędności. W jego skład wchodził procesor Intel Celeron 433 MHz, 64 MB pamięci RAM, 17 GB dysk twardy, karta graficzna Leadtek Riva TNT2 M64 32MB oraz karta dźwiękowa 3D Monster Sound MX300. Po roku sprzęt uległ awarii i w ramach naprawy gwarancyjnej wymieniono mikroprocesor, kartę grafiki i dysk. Naprawa odbyła się z dopłatą i wielką łaską firmy, dodam z naciskiem, prywatnej. Jakby tego było mało, podczas transportu sprzętu, pracownik firmy upuścił sprzęt na ziemię, uszkadzając dysk twardy. Rzecz jasna, cała zawartość została bezpowrotnie utracona. Wymieniono kartę graficzną na model Prolinka, procesor na Celeron 633 MHz, dysk na jednostkę 20 GB. W późniejszym okresie dokupiłem pamięci RAM, nagrywarkę CDRW, kartę telewizyjno-radiową, kartę sieciową (dostęp do internetu wcześniej odbywał się poprzez modem), a we wrześniu 2003r wymieniłem kartę graficzną na Radeona 9100, o czym jest właśnie ten felieton.

Szczęśliwy bogaty, a biednemu i wiatr w oczy wieje...

Ludzie zamożni kupują sprzęt, który na daną chwilę jest w pełni nowoczesny. Gdy się zestarzeje, oddają go w ręce ubogich krewnych samemu kupując sobie nowiutki model o parametrach z górnej półki. Niestety, większość Polaków, a do nich ja również należę, ma silnie ograniczony budżet domowy. Zakup komputera jest wydatkiem w poważnym stopniu obciążającym budżet domowy. Z tego też powodu użytkowanie obliczone jest na wiele lat, a wymiana następuje zazwyczaj co parę lat (3-5 lat). Skąpe środki finansowe sprawiają, że już w chwili zakupu wybiera się komponenty będące technologicznie kilka kroków do tyłu w stosunku do nowinek. Tymczasem dostępne oprogramowanie nastawione jest głównie na sprzęt z najwyższej półki technologicznej, a więc i cenowej. Nowe wersje oprogramowania (np. systemy operacyjne Windows) nie obsługują juz nieco starszego sprzętu, bądź też obsługa ta jest zaimplementowana tylko częściowo, uniemożliwiając korzystanie w pełni z walorów użytkowych posiadanego komputera.
Nie byłoby o czym pisać, gdyby komputery służyły jedynie w celach rozrywkowych. Niestety, w obecnych czasach posiadanie komputera nie jest przywilejem, ale koniecznością dla wielu grup społeczno-zawodowych. Jeszcze 10 lat temu student mógł obejść się zupełnie bez własnego komputera, korzystając ze sprzętu w pracownii na uczelni, a prace semestralne czy pracę magisterską mógł zlecić do przepisania na maszynie zawodowej maszynistce. Podobnież z pracownikami najemnymi. Jeszcze 5 lat temu jedynie informatycy z konieczności musieli posiadać własny komputer w domu. Dziś nawet najmniej znaczący pracownik biurowy, administracyjny, bankowy, nawet nauczyciel jest zmuszony przez obecme warunki na rynku pracy do zakupu sprzętu.

Przeciętny użytkownik (także ten na Zachodzie), nie mogąc sobie pozwolić na częste wymiany całego sprzętu, zmuszony jest do jego unowocześnienia przez wymianę pojedyńczych komponentów.

Więc jednak modernizacja. I co teraz?

Pojawia się w tym miejscu pytanie; które komponenty mają największy wpływ na wydajność systemu, a więc które należałoby w pierwszej kolejności wymienić przy jak najniższym koszcie?

Moje doświadczenie poucza, że zanim podejmiemy się modernizacji, w pierwszej kolejności należy zoptymalizować wszystkie ustawienia systemowe (w tym BIOS) oraz postarać się o tzw. łatki (ang. patch), które pozwalają wycisnąć ostatnie poty z posiadanego sprzętu. Jak zobaczymy w dalszej części felietonu, te zabiegi pozwalają podnieść wydajność nawet kilkukrotnie.
Często jednak zabiegi te są niewystarczające i stajemy przed koniecznością dokonania zakupów. W tej sytuacji należy przede wszystkim odpowiedzieć na pytanie do czego sprzęt nam służy najczęściej.

Bazy danych (np. dBase, Access, SQL)

Jeżeli zajmujemy się dużymi bazami danych, to rozsądnym podejściem będzie dokupienie szybkiego twardego dysku. Wymiana mikroprocesora, karty graficznej czy dokupienie pamięci w tym wypadku nie wpłynie znacząco na wydajność, bo wąskim gardłem jest tutaj dysk. Głównym parametrem dysków, na który powinniśmy zwrócić uwagę, jest tzw. średni czas dostępu do danych. Im niższy jest ten czas, tym szybszy jest dysk. Nie bez znczenia jest też rozmiar sprzętowego bufora dysku twardego (im większy tym lepiej). Maksymalna przepustowość (prędkość przesyłu) nie ma tu praktycznego znaczenia, jako że dostęp do danych odbywa się rekordami (dostęp swobodny), a nie sekwencyjnie (w uporządkowanej kolejności od początku do końca). Cóż bowiem nam z dysku, który przy odczycie sekwencyjnym może przepchać w ciągu sekundy 100MB danych, jeśli przy dostępie swobodnym średnia wynosi 4MB/s, czyli tyle ile u staruszka w trybie PIO 1. Z uwagi na organizację systemu plików, już nawet poprawa parametru dostępu do dysku o 1ms (milisekundę) może zwiększyć wydajność o 40%. Typowe czasy wspólczesnych dysków to ok. 7-8 ms, podczasy gdy jeszcze 4-5 lat temu 15-18 ms. Nowy szybszy dysk montujemy jako pierwszy (na którym jest system operacyjny oraz dane), a istniejący przekładamy jako drugi, trzeci itp. Płyty główne komputerów z procesorami Pentium (wyjątkiem jest tzw. overdrive) obsłużą do 4 napędów (wraz z napędem CDROM). Płyty starsze zazwyczaj obsługują jedynie 2 napędy.
Tutaj mała aczkolwiek istotna uwaga. Zarówno rozmiar, jak i typ łączenia dysku musi odpowiadać parametrom naszej płyty głównej i BIOSa. Nie da się podłączyć dysku z interfejsem Serial ATA do płyty głównej obsługującej EIDE, ATAPI. One fizycznie nie pasują. Stare BIOSy (sprzed 1997r) raczej nie obsłużą dysków większych niż 8GB. BIOSy sprzed 2000r nie obsłużą dysków o pojemności większej niż 32GB, a BIOSy sprzed 2002r nie obsłużą dysków 132GB i większych. Jeśli BIOS nie był aktualizowany, to należy przyjąć, że pochodzi on z roku, w którym został zakupiony sprzęt. Dyski najmniejszych pojemności (obecnie 15GB) są sprzedawane w przystępnej cenie ok. 200-300 zł/szt. Odnośnie archiwizacji danych, patrz uwagi w następnym punkcie.
Ważnym aspektem jest utrzymywanie dysków w uporządkowanym stanie. Nawet nowy dysk, lecz nieuporządkowany, będzie wolniejszy od uporządkowanego sprzed 8 lat. W systemie DOS i Windows 95/98/Me do uporządkowania służy program defrag. Od jego funkcji i nazwy pochodzi polskie słowo "defragmentacja", która w tym wypadku oznacza składanie plików w jednolitą całość z mniejszych części. Przy codziennym użytkowaniu komputera zalecam przeprowadzenie porządkowania raz w tygodniu. Z góry uprzedzam, że uruchomienie defrag'a na dysku, który nie był poddany zdefragmentowaniu przez wiele miesięcy lub nawet nigdy, zajmie wiele czasu, nawet parę godzin.

Edytory tekstu (WORD), arkusze kalkulacyjne (EXCEL)

Jeśli dysponujemy kartą graficzną na magistrali PCI lub AGP, to jej wymiana tutaj nic nie da. Odmiennie przedstawia się sytuacja z bardzo starymi kartami (komputery z procesorami 386, 486) na magistrali ISA. Jeśli istnieje na płycie złącze PCI, to polecam zakup nawet najprostszej używanej karty PCI. Ich cena obecnie wynosi kilkanaście do kilkudziesięciu złotych. Wzrost prędkości wyświetlania, a więc i komfortu pracy będzie co najmniej 3x. Drugim elementem, który warto zakupić, to pamięć. Przy pracy w systemie Windows 95 minimalna ilość pamięci RAM to 16MB, a dająca poczucie komfortu to 64MB. W przypadku Windows 98 wielkości te podwajają się. W środowisku DOS posiadanie pamięci większej niż 16MB mija się z celem. Polecam w tej kwestii konsultacje ze spacjalistą, ponieważ mnogość rodzajów modułów pamięci nastręcza kłopoty nawet fachowcowi. W przypadku starszych rodzajów pamięci typu SIMM, PS2, DIMM (mie sychroniczny) konieczny będzie zakup używanych, gdyż nowe nie są w polskich sklepach dostępne. Wymiana mikroprocesora jest opcjonalna, a dokupienie dysku ma sens wtedy, gdy przechowujemy na nim archiwalne dokumenty i brakuje miejsca.
Z uwagi na to, że ceny używanych, i stosunkowo nowoczesnych komponentów, stale tanieją, przy tak starym sprzęcie warto rozważyć wymianę kompletnej płyty głównej (płyta, procesor + radiator z wentylatorem, pamięć). Dziś na rynku wtórnym udaje się kupić płytę ze zintegrowaną grafiką AGP, dźwiękiem i procesorem Pentium 300, 32MB RAM za 50-100 zł.
Jeśli chodzi o zabezpieczenie danych, polecam zalup nawet najtańszej nagrywarki CDRW. Obecnie ceny kształtują się na poziomie 140 zł. Modele te będą obsłużone w starych komputerach typu Pentium 60MHZ, czy nawet 486. Płyty kompaktowe są względnie trwałe, pojemne (700 MB) i tanie (do 5 zł/szt). Płyty z oznaczeniem CDRW są wielokrotnego użytku (można je kasować i nagrywać ponownie).

Programy do przetwarzania grafiki (Corel, Photoshop) i składu tekstu (DTP)

Trzeba sobie powiedzieć prawdę. Pecet nie nadaje się do tego rodzaju pracy, podobnie zresztą jak do CAD, o czym będzie mowa za chwilę. Stanowczo odradzam peceta osobom, które chcą go użytkować w tym zakresie zawodowo. Firmą, która jest znana z produkcji dobrych komputerów do obróbki grafiki, jest Apple. Jej wieloletni już produkt, stale rozwijany i modernizowany, został specjalnie do tego celu zaprojektowany. Z góry uprzedzam, że dotyczy to jedynie modeli o więcej niż przeciętnych parametrach, rozbudowanych o dodatkowe moduły RAM. Niestety, jakość ma swoją cenę. Cena takiego zestawu przekracza kilkukrotnie cenę najwyższej klasy zestawu "pecetowego". W Polsce sytuacja jest jeszcze bardziej skomplikowana, ponieważ poza Warszawą, praktycznie nie jest dostępne żadne oprogramowanie, ani to legalne, ani nielegalne. A przecież komputer bez oprogramowania, nawet ten najnowocześniejszy, to kupa elektronicznego złomu. Pomoc doradcza i techniczna jest beznadziejna, a czary goryczy dopełnia głęboki niedobór literatury. Cóż więc ma począć ubogi grafik? No cóż, odpowiedź jest przykra. Musi męczyć się na pececie. Jedynie co można zrobić, to nieco ulżyć tym mękom dobierając odpowiednie komponenty.

W przypadku używanego sprzętu zmiana karty graficznej PCI na AGP nie wywrze dużego wpływu wtedy, gdy używamy programów do obróbki wektorowej. W przypadku obróbki zdjęć, decydujące znaczenie ma ilość zainstalowanej pamięci RAM oraz typ mikroprocesora. Do obróbki zdjęć w najwyższej rozdzielczości dla monitorów 17" (1600x1200) potrzebna jest karta grafiki z pamięcią co najmniej 4MB, a optymalnie 8MB (dla 16,7 mln kolorów). Większa ilość pamięci karty graficznej w tym wypadku nie jest wykorzystywana.
W przypadku pamięci operacyjnej w środowisku Windows 98/Me potrzeba 512MB RAM (więcej nie będzie prawidłowo obsłużone). Jeżeli płyta główna obsługuje pamięci typu DDR (double data rate), to gorąco je polecam. W tym wypadku, praca na pamięciach SDR przy mikroprocesorze obsługującym magistralę DDR jest niemal świętokradztwem. Skąpienie w tym wypadku jest przejawem głupoty, a nie racjonalnych oszczędności. Nawet na starych mikroprocesorach różnica między SDRAM a DDR będzie odczuwalna.
Jeżeli chodzi o mikroprocesor to istotna nie jest tyle jego częstotliwość taktowania (MHZ), co prędkość szyny FSB (Frot Side Bus). Szyna FSB jest tą częścią komputera, po której mikroprocesor komunikuje się z pamięcią i innymi układami. Ja obecnie posiadam procesor Celeron 633MHZ na magistrali FSB 66MHZ. Gdybym wymienił go na Intel Pentium III 600 MHZ, ale na magistrali FSB 133MHZ (płyta główna i pamięci RAM na to mi pozwalają), to wydajność mojego sytemu, mimo niższego taktowania jądra procesora, byłaby ponad 3x większa. Bierze się to stąd, ze przetwarzanie grafiki wymaga operowania na olbrzymich ilościach danych w pamięci operacyjnej RAM. Im wyższa jest prędkość pamięci, tym więcej procesor może przetworzyć, a karta graficzna pobrać do wyświetlania. Stąt też, wzrost wydajności systemu przy szybszym taktowaniu RAM jest nieproporcjonalnie wyższy, niż wynika to z samego taktowania pamięci.

Podsumowując, jeśli płyta główna pozwala nam na pracę pamięci DDR i w dodatku na częstotliwościach wyższych niż FSB procesora, to należy wymieniać przede wszystkim na najszybsze dostępne dla naszej płyty pamięci. Potem dopiero mikroprocesor na taki, który ma najwyższą dla naszej płyty głównej częstotliwość pracy FSB. Jeżeli wymiana mikroprocesora nie wchodzi w grę (posiadamy już taki o maksymalnej FSB) to pozostaje dołożenie lub wymiana pamięci RAM. Jeśli to nie wchodzi w grę, trzeba się poważnie zastanowić nad wymianą płyty głównej z kompletem komponentów (pamięć, procesor + radiator z wentylatorem, i gdy potrzeba to obudowę z zasilaczem). Wymiana samego mikroprocesora na używany Pentium III 133MHZ będzie kosztować w granicach 150 zł. O ile nam płyta pozwala, możemy zakupić nowy mikroprocesor na FSB 400MHZ, np. Celeron 1,7Ghz. Niestety, w tym wypadku będzie nas to kosztować 2x więcej. Wymiana pamięci w zależności od typu ok. 200 zł za jeden moduł 256MB DDR 333MHZ. Piszę o wymianie, bo niestety spora część kupowanych płyt głównych nie obsługuje równocześnie pamięci DDR i SDR. Zresztą mieszanie ich nie miałoby sensu.

Programy wspomagania projektowania (CAD/CAM/CAE)

Jak przed chwilą wspominałem, komputery opearte o architekturę "peceta" nie nadają się do prac inżynierskich, a przynajmniej nie na poziomie profesjonalnym. Nie pomoże tu nawet Intel Pentium 4HT Xeon w układzie wieloprocesorowym na FSB 800MHZ czy też najnowsze dziecko AMD - 64-bitowy Athlon i Opteron.
Na rynku, także w Polsce, dostępne są specjalizowane stacje robocze IBM, Sun, Cray, Indy. Ich cena rozpoczyna się gdzieś ok. 40 tys. zł za najprostszy zestaw. Oprócz wysokiej klasy wydajnego sprzętu otrzymujemy specjalistyczne oprogramowanie dostosowane do konkretnego modelu wraz z nieodpłatnym szkoleniem na poziomie podstawowym oraz dożywtnią opiekę serwisową. Na taki sprzęt mogą sobie pozwolić jedynie średnie i duże przedsiębiorstwa o przychodzie rzędu wielu milionów złotych rocznie. W Polsce sytuacja jest szczególnie trudna, gdyż ceny na usługi projektowe niezywkle spadły od czasu PRLu; za wykonanie kompletnego projektu architektonicznego czy instalacyji wod-kan, c.o. budynku mieszkalnego dziś otrzymuje się mniej niż wynosi płaca minimalna. Nie ma więc praktycznie żadnych perspektyw na porządny sprzęt. Najczęściej nasi nieszczęśnicy projektanci bazują na komputerach domowych. Gdy dochodzi do zakupu nowego komputera, to nie ma problemów z zasięgnięciem opinii odnośnie wymagań technicznych. Schody zaczynają się, gdy trzeba zmodernizować istniejący sprzęt.
Całkiem sporo osób pracuje jeszcze na programach CAD w środowisku DOS. Nic dziwnego, bowiem programy te są niezwykle drogie, a cena potrzebnych modułów nierzadko sięga samochodu średniej klasy. Nie można się więc dziwić, że projektanci korzystają z tego oprogramowania całymi latami. W ich przypadku wymiana karty grafiki ISA na PCI (jeśli tylko płyta na to pozwala) jest najrozsądniejszym wyjściem. Wymiana kart PCI na karty AGP na niewie się tu przyda. Najbardziej porządane byłyby te karty, które mają wsparcie sprzętowe dla funkcji 2D i 3D oraz sterowniki DOS dla CAD. Ze znanych mi modeli ATI (Expert, Mach) oraz S3 (Virge, Savage) posiadały specjalizowane sterowniki dołączone na dyskietkach instalacyjnych. Dołożenie pamięci RAM do max. 64MB (tyle obsługuje MSDOS 7) także może wpłynąć na poprawę wydajności. Warto pamiętać, by przy dokupywaniu pamięci obsadzić wszystkie banki pamięci na płycie głównej. Dzięki temu włączy się tryb pracy tzw. interleave, który zwiększa wydajność systemu mawet 3x.

W przypadku nowszych maszyn pracujących w środowisku Windows obowiązują te same zasady co do obróbki grafiki. Z tym, że tu ważne jest także, by sterowniki karty graficznej miały pełną implementację przyspieszenia funkcji 2D i 3D. Niestety, z dostępnych znanych producentów jedynie Nvidia (wersje Quadro) oraz ATI (wersje workstation FireGL) posiadają pełne implementacje. Ani karty ATI Radeon, ani Nvidia Riva TNT2, GeForce nie mają w sterownikach pełniej obsługi 2D. Ich wydajność 2D, o zgrozo, jest zbliżona do kart PCI klasy S3 Virge - konstrukcji sprzed siedmiu lat. Innymi słowy, jeśli ktoś zajmuje się elektroniką lub architekturą (płaski model), to wymiana karty AGP np. RivaTNT2 na GeForce4 nic nie zmieni. Nieco inaczej wygląda to w przypadku obróbki grafiki 3D (trójwymiarowej). W tym wypadku karty GeForce4 nawet wersje okrojone - MX zdadzą egzamin w aplikacjach "domowych". Kart ATI nie polecam z uwagi na wolną, wadliwą oraz niepełną implementację OpenGL. Poza tym, konstrukcja sprzętowa i programowa kart Nvidii sprzyja ich uruchamianiu na wolniejszych mikroprocesorach, czego nie można już powiedzieć o produktach ATI.

Gry i programy edukacyjne

W przypadku programów edukacyjnych zmiana karty grafiki będzie pożądana wtedy, gdy istniejący sprzęt nie obsługuje pełnej wymaganej rozdzielczości i palety kolorów. Czasami przydatne jest dokupienie pamięci RAM, a czasami (dość rzadko) wymiana procesora na szybszy.
Zupełnie odmiennie przedstawia się sprawa z grami. Sytuacja w tym obszarze jest bardzo skomplikowana. Generalnie rzecz biorąc, w przypadku gier na plaformę DirectX 7 i 8 najczulszym punktem systemu jest karta graficzna. Jeśli chodzi o gry DirectX 6 i starsze to karta graficzna klasy RivaTNT2 i procesr MMX200 do 1GHz zaspokoi wymagania. Z kolei gry na DirectX 9 oprócz dobrej karty graficznej wymagają silnego mikroprocesora i dużej ilości pamięci RAM. Wniosek jest więc taki, że na starym sprzęcie, nawet po modernizacji, nie pogramy w gry używające najnowszych technologii (9 i wyższa) choćbyśmy posiadali najszybszą kartę. Wynika to z faktu, że w nowych grach ich twórcy implementują wiele elementów świata rzeczywistego, symulują prawa fizyczne, sieci neuronowe, uwzględniają złożone właściwości socjologiczne, psychologiczne. Te wszystkie "wodotryski" wymagają znacznie silniejszego procesora nawet od AMD Athlon 1000MHZ, który jeszcze półtora roku temu był jednym z najszybszych dostępnych układów dla nie-bogaczy. Jeśli gramy w gry karciane albo interesują nas gry planszowe w układzie płaskim (2D), to wystarczy nam nawet pierwszy procesor Pentium i karta PCI.

Dlaczego zmieniłem Rivę na Radeona?

W domu komputera używam głównie do zabawy, nauki i tworzenia własnej strony www. Lubię od czasu do czasu zagrać w Sim City, Grand Prix, czy Colin McRae. Nowe edycje tych gier ujawniły słabe strony dobrze sprawującej się przez długie lata Rivy TNT2. Jako że nie stać mnie było ani na nowy komputer, ani naweet na nową kompletną płytę z karta graficzną, postanowiłem unowocześnić najsłabszy punkt systemu, tj. kartę graficzną.

Wielotygodniowe poszukiwania i wertowanie prasy, internetu doprowadziły mnie do wniosku, że najlepszym rozwiązaniem pod względem wydajności i ceny będą karty z rodziny Radeon. Wedle wszędzie publikowanych testów wynikało, że Radeony przy niższej cenie są szybsze od produktów Nvidii. Konstrukcja Radeona 9000 osiąga znacznie niższą wydajność od starszej wersji 8500 i jego "odkurzonej" 9100. Różnica w cenie między wersją 9000 i 9100 nie była duża (ok. 40 zł), a wersja 9500 kosztowała aż 2x drożej (ponad 600 zł). Komponentów nie kupuje się na kwartał czy rok, stąd też postanowiłem zakupić Radeona 9100, a nie jego młodszego i tańszego, lecz wolniejszego brata 9000. Poszedłem rozejrzeć się po sklepach. Wydawało mi się, że skoro mieszkam w największej aglomeracji w Polsce, w dużym mieście, nie będzie żadnych problemów z zakupem.
Tak się składa, że moja płyta główna dysponuje jedynie złączem AGP w wersji 1.0, tj. zasilanie 3,3 wolta i prędkość max 2x (133MHZ). Wbre pozorom ta architektura nie jest aż tak stara, bowiem jeszcze na przełomie lat 2001/2002 powszechne kupowane były płyty z AGP 1.0. Wersje 2.0 (4x,266MHZ) były dostępne jedynie w drogich markowych produktach, np. ASUS, których cena była 2, 3 a nawet 4 x wyższa od niemarkowych płyt głównych. Moja RivaTNT2 M64 już miała złącze AGP2.0 (4x/2x). Ponieważ Riva ma złącze uniwersalne, to może pracować z nowym zasilaniem 1,5v, jak i starym 3,3v (moim), zgodnie zresztą ze specyfikacją techniczną AGP, która zaleca zgodność ze starszym sprzętem. W przypadku nowych kart (Radeon, GeForce) wcale nie mogłem być pewien, że będą obsługiwać moją starą magistralę 3,3v. Konieczna zatem okazała się konsultacja. Tutaj czekała mnie niemiła niespodzianka. Otóż wszyscy ci komputerowi fachmani kategorycznie i zgodnym chórem oświadczali, że w żadnym wypadku nowe karty nie mogą zostać u mnie uruchomione, bo ulegną spaleniu. Sięgnąłem po internet i złożyłem zapytania bezpośrednio producentom. Odpowiedź była jasna: jak najbardziej obsługują stare płyty, przy czym sterowniki, jak i układy elektroniczne zostały zoptymalizowane dla płyt z AGP2.0 więc nie można się spodziewać pełnej wydajności. Widać więc, że nasi sprzedawcy są może i dobrymi handlowcami, ale na pewno nie fachowcami. Uzbrojony w tą autorytatywną wiedzę tydzień później udałem się do sklepu. Okazało się, że karty, na którą się zdecydowałem, nie ma już w hurtowniach w całej południowej Polsce. Pozostał mi tylko zakup przez internet. Tak też zrobiłem. Po 5 dniach od złożenia zamówienia, nadeszła do domu przesyłka. Pełen podekscytowania od razu zamontowałem kartę w komputerze zgodnie z wszelkimi regułami sztuki. A więc najpierw deinstalacja starych sterowników, wyłączenie fizyczne z prądu, uziemienie, wyjęcie starej i włożenie nowej, korekta ustawień BIOS, pierwsze uruchomienie i instalacja sterowników dostarczonych na CD. Pierwsze wrażenie było ..... z piekła rodem.

Pierwsze wrażenia z Radeonem

Po zainstalowaniu wszystkiego jak należy, od razu wgrałem wszystkie programy testujące jakie miałem. Na pierwszy ogień poszedł Final Reality. Jakiesz było moje zdumienie, gdy nowiutki Radeon, okazał się być 3x wolniejszy od starej Rivy. Następne testy 3DMark 2000, bo on wykorzystuje sprzętowe funkcje geometrii TCL (ang. Triangle Clipping and Lighting Engine). Miałem pełne prawo spodziewać się, że tutaj nowa karta pokaże swe prawdziwe oblicze zostawiając daleko w tyle starą Rivę, która przecież nie obsługuje sprzętowo TCL, może jedynie tworzyć obraz na podstawie tego, co dostarczy procesor główny. Znowu przyszło rozczarowanie, bo nie można było przejść całego testu do końca. Następował krach, a wizualna obserwacja wskazywała, że Radeon nie tylko nie jest szybszy, ale wolniejszy od Rivy. Próba 3DMark99. Test zostaje ukończony, ale wyniki zbliżone do starych kart PCI. W końcu zabrałem się za panel kontrolny. Zgodnie z zawartymi tam informacjami ustawiłem je na "największą wydajność". Ponowne uruchomienie przynosi niemal takie same mierne rezultaty. Myslę, spróbuję uruchomić demka ATI. Wczytuję "delfinka", demko specjalnie napisane dla Radeona 8500. Uruchamiam i moim oczom ukazuje się zdumiewający komunikat "twoja karta nie obsługuje N-patches". Znowu udaję się do panelu sterowania, wiedziony intuicją ustawiam tym razem wszystko na "jakość". Odpalam demko i ... tym razem się uruchomiło. Uruchamiam 3DMark2000 i krach. Uruchamiam 3Dmark 2001 i o dziwo przechodzi. Próbuję uruchomić jakąś gierkę na OpenGL i krach. Przyznam się w tym miejscu, że mało mnie szlag nie trafił. Frustracja sięgnęła zenitu doprowadzając mnie niemal do łez. Do głowy przychodziły różne myśli; że tak ciężko zaoszczędzone 340zł wydałem na techniczny przereklamowany szmelc, że dałem nabrać się pismakom, komputerowym konowałom.

Spacerek na świeżym powietrzu i nachodzi mnie natchnienie. Wszystko staje się jasne. Problem nie leży w kompatybilności sprzętowej, ale marnej jakości sterowników. Ściągam "tweaki", ustawiam opcje, jak trzeba i teraz wszystko przechodzi bez problemów. Wyniki podwajają się, a w przypadku testu wielokątów nawet zwiększają się 10x. Nadal jednak niepokoi mnie niska wydajność porównywalna z starociem Rivą TNT2. Jak na kartę tej klasy jest to bardzo dziwne. Uruchamiam własne łatki sprzętowe i .... tym razem pojawia się uśmiech zadowolenia. Niestety, próby uruchomienia demka Nvidii Tree spełzy na niczym. Dopiero włączenie filtrowania anizotropowego i Smoothvision pozwala uruchomić test.

Dalsze tygodnie spędziłem na różnych testach i rozgryzaniu parametrów sterowników, a zwłaszcza narzędzia "rozwiązywania" problemów SmartGart. To ostatnie cudo w rzeczywistości przynosi więcej szkody niż pożytku. Gdy uprze się i wyłączy odczyt AGP, to wydajność Radeona nawet w trybie 2x jest mniejsza od starocia S3 Virge! Niestety, jeśli średnio doświadczony użytkownik chce włączyć funkcje sprzętowe musi zainstalować panel sterowania ATI, a wraz z nim także ten nieszczęsny SmartGart. Dlaczego potrzeby jest panel sterowania? Ponieważ, w standardowym ustawieniu sterowniki z jakiś powodów nie włączają sprzętowej obsługi TCL oraz Pixel i Vertex Shaderów. Tymczasem te właśnie elementy stanowią istotę tej karty. Spora część funkcji nawet DirectX 6 (np. bump mapping) odbywa się poprzez właśnie shadery. Co więcej, standardowo karta ustawia się w tryb 1x bez zapisu i odczytu AGP (a więc w trybie AGP/PCI). Dopiero właśnie panel sterowania ATI i SmartGart pozwala to zmienić.

Wiele doznałem przykrości z powodu nowego nabytku. O tych perypetiach opowiem szczegółowo przy okazji prezentacji rezultatów testów wydajności w sekcji Pomiary oraz Optymalizacje i łaty.

Pomiary

Zanim przejdę do przedstawienia i omówienia wyników pomiarów wydajności kart graficznych, scharakteryzuję pokrótce metody pomiaru i sprzęt.
Wszystkie adekwatne dla danej serii pomiary zostały dokonane na dokładnie takiej samej konfiguracji sprzętowej i programowej (dotyczy to także ustawień BIOSa). Pomiary dla każdej z kart odbyły się w 3 seriach.

  1. Pierwszy pomiar został dokonany na sprzęcie w żadnym stopniu niezoptymalizowanym. Karty AGP pracowały w trybie 1x przy aparture size 64MB. Pomiar ten miał oddać sytuację, w której karty były używane przez użytkownika nieobeznanego z techniką komputerową, kompletnego laika. Sterowniki kart graficznych (o ile było to możliwe) zostały ustawione na maksymalną prędkość. Nie przetaktowywałem pamięci i rdzenia, nie używałem żadnych programów "podkręcających" sterowniki kart.
  2. Drugi pomiar został dokonany przy pełnej optymalizacji sprzętu poprzez BIOS. Karty pracowały w trybie AGP 2x przy aparture size 64MB. Sterowniki karty zostały ustawione w pozycji "najlepsza jakość". W przypadku Radeona włączone były opcje SmoothVision oraz Filtrowanie Anizotropowe w pozycji 2x. Początkowo chciałem dokonać pomiaru przy maksymalnej jakości filtrowania, ale pierwsze wyniki były tak żałosne, że szybko zmieniłem na 2x.
    Pomiar ten miał na celu ukazanie, co można uzyskać ze sprzętu bez kompromisu na jakości obrazu. Pomiar charakterystyczny dla średnio zaawansowanego użytkownika, obeznanego w problematyce komputerowej. Podobnie jako poprzednio, karty i sterowniki nie były w żaden sposób podrasowywane. Optymalizacja w BIOSie polegała na ustawieniu następujących pozycji:

    SDRAM CAS latency: 2
    SDRAM Timing: Turbo (8ns)
    Read around Write: enabled
    PCI dynamic bursting: enabled
    Video cachable: enable
    PCI buffering: enabled

  3. Trzeci, dodatkowy pomiar dokonany został przy pełnej optymalizacji sprzętu poprzez BIOS (jak w serii 2) oraz przez specjalnie do tego celu napisane własne programy, a także programy typu "tweak". Nie stosowałem przetaktowywania rdzenia i pamięci kart graficznych. Optymalizacja przez łaty obejmowała co następuje:

    podniesienie taktowania pamięci operacyjnej SDRAM o 33MHZ (do 100MHZ)
    zmiana precharge to active z 3T na 2T
    zmiana active to precharge z 6T na 5T
    zmiana active to CMD z 3T na 2T
    zmiana bank interleave z brak na 4 way
    zmiana CPU In-Order-Queue Size z 1-level na 4-level
    ustawienie AGP master read caching
    ustawienie cachowania dla BIOSa kart graficznych i BIOSa płyty głównej oraz Write Combining dla Linear Frame Buffer i AGP aparture; rejestry VMTRR i FMTRR w MSRach mikroprocesora

Wszystkie pomiary dokonane zostały w dostępnych mi najnowszych wersjach sterowników. Dla S3 Virge był to oryginalny sterownik Windows98SE, dla RivaTNT2 był to Unified Nvidia Driver v.45.23, a dla Radeona - Catalyst v7.93 (3.7). Zastosowałem patch Hyperion 14.45 dla układów VIA. Karty AGP pracowały w trybie 2X.

Platforma sprzętowa to:


Testy w środowisku DOS

Jak za chwilę zobaczymy, wszystkie 3 karty w czasie pierwszej serii testów pokazały dobrą wydajność. W trzeciej serii ujawniła się różnica w szczytowej wydajności między kartami AGP a PCI. Nie ma jednak ona znaczenia w trakcie normalnego użytkowania. W drugiej serii zauważalny jest brak przyspieszenia w trybie graficznym. Winę za to ponosi BIOS, który nie ustawił właściwych VMTRR (Memory Type Range Registers) i FMTRR (Fixed Memory Type Range Registers) w mikroprocesorze. Nie potrafił on nawet rozpoznać wielkości BIOS'a karty graficznej, który akurat w Radeonie wynosi 52KB. Brak jest szczególnie istotnych róznic między Radeonem i S3. Zadziwiające są wyniki Rivy TNT. Jest wolniejsza nie tylko od Radeona ale i S3 Virge. Pełna optymalizacja w 3 serii poprawia sytuację przy bezpośredniej obsłudze grafiki. Winę za niskie wyniki ponoszą powolne moduły ROM BIOSa karty.

Dr.Hardware Sysinfo v.8.0e DOS
 
Karta graficzna
S3 VirgeRiva TNT2Radeon 9100
Seria 1 - niezoptymalizowana
Druk znaków na ekran przez funkcje BIOS (znaków na sekundę)481931091955036
Druk znaków na ekran przez funkcje DOS (znaków na sekundę)18199819825479
Wyświetlanie punktów (pikseli) na ekranie poprzez funkcje BIOS (punktów na sekundę)473151025744999
Przepustowość magistrali 32bit tryb graficzny (MB/s)26,726,726,7
Seria 2 - optymalizacje BIOS
BIOS: druk na ekran48499362316484847
DOS: druk na ekran3821940039112839
BIOS: pixel na ekran33782459557330545
Przepustowość magistrali26,726,726,7
Seria 3 - pełna optymalizacja
dane jak dla seri drugiej za wyjątkiem przepustowości magistrali39,3115119,3

Wyniki są jednoznaczne. W trybie tekstowym prędkość druku jest tak duża, że wszystkie karty sprawują się znakomicie. W trybach graficznych, S3 Virge choć 3x wolniejsza i tak wypada dobrze. S3 Virge ma wszakże jedną zaletę. Jej sprzętowe funkcje 2D i 3D mogą zostać wykorzystane także w 16-bitowym środowisku DOS w trybie rzeczywistym procesora, co nie jest możliwe w przypadku obu kart AGP. Stosunkowo niski wynik S3 Virge w grafice wynika z faktu, że pracuje ona w środowisku procesora klasy Pentium Pro. Cechą tych procesorów jest niska sprawność wykonywania kodu 8 i 16 bitowego, a także niska sprawność komunikacji z urządzeniami zewnętrznymi, w tym z kartami graficznymi. Ten ostatni feler jest związany z jego architekturą tj. niesekwencyjnym wykonywaniem instrukcji. Karta graficzna musi sprawnie obsługiwać tryb Write Combining, czego oczywiście S3 Virge nie może oferować. Wcześniejsze modele mikroprocesorów z rodziny Pentium, w tym także modele konkurentów AMD i Cyrix są w stanie wydusić z S3 nawet 132 MB/s, co sprawdzłem w testach.

Testy w środowisku MS Windows 98SE

Środowisko Windows zawiera przyjemny dla użytkownia interfejs graficzny. Niestety, stawia on przed kartą graficzną spore wymagania. Najpierw przedstawię i omówię wyniki testów 2D GDI GUI (interfejs graficzny użytkownika). Testy te pokażą jak sprawnie będzie się wyświetlać nasz tekst w edytorze tekstów, arkusz kalkulacyjny, schemat elektroniczny czy też strona sieci www przeglądarce internetowej.

Testy wydajności w aplikacjach biurowych

Dr.Hardware 2003 v4.5.0e Test aplikacji 2D
1 2 3 - kolejne serie testów
Karta graficzna
S3 VirgeRiva TNT2Radeon 9100
123123123
BitBlt (miliony punktów na sekundę)222124206283161686
PaintRG (miliony punktów na sekundę)222225283739293037
Bitmapy na sekundę - wydajność w wyświetlaniu np. zdjęć465427479390137018222882872138
Ikony na sekundę - wydajność przy wyświetlaniu piktogramów325031153999516310568125553421342911524
Druk znaków na ekran (w tys. na seundę)103,498,3107,3245,1255,9276.5241,7222,6271,5
Rysowanie figur geometrycznych (figur na sekundę)10822103041163615895165811721193531510316031

Oto mamy przykrą niespodziankę. Tak zachwalana nowoczesna karta graficzna Radeon jest wolniejsza w testach zwykłych użytkowników (testy 1 i 2) nie tylko od czteroletniej Rivy TNT2, ale nawet od siedmioletniej S3 Virge na PCI. Dopiero właściwe dokonfigurowanie sprzętu daje pożądane rezultaty. Wina za taki stan rzeczy nie leży w starym BIOSie czy wolnym mikroprocesorze głównym, lecz w sterownikach karty. Jak pokazuje Dr Hardware, sterowniki starego S3 Virge wspierają takie funkcje sprzętowe jak: rysowanie linii, rysowanie okręgów i elips, wypełnianie wielokątów, podczas gdy nowy Radeon nie ma tego zaimplementowanego i niemal wszystko jest robione przez Celerona, a więc procesor główny (CPU). Co jednak ma zrobić zwykły użytkownik? Ano nic, jak tylko cieszyć się, że ma wolną w trybie aplikacji biurowych, choć nowoczesną i zachwalaną kartę graficzną. Jeśli ktoś miał nadzieję, ze wymieniając starą Rivę będzie cieszył się potężnym akceleratorem grafiki użytkowej, to się poważnie rozczaruje. Rozczarowania dopełnia fakt, że wbrew sloganom reklamowym ATI, sterowniki Catalyst są bardzo okrojone w funkcjach, zawierają wiele błędów, przez co są niestabilne (krach aplikacji w najmniej oczekiwanym momencie), są potwornie trudne do skonfigurowania i uparte, gdy coś im nie pasuje (przeklęty SmartGart). Zwykły użytkownik ma nikłe szanse sobie z nimi poradzić.

Testy wydajności w grach 3D

Spoglądając na specyfikacje techniczne mamy prawo spodziewać się, że najnowocześniejsza z testowanych kart - Radeon 9100 pobije na głowę konkurentów we wszystkich testach związanych z grafiką trójwymiarową. Niestety, jak za chwilę zobaczymy, potężny "silnik" graficzny i taktowane 4x szybciej pamięci z szerszą 2x magistralą nie gwarantują zawsze dobrych osiągów.

Testy gier DirectX 6

Technologia DirectX 6 nie oferuje jeszcze wsparcia dla sprzętowych funkcji transformacji wielokątów oraz oświetlenia. Kartami, które w pełni w warstwie sprzętowej obsługują funkcje DX6 są RivaTNT2 oraz Radeon 9100. Inna sprawa, to fakt, że sterowniki Rivy nie implementują wszystkich funkcji, a sterowniki Radeona część funkcji realizują poprzez pixel i vertex shadery. W przypadku tej drugiej karty, jak zobaczymy w dalszych testach, zmiana ustawień w panelu kontrolnym może dla nieświadomego użytkownika oznaczać przykre niespodzianki.

Testy wydajności obsługi DirectX 6 i starszych
1 2 3 - kolejne serie testów
Karta graficzna
S3 VirgeRiva TNT2Radeon 9100
123123123
Program Direct3D 1.0
Fill Rate - czyli prędkość kreślenia punktów i nakładania płaszczyzn na siatkę wielokątów (miliony punktów na sekundę)3,73,73,770,971,671,6175,2129267
Intersection (tysiące wielokątów na sekundę)0,630,620,6216,716,616,717,212,132,0
Polygon Throughput - czyli wydajność w wyświetlaniu wielokątów (tysiące na sekundę)205,8209,8236,9318,4968,31492,5180,6181,5965
Final Reality 1.1
Test wydajności AGP, tekstury 16MB (klatki na sekundę)1,952,311,9788,3103,5142,680,595,7130,8
Wydajność funkcji 2D (punkty)2,745,082,742,632,614,892,462,684,81
Wydajność funkcji 3D (punkty)0,960,820,963,944,214,864,123,625,35
25 Pixel (tysiące wielokątów na sekundę)65,745,263,9129,5149,9252,6130,9177,2214
Robots (klatki na sekundę)1,393,111,3942,351,370,130,030,845,0
Fill Rate (miliony punktów na sekundę)4,112,324,1171,571,373,8267,890,8428,5
City Scene (klatki na sekundę)4,413,594,3957,567,494,133,239,259
Radial Blur (klatki na sekundę)27,848,128,026,826,646,725,327,345,9
Chaos Zooomer (klatki na sekundę)33,272,233,131,931,668,219,532,567,4
Prędkość przesyłu danych 2D MB/s46,550,046,531,331,154,71844,7105,1
Prędkość przesyłu danych 3D MB/s40,476,439,839,438,857,915,533,480,4
3DMark 99 Max 800x600x16, 16bitowe tekstury,16bitowy bufor Z, podwójne buforowanie
Wynik ogólny (punkty)72*-76221027744694138419543576
Prędkość procesora głównego (punkty)5434-8286544553378391555555598447
Rasterizer score (punkty)105-107145114491534693326929046
Game 1 - Race (klatki na sekundę)1,3-1,424,429,851,115,823,142,5
Game 2 - First Person (klatki na sekundę)0,5-0,520,226,043,412,316,930,9
6 pixel individual (tysiące wielokątów na sekundę)120,6-141,41495201107183459931
6 pixel strips (tysiące wielokątów na sekundę)126,2-146,340817161926139016073197
1000 pixel individual3,1-3,160606826,486,9367,5
1000 pixel strips3,1-3,17069,67329697,6366,3
* - test przeprowadzono w rozdzielczości 640x480x16 bo na więcej nie pozwala niewielka ilość pamięci video S3 Virge
Przy wszystkich pomiarach dla RivyTNT i Radeona synchronizacja była wyłączona

Dane są tak jednoznaczne, że nie wymagają obszernego komentarza. Z punktu widzenia gracza, istotne są przede wszystkim wyniki testów "Robots" i "City Scene" z F.R oraz "Race" i "First Person" z 3DMark99. Zaznaczyłem je na żółto. Wszystkie te testy niemal wiernie odzwierciedlają wyniki jakie osiągnęlibyśmy w grach. Tutaj ujawnia się różnica w technologii między S3 Virge i pozostałymi kartami. Przy czy warto zauważyć, że różnice w efektach nie wynikają z użytej magistrali (PCI vs AGP), bo prędkość przesyłu danych 2D i 3D w testach zwykłych użytkowników jest zblizona. Wynikają one niemal całkowicie z technologii procesora graficznego. Zupełnie zaskakujące są wyniki Radeona. Zaskakujące, ponieważ tam gdzie kończy się wydajność ATI, tam zaczyna się wydajność Nvidii. Teoretycznie 30 (F.R.) klatek na sekundę w najgorszym przypadku Radeona może wydawać się i tak satysfakcjonujące, lecz niestety podczas testów liczba tworzonych klatek spadała często nawet poniżej 5, co wizualnie wyglądało jak wyświetlane jeden za drugim przeźrocza. Wynik 12 klatek na sekundę w 3Dmarku jest tak żałosny dla Radeona, że w przypadku zwykłych użytkowników jego użytkowanie na grach DX6 jest nierealne. Choć moc procesora i ilość pamięci jest podczas testów taka sama, a Radeon jest nowocześniejszą kartą od Rivy, to jednak Riva (poza testem wypełniania Fill Rate) bije go na głowę. Wina leży po stronie sterowników ATI. Radeon musiałby być szybszy o 50% by osiągnąć zbliżone do Rivy osiągi. Świadczy to wyraźnie o wielkim marnotrawstwie mocy procesora głównego (CPU). Właśnie na słabszych mikroprocesorach możemy przekonać się o jakości sterowników. W przypadku ATI wyniki powszechnie używanych do dziś gier w technologii DirectX 6 są żałosne.
Nie dość, że żałośne, to podczas testów wykryłem sporo niespodzianek z Radeonem. Okazuje się np, w trybie AGP 1x nie można było w ogóle włączyć odczytu AGP. Wyniki testów na wypełnianie (Fill Rate) są niskie z powodu włączonego filtrowania.
Przy okazji warto już teraz zauważyć, że w trzeciej turze testów (system maksymalnie zoptymalizowany) wyniki są ponad 2x lepsze od wyników testów z pierwszej tury (system zupełnie niezoptymalizowany).

Testy gier DirectX 7

Nowa wersja DX dodała wiele ciekawych funkcji, lecz najważniejszą z nich jest wsparcie dla sprzętowej obsługi transformcji geometrii i oświetlenia. Do tej pory wszystkie operacje geometryczne takie jak obliczanie współrzędnych wielokątów, przesunięcie, obrót, skalowanie, odbicie, wykrywanie kolizji musiał obliczać procesor główny. Karta graficzna dostawała jedynie współrzędne wielokątów (najczęściej trójkątów) wraz z informacjami co z nimi zrobić (np. nałożyć na nie powierzchnię, tzw. teksturę, zacieniować, przefiltrować itp.). Teraz prawie wszystkie zadania zostają przeniesione na procesor karty graficznej. W tym teście mamy pełne prawo spodziewać się znakomitych wyników Radeona, jako że jedyny z całej trójki posiada pełną sprzętową i programową implementację DX7. W tym teście, jak i w następnych nie brała udziału karta S3 Virge. Wymagania stawiane przez programy testowe DX7, DX8 i OpenGL przekraczają jej możliwości techniczne.

Testy wydajności obsługi DirectX 7 3DMark 2000 1.1
1024x768x16 16bitowe tekstury, 16bitowy bufor Z, podwójne buforowanie
1 2 3 - kolejne serie testów
Karta graficzna
Riva TNT2 (Penitum III optimizations)Radeon 9100 (Hardware Texture and Lighting)
123123
Ocena ogólna (punkty 3Dmarks)106813621982krach1760 (1004)3298
Gra 1 - Helikopter niski poziom szczegółów (klatki na sekundę)21,026,039,230,2 (22,0)55,6
Gra 1 - średni poziom szczegółów13,117,427,723,5 (15,4) 43,1
Gra 1 - wysoki poziom szczegółów4,87,312,517,3 (7,6)32,3
Gra 2 - przygodowa n.p.sz.26,531,735,540,7 (21,3)81,7
Gra 2 - śr.p.sz.14,919,129,821,3 (11,0)38,6
Gra 2 - w.p.sz.8,711,920,413,7 (6,3)23,6
Prędkość CPU (procesora)6189163140 (64)252
High Polygon Count 1 Light (Wydajność geometrii i świateł, tu z użyciem jednego źródła światła) (tysiące wielokątów na sekundę)644135725854650 (181)9827
High Polygon Count 4 Lights644132523254818 (178)8178
High Polygon Count 8 Lights639123620594589 (176)6721
Prędkość nakładania tekstur 8MB (klatki na sekundę)938990,6133,7 (118,5)243,4
Prędkość nakładania tekstur 16MB908889,277,2 (60,5)139,4
Prędkość nakładania tekstur 32MB697180,841,6 (38,3)75,9
Prędkość nakładania tekstur 64MBbrak pamięci AGP3968,020,3 (13,7)39,1
BUMP Mapping 3-pass (klatki na sekundę)524747188,6 (78,1)152,1
BUMP Mapping environmentnie obsługiwane109,3 (92,3)209,9

Pewnego wyjasnienia wymagają wyniki pierwszej serii Radeona. Otóż przy właściwych dla tej serii ustawieniach Radeon nie był w stanie ukończyć z sukcesem 3DMark2000. Wszystkie testy kończył pomyślnie, lecz z chwilą przełączenia się na wyświetlanie wyników otrzymywałem komunikat "program wykonał niedozwoloną operację w module ddhelp", co kończyło się zamknięciem 3DMarka zanim mogłem zobaczyć wyniki. Drugie wyjaśnienie dotyczy serii drugiej również Radeona. Otóż po pierwszej serii okazało się, że smartgart zabronił agp2x, a sterowniki z jakiś powodów wyłączyły HTCL (sprzętowa geometria i oświetlenie). Po wykryciu tego faktu, ustawiłem wszystko jak należy i ponownie przeprowadziłem test. Wyniki w nawiasie odnoszą się do pierwszego pomiaru z wyłączonym agp i HTCL.
Wreszcie mamy upragnione wyniki. Jak widać, Radeon będąc nowocześniejszą konstrukcją, obsługuje funkcje, których nie ma RivaTNT2, jak np. sprzętowe przekształcenia geometrii i świateł, odwzorowywanie środowiskowe (environmental bump mapping). A jednak, w trybie maksymalnie zoptymalizowanym Riva i tak wyprzedza Radeona w trybie optymalizacji BIOS (druga seria wyników). Przyznaję, że po sprzętowej geometrii spodziewałbym się lepszych wyników. Ledwie 14 klatek w grze przygodowej nie umożliwia gry na tym poziomie jakości obrazu, a RivaTNT nie jest tu wiele gorsza.

Kolejny raz możemy zaobserwować wydatny wpływ pełnej optyamizacji systemu na wyniki. Porażający jest wręcz wynik High Polygon Count Rivy. 2,6 mln wielokątów w stosunku 0,6 mln daje czterokrotny wzrost wydajności! W grach przejawia się to w możliwości grania na średnim poziomie szczegółów, co przy ustawieniach pierwszej serii jest w ogóle nie możliwe.
Warto też zauważyć kolejne niechlujstwo ATI. Otóż największy przyrost prędkości w stosunku do Rivy z powodu obsługi sprzętowej geometrii przez Radeona uzyskujemy przy najniższym poziomie szczegółów (o 120%), co dla płynności gry nie ma zupełnie znaczenia (Riva osiąga tutaj ponad 35 klatek/s), podczas gdy w scenach złożonych (wysoki poziom szczegółów) wzrost ten ledwie wynosi 25%. Jest to ewidentna wina sterowników ATI, ponieważ cały czas mamy do czynienia z procesorem głównym o tej samej mocy obliczeniowej. Gdyby za wolny był procesor, to adekwatny spadek renderowania obserwowalibyśmy również na Rivie, a stosunek Radeon/Riva zostałby mniej więcej na podobnym poziomie.

Testy DirectX 8

Nie bez powodu Microsoft podniósł numer wersji aż o całą jednostkę. Karty DX7 (np. GeForce, GeForce2, GeForce4MX) oferowały jedynie układ o wbudowanych na stałe, z góry zaplanowanych funkcjach przekształceń. Nowy DX oferuje wsparcie dla w pełni programowalnego procesora przekształceń geometrii oraz obrazu (tzw. pixel i vertex shadery). Co ważne, tych efektów nie można sprawnie emulować programowo nawet na najsilniejszych mikroprocesorach. Nowe funkcje to przede wszystkim możliwość generowania niezwykle realistycznych obrazów natury, a także tworzenia w czasie rzeczywistym efektów (filtrowanie) znanych z programów graficznych Photo shop, Paint Shop Pro, np. wykrywanie krawędzi, przekształcanie zdjęcia (lub filmu, obrazu tv) w obraz namalowany "ręką" artysty, na film rysunkowy, czy wreszcie efekty mgły, obsługa wielu źródeł światła, odbić, cieni itp. Radeon 9100 obsługuje sprzętowo wszystkie funkcje DirectX8, na dodatek ma rozszerzone możliwości w stosunku do standardu. Zobaczmy jak się sprawuje w tym środowisku.

Testy wydajności obsługi DirectX 8 3DMark 2001SE
1024x768x32 32bitowe tekstury, 24bitowy bufor Z, podwójne buforowanie
1 2 3 - kolejne serie testów
Karta graficzna
Riva TNT2 (Penitum III optimizations)Radeon 9100 (Pure Hardware Texture and Lighting)
123123
Ocena ogólna (punkty 3Dmarks)3404306913671815 (386)2844
Game 1 - Car Chase niski poziom szczegółów (klatki na sekundę)3,86,212,56,119,3 (6,4)38,0
Game 1 - Car Chase wysoki poziom szczegółów0,71,13,71,13,2 (1,2)10,2
Game 2 - Dragothic n.p.sz.4,96,312,14,539,7 (4,8)53,6
Game 2 - Dragothic w.p.sz.1,52,14,42,421,2 (2,6)30,2
Game 3 - Lobby n.p.sz10,812,112,99,028,4 (9,5)43,2
Game 3 - Lobby w.p.sz5,06,17,65,011,1 (5,2)18,9
Game 4 - Naturenie obsługujenie dostępne11,5 (n.d.)15,5
Fill Rate Single Texturing (miliony punktów na sekundę)989697,4786344786
Fill Rate Multi Texturing112112,1112,118438561843
High Polygon Count 1 Light (miliony trójkątów na sekundę)0,41,01,9mniej niż 0,1
brak wyniku
10,6 (brak wyniku)12,1
High Polygon Count 8 Lightsmniej niż 0,10,71,0brak wyniku5,4 (brak wyniku)6,2
Environment Bump Mapping (klatki na sekundę)nie obsługuje9,143,9 (9,1)44,1
DOT3 Bump Mappingnie obsługuje31,418,0 (4,0)31,4
Vertex Shader (klatki na sekundę)2,05,19,15,930,5 (4,9)31,2
Pixel Shader (j.w.)nie obsługujenie dostępne26,1 (n.d.)25,9
Dodatkowy test Pixel Shadernie obsługujenie dostępne9,7 (n.d.)30,1
Point Sprites (miliony "spritów" na sekundę)mniej niż 0,10,30,71,112,6 (1,1)12,7

Interpretacja danych w nawiasie jest taka sama jak w poprzednim teście gier DirectX 7. Pewną niespodziankę może stanowić brak wyników dla gry Nature w pierwszej serii dla Radeona. Powód jest trywialny. Gra "natura" wymaga aktywnych pixel i vertex shaderów, tymczasem ustawienie sterowników w panelu sterowania na jawyższą prędkość powoduje ich wyłączenie! Fakt ten ujawnia się także w dedykowanych dla nich testach (na dole tabeli). Co ciekawe, raz wyłączone pixel i vertex shadery nie zostały ponownie włączone po przestawieniu sterowników na najwyższą jakość. Dopiero moja interwencja przy pomocy Rage3DTweak rozwiązała problem. Widoczny jest także inny problem. Otóż we wszystkich przeprowadzonych testach w drugiej serii wyniki są dużo gorsze niż w 3. Optymalizacje wpływają na wynik swoją drogą, lecz sporą winę ponoszą za to powolne funkcje wygładzania (filtrowanie anizotropowe i smoothvision). W trzeciej turze zostały one wyłączone, a w 2 były ustawione na 2x.

Właśnie w tym teście ujawnia się największa przewaga Radeona nad starą poczciwą Rivą. Riva nie obsługuje żadnych nowych funkcji, a jeśli sterownik na to pozwala, to dzieje się to tylko w trybie programowym (np. vertexy i sprity). Trzeba jednak przyznać, że nawet na Radeonie nie pogramy sobie w gry w trybie wysokiej jakości. Nie da się tego zrobić nawet przy pełnej optymalizacji. Przynajmniej nie w tej rozdzielczości i głębi kolorów. Ale o tym w następnym teście :)

Testy "gracza"

Jak łatwo zauważyć, wszystkie testy przeprowadziłem przy rozdzielczościach zalecanych przez 3DMarki. Wiemy natomiast dobrze, że RivaTNT2 M64 z uwagi na okrojoną o połowę szerokość scieżki dostępu do pamięci i niską częstotliwość jej taktowania wydatnie traci na wydajności w wyższych rozdzielczościach. Co więcej, wiadomo, że im wyższa jest rozdzielczość i głębia koloru tekstur tym bardziej obciążony jest mikroprocesor i magistrala, dając tym samym niższe wyniki. Normalny gracz, znając te fakty, nie będzie grał w rodzielczości 1024x768 i w dodatku przy 32-bitowej głębi tekstur i koloru, lecz wybierze najniższą możliwą głębię i rozdzielczość. Postanowiłem więc jeszcze raz przeprowadzić testy, tym jednak razem w rozdzielczości 640x480 (ponad 2x mniej punktów) oraz 16-bitowej głębi kolorów, tekstur i bufora Z. Przetestowałem jedynie gry w programach 3DMark w trybie pełnej optymalizacji. Wyniki przedstawia poniższa tabelka.

Testy wydajności obsługi DirectX w programach 3DMark
640x480x16 16bitowe tekstury, 16bitowy bufor Z, podwójne buforowanie
 
Karta graficzna
Riva TNT2Radeon 9100
3DMark 99
Gra 151,943,3
Gra 243,531,8
3DMark 2000
Gra 1 - n.p.sz.*49,756,8
Gra 1 - w.p.sz.15,332,9
Gra 2 - n.p.sz.62,682,3
Gra 2 - w.p.sz.20,424,0
3DMark 2001
Gra 1 - n.p.sz.13,238,2
Gra 1 - w.p.sz.-10,1
Gra 2 - n.p.sz.12,872,3
Gra 2 - w.p.sz.-36,6
Gra 3 - n.p.sz.27,345,8
Gra 3 - w.p.sz.-19,0
Gra 4-40,3
* oznacza odpowiednio Niski lub Wysoki Poziom Szczegółów

Stara Riva TNT sprawuje się znakomicie, nawet w testach DirectX 7. Można niekiedy sobie pograć nawet przy wysokim pozmiomie szczegółów. Niestety na gry DirectX 8, nie mówiąc już o DX9, jest zdecydowanie zbyt przestarzała. Na Radeonie, niestety, nie pogramy sobie pod DirectX 8 przy wysokiej jakości obrazu. Albo jest za słaby mikroprocesor, albo za wolna magistrala AGP, albo jedno i drugie. Z oczywistych powodów nie mogę tego sprawdzić. Na podstawie testów śmiem przypuszczać, że gdyby ATI nie napisało tak paskudnie sterowników, mój już zestarzały sprzęt z nowym Radeonem poradziłby sobie nawet w trybie wysokiej jakości. Warto także zauważyć, że w tej rozdzielczości i przy tych ustawieniach gra "natura" (Gra nr 4) funkcjonuje więcej niż sprawnie.

Środowisko aplikacji OpenGL

Od 1998r kiedy w kartach graficznych zaczęto implementować funkcje OpenGL zaczęły się pojawiać zarówno gry, jak i programy użytkowe na tą platformę graficzną. Zwłaszcza aplikacje użytkowe upodobały sobie to środowisko. Nic w tym dziwnego, bowiem OpenGL jest standardem daleko wykraczającym poza rodzinę komputerów domowych PC. Korzysta się chętnie z niego również przy naukowych pracach badawczo-rozwojowych, jest zaimplementowany na mini i superkomputerach, w komputerach architektów, medyków, symulatorach lotów samolotów, promów kosmicznych. OpenGL jest standardem dla aplikacji profesjonalnej grafiki użytkowej, a nadchodząca implementacja 2.0 będzie rewolucją na miarę pojawienia się wersji 1.0.

W takich okolicznościach warto prześledzić, jak radzą sobie nasze domowe karty graficzne z interfejsem OpenGL. S3 Virge nie obsługuje sprzętowo tej plaformy, stąd też nie brała udziału w testach. Do zbadania wydajności Rivy i Radeona posłużą mi dwa programy: znane demko-tester Nvidii Tree oraz GL Excess 1.2. Wszystkie pomiary dokonałem w trzech seriach, tak jak to miało miejsce przy DirectX.

Testy wydajności aplikacji OpenGL
640x480x16 16bitowe tekstury, 16bitowy bufor Z, podwójne buforowanie, synchronizacja wyłączona
1 2 3 - kolejne serie testów
Karta graficzna
Riva TNT2Radeon 9100
123123
TreeMark
Test prosty 35.820 wielokątów na scenę (klatki na sekundę)8,899,7311,0313,8719,438,4
Test złożony 1.280.800 wielokątów na scenę2,062,182,404,075,811,46
GL Excess
Fill Rate Scene 1 minimum/średnia64/9164/9265/93288/325184/225397/527
CPU/FPU Scene 215/1818/2221/2612/1519/2326/33
Polygon Count Scene 39/2221/3927/606/25113/20727/355
VRAM Test35/4936/5138/5122/3635/5064/85

Choć widzimy różnice w wydajności pomiędzy Radeonem i Rivą, to nie jest to jakaś porażająca jakościowo przewaga. Tak się akurat złożyło, że znalazłem w sieci internet wyniki testu Tree (i innego jeszcze programu OpenGL) dosłownie o identycznej konfiguracji sprzętowej jak moja (Płyta DFI PA61, Celeron 633), z tym że tam testom wydajności podlegał GeForce2MX bez takich jak u mnie optymalizacji. Wstyd przyznać, ale Geforce uzyskał ponad 2,5x lepsze rezultaty od Radeona. Czy autor kłamał? Chyba nie, bo inni użytkownicy przedstawiali podobne do tamtych rezultaty.

Optymalizacje i łaty

Uważny czytelnik zauważył, że kolejne coraz większe optymalizacje systemu doprowadzały do zauważalnego wzrostu wydajności. Nierzadko wzrost ten wynosił 100 i więcej procent. Zatem w pełni została potwierdzona - przedstawiona na początku felietonu - zasada, iż przed modernizacją należy możliwie najlepiej wysterować sprzęt. Może się bowiem okazać, że dzięki optymalizacji nie będzie potrzebna wymiana komponentów do czasu zakupu nowego komputera.

Przeprowadzone przeze mnie szczegółowe badania wykazały, że na mojej płycie opartej o układ VIA 691 najwyższy przyrost wydajności następuje po ustawieniu In-Order Queue Size na 4-level. To ustawienie pozwala zwiększyć wydajność mikroprocesora z 27 mflops (mflops - milion działań na ułamkach w ciągu sekundy) do ok. 80 mflops. Przestawienie magistrali na 100MHZ daje zaledwie kilkunastoprocentowy wzrost wydajności do 89 mflops, lecz wyłącznie razem z IOQS 4-Level. Szczęśliwi użytkownicy płyt firmy ASUS mogą IOQS ustawić w "setupie". O ile mi wiadomo, żadna inna firma nie wypuściła płyty na układzie VIA 691/3/4 pozwalając na zmianę standardowego ustawienia IOQS 1-Level na 4-Level. Efektem jest mizerna przepustowość magistrali pamięci, co w przypadku wymagających aplikacji doprowadza do spadku wydajności mikroprocesora nawet o 70%, a wślad z nim karty graficznej. Innym ważnym elementem podnoszącym wydatnie wydajność są właściwie ustawione rejestry VMTRR i FMTRR mikroprocesora. Ich wadliwe ustawienie może poważnie spowolnić wydajność systemu, o czym zresztą informuje Intel. W przypadku mojej płyty BIOS właśnie wadliwie je ustawia; BIOS karty graficznej ma rozmiar 52KB, a "cachowanie" ustawione jest tylko na 32KB. Zupełnie pozbawiony "cachowania" jest BIOS płyty głównej. Jakie są tego efekty? Jak ujawniają testy Dr.Hardware 8, wydajność mikroprocesora (HardStones) przy prawidłowo ustawionych VMTRR jest wyższa o niemal 50% (483.995 w stosunku do 322.960).
Muszę też powiedzieć, że ustawiając odpowiednie rejestry VIA można uzyskać wzrost wydajności nie tylko pamięci, procesora, lecz również dysku twardego. Standardowo moja płyta pozwala w trybie DOS osiągnąć do 5MB/s, podczas gdy zmiana dosłownie dwóch ustawień w mikroukładzie pozwala osiągnąć 12-15MB/s na dokładnie tym samym dysku. Niestety, wszystkie te optymalizacje można osiągnąć jedynie poprzez samodzielne zaprogramowanie układów we własnych programach.

Na stronie głównej w dziale technicznym zamieszczam dla moich czytelników i zarazem użytkowników płyt na układach VIA 691/693 - Apollo Pro 133 przydatny programik. Specjalnie na okoliczność tego felietonu go napisałem, bo nawet na stronach producenta VIA, ani w pakiecie Via4in1 (obecnie Hyperion) nie znajdziemy żadnej wskazanej optymalizacji.

Kilka wskazówek i uwag natury ogólnej

Karta graficzna na układach ATI jest niewątpliwie nowoczesnym akceleratorem grafiki 2D i 3D. Stosunkowo niskie wyniki względem Rivy pod DirectX 6 i 7 wskazują, że sterowniki zostały zoptymalizowane jedynie dla DirectX 8 i wyżej. Jakby tego było mało, sterowniki te zawierają mnóstwo błędów. Wiele programów nie chce zupełnie wystartować, następuje krach aplikacji, a nieraz i całego systemu (niebieski ekran). Zupełnie kuriozalnym rozwiązaniem jest wyłączanie pixel i vertex shaderów przy ustawiach sterowników w pozycji "najwyższa wydajność". Mam nadzieję, że jest to jakieś przeoczenie, błąd, a nie celowo zaprojektowane działanie. Gdzie tkwi problem słabych wyników? Powodem nie jest mój słaby procesor, ani stara płyta. Przyczyna tkwi w beznadziejnych sterownikach Catalyst. Mimo że ATI, w odróżnieniu od Nvidii, udostępnia okrojone dane techniczne twórcom sterowników alternatywnych (np. wspiera projekty linuxowe), to do tej pory nie doczekaliśmy się alternatywnych sterowników dla sytemu Windows. Windows 98/Me jest już raczej starym systemem, choć jak wynika z posiadanych przeze mnie statystyk odwiedzin www, wciąż jest najpopularniejszy nawet wśród zachodnich użytkowników. Mogę się domyślać, że ATI skupiło się na Windows XP i na tamtą platformę są one bardziej dopracowane. Z drugiej strony ATI prowadzi program wymiany i handlu używanymi kartami między użytkownikami. Zaleca właśnie takim użytkownikom jak ja karty z rodziny Radeon 7500, 8500, 9000, 9500. Windows XP nie nadaje się na starsze komputerki (np. wymaga mnóstwo pamięci, nie obsługuje mojej karty dźwiękowej). Jeśli więc ATI promuje program wymiany starszej generacji kart, powinno również zadbać o solidne sterowniki dla starszych wersji Windows i DirectX.
Sterowniki Catalyst okazuja się być niewypałem. ATI chyba zdaje sobie z tego sprawę, skoro dla kart profesjonalnych (klasy workstation - FireGL) opracowuje oddzielne wersje. Wcześniejsze wersje sterowników ATI pisane oddzielnie dla poszczególnych modeli były o wiele lepszej jakości. Próba stworzenia ujednoliconego sterownika na wzór Nvidii na razie przynosi fatalne rezultaty.

Mam nieodparte wrażenie, że ATI liczy na tuszowanie swego niechlujstwa większą mocą procesorów głównych u swoich użytkowników. Jeśli jest to prawda, to źle to świadczy o firmie. Z drugiej strony trzeba mieć świadomość, że ATI nie jest organizacją charytatywną, lecz kapitalistycznym przedsiębiorstwem nastawionym na wyduszenie dla akcjonariuszy jak największej ilości pieniędzy od potencjalnych klientów. W takich firmach misja i rodzaj produktu nie ma znaczenia. Liczą się tylko efekty finansowe. Nie da się jednak ukryć, że Nvidia oprócz zarabiania pieniędzy, jest w stanie dostarczyć produkt staranniej dopracowany pod względem programowym.

Entuzjaści Radeona zarzucą mi, że karta ta nie została zaprojektowana z myślą o Celeronie 633 na płycie AGP 1.0. Rzeczywiście jest w tym trochę racji. Należy się jednak zapytać, po co daje się możliwość instalowania tych kart w AGP 1.0? Można by zrobić tak jak produkty na układach nVidia GeForce 3,4 i FX i wyższych. Tamte produkty wymagają minimum AGP 2.0 i nie mogą być uruchamiane na AGP 1.0. Odpadają więc również stare i wolne mikroprocesory. Poza tym, słaby procesor i płyta w żadnym stopniu nie wiążą się z ewidentnymi błędami w sterownikach. Pamiętajmy, że Radeon 8500 został pierwszy raz przedstawiony ponad rok temu, gdy na rynku królowały procesory z zegarem 1GHz. Rok czasu to wystarczająco długo, by napisać porządne sterowniki. Na firmowej stronie ATI znajdziemy listy od użytkowników i informacje o setkach różnych problemów i poprawek. ATI zamiast wziąć się do roboty, poszedł inną drogą i określił po roku czasu wersje 8500 jako "discontinued". Ciekaw jestem, czy w grudniu to samo zrobi z serią 9500.

Na koniec parę wskazówek.
Jeśli jakiś użytkownik Radeona odczuje niespodziewane obniżenie wydajności pierwsze "kroki" powinien skierować do Smartgart (ustawienia ekranu/zaawansowane/). Jest bowiem prawdopodobne, że ten "inteligentny" inaczej programik przestawił nam magistralę AGP na 1x oraz wyłączył odczyt AGP. Niestety, o ile prędkość AGP możemy zmienić z panelu sterowania, to odczytu AGP tam już raczej nie ustawimy. Trzeba uruchomić SmartGart'a w trybie zaawansowanym. Udajemy się więc w menu Start/Uruchom i wpisujemy smartgart. Po ustawieniu odpowiedniej opcji będziemy zmuszeni zrestartować komputer, by dokonane zmiany odniosły skutek. Jeśli się powiedzie, to system uruchomi się bez powiadomienia. Jeśli nie, pojawi się ponownie SmartGart w trybie zaawansowanym....

Jeśli jednak okaże się, że AGP jest ustawione jak należy, a wydajność niska bądź program lub gra się nie odpala, wtedy polecam Radeonatora. Jest niemal pewne, że zostało wyłączone TCL i/lub pixel i vertex shadery.

Jeśli są problemy z wyświetlaniem obrazów, grafik lub tekstów i zamiast nich występują kolorowe paski, linie (np. pod Acrobat Readerem) to znaczy, że został wyłączony tzw. primary tiling lub pozostałe "tilingi", których jest ogółem 7. Zaopatrzenie się w Radeonatora pozwoli rozwiązać problem. Nie polecam w obecnej wersji Radeon Tweakera, ponieważ lubi przestawiać wersje shaderów (pixel i vertex) na 1.0. Żeby z kolei to naprawić trzeba posłużyć się Rage3DTweakiem lub bezpośrednio "grzebać" w rejestrze systemowym, zmieniając je na 1.1 i 1.4 lub w "driver default"

Parę słów o testach w czasopismach...

Warto zuważyć, że w testach prezentowanych na łamach czasopism nowe generacje kart testowane są najczęściej na najszybszym dostępnym w danym czasie mikroprocesorze. Tym samym testy kolejnych modeli, będąc przeprowadzane na różnych mikroprocesorach i odmiennych płytach, dają wyniki kompletnie nieporównywalne. Z uwagi na to, że olbrzymia większość użytkowników dysponuje płytami i procesorami z dolnej półki cenowej (a więc wielokrotnie wolniejszymi od platform testowych) prezentowane na łamach czasopism i stron www wyniki nie dają miarodajnych wyników. Ba, nie tylko, że nie dają miarodajnych wyników, ale również mogą wprowadzić przeciętnego nabywcę w błąd, tak jak stało się to w moim przypadku. Gdybym wiedział, że będą takie przeboje z nowym nabytkiem, wydałbym 220 zł mniej na GeForce2MX. Dysponowałbym co prawda kartą DX7 (pozbawione są NSRów, programowalnej jednostki GPU), ale o wiele szybszą na mojej platformie sprzętowej ze starannie dopracowanymi sterownikami.

Data pierwszej publikacji: 12.10.2003