Testowanie szczytów: recenzja NVIDIA GeForce GTX Titan Z. Recenzja NVIDIA GeForce GTX TITAN Z: tym razem karta geforce gtx titan z nie była łatwa

Czy na rynku kart graficznych jest najlepsza opcja do profesjonalnego wideo i obrazowania 3D? Nvidia Geforce GTX Titan Z to wysokowydajny akcelerator wideo z rodziny Titan. Bez problemu radzi sobie ze złożonymi zadaniami renderowania i jest również idealny do gier.

Karta graficzna oparta jest na architekturze opartej na dwóch rdzeniach GK110. Podstawowa częstotliwość jednego rdzenia graficznego wynosi 705 MHz. Częstotliwość w trybie „Boost” osiąga 876 MHz.

Pojemność pamięci - 12 GB typu GDDR5 o częstotliwości 7000 MHz z wykorzystaniem magistrali 768-bitowej. Przepustowość pamięci wynosi 336 GB / s. Istnieje wsparcie dla funkcji CrossFire / SLI.

Liczba unikalnych potoków kart graficznych wynosi 5760 sztuk. Liczba jednostek tekstur to 480, liczba jednostek rasteryzacji to 98. Maksymalny pobór mocy to 380 W podczas pracy w trybie Boost.

Specyfikacje Titan Z pokazują, że ta karta graficzna jest najlepszym wyborem do intensywnego przetwarzania wideo i obrazu 3D.

Recenzja Titan Z.

Karty graficzne z serii „Titan” są bardzo wymagające pod względem zużycia energii. W przypadku uruchamiania Nvidia Titan Z z wydajnym procesorem, dużą ilością pamięci RAM i dyskami twardymi minimalny zasilacz powinien wynosić 850W.

Aby uzyskać najlepszą wydajność, zalecamy używanie linii procesorów Intel Core i7.

Ze względu na duże rozmiary karta graficzna zajmuje trzy gniazda w przypadku jednostki systemowej. Te wymiary wynikają z układu chłodzenia w postaci aluminiowej chłodnicy.

Cena Titan Z zaczyna się od 60000 rubli. Producent tłumaczy tak wysoki koszt faktem, że produkty wysokiej jakości nie mogą być tanie.

Jak przetaktować Nvidia Titan Z do wydobycia

Overclocking Geforce GTX Titan Z jest bardzo popularnym tematem ostatnich lat. MSI Afterburner służy do przetaktowywania.

Aby wydobywać kryptowalutę, musisz zwiększyć częstotliwość taktowania pamięci wideo i układu graficznego. Konieczne jest stopniowe zwiększanie tych wskaźników. Średnio 50-60 MHz na raz.

Do monitorowania wszystkich wskaźników używany jest program GPU-Z. Wyniki przetaktowywania można zaobserwować za pomocą narzędzia FunMark, przeprowadzając test obciążenia. W przypadku wykrycia awarii i usterek w działaniu karty graficznej należy przerwać proces zwiększania wydajności.

Testowanie w grach

Oprócz przetwarzania wideo i obrazu 3D Titan jest doskonałą opcją do gier. Testy kart graficznych zostały przeprowadzone w najbardziej wymagających dotychczas grach:

  • Battlefield 1;
  • GTA V;
  • Crysis 3;
  • Tomb Raider;
  • Assassin's Creed: Origins.

Średni FPS w formacie FullHD to 60-70 klatek na sekundę przy maksymalnych ustawieniach.

Titan Z Drivers

Aby uzyskać najlepszą wydajność, należy zainstalować najnowsze sterowniki. Możesz je pobrać na oficjalnej stronie Nvidii lub od nas, klikając link.

Możesz użyć Geforce Expirience, aby otrzymać powiadomienie o wydaniu nowej wersji sterownika.

Zgodnie z oczekiwaniami firma NVIDIA zaprezentowała na GTC 2014 dwuprzewodową kartę graficzną GK110. Karta graficzna GeForce GTX Titan Z zawiera 5760 procesorów strumieniowych, 12 GB pamięci GDDR5 i 8 TFLOPów mocy obliczeniowej. Firma NVIDIA nie podała jeszcze dodatkowych szczegółów, ale wspomniała o cenie. Zupełnie nowy GeForce GTX Titan Z będzie kosztował 2,999 USD. Data premiery nie została jeszcze ogłoszona.

Karta graficzna NVIDIA GeForce GTX Titan Z jest skierowana w mniejszym stopniu do graczy niż do profesjonalnych użytkowników, którzy wymagają dużej mocy obliczeniowej w kompaktowym formacie. Przede wszystkim wskazuje na to cena. Ponadto wydajność NVIDIA GeForce GTX Titan Z jest porównywalna z wydajnością dzisiejszych superkomputerów. Również podczas sesji plenarnej pokazano kilka demonstracji pokazujących wydajność obliczeniową nowego produktu.

Oczywiście NVIDIA nie mogła zignorować pracy gier na GeForce GTX Titan Z. Firma wybrała Unreal Engine 4, pokazując słynne demo w rozdzielczości 4K w czasie rzeczywistym.

Jak dotąd jest zbyt wiele pytań dotyczących GeForce GTX Titan Z. Nie ma żadnych informacji technicznych ani danych dotyczących dostępności lub orientacji produktu. Jest mało prawdopodobne, że wielu graczy będzie chciało wydać 3000 USD na kartę graficzną do gier.

Porównanie NVIDIA GeForce GTX Titan Z
Model NVIDIA GeForce GTX Titan Black
Cena detaliczna od 36,5 tys.Rubli w Rosji
od 850 euro w Europie
Nie dotyczy
Strona produktów NVIDIA NVIDIA
Specyfikacja techniczna
GPU GK110 (GK110-400-A1) 2x GK110
Proces techniczny 28 nm 28 nm
Liczba tranzystorów 7,1 miliarda 2x 7,1 miliarda
Taktowanie GPU (częstotliwość podstawowa) 889 MHz Nie dotyczy
Taktowanie GPU (Boost) 980 MHz Nie dotyczy
Częstotliwość pamięci 1,750 MHz Nie dotyczy
Typ pamięci GDDR5 GDDR5
Rozmiar pamięci 6.144 MB 12.288 MB
Szerokość magistrali pamięci 384 bitów 384 bitów
Przepustowość pamięci 336 GB / s Nie dotyczy
Wersja DirectX 11.1 11.1
Procesory strumieniowe 2.880 2x 2,880
Bloki tekstury 240 2x 240
Rurociągi 48 2x 48
TDP 250 watów Nie dotyczy

Dwuprocesorowa karta graficzna była koniecznością na mapie drogowej firmy NVIDIA od czasu serii GeForce 7000. Wprowadzenie na rynek podwójnego GPU GK110 było oczekiwane od pojawienia się pierwszych produktów konsumenckich opartych na tym procesorze. Jednak z punktu widzenia osoby niezaznajomionej z planami NVIDII perspektywy takiego urządzenia wyglądały niejednoznacznie. Cena i pobór mocy tak dużych GPU produkowanych w technologii procesu 28 nm są zbyt wysokie.

Najlepsze karty wideo NVIDIA w obecnej generacjistały się bezprecedensowo drogie. Jeśli MSRP dla karty GeForce GTX 780 Ti wynosi 699 USD, ile powinien kosztować flagowy adapter z dwoma gniazdami? Nic dziwnego, że ostatecznie dwuprocesorowa karta graficzna GK110 nigdy nie pojawiła się w gamie gier GeForce 700, ale wyszła pod marką TITAN.

Rodzina GeForce GTX TITAN ma podwójne przeznaczenie dla NVIDII. Z jednej strony Titans obejmuje produkty dla entuzjastów gier o maksymalnej wydajności w grach. Oryginalny GTX TITAN był przez pewien czas jedynym produktem opartym na GK110. Zamiennik GTX TITAN Black po prostu działa z wyższymi częstotliwościami w porównaniu do GeForce GTX 780 Ti.

Z drugiej strony TITAN to wysokowydajne urządzenie komputerowe do zastosowań profesjonalnych. Podczas gdy koncepcja GPGPU zyskuje powszechną akceptację i akceptację, kupujący nie może już uzyskać maksymalnej wydajności w „liczeniu” zadań w obciążeniu GPU do gier, jak to miało miejsce w poprzednich latach.

NVIDIA włączyła możliwości obliczeniowe do samej architektury GPU. Operacje zmiennoprzecinkowe podwójnej precyzji (FP64) w układach Kepler są wykonywane przez dedykowane rdzenie CUDA. I tylko GK110 z całej linii ma 64 rdzenie CUDA kompatybilne z FP64 w każdym bloku SMX (Streaming Multiprocessor). Ponieważ SMX zawiera 192 zwykłe rdzenie, które wykonują operacje z pojedynczą precyzją, wydajność FP64 GK110 wynosi 1/3 wydajności FP32.

Wszystkie pozostałe procesory graficzne z linii Kepler są zadowolone z ośmiu rdzeni CUDA kompatybilnych z FP64 w każdym SMX, co daje wydajność tylko 1/24 FP32. Ale dodatkowo w gamingowych modelach GeForce opartych na GK110, rdzenie FP64 działają z 1/8 częstotliwości GPU, co prowadzi do tego samego stosunku wydajności FP64 do FP32 - 1/24. Jedynie „Tytany” są pozbawione tego ograniczenia, mając najwyższą wydajność dla GK110 w FP64.

W rzeczywistości pod względem możliwości obliczeniowych TITAN Black nie ustępuje profesjonalnym akceleratorom Quadro K6000 i Tesla K40, które również bazują na w pełni funkcjonalnej wersji układu GK110, kosztują jedynie ponad 4 tysiące dolarów.

Zatem karta wideo z dwoma GK110 powinna być ustawiona jako akcelerator dla obliczeń naukowych, finansowych i inżynieryjnych - wszystkich tych zadań, które wykorzystują operacje podwójnej precyzji. A dla niego czterocyfrowa liczba na metce jest całkiem uzasadniona. Z drugiej strony mamy nowy produkt o statusie i fetyszu entuzjastów, który wspiera roszczenia firmy NVIDIA do przywództwa w tradycyjnych aplikacjach GPU, takich jak grafika 3D i gry komputerowe.

Na tym stanowisku GeForce GTX TITAN Z spotkał się z silnym konkurentem w obliczu Radeona R9 295X2 opartego na dwóch układach Hawaii. Dwuprocesorowy flagowiec AMD nie ustępuje wydajnością dwóm oddzielnym adapterom Radeon R9 290X, a jednocześnie kosztuje o połowę mniej niż TITAN Z. Jedynym słabym punktem R9 295X2 w przeciwieństwie do TITAN Z jest podwójna precyzja obliczeniowa.

Procesor Hawaii zawiera w pełni sprzętowe programy planujące, które obsługują rozwiązywanie zależności i kolejkowanie - w przeciwieństwie do architektury Kepler, która polega na sterowniku dla tych funkcji. Podejście AMD jest bardziej wydajne w przypadku zadań obliczeniowych, ponadto w architekturze GCN wszystkie procesory strumieniowe są w stanie wykonywać operacje FP64 w dwóch cyklach, co daje wydajność na poziomie 1/2 szybkości obliczeń o pojedynczej precyzji. Ale w urządzeniach stacjonarnych opartych na Hawajach współczynnik jest sztucznie ustawiany na 1/8. Pełna prędkość jest zarezerwowana dla profesjonalnych akceleratorów FirePro. Nawet budując system dwóch Radeonów R9 295X2 za cenę jednego TITANA Z, otrzymujemy 1/4 wydajności osobnej karty graficznej dwugłowicowej w trybie FP64.

⇡ Specyfikacje

Moc GK110 była głównym zmartwieniem twórców GeForce GTX TITAN Z. Ostatnim razem flagowym procesorem graficznym NVIDII był stosunkowo kompaktowy procesor graficzny GK104, karta z dwoma GPU, GeForce GTX 690, była prawie tak potężna, jak para oddzielnych GTX 680. Powtórz to osiągnięcie z z układami GK110, które w ramach poszczególnych adapterów rozwijają moc 250 W, to poważne zadanie.

AMD rozwiązało ten problem w przypadku Radeona R9 295X2 z systemem chłodzenia wodą. Ale GeForce GTX TITAN Z wykorzystuje chłodnicę powietrza, która wyraźnie nie jest w stanie usunąć 500W ciepła z płyty. Karta ma TDP 375 W - dokładnie tyle, ile specyfikacje mogą zapewnić dwa ośmiostykowe złącza zasilania, w które jest wyposażona karta, w połączeniu ze złączem PCI-E x16.

W konsekwencji kompromis w szybkości zegara był nieunikniony. TITAN Z ma najniższą częstotliwość podstawową spośród wszystkich modeli opartych na GK110 - 706 MHz. Z drugiej strony ma największą różnicę między zegarem bazowym a zegarem boost - 180 MHz, co daje karcie miejsce na przyspieszenie w sprzyjających warunkach. GPU jest nawet zdolny do krótkich impulsów do 1058 MHz - 352 MHz wyższych niż podstawowy! Pamięć wideo o łącznej pojemności 12 GB pracuje z efektywną częstotliwością typową dla GTX 780 Ti i TITAN Black - 7000 MHz.

Model GPU Pamięć wideo Magistrala I / O Wyjście obrazu TDP, W.
Kryptonim Liczba tranzystorów
milion
Proces techniczny,
nm
Częstotliwość taktowania,
MHz: Zegar bazowy / Boost Clock
Liczba rdzeni CUDA Liczba jednostek tekstur Numer ROP Szerokość busa,
kawałek
Frytkowy rodzaj Częstotliwość taktowania: rzeczywista (efektywna),
MHz
Tom,
MB
Interfejsy (maksymalna rozdzielczość @ liczba klatek na sekundę,
Hz)
Porty wyjściowe
GeForce GTX 780 GK110 7 100 28 863/900 2304 192 48 384 GDDR5 SDRAM 1502 (6008) 3072 PCI-Express 3.0 x16 VGA ( [email chroniony]),
DL DVI ( [email chroniony]),
HDMI 1.4a (4096x [email chroniony]),
1 x DL DVI-I,
1 x DL DVI-D,
1 x DisplayPort,
1 x HDMI
250
GeForce GTX 780 Ti GK110 7 100 28 875/928 2880 240 48 384 GDDR5 SDRAM 1750 (7000) 3072 PCI-Express 3.0 x16 VGA ( [email chroniony]),
DL DVI ( [email chroniony]),
HDMI 1.4a (4096x [email chroniony]),
DisplayPort 1.2 ( [email chroniony])
1 x DL DVI-I,
1 x DL DVI-D,
1 x DisplayPort,
1 x HDMI
250
GeForce GTX TITAN Czarny GK110 7 100 28 889/980 2880 240 48 384 GDDR5 SDRAM 1750 (7000) 6144 PCI-Express 3.0 x16 VGA ( [email chroniony]),
DL DVI ( [email chroniony]),
HDMI 1.4a (4096x [email chroniony]),
DisplayPort 1.2 ( [email chroniony])
1 x DL DVI-I,
1 x DL DVI-D,
1 x DisplayPort,
1 x HDMI
250
GeForce GTX TITAN Z GK110 7 100 28 705/876 2880 240 48 2 x 384 GDDR5 SDRAM 1750 (7000) 2 x 6144 PCI-Express 3.0 x16 VGA ( [email chroniony]),
DL DVI ( [email chroniony]),
HDMI 1.4a (4096x [email chroniony]),
DisplayPort 1.2 ( [email chroniony])
1 x DL DVI-I,
1 x DL DVI-D,
1 x DisplayPort,
1 x HDMI
375

Sądząc po ogłoszonych specyfikacjach, obniżenie częstotliwości podstawowej znacząco wpłynęło na szybkość karty. GTX TITAN Z ma szczytową wydajność projektową 8 TFLOPS, podczas gdy GTX TITAN Black dostarcza 5 TFLOPS w FP32.

Konfiguracja jednostek obliczeniowych GPU TITAN Z nie różni się od TITAN Black. Więcej o GPU GK110 przeczytasz w artykule poświęconym oryginalnemu układowi GeForce GTX TITAN, a architektura Kepler jest ogólnie opisana w recenzji GeForce GTX 680.

⇡ Budowa

TITAN Z odziedziczył ogólne zasady projektowania z poprzedniej dwugłowicowej karty graficznej NVIDIA - GeForce GTX 690, tyle że tym razem cooler nie jest dwugniazdowy, ale trzygniazdowy. Obudowa układu chłodzenia jest metalowa, z przezroczystymi okienkami ukazującymi czarne radiatory GPU. Tylna powierzchnia płytki pokryta jest grubą, aluminiową płytą, co spory udział w ogólnej wadze urządzenia. Przeznaczenie talerza jest nie tylko dekoracyjne. Chłodzi układy pamięci znajdujące się pod spodem.

Czysto estetycznie „dwugłowy Tytan” robi ogromne wrażenie. Najwyższej klasy jednoprocesorowe adaptery NVIDIA o tej samej konstrukcji wyglądają świetnie, ale kiedy trzymasz TITAN Z w dłoniach, czujesz prawdziwą moc. Wygląd godny tak drogiego i doskonałego urządzenia.

Wentylator osiowy wdmuchuje powietrze przez poszczególne radiatory umieszczone po bokach. W przeciwieństwie do chłodnic turbinowych stosowanych w kartach jednoprocesorowych NVIDIA o konstrukcji referencyjnej, wyrzuca część gorącego powietrza do obudowy komputera. Ponadto wentylator osiowy nie pozwala na umieszczenie żadnej innej płytki blisko adaptera wideo, podczas gdy wirnik w razie potrzeby to robi. Dzięki temu w obudowie TITAN Z zajmuje nie trzy, ale wszystkie cztery gniazda rozszerzeń. Pod tym względem karta dwugłowicowa nie zapewnia żadnego zysku w porównaniu z dwoma zainstalowanymi na siebie czarnymi kartami GeForce GTX TITAN.

Kratka wydechowa zajmuje połowę płyty montażowej. Pozostały obszar jest przeznaczony na wyjścia wideo - w takiej samej konfiguracji jak w innych topowych adapterach NVIDIA: dwa porty DVI oraz pełnowymiarowe złącza HDMI i DisplayPort. Ponieważ jeden GPU może używać czterech portów jednocześnie, możliwości drugiego pozostają niewykorzystane. W tej klasie urządzeń (i za takie pieniądze) chciałbym zobaczyć więcej złączy DisplayPort 1.2 (choć w wersji Mini, jak w Radeonie R9 295X2). Możliwość podłączenia więcej niż czterech monitorów do jednego komputera nie jest już tak ważna, ale w dotychczasowej wersji tylko jeden z nich może być Ultra HD.

GPU jest chłodzony przez dość kompaktowe grzejniki, ale każdy ma wbudowaną komorę parowania u podstawy. Metalowa rama zakrywa czoło deski. Platforma, na której zamontowany jest wentylator, to kolejny osobny radiator dociskany do tranzystorów mocy i wyłącznika szyny PCI-E.

⇡ Opłata

W porównaniu z GeForce GTX 690 układ PCB jest radykalnie bardziej skomplikowany. Nic dziwnego, biorąc pod uwagę 384-bitową magistralę pamięci każdego GPU i 12 GB pamięci RAM. Procesory graficzne są połączone przełącznikiem PCI-E 3.0 PLX PEX8747, który widzieliśmy wcześniej na tym samym GTX 690. Układy pamięci SK hynix H5GQ2H24BFR-R2C zostały zaprojektowane dla efektywnej częstotliwości 7 GHz.

Układ zasilania nie różni się konfiguracją fazową od układu GeForce GTX 690. Każdy GPU otrzymał pięć faz, dwie fazy były przeznaczone do zasilania układów pamięci i jeszcze jedna faza - dla PLL. Osobliwością TITAN Z jest to, że przynależność faz do oddzielnych GPU nie jest ustalona. Jeden z chipów może w pewnym momencie zużywać więcej faz niż drugi, jeśli jego zużycie energii jest wyższe.

Sterowniki mocy są używane tak samo, jak w innych kartach referencyjnych opartych na GK110 - ON NCP4206.

Dwie karty Geforce GTX Titan Black na jednej płycie za oszałamiającą cenę

  • Część 2 - Praktyczne wprowadzenie

Przedstawiamy podstawowe szczegółowe badanie Nvidia Geforce GTX Titan Z na podstawie karty referencyjnej.

Przedmiot badań: Akcelerator grafiki 3D (karta graficzna) Nvidia Geforce GTX Titan Z 2x6144MB 2x384-bit GDDR5 PCI-E

Szczegóły dewelopera: Nvidia Corporation (znak towarowy Nvidia) została założona w 1993 roku w USA. Siedziba w Santa Clara (Kalifornia). Rozwija procesory graficzne, technologie. Do 1999 roku główną marką była Riva (Riva 128 / TNT / TNT2), od 1999 do chwili obecnej - Geforce. W 2000 roku przejęto aktywa 3dfx Interactive, po czym znaki towarowe 3dfx / Voodoo przeszły na firmę Nvidia. Nie ma własnej produkcji. Łączna liczba pracowników (łącznie z biurami regionalnymi) to około 5000 osób.

Część 1: Teoria i architektura

Pod koniec lata, w oczekiwaniu na premierę nowych GPU, choć bazujących na znanych już architekturach, rozważamy rozwiązanie od Nvidii, stworzone dla wąskiego segmentu ultra-entuzjastów - dwuprocesorowy model Geforce GTX Titan Z, najbardziej produktywne rozwiązanie graficzne firmy. Model ten został ogłoszony w marcu na konferencji GPU Technology Conference 2014, poświęconej wysokowydajnym obliczeniom. Wtedy okazało się, że dwuprocesorowa płytka oparta na parze procesorów GK110 będzie miała 5760 rdzeni obliczeniowych o wydajności 8 teraflopów i 12 GB pamięci, a sprzedaż miała ruszyć w kwietniu w cenie aż 3000 dolarów.

Należy od razu zauważyć, że najpotężniejsze karty graficzne oparte na dwóch procesorach graficznych to „rzecz sama w sobie” z kilku powodów naraz. O ich niepotrzebnej złożoności i wysokich kosztach pisaliśmy już wielokrotnie, a także o wszystkich problemach związanych z renderowaniem z wykorzystaniem możliwości dwóch GPU. Z reguły ostatnio w takich konfiguracjach zastosowano tylko jedną metodę - renderowanie AFR, gdy każdy z układów wideo pracuje na własnej klatce. I w tym przypadku nie ma ucieczki od niektórych towarzyszących trudności i problemów. Tak więc, aby zapewnić kompatybilność konfiguracji z dwoma chipami, wymagane są dodatkowe modyfikacje sterowników, a czasami nie można obejść się bez zmiany kodu gry. Jeśli nie ma takich optymalizacji, to karta graficzna z dwoma układami często działa jako karta jednoukładowa i po prostu nie ma żadnych zalet z drugiego GPU. No, czy AFR działa, ale skrajnie nieefektywny, nie zapewniając znaczącego wzrostu FPS.

Ale nawet jeśli wszystko jest idealnie zoptymalizowane przez sterownik, renderowanie AFR nie zawsze zapewnia maksymalną płynność zmian klatek z oczywistych powodów - konfiguracja dwuprocesorowa zawsze będzie działać mniej płynnie niż jednoukładowa. Przecież sterownik musi zapewnić wspólną pracę dwóch GPU, dając im pracę na ramkach, z których każda może wymagać pewnych danych z poprzedniej, a wtedy możliwe są dodatkowe komplikacje. Ponadto na dwuczipowej karcie graficznej ze zdwojoną liczbą klatek na sekundę opóźnienie między akcją gracza a jego wyświetlaniem na ekranie nie zmniejsza się dokładnie o połowę, jak mogłoby się wydawać.

Ogólnie rzecz biorąc, czysta mucha w maści ... Ale gdzie jest beczka miodu? Po co więc płacić szalone pieniądze za taką zniewagę? To bardzo proste - używając pary topowych procesorów graficznych w konfiguracji z dwoma układami, można uzyskać prawie dwukrotnie większą liczbę klatek na sekundę, a to jedyny sposób na uzyskanie większej wydajności, gdy mocniejsze układy GPU po prostu nie istnieją. Dlaczego potrzebujesz bardzo wysokiej liczby klatek na sekundę z nie zawsze wygodną płynnością, to osobna kwestia. Ktoś - do bicia rekordów w benchmarkach, ktoś - także do ekstremalnego overclockingu, ktoś po prostu używa monitora o rozdzielczości 3840 × 2160, a nie jednego, ale ktoś łączy to wszystko.

Najważniejsze jest to, że istnieje możliwość uzyskania wyjątkowo wysokiej liczby klatek na sekundę, ponieważ są tacy, którzy są skłonni zapłacić dużo pieniędzy za taką możliwość. Lub, jak w przypadku Geforce GTX Titan Z - nieprzyzwoita kwota. Owszem, takie osoby można prawie policzyć na palcach, ale są i są bardzo „głośni” - w tym sensie, że tacy ultra-entuzjaści dużo piszą o nowościach w internecie i opowiadają znajomym. Czyli dla producenta takie rozwiązania są potrzebne raczej nie po to, by generować bezpośredni zysk (sprzedaż kilkuset czy tysięcy egzemplarzy nie przynosi dużych zysków, z finansowego punktu widzenia o wiele ważniejsze są produkty masowe), ale pracować na wizerunek wśród pasjonatów. I tutaj najważniejsze jest, aby robić wszystko dobrze, bez popełniania błędów. Niezależnie od tego, czy Geforce Titan Z okazał się ultra produktywnym rozwiązaniem wartym swoich pieniędzy i jak skutecznie nowy produkt konkuruje z AMD Radeon R9 295X2 - postaramy się zrozumieć nasz materiał.

Chociaż w momencie ogłoszenia Nvidia wskazała, że \u200b\u200bGeforce GTX Titan Z zostanie wydana w kwietniu, premiera tej karty graficznej została opóźniona do końca maja. Powodem tego opóźnienia było wyraźnie nieoczekiwane wypuszczenie przez konkurenta podwójnego GPU AMD Radeon R9 295X2, opartego na parze topowych procesorów graficznych Hawaii, ale oferowanego na rynku za połowę ceny - tylko 1499 USD! Co więcej, ponieważ chipy Hawaii są bardzo gorące i nie byłyby w stanie konkurować z parą GK110 w równej walce pod względem zużycia ciepła, AMD zdecydowało się na trudny krok, podnosząc poziom zużycia energii płyty głównej do 500 W i zapewniając jej dwupunktowe rozwiązanie z chłodzeniem wodnym. Dlatego Radeon R9 295X2 okazał się bardzo produktywny, ale jednocześnie niedrogi, a Nvidia po prostu nie miała szansy na szybką zmianę planów.

Mimo nagłych trudności w konkurencji, Nvidia nadal niczego nie zmieniła i wypuściła Titana Z, i to nawet we wcześniej wskazanej cenie. To rozwiązanie jest przeznaczone nie tylko dla entuzjastów gier na PC, ale także dla twórców CUDA i mają oni bardzo wyraźną potrzebę uzyskania maksymalnej wydajności przy minimalnym zużyciu energii i przestrzeni fizycznej, a Titan Z jest bardzo dobry w tych parametrach. A nawet biorąc pod uwagę fakt, że dla graczy stosunek wydajności do ceny będzie wyraźnie gorszy od konkurenta, Titan Z można w każdym przypadku uznać za doskonałe rozwiązanie z najwyższej półki, ponieważ w tej niszy ceny nie zawsze są wybierane.

Od momentu oficjalnego ogłoszenia na GTC 2014, jedynie dane dotyczące częstotliwości taktowania GPU i pamięci, a także poziom zużycia energii nowego dwuczipowego rozwiązania pozostawały nieznane opinii publicznej. W maju Nvidia ujawniła te dane: podstawowa częstotliwość GPU to 705 MHz, a częstotliwość turbo może wzrosnąć do 876 MHz. Tak duża przerwa między tymi częstotliwościami (171 MHz!) Sugeruje, że wydajność karty jest ograniczona nie przez możliwości chipa do pracy na wysokich częstotliwościach, ale przez wymuszone ograniczenie wskaźnika zużycia energii (TDP). Tak więc prędkość GTX Titan Z w rzeczywistości będzie zależeć od całkowitego zużycia energii karty graficznej, aw trudnych sytuacjach częstotliwość spadnie do wartości bazowej, chociaż w wielu grach częstotliwość GPU będzie bliższa częstotliwości turbo.

Mówiąc o ograniczaniu zużycia energii. TDP dla nowej płyty został ustawiony na 375 W - od dawna znaną wartość dla kart dwuprocesorowych zasilanych parą 8-pinowych złączy zasilających PCI-E, a ta liczba to tylko połowa TDP topowego jednoukładowego GTX Titan Black i zauważalnie niższa niż Radeon R9 295X2. Wybór odpowiednich procesorów graficznych dla Titan Z musi być na tyle trudny, aby działał przy tak niskich napięciach.

Ponieważ rozważana przez nas karta graficzna Nvidia zawiera dwa procesory graficzne architektury Kepler, o której mówiliśmy niejednokrotnie i która jest związana z architekturą Fermi, czytelnikom przyda się przeczytanie artykułów o wczesnych modelach rozwiązań graficznych firmy:

  • Nvidia Geforce GTX 780 to okrojona wersja GTX Titan, akceleratora premium
  • Nvidia Geforce Titan to nowy flagowy model 3D do gier z pojedynczym GPU
  • Nvidia Geforce GTX 680 to nowy, pojedynczy GPU, lider w grafice 3D
  • Nvidia Geforce GTX 480: architektura nowego GPU od wewnątrz; jak zaimplementowano obsługę DirectX 11
Akcelerator graficzny Geforce GTX Titan Z.
ParametrWartość
Nazwa kodowa chipa„GK110”
Technologia produkcji28 nm
Liczba tranzystorów2 × 7,1 miliarda
ArchitekturaUjednolicony, z szeregiem popularnych procesorów do strumieniowego przetwarzania wielu typów danych: wierzchołków, pikseli itp.
Obsługa sprzętu DirectXDirectX 11, w tym Shader Model 5.0
Magistrala pamięcidwa 384-bitowe sześć niezależnych kontrolerów pamięci o szerokości 64-bitowej z obsługą pamięci GDDR5
Częstotliwość GPU705 (876) MHz
Jednostki obliczeniowe30 wieloprocesorów strumieniowych, w tym 5760 skalarnych jednostek ALU dla pojedynczej precyzji zmiennoprzecinkowej (FP32) i 1920 skalarnych jednostek ALU do obliczeń podwójnej precyzji (FP64) w ramach standardu IEEE 754-2008;
Bloki teksturujące480 jednostek adresujących i filtrujących tekstury z obsługą komponentów FP16 i FP32 w teksturach oraz obsługą filtrowania trójliniowego i anizotropowego dla wszystkich formatów tekstur
Bloki rasteryzacyjne (ROP)12 szerokich ROP (96 pikseli) z obsługą trybów antyaliasingu do 32 próbek na piksel, w tym format bufora ramki FP16 lub FP32. Każdy blok składa się z tablicy konfigurowalnych jednostek ALU i jest odpowiedzialny za generowanie i porównywanie Z, MSAA, mieszanie
Wsparcie monitoraZintegrowana obsługa czterech monitorów podłączonych przez DVI (Dual Link), HDMI 1.4a i DisplayPort 1.2
Dane techniczne karty graficznej Geforce GTX Titan Z Reference
ParametrWartość
Częstotliwość rdzenia705 (876) MHz
Liczba uniwersalnych procesorów5760
Liczba jednostek tekstur480
Liczba bloków mieszania96
Efektywna częstotliwość pamięci7000 (4 × 1750) MHz
Typ pamięciGDDR5
Magistrala pamięci2 × 384 bity
Rozmiar pamięci12 GB
Przepustowość pamięci672 GB / s
Teoretyczny maksymalny współczynnik wypełnienia67,7 gigapikseli / s
Teoretyczna częstotliwość próbkowania tekstury338 gigatekseli / s
OponaPCI Express 3.0
ZłączaDwa złącza Dual Link DVI, jedno HDMI i jedno DisplayPort
zużycie energiido 375 W.
Dodatkowe jedzenieDwa złącza 8-pinowe
Liczba gniazd zajmowanych w obudowie systemu3
Zalecana cena2999 $ (USA), 114990 rubli (Rosja)

Nowy model Geforce GTX Titan Z otrzymał niezbyt dobrze znaną nazwę dla podwójnej karty graficznej Nvidii. Jednak nowy produkt jest jeszcze bardziej ekskluzywny niż GTX Titan (czarny), nie dziwi więc, że znalazł się w tej specjalnej serii, która odróżnia takie rozwiązania od czysto gamingowych kart graficznych z linii Geforce GTX. W związku z tym w linii produktów firmy GTX Titan Z znajduje się na samej górze, tuż nad GTX Titan Black.

Niestety, zalecana cena Titana Z nie zmieniła się od czasu ogłoszenia, a żądają o to aż 2999 dolarów na rynku północnoamerykańskim i ponad 110 tysięcy rubli na rosyjskim! To najdroższa karta graficzna Nvidii z linii Geforce (oczywiście nie bierzemy pod uwagę Tesli), która została wypuszczona na rynek pod własną marką przez tak wyselekcjonowanych partnerów Nvidii jak Asus, Gigabyte, MSI, Zotac, Palit i EVGA (przy okazji wszystkie Titan Z są identyczne oraz chłodzenie i inne funkcje, ponieważ partnerzy sprzedają referencyjne karty Nvidia).

Dlatego też, jeśli chodzi o rozwiązania konkurenta - AMD - nowy Geforce GTX Titan Z w rekomendowanej cenie nie ma bezpośrednich rywali z linii Radeona, gdyż kosztuje dwa razy więcej niż najdroższy Radeon R9 295X2. Jednak przy pewnym założeniu dwie karty graficzne AMD można uznać za konkurenta cenowego dla nowego produktu Nvidii, ale w tym przypadku GTX Titan Z nie będzie miał szans na wygraną.

Podobnie jak najszybsza karta graficzna Nvidii z pojedynczym GPU, Titan Z jest zbudowany na parze chipów GK110 i ma podwójną 384-bitową magistralę pamięci. A ilość zainstalowanej na nim pamięci wideo pozostała taka sama (podwojona), chociaż teoretycznie mogłaby wynosić 3 lub 6 GB na chip. Ale w przypadku tak drogiego modelu zainstalowanie 6 GB pamięci na każdym GPU jest absolutnie uzasadnione, szczególnie biorąc pod uwagę jego superkomputery, ponieważ dla złożonych obliczeń może mieć znaczenie 12 GB. Nawet w warunkach wymagających aplikacji 3D, maksymalnych ustawień jakości i ultra-wysokich rozdzielczości, GTX Titan Z z pewnością będzie miał dość pamięci wideo.

Typowy pobór mocy (TDP) tej karty z dwoma GPU wynosi tylko 375 W, czyli znacznie mniej niż 500 W Radeona R9 295X2. I chociaż Geforce GTX Titan Z wykorzystuje tę samą parę 8-stykowych pomocniczych złączy zasilania co R9 295X2 do zasilania, wymagania dotyczące zasilania karty graficznej AMD są znacznie wyższe - nawet wyższe niż specyfikacje PCI-E.

Architektura

Ponieważ karta graficzna Geforce GTX Titan Z, którą dzisiaj rozważamy, jest oparta na dwóch procesorach graficznych architektury Nvidia Kepler, które od dawna są nam znane pod kryptonimem GK110, nie ma nic specjalnego do opisania w tej sekcji - w tym materiale powtórzymy tylko podstawowe informacje i opowiemy o charakterystycznych cechach rozwiązania dwupipowego ...

Podstawy architektury Kepler położono w układach z rodziny Fermi (Geforce GTX 480 i GTX 580), wydanych kilka lat temu, a następnie w GK104 (Geforce GTX 680). Obecny topowy układ GK110 obsługuje wszystkie cechy, które się w nich pojawiły, a wszystkie cechy architektury Kepler mają do niego pełne zastosowanie, w tym organizację multiprocesorów SMX, choć są tam pewne różnice.

GPU GK110 ma pięć klastrów Graphics Processing Cluster (GPC), z których każdy składa się z trzech multiprocesorów SMX (5 × 3, w przeciwieństwie do 4 × 2 w przypadku GK104). Układy GPU GK110 użyte w Geforce GTX Titan Z używają tej samej konfiguracji wieloprocesorowej, a układy te nie różnią się architektonicznie od wariantu GK110, który sprawdziliśmy w recenzji jednoukładowego analogu:

Na diagramie widzimy wieloprocesory SMX typowe dla układów Kepler, wszystko jest takie samo jak w GK104, każdy SMX ma silnik PolyMorph, 64 KB pamięci współdzielonej, 48 KB pamięci podręcznej tekstur i 16 jednostek filtrowania tekstur (łącznie 240 TMU w każdym chipie ). Podsystem pamięci z pary GK110, na którym opiera się Geforce GTX Titan Z, zawiera sześć 64-bitowych kanałów pamięci, co łącznie daje dwa razy 384-bitowy dostęp do niego. Ponieważ bloki operacji rastrowych ROP są „przywiązane” do kontrolerów pamięci, ich liczba wynosi 96 bloków, a ilość pamięci podręcznej L2 na każdy układ wynosi 1,5 MB.

Jak napisaliśmy powyżej, ilość lokalnej pamięci wideo GDDR5 dla GTX Titan Z wynosi 12 (dwa razy 6) GB. Tak duża ilość pamięci, nawet jak na współczesne standardy, przeznaczona jest dla pasjonatów gier z monitorami UltraHD oraz tych, którzy wykorzystują rozwiązania Nvidii do zadań obliczeniowych. W przypadku produktu premium taka ilość pamięci jest uzasadniona, a 12 GB pamięci z 768-bitowym interfejsem pozwala obu procesorom graficznym Geforce GTX Titan Z na posiadanie wszystkich potrzebnych danych.

Podobnie jak wiele poprzednich modeli, Geforce GTX Titan Z obsługuje autorską technologię GPU Boost w drugiej wersji. Pisaliśmy już o tym kilkakrotnie, jest to połączenie rozwiązań programowych i sprzętowych, które pozwala automatycznie zwiększać częstotliwości pracy GPU w zależności od jego poboru mocy, aby osiągnąć maksymalną wydajność. Podstawowa częstotliwość taktowania procesorów graficznych GK110 w Geforce GTX Titan Z wynosi tylko 705 MHz, a średni zegar turbo (Boost Clock) wynosi 876 MHz, czyli jest znacznie wyższy. Jest to średnia częstotliwość dla zestawu gier, a rzeczywiste częstotliwości w niektórych aplikacjach mogą być jeszcze wyższe. Częstotliwość pamięci GDDR5 w Geforce GTX Titan to 7000 MHz, a wynikająca z tego przepustowość, biorąc pod uwagę dwa GPU, to aż 672 GB / s, co powinno być więcej niż wystarczające nawet dla tak potężnego rozwiązania z dwoma GPU.

Oczywiście Geforce GTX Titan Z obsługuje wszystkie dobrze znane technologie Nvidii, o których pisaliśmy wielokrotnie, w tym DirectX 11, PhysX, TXAA, adaptive VSync i inne. O wszystkich z nich możesz przeczytać w naszych poprzednich materiałach, do których linki znajdują się na początku artykułu.

Cechy konstrukcyjne

Sama karta graficzna Titan Z jest zaprojektowana i wygląda po prostu wspaniale - z podobnym "przemysłowym" projektem spotkaliśmy się już w przypadku podwójnego GPU Geforce GTX 690, a także Geforce GTX 780 (Ti) i Titan. Ten sam styl został wybrany dla Titan Z, ta płyta wykorzystuje pojedynczy wentylator pośrodku płyty i duży radiator, który obejmuje oba chipy wideo. Chłodnica na płycie z dwoma chipami jest bardzo wydajna i wydajna i doskonale chłodzi parę GK110. Logo Geforce na płycie jest podświetlane, a pod innymi względami wizualnie bardzo przypomina poprzednie rozwiązania.

Choć Titan Z jest mniejszy od swojego konkurenta (R9 295X2 jest długi i ma dodatkową chłodnicę do chłodzenia wodą), to płytka jest nadal dość duża - zajmuje trzy szczeliny grubości (niektórzy uważają, że 2,5, ale różnica jest niewielka, bo nadal nie można używać trzecie gniazdo), więc nie zmieści się we wszystkich kompaktowych obudowach. Takie trzy-szczelinowe systemy chłodzenia powietrzem widzieliśmy już wcześniej w rozwiązaniach partnerskich zaprojektowanych z myślą o entuzjastach overclockingu, ale jest to pierwszy raz, gdy występuje to w projekcie referencyjnym. Metalowa płytka z tyłu płyty jest dość gruba i służy zarówno jako radiator, jak i element ochronny dla komponentów na płycie.

Geforce GTX Titan Z obsługuje cztery wyświetlacze. Pod względem złączy wyjściowych obrazu płyta jest identyczna z innymi płytami referencyjnymi Nvidii i zawiera parę złączy Dual-Link DVI oraz po jednym pełnowymiarowym złączu HDMI i DisplayPort. Na drążku znajdują się również otwory wentylacyjne - w celu usunięcia jak największej ilości gorącego powietrza z obudowy. Również na płytce drukowanej Geforce GTX Titan Z jest pojedyncze złącze SLI - jeśli nagle ktoś zechce wydać kolejne sto tysięcy, podłącz dwie takie karty do pracy w trybie czteroukładowym.

Rozebrana płyta Titan Z pokazuje całą złożoność układu takich rozwiązań, a także wiele elementów na niej zawartych: kilka dużych układów GK110, mostek PCI-E pośrodku, układy pamięci GDDR5 12 GB i rozbudowany układ zasilania dla wszystkich tych układów. Karta graficzna Geforce GTX Titan Z wykorzystuje 12-fazowy układ zasilania (podzielony na pół - sześć faz na każdy chip), którego elementy znajdują się na środku karty, pomiędzy dwoma GPU.

Wnioski teoretyczne

Czy więc sugerowana cena detaliczna 3000 USD za kartę Geforce GTX Titan Z może być rozsądną stratą? Przecież na rynku jest nie tylko AMD Radeon R9 295X2 za połowę tych pieniędzy, ale także Geforce GTX Titan Black, z których kilka można kupić taniej (około 2000 $ za dwie płyty) niż jedna Titan Z.Titan Z ma trzy-slotową obudowę i chłodzenie. nie ma tak dużej przewagi nad parą Titan Blacks (lub na przykład GTX 780 Ti), nawet w zajmowanej przez system przestrzeni. Chociaż nadal jest niewielka zaleta, ale trzeba też wziąć pod uwagę poziom zużycia energii.

Co ciekawe, Nvidia aktywnie promuje GTX Titan Z nie tylko jako rozwiązanie gamingowe dla entuzjastów, ale także jako wysokowydajny komputer do zadań CUDA i innych zadań GPGPU iw tej formie można się wiele spodziewać po nowym produkcie, bo to najbardziej produktywna płyta główna firmy. W wielu przypadkach GTX Titan Z będzie miał sens dla GPU HPC, ponieważ ten model zapewnia 2,7 teraflopa operacji podwójnej precyzji na jednej karcie rozszerzeń, a dla tych, którzy używają CUDA od dłuższego czasu, ten model ma dobrą stosunek ceny, wydajności, zużycia energii i rozmiaru fizycznego. Zwłaszcza w porównaniu z tradycyjnymi systemami CPU:

Ale wykorzystanie GTX Titan Z w grach nie wydaje się tak różowe. Oczywiście model ten pozostaje najlepszy wśród rozwiązań Nvidii, ale tutaj rywalizacja ze strony AMD Radeon R9 295X2 jest bardzo silna, nawet w oparciu o połowę ceny, a preferowana może być para GTX Titan Black. Przecież tutaj trzeba wziąć pod uwagę niższą częstotliwość taktowania GPU w porównaniu z wersją jednoukładową oraz wyższą cenę dwóch GPU Titan Z w porównaniu do pary Titan Black. Jest więc całkiem możliwe, że najlepszą opcją nawet dla fanów Nvidii byłby zakup pary rozwiązań jednoukładowych, a nie ultra-wydajnego GTX Titan Z.

Na tym kończy się krótka teoretyczna część dzisiejszego materiału, aw kolejnej części artykułu praktycznie zbadamy szybkość renderowania nowej karty graficznej Nvidia Geforce GTX Titan Z w testach syntetycznych i porównamy ją z wydajnością konkurentów, zwłaszcza w obliczu AMD Radeon R9 295X2. Chociaż ekstremalne testy syntetyczne na systemach wideo z wieloma GPU nie mają większego sensu, ponieważ mierzą wydajność technologii renderowania multi-GPU CrossFire i SLI, liczby nadal będą interesujące, ponieważ omawiana karta wideo jest ogólnie jednym z najbardziej produktywnych rozwiązań.

Firma dostarczyła 2 zasilacze Corsair CMPSU-1200AXEU do stanowiska testowego KorsarzObudowa testowa Corsair Obsidian 800D Full Tower dzięki uprzejmości KorsarzFirma dostarczyła moduły pamięci Corsair Vengeance CMZ16GX3M4X1600C9 do stanowiska testowego KorsarzChłodnica procesora Corsair Hydro SeriesT H100i do platformy testowej dostarczona przez firmę Korsarz
Monitor Dell UltraSharp U3011 ze stanowiskiem testowym Dzięki uprzejmości YulmartPłyta główna Asus Sabertooth X79 do platformy testowej dostarczona przez firmę. AsustekPłyta główna MSI X79A-GD45 (8D) do stanowiska testowego dostarczonego przez firmę MSIDysk twardy Seagate Barracuda 7200.14 3 TB do stanowiska testowego dostarczony przez firmę Seagate

Karta graficzna warta 100 000 rubli? Czy to sen czy rzeczywistość? Może pochodzi z linii profesjonalnych akceleratorów graficznych? Odpowiedzi leżą na powierzchni.

Firma NVIDIA, dla której opracowanie modelu dwuprocesorowego było sprawą honoru, najszybszego rozwiązania graficznego - GeForce GTX Titan Z. Nieco wcześniej AMD wyprzedziło konkurenta w walce o rynek, prezentując Radeona R9 295X2 z systemem chłodzenia wodnego. W przeciwieństwie do tego NVIDIA pozostała wierna chłodzeniu powietrzem, ale zwiększyła wysokość konstrukcji do trzech gniazd.

Trochę historii

Pierwsze dwuprocesorowe rozwiązania graficzne z serii NVIDIA pojawiły się w 2006 roku.

Siódma generacja procesorów graficznych firmy była następcą linii GeForce 6. Nie doczekała się żadnych rewolucyjnych zmian, a niewielka aktualizacja tylko nieznacznie ożywiła popyt. To prawda, że \u200b\u200bw tamtych czasach grzechem było narzekanie na popyt konsumencki, karty graficzne były sprzedawane jak ciepłe bułeczki.

Dzięki udanej architekturze firma NVIDIA dokonała aktualizacji poprzez wewnętrzne optymalizacje. Procesor graficzny G70 zmienił się w G71, znacznie zmniejszając rozmiar (ze 110 nm do 90 nm). Stworzona rezerwa mocy, czy też prościej, większa efektywność energetyczna, pozwoliła firmie wypuścić karty graficzne z dwoma GPU na jednej płytce drukowanej.

Karta graficzna istniała w dwóch wersjach: pełnowymiarowej (pełna długość obudowy) i dla zwykłych komputerów. W związku z tym nazywano je GeForce 7900 GX2 i GeForce 7950 GX2.

Według standardów 2006 procesor graficzny był stosunkowo szybki i zawierał: 48 + 16 shaderów (zanim pojawiła się ujednolicona architektura, shadery różniły się rodzajem obliczeń - piksel i wierzchołek), 48 jednostek tekstur i 32 jednostki rasteryzacji. Częstotliwość GPU wynosiła 500 MHz. Kosztował 500 dolarów, nie tak dużo. Słabe punkty modelu to hałaśliwy system chłodzenia, przegrzewający się mostek i niska optymalizacja sterownika do obsługi kilku GPU w grach.

Niemniej jednak pierwszy krok został zrobiony.

W 2008 roku NVIDIA powtarza tę sztuczkę z małym i szybkim procesorem graficznym G92, przedstawiając następcę GeForce 7950 GX2. Była to karta graficzna GeForce 9800 GX2, oparta na technologii 65 nm, której każdy rdzeń zawierał 754 miliony tranzystorów.

Układ modelu był oryginalny: dwa kawałki PCB z mostkiem między nimi, a wentylator umieszczony został wewnątrz „kanapki”. Powietrze weszło przez wycięcia w PCB. G92 w wydajności GeForce 9800 GX2 wyposażył kartę graficzną w 256 procesorów strumieniowych (uniwersalnych, obecnie używanych), 128 jednostek tekstur i 32 jednostki rasteryzacji. Częstotliwości wzrosły do \u200b\u200b600 MHz. w ciągu ostatnich dwóch lat firma NVIDIA zaostrzyła swoje sterowniki i może twierdzić, że ma przewagę nad rozwiązaniem konkurencji.

Ale główne wady nie zniknęły i zostały odziedziczone: wysokie zużycie energii i rozpraszanie ciepła, głośny referencyjny układ chłodzenia. Z drugiej strony, G92 miał dobry potencjał przetaktowywania, pozwalając mieć nadzieję na częstotliwości około 720-780 MHz w powietrzu i prawie 800 MHz w wodzie.

Rok później firma wypuściła broń masowego rażenia - GeForce GTX 295. Dzięki GT200b, który zawierał dwa GPU naraz, NVIDIA naprawdę miała nadzieję, że poruszy konkurenta. Przedrostek b na końcu nazwy GPU oznaczał „zmniejsz”. W tym konkretnym przypadku G200 został pierwotnie wyprodukowany zgodnie z technologią procesu 65 nm, a później został przeniesiony na 55 nm. Dla porównania, procesor graficzny GT200 miał największą powierzchnię matrycy, jaką kiedykolwiek wyprodukowano masowo w TSMC.

Projekt i konstrukcja układu chłodzenia pozostają takie same. Dopiero teraz obudowa została wykonana z perforowanego żelaza. Całkowita liczba zaangażowanych tranzystorów wzrosła do 2x1400 milionów sztuk. Tak gwałtowny skok w obecności niezbyt efektywnego CO przeszkodził firmie w planowaniu wydania produktu o pierwotnie planowanych częstotliwościach poniżej 700 MHz. W rezultacie musieliśmy zatrzymać się na 570 MHz, czyli jeszcze mniej niż w przypadku poprzednika.

Nie zapominaj, że w tamtym czasie wszystkie procesory graficzne NVIDIA miały częstotliwości cieniowania działające z pewnym współczynnikiem w stosunku do innych jednostek. Ale na innych frontach GTX 295 był w porządku: 480 procesorów strumieniowych (1242 MHz), 160 jednostek teksturowych i 56 jednostek ROP.

System chłodzenia wykorzystywał pojedynczy grzejnik umieszczony pośrodku dwóch części karty graficznej. Tradycyjnie przez szczeliny w płytce drukowanej podawano powietrze. Całkowity pobór mocy 2800 milionów tranzystorów był tak wysoki, że GTX 295 działał bardziej jak turbina samolotu podczas startu. Pojawiły się również pytania o prędkość, ponieważ osiągi zależały bezpośrednio od jakości kierowców. W rezultacie karta wideo okazała się potężna na papierze, ale kontrowersyjna w rzeczywistych zastosowaniach. Ponadto nawiedzały ją problemy z odprowadzaniem ciepła, przez co wiele wypuszczonych modeli nie przetrwało okresu gwarancji.

Później firma NVIDIA dokonała przeglądu projektu i układu chłodzenia w GTX 295 v2.

Wentylator w środku wydmuchiwał teraz powietrze po obu stronach GPU. Płytka drukowana nie wyglądała już jak kanapka. Na płytce nie było charakterystycznych wycięć.

Tylko rewolucja nie nastąpiła, ponieważ maksymalne częstotliwości i temperatury pozostały na tym samym poziomie. Być może poziom hałasu nieco się zmniejszył.

W 2011 roku, po długich i bolesnych oczekiwaniach, ukazała się karta graficzna GeForce GTX 590. Bolesne, ponieważ GPU GF100 narodził się z niezliczonymi ilościami ciepła, słabym przetaktowaniem i nie był wystarczająco szybki.

NVIDIA wykorzystała zaniedbania AMD, którego dwuprocesorowy akcelerator graficzny był szybszy i ... głośniejszy. Pierwsza firma, zdając sobie sprawę z fatalnej sytuacji, zdecydowała się postawić na wygodę. Przetworniki zostały starannie zoptymalizowane, a układ chłodzenia dostrojony pod kątem optymalnej ciszy. W rezultacie utrata prędkości wpłynęła na komfort akustyczny.

Charakterystyki techniczne GeForce GTX 590 były następujące: częstotliwość rdzenia - 608/1216 MHz (dla różnych bloków nadal używana była podwójna częstotliwość), liczba procesorów strumieniowych - 1024, jednostki teksturujące - 128, jednostki rasteryzacji - 96.

Stabilność to klucz do sukcesu! W 2012 roku użytkownicy otrzymali kartę GeForce GTX 690 opartą na parze GK104. To rozwiązanie graficzne można słusznie uznać za jedną z najbardziej udanych dwuprocesorowych kart wideo na rynku.

Zasadniczo architektura Kepler jest nadal używana przez firmę NVIDIA. Nawet najnowsze procesory graficzne są ewolucją fundamentów, jakie postawiono w GK104. Ten zaawansowany rozwój miał pozytywny wpływ na działalność firmy.

Projekt układu chłodzenia jest podobny do tego zainstalowanego w GeForce GTX 590. Ale są też ważne różnice. Grzejniki, jak poprzednio, składają się z aluminiowych lamel przylutowanych do komór wyparnych. Płyta główna otrzymała aerodynamiczne żebra do chłodzenia obwodów mocy i mostka. Obszar rozpraszaczy ciepła znacznie się zwiększył.

Ale długotrwały problem wszystkich modeli dwuprocesorowych nigdzie nie zniknął - niecałkowicie debugowany sterownik, który nie pozwala urządzeniu wykorzystać swojego potencjału w niektórych testach. Do tego problemu dochodzi druga - cena! 1000 dolarów, na które wyceniono GeForce GTX 690, było przytłaczającą kwotą dla wielu entuzjastów.

Dopiero dwa lata później NVIDIA zaprezentowała następną generację - GeForce GTX Titan Z, o której będzie mowa w tej recenzji.

Podobne artykuły

2020 ap37.ru. Ogród. Krzewy ozdobne. Choroby i szkodniki.