GeForce GTX 1080 Ti, najpotężniejsza grafika świata? — test wydajności

Sprzęt / Wideo 4K
Tajemnicą poliszynela było, że Nvidia ogłosi prędzej czy później nową kartę "Ti". Dużym zaskoczeniem była natomiast obiecana moc mająca bić na głowę nawet nowego Titana X (Pascal). I to za ułamek jego ceny. Ale nie ma co ukrywać, matematyka nie kłamie. GTX 1080 Ti nie tylko spełnia oczekiwania, ale i w niektórych testach je przekracza. Niczego innego nie spodziewalibyśmy się po, jak nazywają ją autorzy "absolutnie najlepszej karcie GeForce".
Strona główna » Recenzja » Sprzęt » GeForce GTX 1080 Ti, najpotężniejsza grafika świata? — test wydajności

Share This Post

Tajemnicą poliszynela było, że Nvidia ogłosi prędzej czy później nową kartę „Ti”. Dużym zaskoczeniem była natomiast obiecana moc mająca bić na głowę nawet nowego Titana X (Pascal). I to za ułamek jego ceny. Ale nie ma co ukrywać, matematyka nie kłamie. GTX 1080 Ti nie tylko spełnia oczekiwania, ale i w niektórych testach je przekracza. Niczego innego nie spodziewalibyśmy się po, jak nazywają ją autorzy „absolutnie najlepszej karcie GeForce”.

Konfiguracja testowa:
Intel® Core™ i7-4770K
ASUS Z97-PRO GAMER
Corsair Vengeance Low Profile 16GB DDR3 1600 Mhz
Nvidia GeForce GTX 1080 Ti
SSD: Crucial MX300 750 GB
Pecet stary, ale jak widać nadal jary. 🙂

Testy przeprowadzane na domyślnych zegarach, bez podkręcania komponentów.

Kartę do testów dostarczył producent.

Dark Archon
not this guy again. oh god how did this get here i am not good with computer.

11 komentarzy

  1. Avatar

    Wolne te pamięci masz,

    Reply
    • Dark_Archon

      Jak widać, na razie na szczęście jeszcze wystarczą. Czekam na ruch Intela. Niech się przestaną bawić i wypuszczą jakieś normalne procesory w normalnych cenach, bo to jest śmieszne, żebym miał czteroletni procesor, który podkręcony nadal dorównuje tym kosztującym 4 razy więcej.
      Ponoć w lato ma się coś w temacie ruszyć i chyba wreszcie zdecyduję się na upgrade płyty, procka i RAM-u.

      Reply
      • Avatar

        Zabrakło mi przetestowania ile klatek wyciągają produkcje takie jak: GTA V oraz Battlefront z modem od Toddyhancera. Zobaczyłbym to w jakimś przyzwoitym klatkażu 🙂

        Reply
      • Avatar

        Trzeba liczyć na to, że Ryzen ruszy rynek i gry będą wykorzystywać więcej niż 4 rdzenie.

        Reply
  2. Avatar

    „NVidia i konkurencja”, he he. Zabronili ci wspominać nazwy AMD czy to ze zwykłej przyzwoitości? Bardzo ciekaw jestem 🙂

    Reply
    • Dark_Archon

      Nikt mi niczego nie broni. 🙂 Ale osobiście? Moim zdaniem AMD jest sto lat za Nvidią i wymienianie ich tam z nazwy w jednej linii to byłby dopiero żart. Mogliby się wreszcie wziąć w garść. Ryzen to dobry pierwszy krok, oby Vega była drugim. Bez konkurencji w grafice będzie taka sama stagnacja jak jest teraz w procesorach…

      Reply
      • Avatar

        Weź pod uwagę to, że karty AMD są również tańsze. 🙂 Szkoda tylko, że GTX 1080Ti zużywa aż 250W…

        Reply
      • Avatar

        Akurat architektura GCN jest dobra, ma swoje wady jak to, że bierze więcej prądu, czy ma większy narzut na procesor, ale ma dłuższą żywotność, nie licząc Fury które może i nieraz przeganiają nawet 1070, ale przez brak pamięci są nieopłacalne na dłuższą metę, a Polarisy są dobrymi kartami na swoją cenę.

        Reply
      • Avatar

        Twoim zdaniem bo nie używa własnościowych technologii i poza programi partnerskimi nvidii które ocierają się o nieuczciwe praktyki handlowe zazwyczaj wygrywa?Drogi Arkadiuszu, ja Cię szanuję, ale proszę cię pozostań przy grach.

        Reply
        • Dark_Archon

          Moim zdaniem dlatego, bo dla kart z wysokiej półki Nvidii nie ma raczej alternatywy. A o nich mowa. Ale możesz mi wkładać do ust co tylko chcesz. Na to już nic nie poradzę 😉

          Reply
          • Avatar

            Nie no nie chcę Ci nic wkładać do ust, jestem hetero 🙂

Leave a Reply

Your email address will not be published. Required fields are marked *

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>