Über wie viel VRAM sollte deine neue Grafikkarte verfügen?

Dieses Thema im Forum "PC- und Technik-Forum" wurde erstellt von Kleiner Prinz, 14. September 2016.

  1. Kleiner Prinz

    Kleiner Prinz Ratsmitglied

    Quellenangaben sollten immer verlinkt sein.
    Wenn das nicht geht, dann zumindest Ausgabe, mit Datum, Seite, etc. benennen.
    Einfach nur PCGH, ist ungenügend und irreführend.
    So etwas lernt man schon in der Schule. ;)
    Siehe dazu:
    https://de.wikipedia.org/wiki/Quellenangabe
     
  2. NewRaven

    NewRaven Ehrbarer Bürger

    Kleiner Stopp: natürlich sieht ein Spiel von 2014 meist besser aus als eines von 2013. Nur ging es - um diesen in sich völlig logischen Fakt - eben nicht. Es ging darum, welches Spiel zu seiner Zeit die meisten Hardwareanfordrungen schluckt - und zwar nicht wegen schlechter Optimierung, sondern weil es dafür grafisch etwas liefert. 2013 gabs aber noch kein Inqusition - dazu gleich noch etwas mehr - das kam erst 2014... ergo muss es sich in dieser Hinsicht auch mit Spielen aus 2014 messen - und der böse Shooter - BF4 - lag also dennoch 2013 vorn. Aber wenn dir das nicht gefällt, können wir auch Crysis 3 nehmen, dass sowohl optisch als auch was die Anforderungen angeht, da locker noch drei Schippen drauf legt. Im an sich eher Shooter-schwachem Jahr 2014 hatten wir dann blöderweise doch noch eben Titel wie FarCry 4 und Metro Redux mit ähnlichen Maximalanforderungen wie DA:I - und völlig egal, welches man davon nimmt, die sehen leider dann doch wieder beide optisch irgendwie etwas besser aus als DA:I (okay, dass ist natürlich etwas subjektiv). Mit hübscherer Grafik allein zu argumentieren, bringt es also auch nicht.

    Und nochmal zum lästigen Inquisition: ich konnte das bei erscheinen mit einem Phenom II X4 945 (Erschienen: 2009) und einer GTX660TI in einem Mix aus mittleren und hohen Einstellungen flüssig spielen. Mein Prozessor war zu diesem Zeitpunkt quasi für Gamerdimensionen antik und meine - zu diesem Zeitpunkt immerhin auch schon 2 Jahre alte Grafikkarte war schon bei ihrem Erscheinen nur Mittelklasse. Nebenbei waren noch Dual-Channel-unfreundliche 6GB RAM verbaut. Wenn dieses System im Jahr 2014 nicht - hochoptimistisch - bestenfalls Mittelklasse war, wüsste ich zu gern, wie du Mittelklasse im Jahr 2014 definierst... wir reden hier ja immernoch von Gamern, nicht von Onkel Kevins Bürorechner und ich bin mit dem System bei vielen anderen Spielen aus diesem Zeitraum - logischerweise recht schnell an meine Grenzen gestoßen. Gehen wir jetzt mal von den "offiziellen Anforderungen" aus, lag mein System in dem Fall wohl ziemlich genau zwischen den Minimalanforderungen und den empfohlenen Anforderungen (die übrigens 2014 auch eher Mittelklasse waren) - und genauso, wenn nicht gar etwas drüber, konnte ich das Spiel auch konfigurieren. Mal zum Vergleich, was ich für einen "Durchschnitts-Gamer-PC" im Jahr 2014 halten würde: i5-4570 oder i5-4440, GTX 770 oder R9 280X und 8 GB RAM. Und dieses Mittelklasse-System hätte 2014 das Spiel locker bei hohen Details geschafft (sieh dir deine Benchmarks an, die bestätigen das auch). Für Ultra-Details bei konstanten 60 FPS hätte vermutlich noch ein wenig gefehlt, aber längst nicht so viel, dass es eine Hardware-Speerspitze in diesem Jahr gewesen wäre, zumal der Sprung von Hoch auf Ultra nur schwerlich wahrnehmbar ist - womit wir wieder bei Optimierungen wären. Das das Game nicht annähernd so fordernd ist, wie du glaubst, siehst du ja auch schon daran, dass es Leute gab, die das Ding - zugegeben mehr schlecht als recht - mit einem Dualcore-Prozessor zum Laufen bekommen haben - etwas, dass bei dem überschwenglichem "DA:I frisst eure Hardware und eure ganze Familie mit seinen horrenden, gigantischen Supermegahardwareanforderungen zum Frühstück" des PCGH-Hardware-Artikels ja mindestens einer Widerlegung der Relativitätstheorie gleichkommen müsste.

    Um das Mal abzuschließen: es hat zu jeder Zeit auch Titel aus anderen Genres gegeben, die Hardware-Höhepunkte gesetzt haben - das ist nichts Neues, das ist so, seit es Games gibt. Ob das nun ein Wing Commander 3 war oder Descent oder Rebell Assault oder Forsaken oder Need For Speed oder Tomb Raider. Solange angefangen bei neuen Hardware-Techniken über Rendering-Methoden bis hin zu ganzen Engines (von glide über Unreal bis ambient occlusion sozusagen) in erster Linie für 3D-Shooter entwickelt werden, dort im Regelfall auch zuerst zu finden sind, sind und bleiben diese Spiele aber halt auch der Indikator, welche Anforderungen an ein aktuelles und ggf. auch zukünftiges Gamersystem gestellt werden. Niemand hat für ein Inquisition oder ein AC:Unity etwas wirklich Neues entwickelt, ein Tomb-Raider-Reboot hatte als "Neuentwicklung" eine neue Haarphysik, die aber allein von NVidia stammte und nur das Glück hatte, in TR 2013 das erste Mal eingesetzt zu werden. Sehen diese Spiele toll aus und laufen nicht mehr auf nem Toaster? Na sicher! Wäre schlimm, wenn diese Titel aus anderen Genres nur auf Technik setzen würden, die seit 3 Generationen überholt ist. Aber das entsteht einzig dadurch, vorhandene Technik besser auszunutzen - Technik, die halt in den meisten Fällen für einen Shooter entwickelt wurde. Das kann man nur schwerlich gleichsetzen mit dem, was sich technologisch mit neuen Major-Revisionen von einer CryEngine, einer Frostbite-Engine oder einer Unreal-Engine tut. Ein guter Benchmark kann viel aussagen... er kann dir sagen, wie gut ein Spiel auf aktueller und auch älterer Hardware ist, er kann dir sagen, wie gut ein Spiel optimiert ist, er kann dir sagen, wo Flaschenhälse in deinem System sind, er kann dir sagen, welche Hardware ein Spiel am meisten beansprucht - und manchmal sogar, warum das so ist. Aber er ist und bleibt eine Momentaufnahme, sowohl des Produkts als auch der jeweils aktuellen Hardware und somit kein wirklich guter Indikator, wo die Messlatte wirklich hängt, denn ein schlechtes Benchmark-Ergebnis kann natürlich dadurch zustande kommen, dass die Hardware überfordert ist, weil das Produkt alles bisher dagewesene sprengt... es kann aber auch durch schlechte Optimierungen auf spezifische Hardware oder auch ganz allgemein oder schlicht durch Bugs entstehen. Wenn man sich ein FarCry heutzutage ansieht, dann weiß man, wo damals die schlechten Benchmarkergebnisse her kamen - das Spiel war technisch seiner Zeit voraus und brachte in der Tat selbst die nachfolgende Hardware-Generation noch zum schwitzen. Als dann die Hardware soweit war, lief das Spiel wie Butter und sah, für seine Zeit, unglaublich aus. Sieht man sich hingegen ein Arkham Knight an, so hat das auch sehr ordentliche Hardware-Anforderungen, die sich aber nur zu einem kleinen Teil auch in der Optik niederschlagen. Hier kann man mit Memory-Leaks, fehlender Optimierung und nicht gut ausgenutzten Hardware-Techniken aber davon ausgehen, dass das Spiel auch in 5 Jahren mit dann aktueller Hardware nicht mehr besser laufen wird, als es das jetzt tut (was immerhin netterweise mittlerweile zumindest auf "ganz passabel" gepatcht wurde). Das erste Spiel - in diesem Beispiel FarCry - setzte also mit seinen hohen Anforderungen auch irgendwo Standards, das zweite Spiel - trotz ebenfalls zu seiner Zeit hohen Anforderungen - tut das eben nicht, weil das, was es letztlich am Ende präsentiert, auch mit deutlich schwächerer Hardware machbar gewesen wäre, wenn ein fähiges Studio und nicht ein kleiner externer Entwickler mit der Portierung beauftragt worden wäre. Ganz so einfach wie "ich lese einen Benchmark und weiß, wohin die Reise genreunabhängig geht" ist das Thema eben nicht.

    Oh, und danke für Age of Conan. Nicht mein Genre, daher kenn ich den Titel nicht, aber dank der Videos kann ich dir da zustimmen. Das ist in der Tat ein Titel, der den Sprung der Schnittstelle gut sichtbar wirklich ausgenutzt hat. Und wenns davon noch mehr gibt, umso besser... revidiert leider nicht, dass es auch die von mir schon genannten Gegenbeispiele gab, aber immerhin meine Aussage, dass DX10 und 11 komplett nutzlos gewesen wären.
     
    Zuletzt bearbeitet: 14. Dezember 2016
  3. Kleiner Prinz

    Kleiner Prinz Ratsmitglied

    Heute sind erste Meldungen zur nächsten NVidia-GraKa-Generation erschienen, die bereits im Januar 2017 zum Kauf zur Verfügung stehen soll.
    Demnach soll es sich um eine GTX-1080-ti handeln.
    Von der Preis/Leistung soll diese zwischen einer GTX-1080 und einer Titan-X-Pascal liegen.
    Gerüchten zufolge basiert die GeForce GTX 1080 Ti auf der GPU GP102 und setzt auf 10 GB (event. 12 GB) VRAM GDDR5X, die über ein 384 Bit breites Interface an die GPU angebunden sind.
    Quelle:
    https://www.computerbase.de/2016-12/geforce-gtx-1080-ti-nvidia-topmodell-namen/
    http://www.pcgameshardware.de/Pasca...staetigt-und-Club-Geforce-in-Planung-1216286/

    [​IMG]

    [​IMG]

    Auch zur AMD Vega gibt es neue Informationen.
    So soll das neue Flaggschiff von AMD mit 12,5 TFLOPs, „NCUs“ und 512 GB/s und 4.096 Bit Shadereinheiten, im ersten/zweiten Quartal 2017 angeboten werden.
    Unklar bleibt, wie groß der (VRAM) HBM2 sein wird.
    Technisch möglich wären 8, 16, 32, 64 und 128 Gigabyte.
    Offiziell produzieren aber z.Z. weder Hynix, noch Samsung aktuell HBM2 mit 16 oder 32 Gigabyte pro Stack.
    Quelle:
    https://www.computerbase.de/2016-12/amd-vega-details/

    Es bleibt also für alle die Leute spannend, welche sich Anfang 2017 eine neue GraKa der High-End-Klasse zulegen wollen.
     
    Zuletzt bearbeitet: 26. Dezember 2016
  4. Kleiner Prinz

    Kleiner Prinz Ratsmitglied

  5. Kleiner Prinz

    Kleiner Prinz Ratsmitglied

  6. Kleiner Prinz

    Kleiner Prinz Ratsmitglied

    Erste Bilder zur AMD-Vega:



    https://www.computerbase.de/2017-01/radeon-vega-foto/

    NVidia hingegen wird 2017 bei seiner "alten" Hardware bleiben, und nur eine GTX-1080ti herausbringen.
    Aktuelle Volta-Grafikkarten kommen dann erst im Jahr 2018.

    http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Volta-2017-Release-1202643/

    Also falls die AMD-Vega nicht die erhoffte Leistung bringen sollte, wird es bei mir dieses Jahr dann eine Titan-X-Pascal werden.
    Denn selbst eine GTX-1080ti soll ja angeblich von der Leistung, noch unterhalb einer Titan-X-Pascal liegen.
    Und mit Erscheinen, der GTX-1080ti wird wohl auch die Titan-X-Pascal, preiswerter werden, ...hoffe ich.

     
    Zuletzt bearbeitet: 13. Januar 2017
  7. Werbung (Nur für Gäste)
  1. Diese Seite verwendet Cookies, um Inhalte zu personalisieren, diese deiner Erfahrung anzupassen und dich nach der Registrierung angemeldet zu halten.
    Wenn du dich weiterhin auf dieser Seite aufhältst, akzeptierst du unseren Einsatz von Cookies.
    Information ausblenden