Nvidia Turing: Geforce RTX 2070 im ersten Test

Ist bestimmt von Jen-Hsun Huang geschrieben worden
 

Anhänge

  • rtx 2070.jpg
    rtx 2070.jpg
    85,8 KB · Aufrufe: 76
Eine Karte für 500€ die annähernd dieselbe Leistung (gut, vielleicht etwas mehr) bringt, wie eine Karte die schon vor knapp 2 1/2 Jahren zu kaufen war. Und dazu mit derselben Speichergröße?

Verstehe wer will, aber diese Tatsache holt doch keinen halbinformierten hinter dem Ofen hervor. Nun gut, Raytracing... Aber da vollbringt ja schon die große, überteuerte Schwester "unglaubliches"...:D

Gruß
1) man bedanke sich bei AMD. Als die Ankündigung kam, man werde 2018 keine GPU rausbringen sind meine Nvidia Aktien ein weiteres mal angesprungen. Schon komisch, ich kaufe nur AMD Karten, aber Nvidia Aktien sind halt doch die bessere Wette. Jedenfalls: Bedank dich bei AMD, ohne Konkurrenz kann Nvidia machen was sie wollen. Sie haben mit der 2070 die derzeit langsamste der Turing-Generation rausgelassen und auch die ist schneller als die schnellste von AMD. Also können sie machen was sie wollen. Leider.
AMDs Navi wird das hoffentlich richten. Aber da heißt es noch ein Jahr warten

(Vorstellung wird früher sein, aber bis Customs verfügbar sind...). Bei Vega war die erste Präsentation im Dezember 16 und im Dezember 17 gabs immer noch kaum Kaufbare Karten.)

2)Raytracing muss erst zeigen wie es funktioniert. Ein Spiel, das schon hochoptimiert daherkommt und dann einfach Raytracing drangepappt bekommt ist da kein Fairer Vergleich. Wenn ein Spiel von Grund auf mit RT entwickelt wird dann schon eher. Aber das wird noch ein paar Jahre dauern. Bis dorthin hilft es natürlich für das Geldbörserl: NICHT KAUFEN
Ich finde die Grafikkartenpreise einfach nur noch unverschämt.

Überlege schon seit längerem wieder Konsolengamer zu werden.. .
Sollte sich die Preise nicht wieder normalisieren, so wird es eben eine PS5 als nächstes bei mir und nicht einen neuen PC.
Stimmt. Es ist ja generell bekannt, dass man dazu gezwungen ist Preise über 500€ zu bezahlen. Es gibt ja keine 200€ Klasse mehr....
Die 1060 meiner Frau hab ich um 220€ bekommen.
 
Kannst du noch einmal etwas Anderes schreiben, außer dass AMD seit vielen Jahren versagt und unfähig ist? :(
Langsam wird das auf Dauer langweilig.......

AMD hat seit vielen Jahren nicht die Mittel von Nvidia oder Intel, und es ist eher ein Wunder dass sie bis heute durchgehalten haben.

Ich habe auch keine Lust mehr hier zum 1000. mal zu schreiben, dass Navi nicht der Heilsbringer wird.
Navi sind nach Aussage von AMD monolitische Chips, basierend auf GCN, ohne konkrete Angaben der Leistung.
Einzig der Fertigungsprozess ist bekannt, früher GF in 7nm, jetzt TSMC, irgendwan in 2019.

Und bei Nvidia ist übrigens überhaupt nichts bekannt zum preislichen Nachfolger der GTX 1060, noch nicht einmal eine Andeutung.
Hier kann man AMD schon fast als vorbildlich bezeichnen was die Informationspolitik betrifft. ^^
Die Geheimniskrämerei ist schon wie bei Turing von Nvidia mit Apple zu vergleichen.
Und das ist von mir nicht als positiver Vergleich gemeint, eher als extrem abschreckendes Beispiel.
 
Zuletzt bearbeitet:
Kannst du noch einmal etwas Anderes schreiben, außer dass AMD seit vielen Jahren versagt und unfähig ist? :(
Langsam wird das auf Dauer langweilig.......
Genauso wie es auf dauer langweilig wird, dass man immer nur Nvidia als den Schuldigen für hohe Preise ausmacht, aber dabei ganz vergisst, dass das mit ordentlicher Konkurrenz nicht geht.

Preis= Angebot und Nachfrage. Also mit Konkurrenz sieht es anders aus.
Ich hoffe ja auf Intel-Dumpingpreise in 2 Jahren, damit wird man wieder versuchen mit Gewalt Marktanteile zu erringen wie im Mobilsektor.

AMD hat seit vielen Jahren nicht die Mittel von Nvidia oder Intel, und es ist eher ein Wunder dass sie bis heute durchgehalten haben.
AMD hat diese Situation doch selbst verbockt.

Ich habe auch keine Lust mehr hier zum 1000. mal zu schreiben, dass Navi nicht der Heilsbringer wird.
Das weißt du nicht.

Navi sind nach Aussage von AMD monolitische Chips, basierend auf GCN, ohne konkrete Angaben der Leistung.
Im Konsumer Bereich. Ja. Und? Was soll uns das jetzt sagen?
Einzig der Fertigungsprozess ist bekannt, früher GF in 7nm, jetzt TSMC, irgendwan in 2019.
Nun, das heißt immerhin, dass theoretisch die doppelte Leistung von der Vega 64 möglich ist.
Ich finde das ist doch schon ganz nett. Das schafft Nvidia zwar fast ohne neuen Prozess, aber dabei rechne ich ja noch keine Architekturverbesserungen ein. Sollten die Architekturverbesserungen ausreichend ausfallen, dann sogar mehr.
Und bei Nvidia ist übrigens überhaupt nichts bekannt zum preislichen Nachfolger der GTX 1060, noch nicht einmal eine Andeutung.
Hier kann man AMD schon fast als vorbildlich bezeichnen was die Informationspolitik betrifft. ^^
Inwiefern? Nvidia hat halt den schnellsten Chip der Konkurrenz übertroffen, logischerweise setzt man auch mit dem Preis darüber an. Wäre Vega schneller, wär das eine andere Frage.

Wie hoch der 2060 Preis ist, hängt halt von der Performance ab. Aber auch von den Features. Wird das Ding überhaupt RT Cores haben?
Zumindest dem Anschein nach sind alle Preise eine Klasse nach oben gerückt. Die 2070 kostet so viel wie die xx80 davor, die 2080 fast so viel wie eine Ti usw.
 
Dein Post hat so viel Angriffspotential, dass ich dich jetzt in der Luft zerreißen könnte, ohne mit der Wimper zu zucken. ^^

Wie ich dir schon einmal per PM geschrieben hatte.
Ich weiß nicht, ob ich uns beiden einen Gefallen getan habe, als ich dich wieder (vorzeitig) von meiner ignore List genommen habe?
Und das war nicht bös gemeint, sondern weil ich dich Hitzkopf kenne. ^^
Normalerweise nehme ich grundsätzlich niemand von meiner Liste. Du bist die erste und einzige Ausnahme. ^^

AMD kämpft seit über 10 Jahren mit einem Bruchteil der Ressourcen von Nvidia oder Intel einen 2-Fronten-Krieg.
Schon Deutschland hat so einen Krieg 2 mal verloren, und über die Hälfte seiner Fläche.

Hast du im Ernst geglaubt, dass AMD überhaupt eine Chance hat? :(
 
Zuletzt bearbeitet:
Also läuft es am Ende wie immer auf den Preis hinaus. Wer ein gutes Angebot findet, kann meiner Meinung nach immer noch bedenkenlos zu einer GTX 1080 oder Vega 64 greifen.

Und ob man es glauben mag oder nicht, selbst mit einer GTX 1080 / Vega 64 ist 4K / 60 Fps möglich. Und für 1440p / 144 Fps reicht es auch.


Wird noch einmal (semi) interessant, was das Raytracing nun wirklich bringt. Scheint ja selbst auf einer 2080 TI enorm viel Leistung zu kosten, mit einer 2070 wird das nicht besser werden.
Aber wer weiß - vielleicht wird es der heiße Scheiß wie damals DX9
 
Klar seite Neun und einer kommt mit einem Vergleich zu ww2.
Sorry dein Post ist dahingehend echt ��....

Es gibt Punkte ( bei den sachlichen Dingen ) wo du recht hast, aber nur weil du es zwei Fronten krieg nennst, mag das nicht zum Untergang oder verlieren von AMD führen.

AMD hat meiner Ansicht nach mit der rx480 / 580 genau ins Auge getroffen . Das selbe machen die vermutlich nächstes Jahr wieder. Was bringt dir die stärkste karte , wenn der Mainstream um 300€ kauft...

Kurz zum Thema zurück. Eventuell kann mich jemand aufklären.
Könnte es auch sein das das Raytracing auch auf der 2070 genau so gut lauft, da das ja in einer separaten Einheit berechnet wird? Wenn die der bottleneck ist, oder habe ich es technisch nicht richtig aufgenommen?
 
Haut mich nicht vom Hocker. Wenn man bedenkt, dass die letzten beiden xx70er stets die Leistung der vorhergehenden x80Ti hatten, finde ich die 2070 im Vergleich eher schwach. Nun wird für eine xx70 auch noch ein Preis, wie für eine xx80 aufgerufen und alle finden es ok. Vielleicht bin ich zu alt, aber das kann ich einfach nicht mehr nachvollziehen. Für mich ist die Karte daher eher ein totaler Flop, sowohl in Leistung als auch im Preis.
 
Haut mich nicht vom Hocker. Wenn man bedenkt, dass die letzten beiden xx70er stets die Leistung der vorhergehenden x80Ti hatten, finde ich die 2070 im Vergleich eher schwach. Nun wird für eine xx70 auch noch ein Preis, wie für eine xx80 aufgerufen und alle finden es ok. Vielleicht bin ich zu alt, aber das kann ich einfach nicht mehr nachvollziehen. Für mich ist die Karte daher eher ein totaler Flop, sowohl in Leistung als auch im Preis.

Naja die wenigsten finden es wohl toll, aber am Ende ist der Markt so wie er ist. Sollte der Preis halbwegs stimmen ist die 2070er halb eine Empfehlung Wert in einem gewissen Budget unter gewissen Voraussetzungen.
Könnte es auch sein das das Raytracing auch auf der 2070 genau so gut lauft, da das ja in einer separaten Einheit berechnet wird? Wenn die der bottleneck ist, oder habe ich es technisch nicht richtig aufgenommen?
Nein weil die separate Einheit schwächer ist in den kleineren Modellen.
 
Haut mich nicht vom Hocker. Wenn man bedenkt, dass die letzten beiden xx70er stets die Leistung der vorhergehenden x80Ti hatten, finde ich die 2070 im Vergleich eher schwach. Nun wird für eine xx70 auch noch ein Preis, wie für eine xx80 aufgerufen und alle finden es ok. Vielleicht bin ich zu alt, aber das kann ich einfach nicht mehr nachvollziehen. Für mich ist die Karte daher eher ein totaler Flop, sowohl in Leistung als auch im Preis.

Sehe ich ganz genau so,
die RTX 2070 ist ja schon die kleinste Karte von ganz unten gesehen, für sehr viel Geld.
Was soll da für ein positives Ergenis herauskommen?
Ich verstehe die Leute überhaupt nicht.
Ist das nur damit sagen kann, ich habe eine RTX ? :stupid:

Naja die wenigsten finden es wohl toll, aber am Ende ist der Markt so wie er ist. Sollte der Preis halbwegs stimmen ist die 2070er halb eine Empfehlung Wert in einem gewissen Budget unter gewissen Voraussetzungen.

Nein weil die separate Einheit schwächer ist in den kleineren Modellen.

Du drückst dich wenigstens etwas netter und gewählter aus.:daumen:
Ich kann manchmal nicht anders.:rollen:
 
Zuletzt bearbeitet:
Naja die wenigsten finden es wohl toll, aber am Ende ist der Markt so wie er ist. Sollte der Preis halbwegs stimmen ist die 2070er halb eine Empfehlung Wert in einem gewissen Budget unter gewissen Voraussetzungen.

Der Markt ist aber nur so, weil leider viele unbedacht zu diesen Preisen kaufen und diese Politik voll unterstützen... dabei ist dies im Vergleich die schlechteste xx70 seit langem... nur beim Preis ist sie die "beste" xx70 überhaupt.
 
Wie ich dir schon einmal per PM geschrieben hatte.
Ich weiß nicht, ob ich uns beiden einen Gefallen getan habe, als ich dich wieder (vorzeitig) von meiner ignore List genommen habe?
Und ich kann es nur wiederholen: wie auch immer du das handhaben möchtest. Ich persönlich bin ja niemand der ein Problem durch "ignorieren" löst, denn es löst sich dadurch ja eben nicht ;)
Und das war nicht bös gemeint, sondern weil ich dich Hitzkopf kenne. ^^
Hitzig wirds nur, wenn Nonsense wo steht ;)

Normalerweise nehme ich grundsätzlich niemand von meiner Liste. Du bist die erste und einzige Ausnahme. ^^
Das hast du schon geschrieben. Lies dir den Satz 1-2x genau durch. Das klingt nämlich als hätte eine königliche Gestalt sich erniedrigt mich zu begnadigen. Der Satz klingt ein bisschen arrogant. Denk mal drüber nach.
AMD kämpft seit über 10 Jahren mit einem Bruchteil der Ressourcen von Nvidia oder Intel einen 2-Fronten-Krieg.
Was ich nicht bestritten habe. Man muss aber fairer weise sagen, dass man einige Jahre eben nicht gekämpft hat. Momentan kämpft man etwa nur an der CPU Front, die GPU Front ist nicht besetzt.
Schon Deutschland hat so einen Krieg 2 mal verloren, und über die Hälfte seiner Fläche.
Das ist irgendwie jetzt stark "out of context", aber ich geh mal drauf ein: Es ist sehr verkürzend, schließlich gäbs auf der anderen Seite kein riesiges Deutschland, wenn man nicht vorher einige Kriege und Schlachten geführt hätte ;) Als sinnvolle erste Maßname halte ich, verrückte Österreicher nicht an die Macht kommen zu lassen ;)

Und in einem ernsteren politischen Kontext: insgesamt können wir froh sein, dass vorallem der 2. Krieg verloren wurde. Ich hab keine Lust in einem Regime wie damals zu leben.
Hast du im Ernst geglaubt, dass AMD überhaupt eine Chance hat? :(
Das ist jetzt so eine sehr schwierige Frage. Chance worauf? :

Niemand verlangt, dass AMD alles genau gleich gut macht wie Nvidia, dennoch sind beide mal mit ähnlichen Ressoucen dagestanden. Nvidia hats geschafft, AMD nicht.

Aber was ich hier eher meine - und was du vielleicht entweder nicht richtig gelesen oder ich nicht deutlich genug ausgedrückt habe ist: AMD macht ja nicht einmal den VERSUCH zu konkurrieren. 2016 kam Polaris, dann Vega in einigen wenigen Chipvarianten. Wäre Vega eine erfolgreichere Architektur, hätte AMD sehr wohl eine Chance. Aber Vega - das wurde nun schon oft genug dargestellt - ist in vielerlei Hinsicht sehr schwach ausgefallen. Nicht in der Gesamtperformance, die ist noch ok, aber gemessen an den Physikalischen Dimensionen und am Vorgänger (Fiji) ist die Überarbeitung äußerst schwach geworden. Das hätte man auch mit den Ressourcen besser hinkriegen müssen. Vega hätte also schneller sein können. Es ist etwas schief gelaufen und es lag nicht (nur) am Geld oder Raja.

Aber ich drifte erneut ab: Was ich von AMD erwarte ist zumindest IRGENDWAS zu bringen, um Nvidia unter Druck zu bringen und die Preise zu drücken. Dass man der Konkurrenz einfach so Jahrelang das Feld überlässt ist einfach nicht gut. Man verzichtet damit auf Milliarden. Kaum hat AMD das Performance und Highend Segment nicht mehr Besetzt sind die Gewinne bei Nvidia sprunghaft angestiegen. Das muss dir doch aufgefallen sein. Ich hab kurz nachdem das klar wurde Nvidia Aktien gekauft und bereue nichts: wer der Konkurrenz einfach so das Feld übrig lässt, der verzichtet nunmal auf Milliarden. Du tust als wäre eine Höhere Macht im Spiel, dass AMD kein Geld hat. Aber was hat AMD etwa 2016 gehindert, eine um 50% größere Polaris Variante aufzulegen um wenigstens der 1070 den Wind aus den Segeln zu nehmen wie vorher mit der 290X? Ein 300mm² Chip würde AMD wohl das Bein nicht brechen. Einen Titan-Konkurrenten habe ich ja nicht erwartet, aber den 300-3000 € Markt komplett der Konkurrenz übrig zu lassen war enttäuschend.

Und das ist nicht nur emotional gesehen so, sondern du musst selbst zugeben, dass das leider wenig geholfen hat bei AMD. Die Architektur war ja fertig, die Treiber auch gut. Eine weitere Variante auflegen die dann ja bis Vega Release (über ein Jahr später) konkurriert hätte... (und man hätte auch eine günstigere GDDR5 Karte mit viel PErformance statt der HBM2 Problematik). Die Kosten einer neuen Maske sind überschaubar, wenn man bedenkt, dass der Chip bis heute laufen würde (inzwischen über 2 Jahre)

Also mein Punkt, egal ob du den nun "in der Luft zerreißen" möchtest ist: AMD hat Kampflos das Feld verlassen, obwohl man das Potential hatte Nvidia zumindest etwas unter Druck zu setzen. Und für uns hieße das weniger hohe Preise. Wenn man am Ende mit einem 300mm² Chip 10% hinter der 1080 geblieben wäre (inzwischen dank Treiberupdates sieht man ja bei der 480, dass die 10% gegenüber der 1060 geschrumpft sind, vorallem unter Vulkan), hätte man immerhin deutlich höhere Preise abrufen können und auch einiges an Umsatz generiert. Die Marge ist dort ja auch sehr hoch. Aber leider: nein.

Du kannst mich natürlich - wenn dir meine Meinung nicht passt- wieder auf die Ignore-Liste setzen. Das ändert aber nichts daran, dass ich im Kern recht habe: Konkurrenz belebt den Markt.
Klar seite Neun und einer kommt mit einem Vergleich zu ww2.
Sorry dein Post ist dahingehend echt ��....
jo das war unglücklich ;)
Es gibt Punkte ( bei den sachlichen Dingen ) wo du recht hast, aber nur weil du es zwei Fronten krieg nennst, mag das nicht zum Untergang oder verlieren von AMD führen.
Jep. Die großen Unterschiede im Marktanteil kommen ja woanders her. Früher hatte man ja sogar oft die besseren Architekturen - trotz 2-Frontenkrieges.
AMD hat meiner Ansicht nach mit der rx480 / 580 genau ins Auge getroffen . Das selbe machen die vermutlich nächstes Jahr wieder. Was bringt dir die stärkste karte , wenn der Mainstream um 300€ kauft...
Und genau da verstehe ich nicht, warum man nicht eine größere Variante als den 200mm² CHip aufgelegt hat. Immerhin wäre die bis heute im Einsatz. Man stelle sich vor, AMD hätte damals auch einen 330mm² Chip gebracht und wäre knapp bei der 1080 gelandet.
Das würde sie dann gerade neben der 2070 nach über 2.5 Jahren nochmal in einem guten Licht erscheinen lassen. Nvidia wäre gezwungen entweder geringere Preise oder höhere Performance abzurufen. AMD hätte im 500€ Segment abkassieren können.

Kurz zum Thema zurück. Eventuell kann mich jemand aufklären.
Könnte es auch sein das das Raytracing auch auf der 2070 genau so gut lauft, da das ja in einer separaten Einheit berechnet wird? Wenn die der bottleneck ist, oder habe ich es technisch nicht richtig aufgenommen?
Naja nein. Raytracing skaliert gut mit der Performance. Aber es könnte sein, dass zukünftige Titel diese PErformance von Anfang an besser einsetzen. Im Moment sind wir halt bei dem Problem, dass Raytracing durch aktuelle Assets und Engines nicht richtig ausgenutzt wird.

Doom 3 ist ein nettes Gegenbeispiel: da hat es auch geheißen die neue beleuchtungsmethode sei zu Performancefressend. Aber wenn man ein ganzes Spiel drum herum baut (inkl. low poly charaktere) dann geht das sehr wohl flüssig in hohen Auflösungen
 
Zuletzt bearbeitet:
Jetzt mal ganz ehrlich...diese Karte ist für mich einfach totaler Müll. Hier kann ich mich auch kaum zurückhalten und dies in korrekter Art und Weise schreiben. Die 2070 kostet teils mehr als die 1080 gekostet hat. Der einzige Kunde, welcher diese Karte kaufen sollte sind die Nutzer von 980 oder älter. DIe neuen Karten sind lächerlich von der 2080Ti mal abgesehen. Die 2080Ti ist wirklich klasse aber der Rest ist einfach Schrott. Dann der Stromverbrauch der neuen Karten ist viel viel höher als von der alten Generation. Dass wir der AMD-Hater Grund keine AMD zu kaufen, jetzt überschreiten die neuen Karten von Nvidia AMD. Was ist dies denn für eine verdammte Rotzgeneration. Dann hätte Nvidia lieber eine Generation ausgesetzt und Raytracing nebst wesentlich mehr Power erschaffen. Nur eben zu einem späteren Zeitpunkt. Die Preise überdies sind ekelhaft und lächerlich. Ich gebe gerne Geld aus, auch für neue Hardware, meine Grenze bei Grakas war bei knappen 1000 erreicht, ich bin auch so ein dummer Kunde ganz ehrlich, welcher viel zu viel Geld ausgegeben hat, aber ich wünsche Nvidia genauso ein Tief wie Intel. Gott sei Dank, dass ich mein i78700k für 340€ gekauft habe, welches ja in Anbetracht der derzeitigen Situation ein Schnäppchen war.

Sry...ich bin soeben etwas genervt von dem ganzen Nvidia-Bullshit.
 
Die Leistung geht völlig i.O., wo es hakt ist der Preis. Wenn man es genau nimmt, ist die lang erwartete Turing Generation eine Nullnummer, da es kein Leistungsplus gibt (nur Nomenklatur um eine Stufe verschoben) aber dafür soll man jetzt mehr zahlen, was durch Feautures gerechtfertigt wird... die ... äm, es soll auch Leute geben, die noch auf Mantle warten und auf... ach lassen wir das. :rollen:

Ich wette die nächste Nvidia Gen kommt schon Ende 2019 mit ausgequetschter Turing als neue High End und wieder um eine Stufe verschobener Nomenklatur. Die 20x0 war nur eine Zwischenstufe um die Spätfolgen der Mining-Preisentwicklung noch schön ausschöpfen zu können.

Das Problem mit den Turings, und speziell mit der 2070, ist, dass sie eigentlich derzeit ein Fehlkauf ist, da die verbesserte(?) 7nm Versionen bereits nächstes Jahr erscheinen werden.

Während die aktuellen 2070 "Features" ala RT/DLSS, welche die GPU mit sich rumschleppt (was den Preis nach oben treibt), aller Vorraussicht nach (s. Leistung 2080(Ti)), nicht ausreichen wird, und sich derzeit auch mangels Software-Unterstützung kaum/nicht verwenden lässt.

Daher ist es eigentlich aktuell das beste, diese Generation von Turing auszusitzen, und nächstes Jahr, auf GPUs zu warten, die dann mit mehr Softwareunterstützung, besserer Leistung und evtl. besserem P/L Verhältnis glänzen.

Einzig die 2060 könnte P/L mässig interessant werden, vor allem für Aufrüster in der 300€ Klasse.

Und solang ist es ja nicht mehr hin bis 2019... ;)

mfg
 
Zuletzt bearbeitet:
Habe mal zu Gamestar rübergeäugt, da wurde der Test auch schon von den Usern zerrissen. Vor allem die Lobpreisungen über die 2070 (eigentlich ne 2060, da nochmals kleinerer Chip, zum Preis einer 2080) sind ja sowas von lächerlich.
Ich warte lieber auf vernünftige Tests von Raff. :cool::daumen::nicken:
 
Mit HBM2 und Rapid Packed Math wollte ich zum Ausdruck bringen das auch AMD dem Spieler mit Vega etwas aufschwatzen wollte was uns Gamer nichts bringt.

Aha... RPM - also doppelte FP16 Leistung, im Vergleich zu FP32 - bringt uns Spielern nichts...
Komisch, dass Turing das nun auch beherrscht und in entsprechenden Spielen deutlich schneller ist.
Gut, die Spiele sind noch selten, aber dein Verständnis von RPM zeigt mal wieder, wie leicht du dich an Grabenkämpfen und Marketing Namen aufhängst.

@Turing KI Einheiten:
Im Zusammenhang mit dem Verwenden von dedizierten KI Kernen in Turing ist der folgende Artikel auf heise.de sehr interessant:
KI-Forscher: "Deep Learning wird abgeloest" |
heise online


Kurz: Die aktuelle Herangehensweise an Machine Learning basiert auf veraltetem Wissen über das Gehirn - Stand der 60er Jahre.
Da dürfte bald eine kleine Revolution durch die Machine Learning Welt gehen.
 
Ich will bis spätestens Weihnachten auf WQHD umsteigen und meine Zotac GTX970 AMP hängt im OC Limit. Mir fehlt also nur noch eine fette Karte. Problem ist nur Raytracing interessiert mich in diesem Stadium nicht die Bohne und die Leistung ist mir in den 2 Jahren Entwicklung zu Gering für den noch höheren Preis. Eine gute 1080 gibt es weit und breit nicht mehr und darunter möchte ich nicht (wqhd + 144 hz) Eine gute 1080 Ti liegt leider in einem bereich den ich nicht bereit bin zu Zahlen (800€ + ) Kann mir bitte jemand Helfen ? :huh:
Wie schon empfohlen, wenn es für dich in Frage kommt, schau halt nach gebrauchten GTX 1080/Ti bei Ebay/Kleinanzeigen mit langer Restgarantie und Kaufdatum diesen Jahres. Mit etwas Glück und Geduld findet man bei der Ti hier und da sogar noch echte Schnapper...

Gruß
 
Das denke ich nicht das Nvidia noch 2000er GTX-Modelle bringen wird. Das Nvidia dann einen neuen Chip produziert ohne Tensor-Kerne und RT-Einheiten wäre zu aufwendig und teuer und wäre auch nicht logisch 2 Chipdesigns für eine Generation Gamer-GPU´s.

Ich persönlich finde das Nvidia uns eine teure Technik aufbrummen will die keiner braucht. was wollen denn wir Gamer? Maximale FPS und gute Frametimes in egal welcher Auflösung ob jemand in FHD/60fps oder 144hz oder 1440 oder in 4K spielt. Raytracing und DLSS ist auch so eine Niete wie Rapid Packed Math und HBM2 von AMD. Alles Techniken die kein Gamer braucht aber die hersteller einem aufschwatzen wollen. Man hat doch gesehen wie beliebt PhysX oder Hairworks ist und wie der ganze Schrott so heißt.

Da drücke ich die Daumen für AMD das mit Navi eine 680 kommt die 1080-Leistung hat denn Turing ist ein Witz in Sachen Preis/Leistung!

Ich denke, es wäre schon möglich, schließlich wird es auch eine GTX2060, ohne RT/DLSS(?) geben, oder?...wenn es kein 1070 Rebrand wird... ;)

Ich befürchte nur, dass bei den Preisen von 500-600€ für eine 2070, die 2060 ebenfalls einen Hunderter über ihrem Vorgänger landen wird, also min. 350-400€ kosten wird...die neue Nividia-Melkmaschine läuft also aller Vorraussicht nach, auch weiter im 24/7 Betrieb... :D

mfg
 
Ich will bis spätestens Weihnachten auf WQHD umsteigen und meine Zotac GTX970 AMP hängt im OC Limit. Mir fehlt also nur noch eine fette Karte. Problem ist nur Raytracing interessiert mich in diesem Stadium nicht die Bohne und die Leistung ist mir in den 2 Jahren Entwicklung zu Gering für den noch höheren Preis. Eine gute 1080 gibt es weit und breit nicht mehr und darunter möchte ich nicht (wqhd + 144 hz) Eine gute 1080 Ti liegt leider in einem bereich den ich nicht bereit bin zu Zahlen (800€ + ) Kann mir bitte jemand Helfen ? :huh:

Ich habe mir eine fast neue Gigabyte 1080 TI OC white bei Goodasnew mit 30 Monaten Garantie für 580 Euro gekauft. Bin sehr zufrieden. Die Gigabyte ist zwar etwas lauter als meine 1080er Palit Gamerock hat aber gemessen nochmal 20% mehr Leistung
 
Zurück