Du stimmst mir zu dass ess sinnvoll wäre auf Argumente der anderen in Gänze einzugehen... dann tu das auch bitte.
Niemand hat gefordert, dass 100% der Spiele RT unterstützen, mit solchen Behauptungen triffst du exakt den Kern meiner Kritik: Du und andere Pro Nvidia Accs, ihr setzt euch überhaupt nicht mit den Argumenten der anderen User auseinander. 100% Support, vollkommen unrealistisch, das ist jedem Diskussionsteilnehmer auch vollkommen bewusst.
Und da wunderst du dich, dass man dich als angeblich "neutralen" und "sachlichen" Teilnehmer nicht ernst nehmen kann?
Was kritisiert wird ist wie Nvidia Marketing betrieben hat.
- Es gab zu Release von Turing 3 Spiele die in absehbarer Zeit RT unterstützen würden, BF5, Anthem und Metro. Das wäre in Ordnung gewesen, wenn die Pipeline voll gewesen wäre mit AAA Titeln. War Sie nicht.
Welche AAA Titel gab es denn seitdem, die kein DXR unterstützt haben?
Wenn keine Titel mehr erscheinen, können sie logischerweise auch kein DXR supporten, oder?
- 9 Monate nach Release von Turing! werden endlich neue AAA Titel angekündigt welche die Tech unterstützen. Diese Titel werden z.t. erst in 2020 released und damit 2 Jahre nach Turing Release.
Also wenn ein Titel wie Cyberpunk im April erscheint, wie kommt man da ohne eine massive Rechenschwäche auf zwei Jahre?
Nenne doch mal kurz bitte konkret die Titel, die angekündigt sind und erst zwei Jahre nach Turing Release erscheinen.
Und wo war es bei anderen Technologien anders?
Gleichzeitig hat Nvidia aber den Preis der Turing Karten erhöht.
Man führt ein Feature ein was auf absehbare Zeit (mehrere Jahre!!!) nur homöpathisch unterstützt wird, verlangt dafür mehr Geld und glaubt, niemand würde das kritisieren?
Und AMD den Preis der Vega- und Navi-Karten. Und bieten nicht mal ein neues Feature. Damit hast du ja komischerweise gar kein Problem. Warum nur? Ach, wissen wir ja, auch wenn du es nicht zugeben willst
Nein. Er hat einen sehr guten Punkt.
Wenn du so gern mit ihm vor den Bus springst:
Bitte zeig mir die Vergleichsbeispiele mit alten Technologien wie T&L, Tesselation, Computable Shadern oder DirectX-Sprung. Mir egal, irgendeine davon. Zeig mir, wie damals ein IHV da anders gehandhabt hat und den Mahoy-Vorschlag umgesetzt.
Ach? Hat er nicht? Es war schon immer so, wie es mit RTX jetzt passiert? Ja, eben genau deshalb, ist eure "Kritik" einfach nur Bashing.
Kannst du das bitte mit Beispielen belegen?
Wenn ich mal zurückdenke, dann fallen mir irgendwie keine Beispiele ein in denen Hardware teurer wurde für ein Feature was am Ende fast nicht nutzbar war weil es keine Software gegeben hat.
Tja, muss der Opa den Enkeln wohl mal wieder vom Krieg erzählen:
The GeForce 256 was also quite expensive for the time and it didn't offer tangible advantages over competitors' products outside of 3D acceleration.
Anandtech Review:
On October 11, 1999, NVIDIA introduced their brand-new graphics chipset to the world, the GeForce 256. Just about a month later, the GeForce started appearing in cards made by, among other companies, Creative Labs and Guillemot on store shelves, as well as in the hands of online vendors. The price was and still is quite steep for a single peripheral, especially considering that we are currently in a period where a relatively powerful gaming system can be had for around $1000 - $1500.
But then again, everything is relative, right? So the actual severity of the price depends on the overall experience though, correct? If you pay $300 for a graphics card and barely get an extra 5 fps under your favorite game then the card wasn't really worth $300 to you in the first place, now was it?
Then again, if you purchase a $300 card and, immediately after firing up your favorite game, it feels like you've never even seen the title before this moment, the card quickly begins to earn its value.
For many users, the feelings they were left with after seeing what NVIDIA's GeForce could do, were sort of in limbo between the "eh, whatever" and "I have seen the light" reactions. Even in our own tests, the conclusion after reviewing the GeForce was that it's the fastest chip in its class, but nothing more. While the GeForce boasts a fairly powerful hardware transforming & lighting engine, which NVIDIA cutely dubbed their GPU, the overall experience with the GeForce ended up being nothing more than faster gameplay at 1024 x 768, but still not capable of driving higher resolutions at 32-bit color.
For the minimum $249 cost of a card based on the GeForce, many TNT2 Ultra owners found themselves truly not interested in throwing away around $300 on a card that wouldn't improve the gaming experience significantly. While it is true that games with a high polygon count would take advantage of the GeForce's hardware T&L and could potentially perform much better on a GeForce than on any other card, it is also true that we have yet to see a game of that nature and when one does become available (it's inevitable), the GeForce will also carry a noticeable lower price tag (this is also inevitable). So for the NVIDIA loyalists that spent the $300 on a TNT2 Ultra the minute it became available, was the GeForce going to be another $300 "well spent?" Not this time around, not unless NVIDIA could offer a little more for the money.
It's alright to produce a product with flaws, just don't plan on it selling as well as one that is closer to achieving that flawless state that engineers strive for. NVIDIA's GeForce had an inherent flaw; its relatively low memory clock (in comparison to a TNT2 Ultra) and single 128-bit memory bus left it with a noticeable bottleneck from the start -- memory bandwidth.
TNT2 Ultra war 229$, GeForce 299$.
Weil du es nicht verstehen willst.
Hardware T&L ist ein so mieses Beispiel, weil erneut, Software die extrem populär war zum Verkauf von Hardware beigetragen hat. Quake 3 ist DER MP Shooter dieser Ära, man hat seinen PC extra DESWEGEN aufgerüstet.
Ich verstehe es nicht, weil es Bullshit ist. Und ich weigere mich unlogischen Bullshit zu verstehen.
Und es stimmt auch gar nicht. Man merkt, dass du die Zeit gar nicht erlebt hast. Gleichzeitig zu QuakeIII erschien nämlich UT (da du es wahrscheinlich nicht weißt: Unreal Tournament) und die beiden haben sich einen Battle um den Platz 1 der MP-Shooter geliefert, ähnlich wie heute Battlefield und CoD oder PUBG und Fortnite.
UND: UT hatte nämlich genau KEINEN Support für die T&L-Funktionen der GeForce, sondern eine eigene, CPU-basierte T&L-Engine.
Ich frage mich wirklich, wie oft und wie lange wir euch noch erklären müssen, dass ihr euch über Dinge aufregt, die völlig normal so sind und immer schon so waren. So dermaßen verbohrt kann man doch nicht sein, dass man nicht langsam mal merkt sich völlig verrudert zu haben? Ach so, du wahrscheinlich tatsächlich schon. Mahoy antwortet ja lieber gar nicht mehr, nicht ohne Grund.
Eine 1070 und eine 980ti liegen leistungstechnisch ähnlich, erstere hatte einen Einführungspreis von 379$, letztere von 699$. D.h. der Kunde hat dieselbe Leistung für 40% WENIGER Kosten bekommen UND noch 2 GB Vram obendrauf. Dabei gabs modernisierte Technik, erweitertes Featureset, bessere Effizienz...
980Ti: 28nm, 1070: 16nm, RTX2080: 16nm
Vielleicht merkst du jetzt mal, was fehlt und wo das Problem herkommt. Wahrscheinlich nicht, weil es geht dir ja nicht um sachliche Kritik, sondern um NVIDIA-Bashing. Da ist es besser, Industrie-weite Probleme (wie eben die komplizierter und teurer gewordene Fertigung) zu ignorieren und einfach Äpfel mit Birnen zu vergleichen.
Aktuell fehlt Raytracing das, was CDRom & Voodoo hatten: Einen Titel an dem man einfach nicht vorbeikommt und der in RT unfassbar gut aussieht, sodass jeder dieses Erlebnis für sich mache möchte.
Was zeigt, dass du eben noch nie Metro Exodus mit RT gezockt hast
Für deine Blindheit können aber wir oder NVIDIA, sondern nur du etwas.
Und ich bin alt genug dich und jeden anderen der Nvidia Bande in QIII einhändig zu besiegen.
Immerhin, in Selbstüberschätzung bist du tatsächlich ungeschlagen, Kleiner
Heutzutage herrscht gerade in Deutschland absolute Technikverdrossenheit. Die Leute sind sattgefressen und bremsen den Fortschritt, wo es nur geht, weil Innovation zwangsläufig auch immer ein wenig Veränderung und "Beweglichkeit" einfordert. Damit sägen wir wirtschaftlich genau an dem Ast, auf dem wir sitzen....
Da haben uns andere Länder weit, weit überholt was die akzeptanz, Neugier und die Freude bezüglich technischer Innovation anbelangt.
Wie gesagt- In Sachen Technikfeindlichkeit und Konservativismus ist D aktuell inzwischen fast nicht mehr zu schlagen. Da könnte sonstnochwas an Neuerungen herauskommen.
Dass entlockt dem Deutschen, wenn es sich nicht gerade um ein Ding handelt, was vielleicht als Statussymbol herhalten kann nur ein müdes Lächeln.
Besser hätte ich es nicht zusammen fassen können. Das schlimmste ist vor allem, dass die, die gegen dise Technikverdrossenheit angehen, hier im Forum auch noch beleidigt und diffamiert werden.
It just works war aber nicht auf eine problemlose Umsetzung gemünzt, sondern auf das, was diese Technik ausmacht. ALso für die Spieleentwickler. Du wirfst dem System ein par Brocken hin und der Rest wird von der Technik erledigt.
Statt händisch tausende von Fake- Lights, Light Probes etc. zu setzen, setzt man einfach an gewünschte Stelle ein RT- Licht und schon wird alles realistisch mit perfekten Schatten, Lightbounces etc. dargestellt.
Immer faszinierend, wie der große Vollchecker hoffgang plötzlich mit einem Posting zeigt, dass er gar nicht verstanden hat, warum und worüber er sich aufregt
Vielleicht habe ich ihn doch etwas zu jung geschätzt. Kommt mir eher wie das verhalten eines greisen Opas vor, für den eben früher immer alles Besser war, der dann aber leider während der Hasstirade vergisst, worüber er sich eigentlich aufregt