Nvidia Pascal: GP100-GPU womöglich in der Testphase, als Geforce mit max. 16 GiByte HBM

AW: Nvidia Pascal: GP100-GPU womöglich in der Testphase, als Geforce mit max. 16 GiByte HBM

In der DX12 Spec ist ASync nicht spezifiziert. Du darfst gern das Gegenteil nachweisen.

Solange die Performance hinterher in Ordnung ist, ist es doch völlig egal, WIE NVIDIA es nun konkret löst.

Performance setzt sich auch aus Stromverbrauch zusammen, im Grunde ist Maxwell so performant aufkosten der CPU


Unbewiesene Behauptung.


Ja, nur ist es eben nicht vollständig. So wie z.B. bei AMD DX11 oder Tessellation. Nur wird da kein Fass aufgemacht sondern im Gegenteil ein Entwickler, der z.B. viel Tessellation nutzt automatisch als bezahlt von NVIDIA diffamiert wird.

steht doch im Text Nvidia hatte den Code für über ein Jahr, ich verstehe ja nicht was oder welcher Teil des Codes bitte geschützt sein sollte ?

Das wird sowieso niemand beweisen können mit Tesselation, Fakt ist aber das unwissenden Leuten suggeriert wird das Nvidia eine bessere Tesselation Leistung hat was ja auch stimmt aber brauche ich diese auch und das immer ? Es führt auch zu der Annahme das Nvidia einfach die besseren Karten hat.

Hier eine weitere FUD Kampagne seitens Nvidia:
https://community.amd.com/community/gaming/blog/2015/05/12/tressfx-hair-cross-platform-and-v20


Wie auch? NVIDIA hat die Performance auch unter DX11 im Griff und vernichtet AMD dort gnadenlos. Logisch, dass man da beim Wechsel auf DX12 keine Wunder erwarten kann. AMDs "Vorteil" ist doch nur, dass sie unter DX11 Schnarchlangsam sind.

Siehe:
http://www.extremetech.com/wp-content/uploads/2015/08/DX11-High.png
http://www.extremetech.com/wp-content/uploads/2015/08/DX12-High.png

Wenn NVIDIA das Problem löst und die Performance unter DX11 und DX12 identisch ist, sind sie immer noch schneller als AMD.

Was willst du mehr erwarten?

das stimmt ja nicht ganz, AMD Karten legen im Schnitt 10 bis 20 % noch an Speed drauf , Nvidia Karten tun das nicht wie viele alten Karten von Nvidia sind noch im Gebrauch in den Benchmarks ? sogut wie keine und wie viele von AMD ? eigentlich relativ viele, wären die Karten jetzt so schlecht dann würden diese Karten nicht getestet werden. Der geringe Stromverbrauch der Maxwell basiert nicht auf Optimierungen der eigentlichen Architektur sondern auf Basis des besseren Layouts wie die Transistoren und einzelnen Blöcke gesetzt sind und auf dem Die angeordnet sind.
 
AW: Nvidia Pascal: GP100-GPU womöglich in der Testphase, als Geforce mit max. 16 GiByte HBM

In der DX12 Spec ist ASync nicht spezifiziert. Du darfst gern das Gegenteil nachweisen.

Solange die Performance hinterher in Ordnung ist, ist es doch völlig egal, WIE NVIDIA es nun konkret löst.

Habe ich etwas anderes behauptet ? ;)



Ja, nur ist es eben nicht vollständig. So wie z.B. bei AMD DX11 oder Tessellation. Nur wird da kein Fass aufgemacht sondern im Gegenteil ein Entwickler, der z.B. viel Tessellation nutzt automatisch als bezahlt von NVIDIA diffamiert wird.

Wo ist DX11 oder Tessellation nicht implementiert?
Der Shitstorm kommt eigentlich nur wenn Gameworks draufsteht oder irgendwas mit Tessfaktoren >16 gerendert wird.:ugly:
 
AW: Nvidia Pascal: GP100-GPU womöglich in der Testphase, als Geforce mit max. 16 GiByte HBM

Performance setzt sich auch aus Stromverbrauch zusammen, im Grunde ist Maxwell so performant aufkosten der CPU
Das würde bedeuten, dass Maxwell eine höhere CPU-Auslastung als eine Fury-Karte hat.

Kannst du das belegen?

steht doch im Text Nvidia hatte den Code für über ein Jahr, ich verstehe ja nicht was oder welcher Teil des Codes bitte geschützt sein sollte ?
Wo steht, dass der Async-Code seit einem Jahr im Code ist?

Das wird sowieso niemand beweisen können mit Tesselation, Fakt ist aber das unwissenden Leuten suggeriert wird das Nvidia eine bessere Tesselation Leistung hat was ja auch stimmt aber brauche ich diese auch und das immer ? Es führt auch zu der Annahme das Nvidia einfach die besseren Karten hat.
Das kann man nicht beweisen?

Logisch:
http://cdn.wccftech.com/wp-content/uploads/2015/05/NVIDIA-vs-AMD-Tessellation_TechReport.gif

Bäm, würde ich sagen.

Wohl eher eine AMD-FUD-Kampagne, schließlich verlinkst du eine AMD-Seite.

das stimmt ja nicht ganz, AMD Karten legen im Schnitt 10 bis 20 % noch an Speed drauf , Nvidia Karten tun das nicht
Und trotzdem sind die NVIDIA-Karten fast 10% schneller als die von AMD :lol:

Traurig. Und das auch noch trotz DX11. :lol::lol::lol::lol:

Habe ich etwas anderes behauptet ? ;)
War auch nicht auf dich bezogen.

Wo ist DX11 oder Tessellation nicht implementiert?
Ich sprach nicht von nicht implementiert, sondern von "nicht vollständig" ergo nicht performant genug.

Der Shitstorm kommt eigentlich nur wenn Gameworks draufsteht oder irgendwas mit Tessfaktoren >16 gerendert wird.:ugly:
Ach!

Und warum gibt es dann keinen Shitstorm, wenn ein AMD-gesponsortes Spiel eine unperformante Funktion bei NVIDIA nutzt? ;)
 
AW: Nvidia Pascal: GP100-GPU womöglich in der Testphase, als Geforce mit max. 16 GiByte HBM

Das würde bedeuten, dass Maxwell eine höhere CPU-Auslastung als eine Fury-Karte hat.

Kannst du das belegen?

Frage glaubst du nicht das, man im Code die Befehle die von der CPU an die GPU geschickt werden analysieren kann ? Die Antwort ist ja man kann


Wo steht, dass der Async-Code seit einem Jahr im Code ist?

Wer sagt dass Nvidia einen Zugang dazu braucht, wie gesagt im Link steht ja die hatten Zugang zum Code was ja auch den Async-Code betrifft und ich behaupte mal, das das eine Vendor spezifischer Teil ist damit hat Oxide relativ wenig zu tun, nicht umsonst schreibt Nvidia sie Arbeiten daran um es zu implementieren.


Man kann beweisen, das es über den Faktor 16 kaum einen sichtbaren Unterschied mehr gibt !!!!


Wohl eher eine AMD-FUD-Kampagne, schließlich verlinkst du eine AMD-Seite.

Warum weil ein User etwas getestet hat ? und die genau Zahlen getestet hat, ist ja wie jeder andere Benchmark auch. Wccftech hat das auch gemacht genau die Seite die du verlinkt hst. Fakt ist das Nvidia AMD den Zugang versperrt und das hat nicht nur etwas mit Copyright zu tun. Viele der Dinge die Nvidia implementiert kann man man auch auf Wiki nachlesen wie die eine oder andere Diffgleichung funktioniert, das ist nicht Copyright.



Und trotzdem sind die NVIDIA-Karten fast 10% schneller als die von AMD :lol:

Traurig. Und das auch noch trotz DX11. :lol::lol::lol::lol:

du zahlst auch über längere Sicht mehr


War auch nicht auf dich bezogen.


Ich sprach nicht von nicht implementiert, sondern von "nicht vollständig" ergo nicht performant genug.

in dem Fall stimmt "überhaupt nicht implementiert" weil es überhaupt nicht funktioniert hat, wo steht das AMD hier wahnsinnig viel gemacht hat ?


Ach!

Und warum gibt es dann keinen Shitstorm, wenn ein AMD-gesponsortes Spiel eine unperformante Funktion bei NVIDIA nutzt? ;)

so einfach ist das nicht, es wir ja Nvidia freigestellt diese Funktion zu nutzen oder nicht im Gegensatz zu den einen oder anderen Gameworks Titteln
 
AW: Nvidia Pascal: GP100-GPU womöglich in der Testphase, als Geforce mit max. 16 GiByte HBM

Ich sprach nicht von nicht implementiert, sondern von "nicht vollständig" ergo nicht performant genug.

Wo ist DX11 oder Tessellation "nicht vollständig" implementiert?

Und warum gibt es dann keinen Shitstorm, wenn ein AMD-gesponsertes Spiel eine unperformante Funktion bei NVIDIA nutzt?

Was passiert denn hier gerade?
Zudem hinken deine Vergleiche ein bisschen, da Nvidia behauptet hat sie würde Asynchronous Shader unterstützten. Jetzt stellt sich er heraus, dass sie es möglicherweise nur in Software emulieren. Nicht mehr und nicht weniger, und sicher keine 14 Seiten wert. :D
AMDs Tessellation ist in Hardware und bis zum Faktor 16 sogar ähnlich performant wie Nvidias implementiert(Microsoft SDK „SubD11“). AMDs Treiber Overhead ist auch keine nicht Implementierung sondern einfach fehlende Optimierung und das Ergebnisse von Jahren der Vernachlässigung im Bezug auf den Dx11 Overhead.
 
Zuletzt bearbeitet:
AW: Nvidia Pascal: GP100-GPU womöglich in der Testphase, als Geforce mit max. 16 GiByte HBM

Hier steht z.b

Revisiting GameWorks: AMD, Nvidia tangle over optimizations to The Witcher 3: Wild Hunt | ExtremeTech

"Nvidia takes a 24% performance hit from having GameWorks enabled, compared with 47% for AMD. Clearly there’s a disproportionate hit on the AMD side of things. According to end-users, there are several ways to mitigate the problem. One way to clean up performance on AMDcards is to create a custom profile for the game and set a manual level of tessellation. The performance improvement from doing so doesn’t appear to have been precisely quantified."

Warum ist das wohl so, warum sind nicht beide ungefähr gleich betroffen ?
 
AW: Nvidia Pascal: GP100-GPU womöglich in der Testphase, als Geforce mit max. 16 GiByte HBM

Frage glaubst du nicht das, man im Code die Befehle die von der CPU an die GPU geschickt werden analysieren kann ? Die Antwort ist ja man kann
Dann belege doch mal, dass Maxwell eine signifikant höhere CPU-Last erzeugt als eine AMD-Karte, z.B. Fury.

Und bitte nicht nur deswegen, weil die NVIDIA-Karte einfach 30% schneller rendert und deshalb die CPU höher ausgelastet ist ;)


Wer sagt dass Nvidia einen Zugang dazu braucht, wie gesagt im Link steht ja die hatten Zugang zum Code was ja auch den Async-Code betrifft und ich behaupte mal, das das eine Vendor spezifischer Teil ist damit hat Oxide relativ wenig zu tun, nicht umsonst schreibt Nvidia sie Arbeiten daran um es zu implementieren.
Nochmal für die langsamen unter uns:

Wenn Oxide den ASync-Teil in ihrem Renderpfad erst vor 2, 3 oder 6 Monaten entwickelt haben, dann hatte NVIDIA mitnichten ein Jahr Zugriff auf diesen Code.

Kapische?

Man kann beweisen, das es über den Faktor 16 kaum einen sichtbaren Unterschied mehr gibt !!!!
Ja, dann hau rein. Endlich mal ein Beweis von dir, das wäre mal was. Sonst kommt hier nur heiße Luft.

Warum weil ein User etwas getestet hat ? und die genau Zahlen getestet hat, ist ja wie jeder andere Benchmark auch. Wccftech hat das auch gemacht genau die Seite die du verlinkt hst. Fakt ist das Nvidia AMD den Zugang versperrt und das hat nicht nur etwas mit Copyright zu tun. Viele der Dinge die Nvidia implementiert kann man man auch auf Wiki nachlesen wie die eine oder andere Diffgleichung funktioniert, das ist nicht Copyright.
Du verlinkst eine AMD-Seite um dann zu behaupten NVIDIA würde eine FUD-Kampagne fahren. Wo macht das Sinn, außer in deinem Kopf?

du zahlst auch über längere Sicht mehr
Und? Ich erhalte ja auch mehr Leistung. Noch dazu weniger Leistungsaufnahme, kühlere und leisere Karte und ein leiseres Gehäuse.

Und unabhängig davon, ob nun ein Spiel DX11 oder DX12 nutzt eine konstante Leistung.

Also - ich zahle da gern für. Du nicht? ;)

in dem Fall stimmt "überhaupt nicht implementiert" weil es überhaupt nicht funktioniert hat, wo steht das AMD hier wahnsinnig viel gemacht hat ?
Stimmt, was DX11 angeht hat AMD überhaupt nicht viel gemacht. Und dann gibt es Leute, die sie dafür loben, dass sie ihre Treiberentwicklung seit Jahren schleifen lassen.

so einfach ist das nicht, es wir ja Nvidia freigestellt diese Funktion zu nutzen oder nicht im Gegensatz zu den einen oder anderen Gameworks Titteln
Auch AMD ist es freigestellt vernünftige Tessellation-Level frei zugeben. Dann müssten sie sich nicht wie oben oder bereits verlinkt darüber beschweren, dass es Entwickler gibt, die Level >16 nutzen.

Dass da AMD wie ein Kleinkind rumheult und mit Dreck um sich wirft - das ignorierst du vollständig. Dein verlinkter Blogpost ist ja auch ein Teil des Dreck werfens. Oder was ein Richard Fuddy von sich gibt.
 
AW: Nvidia Pascal: GP100-GPU womöglich in der Testphase, als Geforce mit max. 16 GiByte HBM

Wo ist DX11 oder Tessellation "nicht vollständig" implementiert?
Lies doch bitte mal:
Ich sprach nicht von nicht implementiert, sondern von "nicht vollständig" ergo nicht performant genug.

Was passiert denn hier gerade?
Zudem hinken deine Vergleiche ein bisschen, da Nvidia behauptet hat sie würde Asynchronous Shader unterstützten. Jetzt stellt sich er heraus, dass sie es möglicherweise nur in Software emulieren. Nicht mehr und nicht weniger, und sicher keine 14 Seiten wert. :D
Unterstützen sie ja auch. Nur eben noch nicht vollständig. Kommt eben noch.

AMDs Tessellation ist in Hardware und bis zum Faktor 16 sogar ähnlich performant wie Nvidias implementiert(Microsoft SDK „SubD11“). AMDs Treiber Overhead ist auch keine nicht Implementierung sondern einfach fehlende Optimierung und das Ergebnisse von Jahren der Vernachlässigung im Bezug auf den Dx11 Overhead.
Na dann ist es ja völlig ok, wenn ein Entwickler beliebige Tessellation-Level und DX11 nutzt. Komischerweise werden immer die Entwickler angeflamt, wenn AMD scheiß Leistung liefert (Project Cars).

Warum ist das wohl so, warum sind nicht beide ungefähr gleich betroffen ?
Weil AMD keine vernünftige DX11 und Tessellation Performance aufweist.

Komischerweise wird dann nicht AMD dafür kritisiert sondern der Entwickler. Warum?
 
AW: Nvidia Pascal: GP100-GPU womöglich in der Testphase, als Geforce mit max. 16 GiByte HBM

Dann belege doch mal, dass Maxwell eine signifikant höhere CPU-Last erzeugt als eine AMD-Karte, z.B. Fury.

Und bitte nicht nur deswegen, weil die NVIDIA-Karte einfach 30% schneller rendert und deshalb die CPU höher ausgelastet ist ;)
unter DX11 wohlgemerkt unter DX12 überholt eine Fury X eine 980Ti

Frage wie sollte das sonst gehen ? Die CPU bereitet die Befehle nun-mal auf bzw. Queue unter DX11 vollgemerkt unter DX12 überhollt ein Fury X eine 980 Ti



Nochmal für die langsamen unter uns:

Wenn Oxide den ASync-Teil in ihrem Renderpfad erst vor 2, 3 oder 6 Monaten entwickelt haben, dann hatte NVIDIA mitnichten ein Jahr Zugriff auf diesen Code.

wo steht das ? nur weil der Teil kein must have ist bedeutet das jetzt das Nvidia und AMD das nicht machen können bzw. müssen ? Nur weil es nicht in DX12 vorkommt bedeutet das jetzt umgekehrt das man es nicht mit DX12 machen kann ? Wieso hat das AMD hinbekommen und Nvidia nicht, AMD hat zwar Oxide gesponsert bedeutet das jetzt umgekehrt das Oxide nur für AMD ASync gemacht hat, nein der Renderpfad war ja für beide da sonst würde es AMD Karten nicht genutzt werden könnnen nur Nvidia hat halt geschlafen was wiederum bedeutet Nvidia ist im Moment in Erklärungsnot bzw. hat keine Fakten vorzuweisen




Der Anfang von Trollen ?

Ja, dann hau rein. Endlich mal ein Beweis von dir, das wäre mal was. Sonst kommt hier nur heiße Luft.

AMD Radeon Cards Get Improved Performance In Witcher 3 With Reduced Tessellation Levels - 180 Days Since Catalyst WHQL Drivers Issued
siehst du ein Unterschied zwischen Faktor 8 und 16 bei Nvidia Karten ? nicht wirklich oder ?


Und? Ich erhalte ja auch mehr Leistung. Noch dazu weniger Leistungsaufnahme, kühlere und leisere Karte und ein leiseres Gehäuse.

der Unterschied ist man müsste 4 bis 6h Spielen das bei Vollast über 1,5 Jahre um die Kosten von 50 Euro bis 100Euro wieder reinzukommen, Clean Energy ist wichtig aber das spielen auch andere Faktoren mit rein wie z.b der wie der Chip hergestellt worden ist


Du verlinkst eine AMD-Seite um dann zu behaupten NVIDIA würde eine FUD-Kampagne fahren. Wo macht das Sinn, außer in deinem Kopf?

nicht nur, hab bereits zwei Seiten oder mehr gelinkt

Und unabhängig davon, ob nun ein Spiel DX11 oder DX12 nutzt eine konstante Leistung.

bezweifle ich, wie wäre es damit ich bezahle lieber für eine Firma die offen kommuniziert als Leute zu verarschen !!!



Also - ich zahle da gern für. Du nicht? ;)


Stimmt, was DX11 angeht hat AMD überhaupt nicht viel gemacht. Und dann gibt es Leute, die sie dafür loben, dass sie ihre Treiberentwicklung seit Jahren schleifen lassen.


Auch AMD ist es freigestellt vernünftige Tessellation-Level frei zugeben. Dann müssten sie sich nicht wie oben oder bereits verlinkt darüber beschweren, dass es Entwickler gibt, die Level >16 nutzen.

Dass da AMD wie ein Kleinkind rumheult und mit Dreck um sich wirft - das ignorierst du vollständig. Dein verlinkter Blogpost ist ja auch ein Teil des Dreck werfens. Oder was ein Richard Fuddy von sich gibt.

ja das stimmt, nur komischer Weise kommt das bei Gameworks Titeln vor siehe Crysis und Witcher 3

du selber verlinkt Wccftech und ich darf es nicht , dein Logik ist einfach zum lachen oder heulen
 
Zuletzt bearbeitet:
AW: Nvidia Pascal: GP100-GPU womöglich in der Testphase, als Geforce mit max. 16 GiByte HBM

Frage wie sollte das sonst gehen ? Die CPU bereitet die Befehle nun-mal auf bzw. Queue
Und? Das tut er bei AMD doch genauso. Die Befehle und Daten müssen ja irgendwo her kommen.

wo steht das ? nur weil der Teil kein must have ist bedeutet das jetzt das Nvidia und AMD das nicht machen können bzw. müssen ? Nur weil es nicht in DX12 vorkommt bedeutet das jetzt umgekehrt das man es nicht mit DX12 machen kann ? Wieso hat das AMD hinbekommen und Nvidia nicht, AMD hat zwar Oxide gesponsert bedeutet das jetzt umgekehrt das Oxide nur für AMD ASync gemacht hat, nein der Renderpfad war ja für beide da sonst würde es AMD Karten nicht genutzt werden könnnen nur Nvidia hat halt geschlafen was wiederum bedeutet Nvidia ist im Moment in Erklärungsnot bzw. hat keine Fakten vorzuweisen
ASync ist nun mal kein Muss für DX12. Eine Karte KANN diese Möglichkeit bieten, sie MUSS sie nicht bieten. Ganz einfach.

Da die NVIDIA-Karte trotz fehlendem ASync, auch heute, schon schneller ist als die AMD-Karte mit ASync, sehe ich dafür auch nicht das Argument. Entscheidend ist doch unterm Strich, was dabei heraus kommt, unabhängig davon, ob nun DX11 oder DX12, ASync oder AASync genutzt wird.

Und da kann man nur attestieren: NVIDIA ist schneller. Punkt.

(Dass NVIDIA unter DX11 schneller rendet als AMD unter DX12 sei hier als Treppenwitz mal angemerkt angesichts dessen, dass das Spiel ja der AMD-DX12-Showcase ist :lol:)

Der Anfang von Trollen ?
Nein, die Kontrollfrage, ob du es endlich verstanden hast. Den Eindruck habe ich bisher nicht.

siehst du ein Unterschied zwischen Faktor 8 und 16 bei Nvidia Karten ? nicht wirklich oder ?
Ja, du nicht? Brille könnte helfen ;)

der Unterschied ist man müsste 4 bis 6h Spielen das bei Vollast über 1,5 Jahre um die Kosten von 50 Euro bis 100Euro wieder reinzukommen, Clean Energy ist wichtig aber das spielen auch andere Faktoren mit rein wie z.b der wie der Chip hergestellt worden ist
Witzig. Ich gebe mehrere Punkte an und du glaubst, nur weil du einen Punkt irgendwie ankratzt, würdest du was widerlegen.

Mir geht es null um den Preis. Falls du das immer noch nicht verstanden hast.

nicht nur, hab bereits zwei Seiten oder mehr gelinkt
Ich habe aber immer noch keinen FUD von NVIDIA gesehen. Nur von AMD.

AMD nennt das übrigens "Sabotage". Kannst du mir kurz ein ähnliches Statement von NVIDIA zeigen in Bezug auf DX12 und ASync? Nein? Aber du hattest doch behaupten, NVIDIA würde weinen und sich wie ein kleines Kind aufführen. Das kann ich aber nirgends erkennen. Sie sagen, es gibt da ein Problem, sie fixen es, fertig.

AMD hätte seinen Fuddy schon wieder losgeschickt, der jedem Journalisten, der nicht schnell genug weg rennen kann erzählt, wie hier über Funktionen gezielt ihre Performance sabotiert wird.

bezweifle ich, wie wäre es damit ich bezahle lieber für eine Firma die offen kommuniziert als Leute zu verarschen !!!
Also eine Firma, die öffentlich FUD über andere Firmen verbreitet, die drei Jahre alt Chips als neu vermarktet und ihre faktisch fast gar nicht übertaktbaren Chip als "overclocker's dream" bezeichnet?

Bitte. Jeder wie er mag.

ja das stimmt, nur komischer Weise kommt das bei Gameworks Titeln vor siehe Crysis und Witcher 3
Und bei AMD-Titeln wie Ashes of the Singularity ist es auf einmal in Ordnung, wenn man Funktionen nutzt, die die Konkurrenz ausbremsen.

Warum kritisierst du AMD nicht dafür? Es ist EXAKT das gleiche in Grün ... ääääh... Rot.

Das ist ja das obskure:

NVIDIA sponsort ein Spiel und lässt eine Technologie einbauen, die bei AMD langsam läuft -> NVIDIA wird kritisert
AMD sponsort ein Spiel und lässt eine Technologie einbauen, die bei NVIDIA langsam läuft-> NVIDIA wird kritisert

Ernsthaft?

du selber verlinkt Wccftech und ich darf es nicht , dein Logik ist einfach zum lachen oder heulen
Ich sage nicht, dass du es nicht darfst. Für mich ist eben nur ein AMD-Blogposting kein Beleg für NVIDIA-FUD sondern es ist im Gegenteil AMD-FUD.
 
AW: Nvidia Pascal: GP100-GPU womöglich in der Testphase, als Geforce mit max. 16 GiByte HBM

Und? Das tut er bei AMD doch genauso. Die Befehle und Daten müssen ja irgendwo her kommen.

ja aber wenn die CPU mehr beansprucht wird dafür ?


ASync ist nun mal kein Muss für DX12. Eine Karte KANN diese Möglichkeit bieten, sie MUSS sie nicht bieten. Ganz einfach.

Da die NVIDIA-Karte trotz fehlendem ASync, auch heute, schon schneller ist als die AMD-Karte mit ASync, sehe ich dafür auch nicht das Argument. Entscheidend ist doch unterm Strich, was dabei heraus kommt, unabhängig davon, ob nun DX11 oder DX12, ASync oder AASync genutzt wird.

Und da kann man nur attestieren: NVIDIA ist schneller. Punkt.

(Dass NVIDIA unter DX11 schneller rendet als AMD unter DX12 sei hier als Treppenwitz mal angemerkt angesichts dessen, dass das Spiel ja der AMD-DX12-Showcase ist :lol:)

DirectX-12-Benchmarks zu Ashes of the Singularity mit AMD und Nvidia (Seite 2) - ComputerBase sind rund 6 Prozent für AMD


Nein, die Kontrollfrage, ob du es endlich verstanden hast. Den Eindruck habe ich bisher nicht.

eine unnötige wohlgemerkt

​Ja, du nicht? Brille könnte helfen ;)

der Unterschied ist minimal, was bedeutet das selbst bei einem Faktor von 64 man kaum mehr einen Unterschied merkt bei viel höhere Beanspruchung der GPU



​Witzig. Ich gebe mehrere Punkte an und du glaubst, nur weil du einen Punkt irgendwie ankratzt, würdest du was widerlegen.

Mir geht es null um den Preis. Falls du das immer noch nicht verstanden hast.

ahaha , mir schon das Gegenargument bedeutet einfach es ist keine Vorteil Nvidia zu kaufen wegen der niedrigen Stromaufnahme aufgrund der höheren Kosten


​Ich habe aber immer noch keinen FUD von NVIDIA gesehen. Nur von AMD.

nicht vorhander MSSA Bug in AoS ?


AMD nennt das übrigens "Sabotage". Kannst du mir kurz ein ähnliches Statement von NVIDIA zeigen in Bezug auf DX12 und ASync? Nein? Aber du hattest doch behaupten, NVIDIA würde weinen und sich wie ein kleines Kind aufführen. Das kann ich aber nirgends erkennen. Sie sagen, es gibt da ein Problem, sie fixen es, fertig.

AMD hätte seinen Fuddy schon wieder losgeschickt, der jedem Journalisten, der nicht schnell genug weg rennen kann erzählt, wie hier über Funktionen gezielt ihre Performance sabotiert wird.


Also eine Firma, die öffentlich FUD über andere Firmen verbreitet, die drei Jahre alt Chips als neu vermarktet und ihre faktisch fast gar nicht übertaktbaren Chip als "overclocker's dream" bezeichnet?

Bitte. Jeder wie er mag.

wenn der Code offen kommuniziert wird dann ist das ja kein Problem, ist das der Fall bei Gameworks Titeln ? Nein eher nicht in der License steht selbst drin die dürfen nicht mit AMD arbeiten.

Wie ist das mit AoS wurde der Code offen kommuniziert ? ja diesee wurde, gibt es irgendwo etwas anderes seitens Nvidia und Oxide nein, Nvidia wird nicht ausgebremst nicht in dem gleichen Verhältnis wie AMD mit Gameworks Titeln, Nvidia steht es frei offen ASycn zu benutzen oder nicht, daher hat AMD Nvidia nicht sabotiert, frei offen und die freie Wahl es zu benutzen oder nicht, Oxide hat selbst gesagt das diese verwundert waren wie gut Maxwell mit DX11 bereits funktioniert

Und bei AMD-Titeln wie Ashes of the Singularity ist es auf einmal in Ordnung, wenn man Funktionen nutzt, die die Konkurrenz ausbremsen.

Warum kritisierst du AMD nicht dafür? Es ist EXAKT das gleiche in Grün ... ääääh... Rot.

Das ist ja das obskure:

NVIDIA sponsort ein Spiel und lässt eine Technologie einbauen, die bei AMD langsam läuft -> NVIDIA wird kritisert
AMD sponsort ein Spiel und lässt eine Technologie einbauen, die bei NVIDIA langsam läuft-> NVIDIA wird kritisert

Ernsthaft?

Wie viel wurden denn diese ausgebremst 1 bis 2 %, da fällt einen wirklich ein Stein aus der Krone oder ? sowie Nvidia , das Problem ist einfach AMD ist Kopf an Kopf auf einmal in einen Benchmark was später ein Spiel sein wird und damit haben viele ein Problem, ASycn bremst Nvidia Karten nicht aus sondern steigt die Performance auf AMD Karten, das ist komplett was anderes was in Gameworks Titeln passiert.

Wird denn die Performance in Gameworks Titeln besser mit AMD Karten oder bleibt gleich wie bei Nvidia Karten ? Nein soviel dazu , die Performance wird deutlich schlechter als mit OpenSource Titeln (TressFX)


Ich sage nicht, dass du es nicht darfst. Für mich ist eben nur ein AMD-Blogposting kein Beleg für NVIDIA-FUD sondern es ist im Gegenteil AMD-FUD.


nicht nur, ich hab auf AMD,Wccftech und HardwareDeluxx gelinkt soviel dazu , 3 unabhängige Quellen
 
AW: Nvidia Pascal: GP100-GPU womöglich in der Testphase, als Geforce mit max. 16 GiByte HBM

ja aber wenn die CPU mehr beansprucht wird dafür ?
Fakt, Behauptung oder einfach Wunschdenken?

In FullHD ist NVIDIA schneller. Also für >95% der Gamer.

eine unnötige wohlgemerkt
Den Eindruck habe ich bisher nicht. Im Gegenteil.

der Unterschied ist minimal, was bedeutet das selbst bei einem Faktor von 64 man kaum mehr einen Unterschied merkt bei viel höhere Beanspruchung der GPU
Das kannst du über fast jede Bildverbesserung, inklusive höherer Auflösung, höhere AA-Stufen, höheres AF etc. pp. sagen.

Dass du die Grenze willkürlich dort ziehst, wo AMD plötzlich lahmarschig wird, wundert mich nicht.

ahaha , mir schon das Gegenargument bedeutet einfach es ist keine Vorteil Nvidia zu kaufen wegen der niedrigen Stromaufnahme aufgrund der höheren Kosten
Natürlich ist es ein Vorteil. Die Karte und auch mein Gehäuse sind kühler und damit auch leiser. Ich kann ein kleineres und preiswerteres Netzteil kaufen. Usw. usf.

nicht vorhander MSSA Bug in AoS ?
Warum verlinkst du dann einen Artikel über TressFX? :huh:

Ich glaube immer mehr, du willst nur schlicht Trollen. Springst feuchtfröhlich hin und her, von Thema zu Thema, hauptsache du kannst gegen NVIDIA stänkern. Fakten und stringente Diskussionen sind dir ein Fremdwort.

wenn der Code offen kommuniziert wird dann ist das ja kein Problem, ist das der Fall bei Gameworks Titeln ? Nein eher nicht in der License steht selbst drin die dürfen nicht mit AMD arbeiten.
Ach so, also solange der Code einfach im Source da ist, dann darf AMD NVIDIA ausbremsen, wie sie wollen, das ist völlig egal? Interessante Theorie.

Wie ist das mit AoS wurde der Code offen kommuniziert ? ja diesee wurde, gibt es irgendwo etwas anderes seitens Nvidia und Oxide nein, Nvidia wird nicht ausgebremst nicht in dem gleichen Verhältnis wie AMD mit Gameworks Titeln, Nvidia steht es frei offen ASycn zu benutzen oder nicht, daher hat AMD Nvidia nicht sabotiert, frei offen und die freie Wahl es zu benutzen oder nicht, Oxide hat selbst gesagt das diese verwundert waren wie gut Maxwell mit DX11 bereits funktioniert
Woher weißt du, dass der ASync Code nicht z.B. von AMD entwickelt und an Oxide übergeben wurde? Einfach nur eine frei erfundene Behauptung von dir.

Wie viel wurden denn diese ausgebremst 1 bis 2 %, da fällt einen wirklich ein Stein aus der Krone oder ? sowie Nvidia , das Problem ist einfach AMD ist Kopf an Kopf auf einmal in einen Benchmark was später ein Spiel sein wird und damit haben viele ein Problem, ASycn bremst Nvidia Karten nicht aus sondern steigt die Performance auf AMD Karten, das ist komplett was anderes was in Gameworks Titeln passiert.
Was denn nun? Vor zwei Stunden hast du noch behauptet NVIDIA-Karten würden ASync nicht beherrschen und wären da total langsam - jetzt behauptest du plötzlich, ASync würde ise gar nicht ausbremsen.

WiddeWiddeWitt sage ich da nur. Machst dir die Welt auch immer so passend, wie es gerade ist.

Wird denn die Performance in Gameworks Titeln besser mit AMD Karten oder bleibt gleich wie bei Nvidia Karten ? Nein soviel dazu , die Performance wird deutlich schlechter als mit OpenSource Titeln (TressFX)
Die Performance wird bei AMD einfahc mies, sobald das Tessellation-Levle zu hoch ist. Hat mit Gameworks nichts zu tun, es ist einfach eine Schwäche der AMD-Karte. Darüber echauffierst du dich, bei ASync beklatschst du es.

Sinn? Ich verstehe ihn nicht.

nicht nur, ich hab auf AMD,Wccftech und HardwareDeluxx gelinkt soviel dazu , 3 unabhängige Quellen
Und in keiner war NVIDA-FUD zu sehen, nur AMD-FUD. Wie du ja nochmal breit ausformuliert hast oben.
 
AW: Nvidia Pascal: GP100-GPU womöglich in der Testphase, als Geforce mit max. 16 GiByte HBM

Fakt, Behauptung oder einfach Wunschdenken?


In FullHD ist NVIDIA schneller. Also für >95% der Gamer.

lol

F

Den Eindruck habe ich bisher nicht. Im Gegenteil.

Troll Incoming


Das kannst du über fast jede Bildverbesserung, inklusive höherer Auflösung, höhere AA-Stufen, höheres AF etc. pp. sagen.

Dass du die Grenze willkürlich dort ziehst, wo AMD plötzlich lahmarschig wird, wundert mich nicht.

Das ist ein Blödsinn zwischen zwischen aktivierten AntiAliasing und nicht aktivierten sind schon große Unterschiede, alleine im Bild zwischen Faktor 2 und 16 ist ein großer Unterschied aber zwischen 8 und 16 nicht mehr

Kappische ?



Natürlich ist es ein Vorteil. Die Karte und auch mein Gehäuse sind kühler und damit auch leiser. Ich kann ein kleineres und preiswerteres Netzteil kaufen. Usw. usf.

Es ist aber auch ein Vorteil nicht jedes Jahr eine neue Karte kaufen zu müssen oder sich das Geld für die nächste Generation aussparen was bei Nvidia nicht gegeben hat, ich erinner hier mal an die 10 bis 20 % mehr über die Laufzeit


Ich glaube immer mehr, du willst nur schlicht Trollen. Springst feuchtfröhlich hin und her, von Thema zu Thema, hauptsache du kannst gegen NVIDIA stänkern. Fakten und stringente Diskussionen sind dir ein Fremdwort.

zur Info ich hab jetzt fast zu jeden Punkt einen Link gegeben was hast du gemacht ?


Ach so, also solange der Code einfach im Source da ist, dann darf AMD NVIDIA ausbremsen, wie sie wollen, das ist völlig egal? Interessante Theorie.

AMD hat Nvidia nicht ausgebremst du gehst davon das Nvidia Karten schneller sein müssten, das muss erst ausgiebig gezeigt werden, der Code ist Open Source sprich frei verfügbar von dem her ist auch Nvidia schuld eine unoptimierten Code zu benuzten der von AMD bereitgestellt wird


Woher weißt du, dass der ASync Code nicht z.B. von AMD entwickelt und an Oxide übergeben wurde? Einfach nur eine frei erfundene Behauptung von dir.

Woher weißt du das du unterstellt etwas was du selbst nicht beweisen kannst, im Grund unterstellt du das MS für AMD optimiert hat weil ja Mantle da drin steckt , woher weißt du das ? Es gibt keinen ASync Code furchtbar das muss du mir mal beweisen , das ist ein Hardware feature

Was denn nun? Vor zwei Stunden hast du noch behauptet NVIDIA-Karten würden ASync nicht beherrschen und wären da total langsam - jetzt behauptest du plötzlich, ASync würde ise gar nicht ausbremsen.

stimmt nicht habe ich nicht gesagt, ich habe gesagt es läuft nicht so effizient die Erklärung habe ich auch schon gegeben


Warum verlinkst du dann einen Artikel über TressFX? :huh:

Die Performance wird bei AMD einfahc mies, sobald das Tessellation-Levle zu hoch ist. Hat mit Gameworks nichts zu tun, es ist einfach eine Schwäche der AMD-Karte. Darüber echauffierst du dich, bei ASync beklatschst du es.

Sinn? Ich verstehe ihn nicht.


Weil die Performance bei Tress FX gleich gut ist auf beiden Herstellern und dort ist der Code Open Source und TressFX sowohl als auch Hairworks machen defacto das gleiche, also hatten beide Hersteller die Möglichkeit zu optimieren. Gameworks benutzt Tesselation unter anderem wenn der Faktor zu hoch ist obwohl sinnlos dann passiert was ja genau die AMD Karten werden viel langsamer als die Nvidia Karten

Und in keiner war NVIDA-FUD zu sehen, nur AMD-FUD. Wie du ja nochmal breit ausformuliert hast oben.

was auch immer du als FUD Kampange bezeichnest

[/QUOTE]

Es ist eh sinnfrei mit Nvidia Leute zu reden, alles nur in Frage stellen Frage über Frage obwohl die Quellen bereits geliefert wurden
 
AW: Nvidia Pascal: GP100-GPU womöglich in der Testphase, als Geforce mit max. 16 GiByte HBM

So klingst du also, wenn du keine Argumente mehr hast ;)

Stimmt, du postest ja auch :devil:

Das ist ein Blödsinn zwischen zwischen aktivierten AntiAliasing und nicht aktivierten sind schon große Unterschiede, alleine im Bild zwischen Faktor 2 und 16 ist ein großer Unterschied aber zwischen 8 und 16 nicht mehr
Es gibt AA in verschiedenen Abstufungen. Und wo 4x noch einen großen Effekt hat, hat 8 oder 16 keinen so großen mehr. Trotzdem kann man sie verwenden und trotzdem ist das legitim. Dito bei Tessellation.

Es ist aber auch ein Vorteil nicht jedes Jahr eine neue Karte kaufen zu müssen oder sich das Geld für die nächste Generation aussparen was bei Nvidia nicht gegeben hat, ich erinner hier mal an die 10 bis 20 % mehr über die Laufzeit
Wie gesagt: Ich zahle gern mehr für die NVIDIA-Karte, weil die entsprehcende Qualität gegeben ist. AMD hat sich ja auch mit der neusten Generation wieder super selbst ein Bein gestellt, in dem da alles fiept, was fiepen kann.

zur Info ich hab jetzt fast zu jeden Punkt einen Link gegeben was hast du gemacht ?
Ich habe alles mit Links belegt, während du mit einem Link zu einer AMD-Seite (!) irgendwas von NVIDIA-FUD geblubbert hat.

Dabei war es offensichtlich AMD-FUD, sonst wäre es ja keine AMD-Seite gewesen.

AMD hat Nvidia nicht ausgebremst du gehst davon das Nvidia Karten schneller sein müssten, das muss erst ausgiebig gezeigt werden, der Code ist Open Source sprich frei verfügbar von dem her ist auch Nvidia schuld eine unoptimierten Code zu benuzten der von AMD bereitgestellt wird
Nun, dann bremst NVIDIA ja auch nie AMD aus. Sollen sie eben nur vernünftig Tessellation implementieren, dann muss man nicht über 32 oder 64 Level rumheulen :daumen:

Woher weißt du das du unterstellt etwas was du selbst nicht beweisen kannst, im Grund unterstellt du das MS für AMD optimiert hat weil ja Mantle da drin steckt , woher weißt du das ? Es gibt keinen ASync Code furchtbar das muss du mir mal beweisen , das ist ein Hardware feature
Tessellation ist auch ein Hardwarefeature. Wird das von einem Entwickler genutzt und AMD kommt damit nicht klar, heulst du doch auch rum.

stimmt nicht habe ich nicht gesagt, ich habe gesagt es läuft nicht so effizient die Erklärung habe ich auch schon gegeben
Also wie bei AMD Tessellation. Also wunderbar vergleichbar.

Weil die Performance bei Tress FX gleich gut ist auf beiden Herstellern und dort ist der Code Open Source und TressFX sowohl als auch Hairworks machen defacto das gleiche, also hatten beide Hersteller die Möglichkeit zu optimieren. Gameworks benutzt Tesselation unter anderem wenn der Faktor zu hoch ist obwohl sinnlos dann passiert was ja genau die AMD Karten werden viel langsamer als die Nvidia
Und was kann NVIDIA nun dafür, wenn AMD kein vernünftiges Tessellation beherrscht? :huh:

AMD nutzt ja auch ASync.

was auch immer du als FUD Kampange bezeichnest
Beispielsweise "Sabotage" dem Mitbewerber zu unterstellen. WIe würdest du das denn nennen? Fairer Umgang?

Es ist eh sinnfrei mit Nvidia Leute zu reden, alles nur in Frage stellen Frage über Frage obwohl die Quellen bereits geliefert wurden
Ok, also gibst du zu, dass AMD FUD über NVIDIA verbreitet? Und gleichzeitig NVIDIA ausbremst?

Gut zu wissen ;)
 
AW: Nvidia Pascal: GP100-GPU womöglich in der Testphase, als Geforce mit max. 16 GiByte HBM

Es gibt AA in verschiedenen Abstufungen. Und wo 4x noch einen großen Effekt hat, hat 8 oder 16 keinen so großen mehr. Trotzdem kann man sie verwenden und trotzdem ist das legitim. Dito bei Tessellation.

wie viele Arten von Tessellation gibt es ?

Wie gesagt: Ich zahle gern mehr für die NVIDIA-Karte, weil die entsprehcende Qualität gegeben ist. AMD hat sich ja auch mit der neusten Generation wieder super selbst ein Bein gestellt, in dem da alles fiept, was fiepen kann.

es fiepen alle Karten !!!


Ich habe alles mit Links belegt, während du mit einem Link zu einer AMD-Seite (!) irgendwas von NVIDIA-FUD geblubbert hat.

Dabei war es offensichtlich AMD-FUD, sonst wäre es ja keine AMD-Seite gewesen.

Wccftech ? hardwaredeluuxe ? FUD Kampange ?


Nun, dann bremst NVIDIA ja auch nie AMD aus. Sollen sie eben nur vernünftig Tessellation implementieren, dann muss man nicht über 32 oder 64 Level rumheulen :daumen:

Tessellation ist auch ein Hardwarefeature. Wird das von einem Entwickler genutzt und AMD kommt damit nicht klar, heulst du doch auch rum.

ja es ist halt nur unfair wenn es 2 Montate vergehen bis a) mit den neuen Gamerworks Optimierungen klar kommt und b) ob der Entwickler es fair implementiert , Frage warum wird in allen Gamerworks Titeln ein Faktor von 64 eingstellt obwohl AMD nicht damit klar kommt , man eigentlich ein Profil für alle Herstelle anlegen kann ohne viel Aufwand eine Arbeit von 5 Minuten um zu unterscheiden um welche Herstelle es sich handelt und vorallem weil es optimisch nichts bringt !!!!

Also wie bei AMD Tessellation. Also wunderbar vergleichbar.

nicht zwangsweise siehe oben, AMD hat keinen Zugang und die Entwickler ignorieren die Schwächen einfach, und vorab nur weil AMD ein Stärke ausspielt bedeutet das nicht das Nvidia gleich schlecht gemacht wird, Gameworks ist proprietär und Nvidia hüllt sich in schweigen wie und was funktioniert im Gegesatz zu Oxide hier wurde das Problem schlicht weg schon genannt und niemand muss in Unwissenheit herumdümpeln

[Q
Und was kann NVIDIA nun dafür, wenn AMD kein vernünftiges Tessellation beherrscht? :huh:
Nvidia sagt z.b welche Einstellungen diese wollen, man kann ja das Ding runterstellen durch wo müssen die Leute halt selber schauen irgendwo zwischen 3 Millionen Zeilen Code

AMD nutzt ja auch ASync.
Aso führt die Benutzung von ASync zu höheren Performance Einbusse als auf Nvidia Karten mit Gamerworks ?

Beispielsweise "Sabotage" dem Mitbewerber zu unterstellen. WIe würdest du das denn nennen? Fairer Umgang?

Fairer Umgang wo den Spieler durch Gamerworks zu suggerierend wird das Nvidia die weitaus besseren Karten hat, obwohl nicht offen kommuniziert wie es benutzt werden kann oder wie man es optimieren kann ? Das Problem wurde bei ASync bereits benannt die Schwäche des Context Switches, wie gesagt TressFX läuft auf beiden Herstellern gleich gut warum ist das bei Gameworks nicht der Fall ? Nvidia hat sich zu Gameworks überhaupt nicht geäußert was anscheinend AMD falsch macht. Ebenso könnte man viele Geometrie Berechnungen auch auch als Compute Berechnungen durchführen wo AMD wiederum schneller ist.

Ok, also gibst du zu, dass AMD FUD über NVIDIA verbreitet? Und gleichzeitig NVIDIA ausbremst?

Gut zu wissen ;)


Gameworks ist eine FUD Kampange
 
AW: Nvidia Pascal: GP100-GPU womöglich in der Testphase, als Geforce mit max. 16 GiByte HBM

Verstehe auch nicht genau, woher das kommt. Wahrscheinlich hat man durch die Titan gesehen, dass es Leute gibt, die auch deutlich mehr als 500€ für ne GPU ausgeben und daher einfach nach oben ausgebaut und nicht unten rum die Preise gesenkt um das High-End Modell wieder bei 500€ anzusiedeln.
Woher das kommt hat eigentlich einen total einfachen Grund: Der 28nm Prozess ist seit 4 Jahren das Limit
 
AW: Nvidia Pascal: GP100-GPU womöglich in der Testphase, als Geforce mit max. 16 GiByte HBM

laut Aussagen von Oxide hatte Nvidia diese Code über ein Jahr, und all diese Statements seitens Nvidia hören sich nur nach Schadensbegrenzung an
Laut vieler Early Access Entwickler (etwa Project Cars) hätte auch AMD seit 2 Jahren die Möglichkeiten bei der Engineentwicklung und Treiberentwicklung mitzuhelfen, hat man aber auch nicht gemacht.
Nonsens und Marketing dort wie da. Politik
Frage wie sollte das sonst gehen ? Die CPU bereitet die Befehle nun-mal auf bzw. Queue unter DX11 vollgemerkt unter DX12 überhollt ein Fury X eine 980 Ti
Hm

DirectX 12 im Spiele-Benchmark: Fable Legends mit aktuellen Grafikkarten geprüft

Bei wesentlich mehr Chipfläche die in Logik läuft und nicht Speichercontroller ist, und bei wesentlich mehr Bandbreite, und bei angeblich wesentlich besserer DX12 Leistung.
wie viele Arten von Tessellation gibt es ?
weiß nicht. Aber schon einige. N-Patch, Tesselation unter DX8 war wesentlich anders wie die Tesselation in DX11. Und dann gibts auch noch Software-Tesselation, wie etwa in Quake 3 bzw Tech 3 Spielen.
 
Zuletzt bearbeitet:
AW: Nvidia Pascal: GP100-GPU womöglich in der Testphase, als Geforce mit max. 16 GiByte HBM

Nvidia 2 Jahres 'Nick-Nock' - 'Tick-Tock' da kann AMD nicht mehr lange mithalten...

Tesla GT200 - 2008
Fermi GF100 - 2010
Kepler GK110 - 2012
Maxwell GM200 - 2014

Next-Gen Pascal GP100 - 2016
Hmm ja das "all new Architecture" ist mir inzwischen teils ein Dorm in Auge, oft ist es dann doch ersichtlich dass der Aufbau sehr ähnlich ist. Auch Skylake sollte gravierende Änderungen haben.

Von den Architekturen die du gepostet hast, sind tatsächlich große Schritte - aber es sind nur 2 völlig unterschiedliche Architekturen.
Fermi war völlig neu nach der GT200.
Kepler eine Überarbeitung, ebenso wie Maxwell.
Bei Maxwell sah man auch, dass vieles von der Kepler Architektur übernommen wurde, aber die Anzahl der verschiedenen Hardwareeinheiten zueinander bzw deren Verhältnis hat sich geändert (und einige andere Dinge natürlich).
Ich weiß jetzt aber ehrlicherweise nicht, ob Maxwell auch als "all new" bezeichnet wurde.
Die eine (AMD) lauter, die anderen (NVIDIA) unhörbar.

Hmmm also da kann ich ausnahmsweise nicht zustimmen. Ich krieg von allen 980ern etwa Kopfweh/Ohrensausen
Gameworks ist eine FUD Kampange
Ich begreife einfach nicht, warum du immer mit Händen und Füßen AMD verteidigst als ob dein Leben davon abhängen würde, und warum du es dir zur Aufgabe gemacht hast, Fakten zu verdrehen?
 
Zuletzt bearbeitet:
Zurück