Volcanic Islands: Vorstellung am 25. September - starker Leistungszuwachs trotz 28 nm spekuliert

Aha, also kommt jetzt auch von AMD ein Refresh und scheinbar wird es ein echter Refresh und keine Resteverwertung wie bei Nvidia.
Da bin ich mal wirklich neugierig drauf. :daumen:
 
Ist doch sowas von shice egal ob Resteverwertung oder echter Refresh, hauptsache das Preisgefüge passt mal wieder :) Das ist der einzige Punkt worauf ich mich freue, von Seiten der Technik erwarte ich eigentlich nichts.
 
Auf jeden Fall bin ich gespannt was da kommt. Was ich hoffe ist das sie den Stromverbrauch irgendwie gesengt bekommen. Das war der Grund warum ich zu Nvidia gegriffen hab.
 
Zuletzt bearbeitet:
Kannst du gerne machen. :D
Ich erinnere aber z.B. mal an die Titan. Als die Specs der Karte geleakt wurden, da erwarteten Viele, dass die Karte so schnell wie eine GTX690 wird, einfach weil es auf dem Papier so aussah. Letztlich war die Titan aber "nur" schnell genug, um sich ungefähr zwischen GTX680 und GTX690 einzureihen. Und das ist das, was ich meine. Für gewöhnlich ist Hardware wenn sie erscheint weit weniger spektakulär was die Leistung angeht, als es die Hersteller, Leaks und Spekulationen es glauben machen wollten.
Lieber jetzt auf dem Teppich bleiben und sich freuen, wenn die neuen AMDs die eigenen Erwartungen übertreffen, als von großen Leistungssprüngen zu träumen und enttäuscht zu werden. Denn dann geht der Shitstorm wieder los.

Wie war das damals noch mit der HD 7970 und GTX 580? Welche war da noch mal 30 % schneller? Ich denke , so ähnlich wird es im diesen Jahr auch wieder sein. Und im nächsten oder übernächsten Jahr wird Nvidia wieder zurückschlagen. Mir gings eher um das P/L Verhältnis. Und da liegt AMD vorne. Und nicht jeder , wie z.b du , kann sich eine GTX 690 leisten. Diese Zielgruppe wollte ich ehrlich gesagt auch nicht damit ansprechen.
 
Na hoffentlich verspricht AMD da nicht zu viel.

Irgendjemand ne Idee was das für die Chipgrösse Bedeutet? Nen 700mm^2 Chip wird AMD ja wohl kaum Bringen, oder?
Nein, das ist unmöglich mit einem einzigen Chip! Die Fertigung lässt so große Chips nicht zu. Wenn müsste man mehrere Chips per MCM, stackedChip/TSV oder Interposer miteinander verbinden
Nichts direkt, aber es werden schon wie mit der Titan Hoffnungen geschürt.

Inwiefern unmöglich? Man kann es ja wie mit der Titan machen, 2 von 20 Blöcken sind deaktiviert, da sonst funktionierende Chips unbezahlbar wären.
Die Belichtungsmaschinen können nur Masken mit <600mm² verwenden. Du bist also physikalisch einfach beschränkt.

Eben, die Hoffnungen kommen nicht direkt von AMD.
Einen Prestige-Namen hat die GPU bisher auch nicht.

Ich meine TSMC belichtet offiziell bis 600mm², für Belichtungen darüber hinaus wird der Hersteller dann vermutlich das volle Risiko tragen müssen.
Man sollte sowieso irgendwo eine logische Grenze ansetzen.
Was praktisch marktauglich ist, wird mit ziemlicher Sicherheit nicht über 600mm² gehen, wenn sich ein Chip überhaupt bis zu dieser Grenze vor wagt.
Die 600mm² beziehen sich aber noch auf 92mm² oder so wenn ich mich recht erinnere.

Seit 40nm oder so sind es glaub ~575mm². Genau kann ich es dir aber nicht sagen. Ich hab nur im Hinterkopf, das TSMC da wohl runter gegangen ist mit dem offiziellen Angebot. nVidia ist ja mit GF100 damals angeblich an diese Grenze gegangen bzw sogar ganz leicht darüber hinaus mit den bekannten Folgen.

Was imo eine echte Überraschung und eine Abkehr von AMDs Strategie seit dem R600 wäre.

Damit müsste die Titan leistungsmässig zu holen sein. Die Frage ist nur, wie stark man zu Gunsten der Effizienz zurückstecken muss.
Man ist auch von VLIW auf SIMD umgestiegen, setzt verstärkt auf Compute usw usw.

Der Schritt zu einem >500mm² DIE ist eigentlich logisch. Man hat ja noch mehr als genug Platz nach oben (Tahiti <400mm²) und 20nm ist halt noch nicht verfügbar.

Bei Haswell hieß es auch erst das es einen größeren Leistungsprung gibt und am Ende waren es wieder nur 6-7%, in manchen Anwedungen vielleicht 10-11%.
Und falls es zu einer großen Leistungssteigerung kommt dann möchte ich nicht wissen wie viel die Karten verbrauchen werden, denn jetzt war schon die HD 79xx nicht gerade gut in Sachen Effizienz und die HD 7970GHz und HD 7990 sind ja gegenüber den Nvidia Karten sehr schlecht in Sachen Effizienz.
Das liegt aber an der zu hohen Spannung und der sehr sehr sehr frühen Fertigung. GK110 kam erst EIN JAHR! später raus auf dem gleichen Prozess. Das ist absolut logisch, dass der deutlich gereift ist.

ich glaube nicht daran das die neuen AMD karten so schnell werden

ich denke da nur an die HD5+++ vs HD6+++

da müssen die GPUs schon ziemlich umgekrempelt werden
Das kannst du überhaupt NICHT! vergleichen!

Bei der HD6k wurde 32 nm gecancelt, daher musste man auf 40nm rückportieren usw usw. Das ist einfach überhaupt nicht miteinander vergleichbar.

Eine echte Überraschung ist das nicht wirklich. 28nm läuft jetzt schon lange und AMD hat keine andere Wahl.
Die Strategie ist es eher bei einem neuem Fertigungsprozess nicht zu übertreiben und nach oben hin Luft für später zu haben.

Bin auch sehr auf die Effizienz von VI gespannt.
GCN lag mit Kepler auf einem Level, solange es nicht Tahiti war.
VI verwendet sicherlich wieder Multi-Precision ALUs, spart Platz ein, aber ist nicht so effizient, wie wenn man das getrennt hält.
Der GK110 Chip hat 2880 SP-ALUs und 960 DP-ALUs, also insgesamt 3840 ALUs.
nVidia behauptet das... Beweise sind Sie noch immer schuldig, und JEDER! der sich damit auskennt, wie man ALUs baut, und mit dem ich darüber geredet hat, hält es für sehr sehr sehr unwahrscheinlich. Es macht einfach keinen Sinn....
 
Wie war das damals noch mit der HD 7970 und GTX 580? Welche war da noch mal 30 % schneller?

Tja, aber genau das ist doch der Punkt, auf dem meine Argumentation und Spekulation beruht. Tahiti XT hatte nicht nur eine neue Architektur, sondern es wurde auch der Shrink auf 28nm vollzogen (GTX580 40nm). Trotzdem kamen "nur" 30% plus an Leistung dabei raus. Volcanic Island kommt aber angeblich (!) erst mal nur wieder in 28nm. Und deswegen würde ich mir da nicht so große Hoffnungen auf riesige Leistungssprünge machen.
 
Zuletzt bearbeitet:
Tja, aber genau das ist doch der Punkt, auf dem meine Argumentation und Spekulation beruht. Tahiti XT hatte nicht nur eine neue Architektur, sondern es wurde auch der Shrink auf 28nm vollzogen (GTX580 40nm). Trotzdem kamen "nur" 30% plus an Leistung dabei raus. Volcanic Island kommt aber angeblich (!) erst mal nur in 28nm. Und deswegen würde ich mir da nicht so große Hoffnungen auf riesige Leistungssprünge machen.

Deiner Meinung nach! Radeon HD 9970: 2560 SE in 28nm - oder 3072 bis 4096 SE in 20nm? | 3DCenter.org Hier werden sie (vielleicht) schlauer. Aber alles bleibt noch spekulativ und ist von daher sinnlos weiter zu diskutieren. So...Ende der Diskussion!
 
Tja, aber genau das ist doch der Punkt, auf dem meine Argumentation und Spekulation beruht. Tahiti XT hatte nicht nur eine neue Architektur, sondern es wurde auch der Shrink auf 28nm vollzogen (GTX580 40nm). Trotzdem kamen "nur" 30% plus an Leistung dabei raus. Volcanic Island kommt aber angeblich (!) erst mal nur wieder in 28nm. Und deswegen würde ich mir da nicht so große Hoffnungen auf riesige Leistungssprünge machen.
Man hat aber noch genug Luft nach oben, um den Chip auf zu pumpen, hat eine inzwischen reife Fertigung und ist eben in der Evolution einer völlig neuen Architektur, was genug Ansatzpunkte für Optimierungen lässt.

Also auch >30% sind da nicht unrealistisch bei gleichem Verbrauch. Die Frage ist eigentlich wirklich nur, wie groß will AMD werden.
 
Man hat aber noch genug Luft nach oben, um den Chip auf zu pumpen, hat eine inzwischen reife Fertigung und ist eben in der Evolution einer völlig neuen Architektur, was genug Ansatzpunkte für Optimierungen lässt. Also auch >30% sind da nicht unrealistisch bei gleichem Verbrauch. Die Frage ist eigentlich wirklich nur, wie groß will AMD werden.

Hm. Ich weiß nicht. Ich halte die >30% bei gleichem Verbrauch für wenig realistisch.
Aber wir werden sehen. Grundsätzlich würde ich mich natürlich freuen, wenn AMD einen Leistungshammer bringt, denn dann würden umgehend zwei dieser Raketen in meinen Rechner wandern.:D:devil:
Nur denke ich halt, dass das Leistungsplus in der Praxis weitaus geringer ausfällt, als mancheiner hier es sich erträumt.
 
Zuletzt bearbeitet:
Der Tahiti-Nachfolger steht und fällt sicherlich mit der Chipfläche, die AMD zu verwenden gewillt ist. Die Flucht in die Breite ist der einzige Weg, der im aktuellen Fertigungsprozess offen steht (ohne eine radikal andere Architektur, die es ja definitiv nicht geben wird). Sollte AMD in die Region von 500mm² Diefläche vorstoßen, dann ist auch GK110-Leistung angesagt.
 
Wie gesagt, es kommt nur darauf an, wie groß AMD mit dem Chip werden will.

Schau dir einfach den Effizienzgewinn zwischen GK110 und GK104 an. Das ist so das Minimum, was man auch AMD zutrauen kann.

Denn GK104 kam später und GK110 früher, also weniger Reifeprozess in der Fertigung dazwischen, und GK104 hat viel Compute"balast" nicht, den Tahiti aber schon hat. Trotzdem ist GK110 viel effizienter.

Dafür ist Tahiti etwas größer als GK104. Insgesamt kann man aber von einer größeren Effizienzsteigerung ausgehen als zwischen GK104 und GK110. Es sei denn AMD verbockts wieder mit maßlos übertriebener VCore... :-_-:
 
Deshalb macht AMD gleich GPGPU-Grafikkarten und nimmt diese Teile halt mit in die Gamingkarten. Nvidia hingegen ist von diesem Trend nach der GTX500er-Reihe abgekehrt, weil es für sie weniger bringt. Alte Tests zeigen wie sehr sie damals für die unnötigen GPGPU-Anteile kritisiert wurden. Bei AMD ist das auf einmal toll - das versteht man die Welt doch nicht mehr ;)

Die Nvidia-Profi-Sparte macht gute Gewinne. Sie wären verrückt sich selbst zu beschneiden. Der ganze GPGPU-Kram soll gefälligst aus den Gaming-Modellen verschwinden! Der ist genau so überflüssig wie iGPU bei Intel (meine Meinung!). Wer sich keine Quadro- oder FireGL/Pro leisten kann, soll halt länger sparen oder es sein lassen!

Ich bin über jetzt zusätzliche Feature dankbar, solange es gut umgesetzt ist und die Konkurrenz nicht übermäßig behindert. PhysX und TressFX sind da ja Negativbeispiele!
Guck dir mal an wie viel eine 680 bei PhysX leistet:
Test: Nvidia GeForce GTX 680 (Seite 24) - ComputerBase

Trifft nicht in jedem Beispiel zu, aber Architektur Parameter anzupassen, welche nicht nur primär dem 3D-Rendering helfen sind auch wichtig.
Und eine iGPU bei Intel ist das beste was seit Jahren gemacht wird. ;)

Und wieso sind PhysX und TressFX Negativbeispiele? TressFX ist vollkommen Vendor unabhängig und in Benchmarks ist der prozentuale Einbruch von grob 30% absolut identisch(!) bei Kepler und GCN.
PhysX ist doch eher ein Negativbeispiel.

Die 600mm² beziehen sich aber noch auf 92mm² oder so wenn ich mich recht erinnere.

Seit 40nm oder so sind es glaub ~575mm². Genau kann ich es dir aber nicht sagen. Ich hab nur im Hinterkopf, das TSMC da wohl runter gegangen ist mit dem offiziellen Angebot. nVidia ist ja mit GF100 damals angeblich an diese Grenze gegangen bzw sogar ganz leicht darüber hinaus mit den bekannten Folgen.
Ja, habe mir auch schon gedacht, dass es mit der Zeit nicht auf ewig bei dieser Angabe bleiben wird, aber habe es mal bei grob bis zu 600 mm² bisher immer belassen.


nVidia behauptet das... Beweise sind Sie noch immer schuldig, und JEDER! der sich damit auskennt, wie man ALUs baut, und mit dem ich darüber geredet hat, hält es für sehr sehr sehr unwahrscheinlich. Es macht einfach keinen Sinn....
Ail hat ja mal ein paar (?) oder einen Ingenieur seines Vertrauens gefragt, ob das was Nvidia macht oder sagt Sinn macht, er meinte von der Effizienz her durchaus.
Das ist vermutlich Nvidias Weg X DP-FLOPS per Watt irgendwie einzuhalten.
Aber wäre doch ebenfalls seltsam, wenn Nvidia in der Beziehung einfach mal fett lügen würde oder nicht? ;)
Deshalb nehme ich das mal als Wahrheit an.
 
Wie gesagt, es kommt nur darauf an, wie groß AMD mit dem Chip werden will.
Schau dir einfach den Effizienzgewinn zwischen GK110 und GK104 an. Das ist so das Minimum, was man auch AMD zutrauen kann.
Denn GK104 kam später und GK110 früher, also weniger Reifeprozess in der Fertigung dazwischen, und GK104 hat viel Compute"balast" nicht, den Tahiti aber schon hat. Trotzdem ist GK110 viel effizienter.
Dafür ist Tahiti etwas größer als GK104. Insgesamt kann man aber von einer größeren Effizienzsteigerung ausgehen als zwischen GK104 und GK110. Es sei denn AMD verbockts wieder mit maßlos übertriebener VCore... :-_-:

Das was du sagst macht ja durchaus Sinn.;)
Es ist aber leider in den vergangenen Jahren viel zu oft passiert, dass Produkte die an sie gestellten Erwartung nur ein Stück weit, oder gar nicht erfüllen konnten (Bulldozer, Titan.....). Selbst die 7970 hatte zum Release einen leicht faden Beigeschmack, weil einerseits die Spannung zu hoch angelegt war und vom Takt her noch einiges mehr drin gewesen wäre, wie sie ja leider erst später mit der GHz gezeigt haben. Deswegen bin ich grundsätzlich halt etwas zurückhaltend in der Leistungsprognose. Es ist halt weniger die Frage, was in 28nm maximal möglich ist, sondern (wie du schon angedeutet hast), was AMD daraus macht. Und da bin ich einfach skeptisch bzw. die häufige Differenz zwischen Theorie und Praxis macht mich da skeptisch.
 
Zuletzt bearbeitet:
Das was du sagst macht ja durchaus Sinn.;)
Es ist aber leider in den vergangenen Jahren viel zu oft passiert, dass Produkte die an sie gestellten Erwartung nur ein Stück weit, oder gar nicht erfüllen konnten (Bulldozer, Titan.....). Selbst die 7970 hatte zum Release einen leicht faden Beigeschmack, weil einerseits die Spannung zu hoch angelegt war und vom Takt her noch einiges mehr drin gewesen wäre, wie sie ja leider erst später mit der GHz gezeigt haben. Deswegen bin ich grundsätzlich halt etwas zurückhaltend in der Leistungsprognose. Es ist halt weniger die Frage, was in 28nm maximal möglich ist, sondern (wie du schon angedeutet hast), was AMD daraus macht.
Also von der Performance her, war Titan deutlich unter meinen Erwartungen, aber von der Perf/Watt bzw. Nvidias Weg auf dieses Ratio zu zielen, war ich dann sehr überrascht.
Leise, extrem effizient, etwas Performance drauf, da dachte ich echt Wow anfangs. :D
Mit der Ghz Edition hat AMD leider eher gezeigt, wie man eig. kostenlose OC-Reserven noch einmal mit höherer Vcore abgrabt und damit wieder unnötig auf die Perf/Watt haut, wegen ein paar % weniger Ausschuss.
Aber Llano war glaube ich das extremste Beispiel was AMD je auf den Markt gebracht hat, da hat glaub fast jedes Sample ein viertel Volt weniger Spannung angenommen.

Bin gespannt auf AMDs Perf/Watt Balance diesmal, immerhin ist der 28nm Prozess jetzt reif.
 
Zuletzt bearbeitet:
Also von der Performance her, was Titan deutlich unter meinen Erwartungen, aber von der Perf/Watt bzw. Nvidias Weg auf dieses Ratio zu zielen, war ich dann sehr überrascht.

Ja, das ist richtig. Es hat mich auch überrascht wie effizient die Titan ist. Nur von der Leistung her, hatte auch ich auf etwas mehr gehofft.

Mit der Ghz Edition hat AMD leider eher gezeigt, wie man eig. kostenlose OC-Reserven noch einmal mit höherer Vcore abgrabt und damit wieder unnötig auf die Perf/Watt haut, wegen ein paar % weniger Ausschuss.

Das war auch echt unverständlich. AMD hatte da die eigenen Karten was die Effizienz angeht schlechter dastehen lassen, als es eigentlich nötig gewesen wäre.

Bin gespannt auf AMDs Perf/Watt Balance diesmal, immerhin ist der 28nm Prozess jetzt reif.

Jep. Lassen wir uns mal überraschen ;)
 
Zuletzt bearbeitet:
Das was du sagst macht ja durchaus Sinn.;)
Es ist aber leider in den vergangenen Jahren viel zu oft passiert, dass Produkte die an sie gestellten Erwartung nur ein Stück weit, oder gar nicht erfüllen konnten (Bulldozer, Titan.....). Selbst die 7970 hatte zum Release einen leicht faden Beigeschmack, weil einerseits die Spannung zu hoch angelegt war und vom Takt her noch einiges mehr drin gewesen wäre, wie sie ja leider erst später mit der GHz gezeigt haben. Deswegen bin ich grundsätzlich halt etwas zurückhaltend in der Leistungsprognose. Es ist halt weniger die Frage, was in 28nm maximal möglich ist, sondern (wie du schon angedeutet hast), was AMD daraus macht. Und da bin ich einfach skeptisch bzw. die häufige Differenz zwischen Theorie und Praxis macht mich da skeptisch.
Das ist auch absolut richtig! ;)

Man sollte das nicht als "Das WIRD/MUSS so kommen" sehen, sondern eben als möglich, oder eben nicht möglich.

Der GPU Markt ist so eng, das schon hier oder da mal 2% Verlust darüber entscheiden, ob ein Produkt der Oberkracher ist, oder einfach nur Durchschnitt. Das entscheidet sich teilweise aber eben erst Wochen vor dem Verkaufstart, je nachdem wie die Yealds eben ausshen :( Da steckste halt teils nicht drin.

Ail hat ja mal ein paar (?) oder einen Ingenieur seines Vertrauens gefragt, ob das was Nvidia macht oder sagt Sinn macht, er meinte von der Effizienz her durchaus.
Das ist vermutlich Nvidias Weg X DP-FLOPS per Watt irgendwie einzuhalten.
Aber wäre doch ebenfalls seltsam, wenn Nvidia in der Beziehung einfach mal fett lügen würde oder nicht? ;)
Deshalb nehme ich das mal als Wahrheit an.
Nichts gegen Ailuros, er hat durchaus viel Ahnung, und er hat SEHR gute Kontakte, aber er ist kein Hardwareentwickler. Da fehlt ihm einfach das Verständnis und auch die Hintergrundinformationen dazu. Ein echter Entwickler kann ihm da die Story vom Pferd erzählen ohne das er es merken wird. Das ist aber auch total normal!

Ich habe aber eben mit Leuten zu tun, die selbst nen ASIC entwickeln und eben Hardwarearchitekturen/-entwurf machen, und da ist die einhellige Meinung, dass das unrealistisch ist. Man hat schlicht keine Idee, wie das funktionieren sollte. Daher wird es auch als nicht "echt" betrachtet. So wie nVidia es darstellt wird es nicht sein. Sie machen wahrscheinlich sogar IRGEND! etwas, aber nicht das was Sie sagen. Es macht einfach keinen Sinn! Das hat damit zu tun, wie man Addierer und Multiplizierer auf Gatterebene baut. Das geht hier jetzt aber viel viel viel zu tief rein. Nur soviel dazu. Man kann kann verdammt viel wiederverwenden von einer SP ALU, wenn man DP machen will. Deswegen wird auch schon seit Ewigkeiten genau das bei CPUs gemacht, und jetzt soll nVidia auf einmal den "heiligen Gral" gefunden haben? hm.... Sorry, aber das ist einfach sehr sehr unglaubwürdig, zumal nVidia nur kleinlaut auf Nachfragen reagiert...
 
Nichts gegen Ailuros, er hat durchaus viel Ahnung, und er hat SEHR gute Kontakte, aber er ist kein Hardwareentwickler. Da fehlt ihm einfach das Verständnis und auch die Hintergrundinformationen dazu. Ein echter Entwickler kann ihm da die Story vom Pferd erzählen ohne das er es merken wird. Das ist aber auch total normal!

Ich habe aber eben mit Leuten zu tun, die selbst nen ASIC entwickeln und eben Hardwarearchitekturen/-entwurf machen, und da ist die einhellige Meinung, dass das unrealistisch ist. Man hat schlicht keine Idee, wie das funktionieren sollte. Daher wird es auch als nicht "echt" betrachtet. So wie nVidia es darstellt wird es nicht sein. Sie machen wahrscheinlich sogar IRGEND! etwas, aber nicht das was Sie sagen. Es macht einfach keinen Sinn! Das hat damit zu tun, wie man Addierer und Multiplizierer auf Gatterebene baut. Das geht hier jetzt aber viel viel viel zu tief rein. Nur soviel dazu. Man kann kann verdammt viel wiederverwenden von einer SP ALU, wenn man DP machen will. Deswegen wird auch schon seit Ewigkeiten genau das bei CPUs gemacht, und jetzt soll nVidia auf einmal den "heiligen Gral" gefunden haben? hm.... Sorry, aber das ist einfach sehr sehr unglaubwürdig, zumal nVidia nur kleinlaut auf Nachfragen reagiert...
Ich traue Ail mehr als zu, einen echten Hardwareentwickler zu fragen, der nicht aus Nvidias PR-Abteilung stammt und ihn in der Beziehung anlügt. ;)

Aus meiner Laiensicht sieht es halt grob danach aus, als ob Nvidia halt Fläche opfert für etwas Effizienz und das mit der zusätzlichen Verdrahtung sein lässt.
Aber hat Nvidia nicht auch gesagt die Vektorbreite bei Kepler liegt jetzt bei 32? Das wollten soweit ich weiß auch einige nicht glauben, weil es mit anderen Sachen nicht zweifelsfrei übereinstimmt.
Auf der anderen Seite ist es aber so, "darf" Nvidia eig. bei technischen Details soweit in die Trickkiste gehen und im Prinzip lügen?
 
Natürlich dürfen Sie sagen was Sie wollen, das sind ja keine zugesichrten Eigenschaften...

Und du verstehst das Problem nicht. Ailuros kann die Anworten nicht bewerten. Ihm fehlt in der Tiefe einfach das Verständis. Er muss das einfach glauben. Ich und vor allem die Leute mit denen ich geradet habe haben diesen Sachverstand, weil Sie genau solche Sachen eben auch machen, und das teils schon seit Jahrzehnten...

Ein Problen, wenn nicht DAS! Problem dabei sind die zusätzlichen Transistoren. Dadurch steigt der Verdrahtungsaufwand, womit die mittlere Leitungslänge steigt, womit der Energieverbrauch ansteigt...

Es passt einfach nicht zusammen, und so lange nVidia da nicht die Hosen runter lässt muss man davon ausgehen, dass Sie da einfach flunkern. Das ist nicht fein, aber was will man machen. Es ist teilweise einfach gang und gebe, das man nur das unbedingt nötige sagt, und die Wahrheit bis zum BRECHEN! zu biegen. Falls du mal in der Branche tätig wirst, wirst du das schnell genug selbst herausfinden...
 
Zurück