Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Nicht bei Halbleitern!;) Da sinkt der Widerstand mit steigender Temperatur - Deswegen werden bei hoher Temperatur und hoher Spannung die Prozzis/GPUs ja durch zuviel Stromstärke zerstört, während sie bei flüssigem Stickstoff überleben. ;)
Du hast ja nicht nur Silizium im Prozessor :) Die Grundaussage scheint aber trotzdem zu stimmen: http://extreme.pcgameshardware.de/n...uf-ueber-7-3-ghz-uebertaktet.html#post4611496

@ Placebo & boxleitenerb: Was ihr scheinbar vergessen habt, ist das Frontend/Triangle-Setup. Das spielt auch eine Rolle dabei, ob eine Grafikkarte ihre Rohleistung umsetzen kann. Ich glaube auch, dass das vielmehr der Hauptgrund dafür ist, warum die HD 7970 normalerweise ihre Rohleistung nicht so gut "auf die Straße bringt" und dementsprechend bei gleichem Takt nicht so viel schneller als einen HD 7950 ist, wie sie vielleicht theoretisch sein könnte.
Deshalb hält die GTX 680 in normalen Auflösungen ja auch noch so gut mit der HD 7970 GHz Edition mit. Unter 4k sähe das ganz anders aus. Da wäre die GTX 680 ziemlich abgeschlagen.
Spinal schrieb:
Ich habe eure Diskussion aufmerksam gelesen und finde sie sehr interessant, aber eine wichtige Sache wird völlig außen vor gelassen. Hier werden ja Spielebenchmarks als Vergleich herangezogen. Spieleleistung setzt sich aber nicht nur aus Bandbreite und Rechenleistung zusammen. Füllrate, Geometrieverarbeitung, Texturleistung und was weiß ich spielen ja auch eine Rolle. Eine Radeon 5870 hat auch eine theoretische Rechenleistung von 2,7 TFLOPS und immerhin 150 GB/S Bandbreite. Eine GTX 680 mit ihrer rund 25% höheren Bandbreite und 20% höheren Rechenleistung ist aber fast 100% schneller.
Ist bei mir in meiner Schreibwut komplett verloren gegangen :daumen:
In dem laut PCGH stark auf Rechenleistung getrimmten BF3 ist eine GTX 680 nur rund 25% schneller als eine GTX 580, die allerdings weniger als die Hälfte an Rechenleistung hat. Wobei ich vermute, das PCGH da was falsch gemessen hat.
Bezogen auf die theoretische Rechenleistung war Fermi sehr effizient. Bezogen auf den Ferbrauch... naja :ugly: (nur die Topmodelle betrachtet)
Die HD7970 ist ggü. der HD7950 oft bandbreitenlimitiert, weshalb sie dann nicht 33% schneller ist, wie ihre Rechenleistung vermuten lassen würde, sondern eben nur 15-20% im Schnitt.
Wieso um alles in der Welt sollte AMD Rechenleistung verschenken, indem sie an so etwas billigem, wie Speicher bei ihren Topmodellen sparen?
Bis zu einem gewissen Punkt steigt die Leistungsaufnahme mit dem Takt linear, da keine Spannungserhöhung benötigt wird, aber dann macht die Kurve einen Knick und der Verbrauch steigt überproportional an.
Dieser Punkt liegt aber bei unter einem Volt und ist deshalb komplett irrelevant. Sonst müsste sich deine GraKa nicht zurücktakten und die Spannung senken, wenn du nichts machst.
Es ist mir unverständlich, warum das für dich nicht einleuchtend ist.
Es ist mir vollkommen unverständlich, wie du die Probleme von Grafikkarten allein am Verhältnis Rechenleistung/Bandbreite festmachen willst :wall:
Anderes Beispiel: die (theoretische) Rechenleistung ist von der HD 6970 zur HD 7970 um etwas über 50% gestiegen, die Speicherbandbreite aber um über 60%. Du willst mir doch nicht erzählen, dass AMD ihr System so verschlechtert, nur damit sie jetzt endlich eine 384 Bit Anbindung verbauen dürfen und zusätzlich ihr Topmodell damit noch in der Leistung beschneiden?
Ich habe auch nie geschrieben, dass es Sinn machen würde, den Takt einer GTX 650Ti so hoch zu prügeln, dass sie mit einer 680 mithalten kann. Ich habe folgendes geschrieben:
Man muss immer ein gutes Verhältnis zwischen Takt, Recheneinheiten, Leistung pro Takt und Entwicklungskosten/-zeit finden (und in diesem Fall auch noch Bandbreite).
 
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Wieso um alles in der Welt sollte AMD Rechenleistung verschenken, indem sie an so etwas billigem, wie Speicher bei ihren Topmodellen sparen?
Das musst du AMD fragen. Höher getakteter Speicher braucht mehr Strom und ist wenn man höher klassifizierte Chips nimmt auch teurer.

Dieser Punkt liegt aber bei unter einem Volt und ist deshalb komplett irrelevant. Sonst müsste sich deine GraKa nicht zurücktakten und die Spannung senken, wenn du nichts machst.
Wir sprechen selbstverständlich von Lastzuständen. Die Kurve kann durchaus verschiedene Abschnitte und Knickpunkte haben, wo dann so Spässe wie Powergating dazukommen, die die Sache nochmal komplizierter machen. Alle aktuellen GPUs fahren mit mehr wie 1.0V, viele mit fast 1.2V. Du kannst uns immer noch nicht erzählen, dass man mit mehr Takt genauso effizient Leistung generieren kann wie mit mehr Einheiten. In einem kleinen Bereich (Standardtakt+ 10-20%) mag das je nach Chipgüte noch gehen, ab da wird es düster, weil die Spannung für einen stabilen Betrieb hoch muss.

Es ist mir vollkommen unverständlich, wie du die Probleme von Grafikkarten allein am Verhältnis Rechenleistung/Bandbreite festmachen willst :wall:
Anderes Beispiel: die (theoretische) Rechenleistung ist von der HD 6970 zur HD 7970 um etwas über 50% gestiegen, die Speicherbandbreite aber um über 60%. Du willst mir doch nicht erzählen, dass AMD ihr System so verschlechtert, nur damit sie jetzt endlich eine 384 Bit Anbindung verbauen dürfen und zusätzlich ihr Topmodell damit noch in der Leistung beschneiden?
Es stimmt aber doch. Es ist offensichtlich, dass wenn du ein GPU-Paar hast, wo ein Rohleistungsfaktor um 10% und der andere um 33% steigt, nicht beide GPUs ausgewogen sein können.

Die 7970 GHz ist im Schnitt genausoviel schneller wie die 6970 wie sie mehr Bandbreite hat, nämlich knapp 65%. AMD hat das 384bit Interface hauptsächlich wegen Compute eingesetzt, aber mit 256bit hätte man nie im Leben das Leistungsniveau der aktuellen Karten erreicht. Und nicht umsonst hat man bei der 7970 GHz Edition den Speichertakt auch erhöht trotz 384bit Interface. Bandbreite ist bei 3D-Grafik wichtig, ohne genügend Bandbreite kann die Rechenleistung nicht komplett umgesetzt werden.

Ich habe auch nie geschrieben, dass es Sinn machen würde, den Takt einer GTX 650 Ti so hoch zu prügeln, dass sie mit einer 680 mithalten kann. Ich habe folgendes geschrieben:

Du hast hier angezweifelt, dass Einheiten optimal skalieren
Die HD 7970 bekommt ihren Vorsprung vor allem durch den Takt bei Spielen, aber vergleichsweise wenig durch die zusätzlichen Shader.
was ich an zwei Beispielen widerlegt habe. Du hast angezweifelt, dass es ineffizienter ist, Leistung durch mehr Takt statt durch mehr Einheiten zu generieren, obwohl das aller Logik und allen Messungen zu GPU-OC widerspricht. Eine leichte Justierung ist sicherlich sinnvoll, z.B. wenn man die Leistung von 15 SMX will, die Binning Yields aber nur 14 SMX hergeben. Dann setzt man den Takt eben nochmal 5% rauf, big deal. Aber einen GK110 mit z.B. 12 SMX statt 15 zu veröffentlichen und die drei abgeschalteten SMX mit mehr Takt zu kompensieren, ist eine unsinnige Lösung. Sowas ist meines Wissens nach bisher auch nie vorgekommen bei den GPUs.

Ich klinke mich hier aus, ich denke meine Ausführungen waren gründlich genug, und ich habe genug Lesestoff verlinkt, der meine Aussagen stützt.
 
Zuletzt bearbeitet:
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Reicht dir das als Beweis: Test der Radeon HD 7950: Ist der Tahiti Pro besser als Nvidias GTX 580? - Radeon HD 7950 im Test: Lautheit, Leistungsaufnahme, Temperatur und Overclocking ? :schief:
Kein Speichertakt erhöht, nur Core auf 1GHz hochgeschraubt und schon hat man HD 7970 Leistung.
PCGH schrieb:
Es ist offensichtlich, dass der Kerntakt für die Leistung maßgeblich ist, unter einem Bandbreitenproblem leiden die Radeon HD 7950 und HD 7970 nicht.
Damit dürfte das Bandbreitenproblem wegfallen, also bleiben nur noch Cores und Core-Takt. Man braucht 25% mehr Takt, um gleich mit einer Karte zu ziehen, die 32% mehr Rechenleistung besitzt. Also bringen die Shader nicht 100% ihrer Leistung, die sie bringen sollten. Wenn aber alle Shaderprozessoren gar nicht genutzt werden können, ist es sinnvoller, den Takt zu erhöhen, als in ein Loch ohne Boden zu investieren - logisch, oder? Wie das bei der GTX 7xx aussieht weiß niemand, weil es keine Spielebenchmarks gibt. Es kann aber sein, das 12 SMX und mehr Takt am Ende die effektivere und auch effizientere Lösung sind bzw. der Unterschied zwischen beiden Möglichkeiten ist so gering, dass es sich für Nvidia nicht lohnt, noch strenger zu selekieren.
Zum Test oben: Wenn das Testsample den Takt schon mit 0,993V schafft, dann wird das die große Masse an HD 7950ern auch mit HD 7970er Spannung (1,170V) schaffen -> das wäre so ein Beispiel, wo mehr Takt und weniger Cores die bessere Lösung wären, weil deaktivierte Einheiten zwar immer noch etwas Strom fressen aber lange nicht mehr so viel.
 
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

L2 Cache habt ihr schonmal in eure Betrachtung einbezogen oder?

So jetzt mal tacheles....

Leuts, die Diskussion die ihr führt ist lächerlich. Glaubt ihr wirklich die Antwort ist soooo einfach wie ihr beiden das hier versucht zu klären? Vor allem hoffe ich doch, das ihr nicht meint, das es nur "ein" Problem gibt, warum etwas nicht perfekt skaliert.... In der einen Sekunde kann da eine limitieren, und in der Sekunde danach etwas komplett anderes. Die Probleme sind ja nicht geradlinig in 3D-Games... Da ist es einfach lächerlich die gestiegene oder eben nicht gestiegene Leistung an nur einem oder zwei Punkten fest zu machen... Wenns so einfach wäre, dann hätten die Ingenieure das schon LANGE vor dem ersten Wafer gefixed...

Also bitte Leute, schaltet nen Gang zurück, die Diskussion ist echt für den Lokus....

So und nun mal zurück zum eigentlichen Thema...

Ich mache mal meine Glaskugel an und verkünde folgendes: ;)

Wir werden auf der CES von nVidia was zu Tegra4 hören, und vor allem etwas zu ihrem Cloudgaming in Verbindung mit Tegra4-Devices. Da wird nen RIESEN tamtam drum gemacht und selbeweihräucherung betrieben, bis ganz am Schluss mal noch in nem Nebensatz die nächste GeForce Generation erwähnt wird, wobei man sich hauptsächlich auf die M-Versionen bezieht, die ja eh wieder besser sind als alles was die Firma bisher je in ihrer Geschichte gemacht hat :schief:

Haupt Thema wird aber eben Tegra4 in Verbindung mit ihren ach so tollen Cloudgaming sein, wo sie uns vermitteln wollen, das wir doch alle ihr tolles Cloudgaming brauchen, weil das noch viel viel RoXXer mäßig ist als die eh schon verdammt Coolen GeForce Karten von Ihnen, weil man dann ja aufm Smartphone Crysis zocken kann:schief:
 
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Bis jetzt Nvidia Racks und der Tegra 4.
 
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Shield sah ganz interessant aus. Nur bleibt die Frage, was soll das Ding kosten? Mehr als 149 Euro würde ich nicht bezahlen wollen. Für den Preis wird man es aber kaum kriegen. Vermutlich eher für 249-299 Euro.
 
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Für alle die den Stream verpasst haben, habe ich einige Screenshots vom Stream gemacht.
Die Redaktion wird bestimmt bald einen größeren Artikel machen:
 

Anhänge

  • Bild 006.jpg
    Bild 006.jpg
    810,7 KB · Aufrufe: 123
  • Bild 007.jpg
    Bild 007.jpg
    519,2 KB · Aufrufe: 83
  • Bild 008.jpg
    Bild 008.jpg
    960,6 KB · Aufrufe: 151
  • Bild 009.jpg
    Bild 009.jpg
    698,9 KB · Aufrufe: 361
  • Bild 010.jpg
    Bild 010.jpg
    794,3 KB · Aufrufe: 82
  • Bild 011.jpg
    Bild 011.jpg
    875,6 KB · Aufrufe: 114
  • Bild 012.jpg
    Bild 012.jpg
    914,7 KB · Aufrufe: 73
  • Bild 013.jpg
    Bild 013.jpg
    696,3 KB · Aufrufe: 75
  • Bild 014.jpg
    Bild 014.jpg
    691,4 KB · Aufrufe: 102
  • Bild 015.jpg
    Bild 015.jpg
    852,4 KB · Aufrufe: 102
  • Bild 016.jpg
    Bild 016.jpg
    862,4 KB · Aufrufe: 78
  • Bild 017.jpg
    Bild 017.jpg
    570,4 KB · Aufrufe: 180
  • Bild 018.jpg
    Bild 018.jpg
    1,1 MB · Aufrufe: 242
  • Bild 019.jpg
    Bild 019.jpg
    880,6 KB · Aufrufe: 84
  • Bild 020.jpg
    Bild 020.jpg
    732,5 KB · Aufrufe: 203
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Und noch einige Pics:
 

Anhänge

  • Bild 021.jpg
    Bild 021.jpg
    712,3 KB · Aufrufe: 99
  • Bild 022.jpg
    Bild 022.jpg
    613,2 KB · Aufrufe: 97
  • Bild 023.jpg
    Bild 023.jpg
    685 KB · Aufrufe: 68
  • Bild 024.jpg
    Bild 024.jpg
    837,2 KB · Aufrufe: 100
  • Bild 025.jpg
    Bild 025.jpg
    712,8 KB · Aufrufe: 84
  • Bild 026.jpg
    Bild 026.jpg
    722,4 KB · Aufrufe: 63
  • Bild 027.jpg
    Bild 027.jpg
    548,4 KB · Aufrufe: 65
  • Bild 028.jpg
    Bild 028.jpg
    655,1 KB · Aufrufe: 87
  • Bild 029.jpg
    Bild 029.jpg
    870 KB · Aufrufe: 83
  • Bild 030.jpg
    Bild 030.jpg
    738,5 KB · Aufrufe: 212
Zuletzt bearbeitet:
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Das Event war oft echt zum wegschmeißen. :D

Shield sieht interessant aus, aber man sah schon schön den (Display-)Delay teilweise - das Design spricht mich auch nicht gerade an.

Tegra 4 war erwartungsgemäß, nur der Fokus auf die HDR-Fotografie mit dem Mädel :what:.

Neues Software-Modem("Jetzt dürfen sie auch ihre Modem Firmware-Updaten!") - sehr interessant...zzzZzzzzzzzzZZZzzz.

Grid war genau derselbe Schmarrn wie letztes Mal mit "Ohhh, keine Kabel außer Ethernet!!!" *hinterFernsehermitHandherumwedel*, nur die im Boot befindlichen Firmen welche kein Schwein kennt und höchstwahrscheinlich eh bald aufgekauft oder bankrott sind waren neu.
 
Zuletzt bearbeitet:
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Das man die Firmen nicht kennt liegt wohl er daran das sie aus Asien kamen,;)
 
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Wie von Skysnake vermutet, wurde Cloud-Gaming und Tegra 4 präsentiert.
Dabei wurde ein Rack-System, Grid vorgestellt, 1. Bild.
Tegra-Zone wurde gezeigt, passend zum Cloud-Gaming mit Store.
Und Shield eine Art Android-Konsole, dass sich auch wie ein Tablet steuern lässt.
Beeindruckend war, dass Shield einen 4k HD TV, von LG mit 4k ansteuern konnte, ohne dass das Bild nur ein einziges mal geruckelt hat.
Zu neuen Grakas gab es leider keine Informationen, wie erwartet...
 
Zuletzt bearbeitet:
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Das man die Firmen nicht kennt liegt wohl er daran das sie aus Asien kamen,;)

Dass die aus Asien sind ist mir nicht entgangen, aber 6 Firmen (Agawi, CloudunioN, cyber cloud, G-cluster, Playcast, ubitus) welche in das selbe Core-Business wie Gaikai und OnLive einsteigen wollen - da sollte man meinen wenigstens von mindestens einer was gelesen zu haben.

Die Geforce Experience war natürlich auch prima, wieder mit MW3 als DX9-Vorzeigespiel wie schon in der Beta-Präsentation iirc.
 
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Wie von Skysnake vermutet, wurde Cloud-Gaming und Tegra 4 präsentiert.
Dabei wurde ein Rack-System, Grid vorgestellt, 1. Bild.
Tegra-Zone wurde gezeigt, passend zum Cloud-Gaming mit Store.
Und Shield eine Art Android-Konsole, dass sich auch wie ein Tablet steuern lässt.
Beeindruckend war, dass Shield einen 5k HD TV, von LG mit 4k ansteuern konnte, ohne dass das Bild nur ein einziges mal geruckelt hat.
Zu neuen Grakas gab es leider keine Informationen, wie erwartet...
Na da lag ich dann doch gold richtig :D Nur mit dem bischen GeForce lag ich daneben. Diesmal haben Sie selbst die Mobile-GeForce gleich drausen gelassen. :lol: Muss aber sagen, das ich mir den Stream noch nicht angeschaut habe. Die Überschirften der News auf CB haben mir aber schon gereicht :lol:

Shield hört sich ganz interessant an, aber auch nicht wirklich.... Vielleicht die kommende Steam-"Box"? Ich glaubs zwar eher nicht, aber man kann ja nie wissen. Würde bei Steam eher auf AMD tippen, da die ganzen anderen Konsolen eben auch auf AMD setzen und nVidia auch nicht gerade als "günstig" bekannt ist, und genau das muss die Steam-Box sein! Günstig...

Aber nochmal zu shield. matty kanns sein, dass das kleine funzelteil eben nur einen Stream wiedergegeben hat? Also dieses nVidia Cloud/grid gedöns?

Für den asiatischen/chinesischen Markt wohl wirklich eine echte Alternative. Bei denen gibts durchaus Bandbreite, UND vorallem, da zockt man ja im Internetcafe :ugly: und mietet sich die Spiele nur usw usw. Die fänden so was sicherlich schick, da man dann eben bei den einzelnen Rechnern sparen kann. Bei uns aber nicht wirklich denkbar. Dafür ist die Infrastrucktur einfach zu schlecht im Allgemeinen.

Ich schmeiß mich auf jeden Fall weg und freu mich einfach gepennt zu haben, das war deutlich besser, als sich Huang mal wieder rein zu ziehen, wie er uns die Revolution erklärt :lol:

Anschauen werde ich es mir aber definitiv. Die Facepalms und Lacher will ich mir nicht entgehen lassen :D
 
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Der Film selbst war aus der Tegra-Zone, der neuen Nvidia-Cloud.
Shield war per HDMI an ein 4k LG TV angeschlossen, und hat die 4k völlig ruckelfrei wiedergegeben.
Tegra 4 scheint also wirklich recht leistungsfähig geworden zu sein.
Da haben wir viel zu diskutieren, wenn die News dazu hier kommt.
 
Zuletzt bearbeitet:
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Das war doch ein 4kTV?:huh:
 
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Du hast natürlich Recht, es war ein 4k LG TV....^^
 
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Wobei da auch nur schlicht von 720p hochgscaled worden sein kann. Trotzdem nicht schlecht.
 
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

L2 Cache habt ihr schonmal in eure Betrachtung einbezogen oder?

So jetzt mal tacheles....

Leuts, die Diskussion die ihr führt ist lächerlich. Glaubt ihr wirklich die Antwort ist soooo einfach wie ihr beiden das hier versucht zu klären? Vor allem hoffe ich doch, das ihr nicht meint, das es nur "ein" Problem gibt, warum etwas nicht perfekt skaliert.... In der einen Sekunde kann da eine limitieren, und in der Sekunde danach etwas komplett anderes. Die Probleme sind ja nicht geradlinig in 3D-Games... Da ist es einfach lächerlich die gestiegene oder eben nicht gestiegene Leistung an nur einem oder zwei Punkten fest zu machen... Wenns so einfach wäre, dann hätten die Ingenieure das schon LANGE vor dem ersten Wafer gefixed...
:schief:
Ich habe nie die Frage darauf gestellt, was genau limitert und was nicht. Ich habe die Frage gestellt, ob etwas für Spiele im Durchschnitt (deutlich) zu viel vorhanden sein könnte und ob andere Lösungen günstiger gewesen wären (bzw. sein würden bei Kepler). Das ist die absolut gegenteilige Herangehensweise, die, wenn man es weit genug treiben würde, zum gleichen Ergebnis kommt wie deine. Solange man das aber nicht macht (was nicht geht, da keiner hier alles zu 100% über die Chips weiß), macht das keinen Sinn, was du da von dir gibst. Jedenfalls nicht bezogen auf diese Diskussion.
Dass die HD 7970 nicht nur Spiele als Ziel hat und dieser "Überschuss" trotzdem gerechtfertigt ist (sein kann), ist dir hoffentlich klar.
 
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Eure Diskussion führt aber eben zu nichts, da ihr euch komplett im Kreis dreht. Oder siehst du die letzten X Beiträge anders?

Nicht falsch verstehen, ich finde das auch interessant, aber da muss man halt mit Messungen usw. schauen, alles andere ist doch nur stochern im Nebel. Wobei die Sache schon sehr schwierig ist, da eben sehr komplex. Wenns nicht komplex wäre, würden die Entwickler das ja auch ohne Probleme fixen ;)
 
AW: Geforce GTX 780 und Tegra 4? - Nvidia überträgt Pressekonferenz von der CES live ins Internet

Aber es macht doch Spaß darüber zu "fachsimpeln". Das ist schließlich ein Forum über PC Hardware, vornehmlich für Spiele. Das Durchschnittsalter bewegt sich wohl irgendwo bei 22 und das trägt auch dazu bei, dass eben wenig Fachkräfte mitdiskutieren.
Auf mich wirkt es etwas von "oben herab" wie du deine Beiträge formulierst. Nicht falsch verstehen, ich schätze deine Beiträge sehr, aber Dinge wie "lächerlich", "ihr stellt euch das alles zu einfach vor", "eure Diskussion ist für den Lokus" usw. kommen zumindest mir etwas herablassend vor.
Vielleicht beschäftigst du dich hobbymäßig etwas mehr mit dem Thema und als (vermutlich) Physikstudent möglicherweise auch intensiver. Und somit finde ich es gut, wenn viel Wissen in die Diskussionen mit einfließen. Aber auch der Ton macht die Musik, wir sind schließlich hauptsächlich aus Freude an den Themen hier.

Sorry für OT, aber die Pressekonferenz ist ja nun vorbei und es gab nichts zur Geforce :(

bye
Spinal
 
Zurück