Wobei ich mich frage, ob es wirklich soo schlecht ist? Ich meine, es wird wirklich viel Ausgebaut - klar, könnte schneller sein -, sollen ja ein paar Tausend Kilometer Glasfaser pro Jahr sein. Da kann es doch nicht einfach nur eine Steigerung von 1-2 Mbit über ein Jahr geben. Zusätzlich kommen ja kleinere Ausbauten wie Super Vectoring, wo manche zumindest mal eben von 100 auf 250 Mbit gehen können.
Die Frage, die ich mir halt wirklich stelle ist die, wie diese Messungen erfolgt sind? Hat das jeder Haushalt selbst gemacht? Ich erinnere nur daran, dass meist die ältere Generation mit 16 Mbit zufrieden ist. Die brauchen keine 100 Mbit und mehr. Meinen Eltern reichen auch 50.
Es werden diverse Quellen ausgewertet, wie in den meisten Berichten dieser Art dürften also Messergebnisse von Online-Geschwindigkeitstests den Großteil ausmachen. Damit hat man eine ganze Reihe von Fehlerquellen mit drin:
- Die Tests werden von den Haushalten selbst durchgeführt, gegebenfalls ohne Berücksichtigung einer ausreichend schnellen Verbindung zwischen Router und PC.
- Die Tests werden teilweise parallel zu laufenden Downloads durchgeführt, um die verbleibende Restbandbreite zu ermitteln. Davon weiß der Speedtest-Anbieter aber nichts.
- Es kann maximal die gebuchte, aber nicht die verfügbare Geschwindigkeit erfasst werden.
- Leute mit langsamen Internetleitungen dürften überdurchschnittlich häufig Tests durchführen, um Probleme auszuloten oder den Upgrade-Bedarf zu ermitteln, und sind somit überrepräsentiert.
Gerade die letzten beiden Punkte darf man nicht unterschätzen. Da zwischen langsamen und schnellen Tarifen ein exponentieller Unterschied liegt (schlecht = 10 MBit/s, normal = 100 MBit/s, sehr gut = 1.000 MBit/s), reicht es bereits, wenn zusätzliche Tests von Low-End-Testern nur ein Drittel der Gesamtmessungen ausmachen, um das Ergebnis auf die Hälfte der tatsächlich gebuchten Bandbreite zu drücken und die IP-Kontrolle zur Erfassung von Mehrfachmessungen ist in Ländern wie Deutschland, in denen statische IPs die Ausnahme sind, auch wenig wirkungsvoll. Bei der hier vorliegenden Studie machen diese Probleme nicht nur die absoluten Zahlen zweifelhaft, sondern auch die relativen: Normalerweise könnte man den (fehlenden) Anstieg trotzdem analysieren, wenn die genannten Fehlerquellen in den Vergleichsjahren ähnlich gewirkt haben. Aber da man sich damit brüstet, die Sample-Zahl für 2019 um 60 Prozent erhöht zu haben, dürfte der Bias in den 19er Zahlen ein anderer als in den 18er sein.
Aber selbst mit einer brauchbaren Messung bliebe noch die Frage der Interpretation:
Wenn die durchschnittliche gebuchte Internetleistung nicht ansteigt, gab es dann keinen Ausbau oder gibt es dann keinen Bedarf an schnellerem Internet?
In Deutschland wurde jedenfalls weiter ausgebaut. Insbesondere die Ertüchtung der Kabelverteiler hat beim diesbezüglichen Monopolanbieter die Verfügbarkeit von 0,5- und 1 GBit/s-Anschlüssen deutlich verbessert. Wenn trotzdem niemand schneller surft (was ich aus obigen Zahlen nicht zweifelsfrei herauslesen kann), herrscht wohl kein Bedarf.
Und die nächste Baustelle.
Wenn man das wirklich flächendeckend schaffen will, dann muss man nach japanischen Vorbild vorgehen:
Eine Hand wäscht die andere. Nach diesem Motto funktionierte die Vergabe der 5G-Lizenzen in Japan. Das Wirtschaftsministerium vergab im April die Lizenzen an die vier Netzbetreiber kostenlos. Als Gegenleistung verpflichteten sich die Mobilfunkanbieter, innerhalb bestimmter Zeiträume das Netz aufzubauen und dabei eine verabredete Fläche abzudecken.
Die vier Betreiber NTT Docomo, KDDI mit der Marke au, Softbank und Rakuten wollen in den fünf Jahren bis 2024 insgesamt 1,6 Billionen Yen (rund 13 Milliarden Euro) investieren. Dieses Prinzip der Gegenseitigkeit hatte sich bei der schnellen Einführung der vorangegangen Netztechnologien 3G (UMTS) und 4G (LTE) bewährt.
Quelle:
Mehr Tempo beim 5G-Netz
In Deutschland hat der Bund jetzt 6,5 Milliarden € für 5G-Lizenzen eingesammelt. Das Geld fehlt jetzt beim 5G-Ausbau natürlich. Dabei ist 5G nicht mal als Pflicht vorgesehen beim Ausbau.
Die Mobilfunkanbieter in Deutschland haben im letzten Jahr meinem Wissen nach alle deutliche Gewinne ausgewiesen und das wir außergewöhnlich niedrige Mobilfunktarife haben, wäre mir auch neu. Es scheint sogar Geld für Engagement im Ausland übrig zu sein. Das die trotzdem die Ausbauverpflichtungen der 4G-Auktionen immer noch nicht erfüllt wurden (!) muss also eine andere Ursache haben. Davon abgesehen wurden die Frequenzen den Mobilfunkanbietern zu einem Bruchteil der letztlich gezahlten Preise angeboten. Es war eine Auktion – die hohen Endsummen kamen nur zusammen, weil man untereinander versucht hat, der Konkkurenz den Marktzugang zu erschweren. Hätten sich die Anbieter abgesprochen, gar auf nationales Roaming verständigt, hätten sie das gesamte Paket für wenige Millionen erwerben können. Die Geschäftsstrategien sahen aber anders aus und in diesem Rahmen könn(t)en Bevölkerung und Staat auch verlangen, dass die realen Ausbaukosten in der Kalkulation berücksichtigt waren. Schließlich waren sowohl die Auflagen als auch die Ausbaubedingungen in Deutschland (einschließlich Bürokratie, Grundstückspreisen und Klagemöglichkeiten) lange vorher bekannt.
Angeblich sollen mit Kupfer ja rund 12-13 mbit gehen und trotzdem Krebse ich mit knapp 6 mbit herum , also denke ich mal der ganze Ort muss so ******** angebunden sein ...
Von daher waer ich schon Happy wenn einmal die theoretischen 10 mbit + vorhanden wären und so wird es einigen anderen auch gehen .
ABER damit kann man ja kein Geld verdienen , weil es keinen teureren Tarif gibt , also ist man Zweifach ange...
Je mit Kupfer sind 0,05 bis 1.000 MBit/s möglich, abhängig von Kabellänge und Qualität hat man im Einzelfall also eine breite Streuung. Das kann aber schon kleinräumig sehr stark schwanken. Wenn ganze Ortsteile mit unter 10 MBit/s angebunden sind, finden sich meist genug Interessenten zusammen, um einen Ausbau durch die Deutsche Glasfaser oder ähnliche zu realisieren.
Das hängt auch von deinem Modem ab. Das sollte ADSL2+ können, am besten mit Annex J (dann muss aber der Splitter weg, falls der noch existieren sollte). Trotzdem ist da noch die Physik im Spiel, gerade wenn Störstrahlung eintrifft sinken die Datenraten, so z.B. hier bei uns.
Annex B sollte in Deutschland durch die weitestgehend erfolgte IP-Umstellung praktisch nicht mehr im Einsatz sein. Allerdings kann die Download-Geschwindigkeit bei sehr schlechten Leitungen mit Annex J sogar schlechter ausfallen, da hier ein größerer Bereich der reichweitenstarken niedrigen Frequenzen für den Upload reserviert wurde. Das Ergebnis sind dann die berühmten Ausnahmefälle, die bislang kommerzielles ISDN mit teilweise 10× 64 kBit/s oder mehr genutzt haben und denen jetzt nur noch eine Analog-Leitung angeboten wird.
Ich wette dagegen, sofern deine mittlere Lebenserwartung über 10 Jahren liegt
Bei ISDN hat man auch einmal geglaubt, das würde für die Ewigkeit reichen, die Ewigkeit war nach weniger als 2 Jahrzehnten vorbei. Von 20 Jahren konnte auch sehr viele nicht glauben, dass sich die Leute beschweren würden, weil bei ihnen nur 10 MBit verfügbar ist.
Das eine schließt das andere nicht aus.
Nahezu alle Steigerungen im Transferratenbedarf von Privathaushalten gingen in den letzten 30 Jahren auf die Nutzung von Medieninhalten zurück, die es vorher schon gab. Akustikoppler für einfache Textformate, 56k und ISDN für einfaches HTML mit Thumbnails, normales DSL für zunehmend bessere Standbildqualität, Musik und zuletzt Videos in SD-Qualität transportierten letztlich nichts, was die Haushalte nicht schon in den 80ern konsumiert haben. Auch die Entwicklung der letzten anderthalb Jahrzehnte mit Softwareinstallationen und HD-Streams griff Daten auf, die vorher schon auf anderem Wege verbreitet worden waren. Damit sind jetzt aber 100 Prozent des Medienkonsums online – als weitere Steigerung bliebe im Moment nur noch die Auflösung von Videoinhalten, aber da wird UHD bereits problemlos über VDSL übertragen und bessere Anzeigegeärte werden mittelfristig gar nicht auf breiter Front im Einsatz sein. FTTH, G.Fast und Docsis 3.1 stehen bereits komplett ohne Killer-Anwendung auf weiter Flur. Klar neben Ausbaugebiete, die bislang nur DSLlight hatten, solche Angebote dankbar an, aber nur unwesentlich dankbarer als VDSL. Und umgekehrt wechseln Anwohner von bereits bestehenden VDSL-Verträgen meist Ausbau schnellerer Kabelleitungen meist nur wegen des Preises, nicht wegen der Geschwindigkeit.
Sicherlich werden wir irgendwann mal versuchen, holographisches VR aus der Cloud zu streamen, aber die Uptake-Rate bei den Anwendern ist viel langsamer als das bisherige, exponentielle Wachstum der Anbindungsgeschwindigkeit. Nachdem man jetzt allen zuvor bestehenden Medienkonsum an sich gerissen hat, wird man also längere Zeit auf deutliche Nachfragezuwächse warten müssen. Ich erinnere hier an die vergleichbare Wechselmedien: Floppy => 3,5-Zoll Diskette: WOW! => Zip: Luxus, den man sich geleistet hat! => CD-ROM: Endlich Multimedia! => DVD-ROM: Ach ja, weniger Scheiben wechseln. Nett. => Blu Ray: Warum soll ich mir überhaupt ein Laufwerk kaufen, wenn Spiele weiterhin auf 2-3 DVDs erscheinen? XL Blu Ray: Totgeburt.
Auch damals wurden Leute, die zum Streit HD-DVD vs. Blu Ray mit "brauch ich nie" reagiert haben, mit Verweiß auf das vorangehenden exponentielle Wachstum verspottet. Aber letztlich haben sie recht behalten: Im Video-Markt hat sich die normale Blu Ray noch halbwegs durchgesetzt, konnte die DVD aber schon nicht mehr verdrängen. Am PC kam sie gar nicht erst hoch. In beiden Fällen fehlte es schlicht an Content, der damals schon die möglichen Datenraten und Kapazitäten erfordert hätte. Zwar hat sich das bis heute geändert und wir könnten XL-Scheiben für UHD-HDR-Filme sowie BR-ROMs für 50-GB-Spieleinstallationen nutzen, aber stattdessen wurde beide Techniken durch eine komplett andere ersetzt, man hat sie also tatsächlich "nie gebraucht". Bei Internetanschlüssen ist das Verhältnis zwischen Kosten und Nutzen etwas anders verteilt, weil die bereits installierte 1-GBit/s-Technik sowieso bezahlt ist. Aber es könnte durchaus passieren, dass sich in einmal für 0,5 GBit/s oder mehr ausgebauten Regionen nie wieder privater Bedarf an schnelleren Leitungen entsteht, weil entsprechender Content erst in 20 Jahren konsumiert und bis dahin über 7G verbreitet wird.