[TdW 106] Braucht das Internet eine Überholspur?

Diesmal beschäftigt sich das TdW mit dem Internet, bzw. der Netzneutralität. Wie die meisten vermutlich mitbekommen haben, hat die FCC gerade ihren Vorschlag für ein Regelwerk zur Netzneutralität verabschiedet. Details zu diesem Vorschlag waren bereits im Vorfeld bekannt geworden und hatten weltweit für Kritik und Kontroversen, in den USA auch zu Protesten geführt. Der Vorschlag würde es Providern zukünftig erlauben bestimmten Anwendungen gegen Aufpreis höhere Leitungskapazitäten zu garantieren. Kritiker sehen darin das endgültige Ende der sogenannten Netzneutralität - also die Gleichbehandlung von Datenpaketen. Selbst bedeutende Globalplayer des Web - wie Google oder Facebook - warnen davor, dass dieser Schritt zu einer Spaltung des Internet in ein Netz für Arme und ein Netz für Reiche führt. Noch ist das Vorhaben jedoch nicht besiegelt, die Abstimmung wurde zwar mit drei zu zwei Stimmen gewonnen, aber bis Ende Juli nimmt Regulierungsbehörde noch Stellungnahmen an. Erst danach kommt es zu einer letzten Abstimmung und der möglichen Umsetzung des Vorschlags.
Vor diesem Hintergrund stellt das TdW diesmal die Frage: Braucht das Internet eine Überholspur?
Und natürlich stellen sich in diesem Kontext noch eine ganze Reihe weiterer Fragen, wie z. B.: Ist die Netzneutralität wirklich so wichtig für die freie Entwicklung des Internet, wie von Netz-Aktivisten behauptet wird? Wer profitiert am meisten vom Status quo? Wer profitiert am meisten wenn der Vorschlag umgesetzt wird?

Mehr zum Thema:
http://www.nytimes.com/2014/05/16/t...-net-neutrality.html?hpw&rref=technology&_r=0 (Englisch)
Netzneutralität: FCC stimmt für Zwei-Klassen-Internet - Digital - Süddeutsche.de
Netzneutralität: US-Regulierer legt Fundament für Überholspuren im Netz | heise online
 
Ganz klar nein, ich sehe keine Notwendigkeit manchen Traffic priorisiert zu behandeln. Das schadet nur kleineren/neuen Anbietern die gar nicht mehr am Markt teilnehmen können und auf der anderen Seite schadet es natürlich den Kunden, die nicht mehr alle gewünschten Dienste in zufriedenstellender (vergleichbarer) Qualität beziehen können und letztenendes trotzdem mehr zahlen müssen.

Das Argument der Provider, dass die großen Trafficverursacher nochmal extra zahlen sollten, ist relativ hinfällig, wenn man bedenkt, dass der Traffic ja schon von den Kunden des Providers gewünscht und bezahlt ist. Die Telekom bspw. wird schon von den Kunden dafür bezahlt ordentliche Peerings aufzubauen, so dass Dienste wie Youtube reibungslos funktionieren - wenn das nicht der Fall ist liegt es allerdings auch an den Kunden den Provider zu wechseln um ihre Interessen durchzusetzen.
Aus der Sicht von Google oder Netflix könnte es durchaus Sinn machen nochmal extra für priorisierten Traffic zu zahlen, da man sich so auch ungewünschte Konkurrenz und Markteinsteiger vom Hals halten kann.
 
Mit den unterschiedlichen Tarifen ist doch ein Aufpreis für höhere Auslastung gegeben? Ich verstehe den Grund für diese Spaltung nicht-außer die Profitgier der entsprechenden Firmen.
Wer sich nur eine 2000er Leitung leisten kann bezahlt weniger, wer tiefer in die Tasche greifen kann ha eben VDSL. Damit ist doch eine finanzielle Steuerung der Leitungskapazität gegeben. Auch Großunternehmen mit viel Traffic werden mehr zahlen müssen als kleinere.

Die Provider sind selber schuld, wenn sie in den letzten Jahren wie irre Breitband verkaufen wollten. Die Kunden haben angefangen, ihre Anschlüsse auch zu nutzen, und nun ist das Gejammer groß.
 
Naja so ganz funktioniert diese finanzielle Regelung ja nicht. Problem es sind ja nicht überall alle Geschwindigkeiten verfügbar. So kann bisher auch nicht nach dem Verfahren gehandelt werden, dass derjenige, der sich mehr leisten kann auch die schnellsten Leitungen hat.
Daher werden die langsamen Leitungen bei einigen für reduzierte Preise angeboten bzw. zum Teil gibt es die schnellen Leitungen zum Preis für die langsamere Leitung.
Eine Regelung über den Preis wäre damit ausgeschlossen.
Stimmt die Menschen fangen an immer mehr ihre Leitungen auch zu nutzen. Das ist einfach der Trend der Zeit. Das Internet wird immer wichtiger.
Letztendlich müssen die Provider das aber einkalkulieren.
 
Wie sooft: Der Wettbewerb hat die Anbieter ueberholt.

Breitbandausbau, mehr Traffic und immer günstigere Tarife sorgen für einen Teil schon für regelrechte "Umdeckung" der Kunden im DSL Geschäft.
Das ist allerdings nur _eine_ Seite der Geschichte. Mit dieser Seite lässt sich von Seiten Googles und Facebook super argumentieren.. "Netze für arm und Reich". Das grenzt schon wirklich an Schwachsinn.

Die andere Seite ist die Big-Business Seite, denn das betrifft auch Peering!
Derzeit sieht es so aus dass die Endkunden immer mehr Kapazitäten bekommen und google zB bei Youtube nachzieht (zb HD). Insgesamt haeuft sich der Traffic enorm. Jemand, der ein Backbone betreibt, oder einen IXP kann Google aber nicht dafür zur Kasse bitten, dass deren Youtube das komplette Netz zudröhnt. Für Unternehmen an dieser Stelle im Business ist das ein Problem.

Zwar ist es richtig, dass im Grunde der Endkunde bereits für den Traffic zahlt, aber die Mittler, etwa Betreiber von IXP, Kontinental Leitungen oder Betreiber von reinen Peering Netzen davon nicht wirklich viel sehen. Die stehen aber wiederum unter Druck, weil sie ihre Rechenzentren ständig um Kapazitäten erneuern müssen. Und die Gerätschaften, die dort eingesetzt werden sind arschteuer und Traffic ist bei den IXPs auch nicht gerade günstig.

Im Grunde ist es nicht verkehrt: Wer viel braucht, zahlt mehr. Das muss für DSL Kunden gelten, wo die Preise im Privatbereich "eigentlich" steigen sollten. Das gilt aber auch für eine Beteiligung der großen Unternehmen am "Breitbandausbau".

Wer hier Parallelen zur aktuellen Diskussion um die AKWs sieht - sehr schoen.

Jedenfalls: Für Google und FB geht es hier um richtig Kohle. Mit Freiheit im Netz etc. hat das nicht das geringste zu tun, denn darauf scheiszen die wie alle anderen auch.
 
Ich halte die Priorisierung von bestimmtem Traffic durchaus für wichtig und sinnvoll. Zwar sind gut über 90% der B2C-Geschäfte und sicherlich auch ein Großteil der B2B-Geschäfte (Lieferketten, ...) sind derart zeitunkritisch - d.h. es macht keinen Unterschied zwischen 2ms und 1s - , dass hier eine Priorisierung keinen wirklichen Sinn oder gesellschaftlichen Nutzen ergibt, außer vielleicht bestimmten wirtschaftlichen Entitäten einen Vorsprung gegenüber Konkurrenten zu sichern und damit zur Wettbewerbsverzerrung zw. kleinen und großen Unternehmen beizutragen. Bei kritischen Infrastrukturen, unternehmenserhaltenden Maßnahmen ("Business Continuity"), im Katastrophenschutz oder im Bereich der IT-Sicherheit (Standort/Länder-übergreifendes SIEM) halte ich diese Priosierung durchaus sinnvoll, denn hier können bei Packet-Drops oder hohen Delays durchaus größere Schäden entstehen, die man mit einer sinnvollen Priorisierung hätte verhindern können. Eine Gleichbehandlung von Traffic einer solchen Dringlichkeit und von völlig unwichtigem YT/Spotify/Netflix/Spam(Email)/SocialMedia/...-Traffic (allgemein: 99% des B2C-Traffics!) ist meiner Ansicht nach mehr als fragwürdig.

Daher: Priorisierung ja - aber nur für kritische Dienste.
 
Zuletzt bearbeitet:
Eine Gleichbehandlung von Traffic einer solchen Dringlichkeit und von völlig unwichtigem YT/Spotify/Netflix/Spam(Email)/SocialMedia/...-Traffic (allgemein: 99% des B2C-Traffics!) ist meiner Ansicht nach mehr als fragwürdig.

Daher: Priorisierung ja - aber nur für kritische Dienste.

Und genau da liegt die Schwierigkeit. Was ist kritisch, was ist berechtigt etc.
Das zu regulieren (global) ist aus rechtlicher Hinsicht ein absolutes Chaos.
 
Ich sehe das ähnlich wie Chromatin: Natürlich gibt es gute Argumente dafür gewissen Traffic zu priorisieren - aber wenn man einmal anfängt Ausnahmen zu machen, bzw. Präzedenzfälle zu schaffen, dann kann man die Uhr nicht mehr zurückdrehen!
Ich denke es würde ein Kampf um die Deutungshoheit beginnen, was denn nun genau "kritische Dienste" sind und die Big Player würden ihre Lobbymacht benutzen um ihre Angebote priorisieren zu lassen. Und am Ende würden vermutlich genau die Dienste, für die man urpsprünglich einmal Ausnahmen eingeführt hat, auf der Kriechspur landen und Dienste mit denen sich gutes Geld verdienen lässt Vorfahrt haben...:rolleyes:

Btw.: Das Google & Co nicht plötzlich ihr Herz für die Armen entdeckt haben, sondern aus rein wirtschaftlichen Erwägungen handeln, dürfte jedem klar sein. Trotzdem könnten sie hier wertvolle Alllierte für jeden sein, der den Status quo erhalten möchte.
 
Musikalisches Hintergrundwissen zu Netzneutralität und zur Entscheidung des FCC: https://www.youtube.com/watch?v=k-xSP_T0VqU

Und genau da liegt die Schwierigkeit. Was ist kritisch, was ist berechtigt etc.
Ich könnte mir hier eine Art Zertifizierung vorstellen, welche von einem unabhängigen Gremium aller Stakeholder geprüft und vergeben werden kann. Diese Zertifizierung berechtigt das Brechen der Netzneutralität in Katastophensituationen. Ein Katastrophenfall ist nun wiederum einfach zu definieren: Es ist begrenzte - die Netzneutralität kann somit nur über einen bestimmten Zeitraum gebrochen werden - Zeitspanne, in der Maßnahmen aus den Plänen und Handlung des Business Continuity Managements - es muss also ein BCN-Konzept vorliegen, welches noch zu bestimmenden Anforderungen genügt - zum Einsatz kommen. Das bedeutet konkret, dass das Unternehmen mit einem hohen Schadensfall konfrontiert wurde und Maßnahmen zur Unternehmenserhaltung starten muss.

Allgemein halte ich die Durchsetzung eines Mehrspuren-Internets aus wirtschaftlichen Gründen für viel zu kurz gedacht. D.h. analog zur Bankenrettung muss es Regeln und Gesetze geben, wann eine Unternehmensrettung das Berechen normaler Regeln des Internets begründet. Eine Bank kann sich ebenfalls nicht einfach Geld auf dem Rettungsfond nehmen, um sich gegenüber der Konkurrenz zu erreichern. Gleiches muss auch hier gelten.
 
Ich könnte mir hier eine Art Zertifizierung vorstellen, welche von einem unabhängigen Gremium aller Stakeholder geprüft und vergeben werden kann. Diese Zertifizierung berechtigt das Brechen der Netzneutralität in Katastophensituationen.

Im Grunde nicht so verkehrt. Nur ist es in der Praxis so, dass die Stakeholder idR diejenigen sind, die in den Bereichen aktiv sind. Im ganzen ICANN/DNS Zirkus sind das also hauptsächlich die Registries und Registrare. In deinem Modell waeren es hauptsaechlich Carrier, IXPs und Provider. Hier einen internationalen Konsens zu finden ist schwer, zumal die im allgemeinen sehr allergisch reagieren, wenn "Branchenfremde" sich da einmischen und Regeln einführen wollen.

Die Darstellung ist - und das muss man berucksichtigen - eben auch verzerrt, denn FB und google haben eine völlig andere Medien- und Informationsmacht als zB der DECIX oder eben Leitungsbetreiber.
 
Zurück
Oben