Zum Inhalt springen
BlogVernetzungLinode Netzwerk-Backbone

Das Netzwerk Backbone von Linode

LinodeNetzwerkBackbone_1200x631

Wie wir in unserem letzten Netzwerk-Update dargelegt haben, hat unsere Abteilung für Netzwerktechnik hart daran gearbeitet, unser gesamtes internetfähiges Netzwerk umzugestalten. Kapazitätsengpässe wurden aufgedeckt und mit Hunderten von Netzwerken auf der ganzen Welt zusammengearbeitet. Seitdem haben wir unser Netzwerk Backbone auf alle Rechenzentren in Nordamerika und Europa ausgedehnt. Das bedeutet, dass jede Kommunikation zwischen Linode Rechenzentren unsere ASN 63949 nie verlassen wird. Die direkte private Verbindung zwischen unseren Standorten gleicht die Volatilität des Internets aus.

Kunden können sich darauf verlassen, dass ihre bei uns gehosteten Multi Site Anwendungen über die schnellsten und zuverlässigsten Wege kommunizieren können. Unsere Ingenieure arbeiteten eng mit unseren Lieferanten zusammen, um die kürzestmöglichen Glasfaserverbindungen auszuwählen, was wiederum unseren Kunden die niedrigste Latenz zwischen den Standorten ermöglicht. Auf unserem derzeit längsten Weg (vom Fremont DC zum Frankfurt DC) konnten wir den RTT um über 15 ms reduzieren. Auch Jitter und Paketverluste haben wir so ausgeschlossen.

Obwohl die direkte Konnektivität zwischen den öffentlichen Schnittstellen von Linode großartig ist, geben wir uns damit nicht zufrieden. Unsere Ingenieure haben unzählige Stunden damit verbracht, Beziehungen aufzubauen und Peer Vereinbarungen mit Hunderten von Content und Eyeball Netzwerken abzuschließen. Mit einem beschleunigten und verstärkten Netzwerk Backbone können wir die Vorteile dieser Beziehungen, die auf ein einziges Rechenzentrum beschränkt waren, auf jedes Rechenzentrum entlang unseres Backbone ausweiten. So werden beispielsweise die Kunden in Newark direkt von unseren robusten Peering Beziehungen in Europa profitieren und umgekehrt. Je weniger Traffic über mehrere Transite geleitet wird, desto besser ist die Cloud, die wir für unsere Kunden bereitstellen.

Nachdem die nordamerikanischen und europäischen RZs von Linode integriert waren, haben wir auch unser AsiaPAC-Netzwerk erweitert. Während einer kürzlichen Reise nach Singapur legten unsere Netzwerkingenieure Dark Fiber zu einem der Carrier-dichtesten Gebäude in Asien und gaben uns damit die Chance, auch dort unser Backbone auszubauen.

Kommentare (29)

  1. Author Photo

    To improve Asian network performance, Linode can consider lighting up dark fibres to Hong Kong solely as a network PoP. That way you can cover more Asian countries like the Philippines, Brunei, Taiwan, Cambodia and Vietnam and provide redundant routes for these countries as their links to Singapore or Tokyo are not as stable as the ones going to Hong Kong.

  2. Author Photo

    Good Job!!! Linode always Rocks…

  3. Author Photo

    Goooood job guys! So, there will be a global private network with a unique private IP range shared between Datacenters?

  4. Author Photo

    Excellent news 🙂 I’m in AsiaPAC exclusively at the moment, so I look forward to the work done there 🙂

  5. Author Photo

    Come to StrayaaAAA!

  6. Author Photo

    awesome Linode Rocks

  7. Author Photo

    Yeah yeah thanks Linode!!!

  8. Author Photo

    Any plans to increase egress, i.e. currently 1Gbs out?

  9. Author Photo

    Awesome job. Speed is important if one makes app syncing between two data centres

  10. Author Photo

    Great News!

    We’ll love to have backup service across 2 datacenters ! (and private networks 🙂 )

    E.

  11. Author Photo

    Next POP should be in Australia! Tons of business here!

  12. Author Photo

    +Stephen Reese
    If you have a low cost Linode, than 1Gbps is a good amount of bandwidth for most usage scenarios. You could always set up a cluster of cheap Linodes over multiple datacenters in order to increase your aggregate bandwidth.

    Does Linode with these network upgrades plan on increasing usage quotas on Linodes?

  13. Author Photo

    I’m getting 174ms latency between Fremont and Frankfurt. Your diagram says that should be 147ms.

    What gives with that?

    • Author Photo

      @John Our North American ring consists of diverse paths between each DC. The primary path between Fremont and Newark was down due to a fiber cut which caused traffic to take the longer secondary path. It just so happens that we were working with our provider to get the secondary path shorter which happened in the last 48 hours. RTT for both paths should be around 146ms now. Please let us know if you see otherwise!

  14. Author Photo

    Wow you guys are serious! Is transfer between DC’s “free” do you know? Just out of curiosity 🙂

  15. Author Photo

    Great news for those in Asia! Any good news in a short future for us here in South America? I have linode for almost 3 years and the pricing with quality is unbeatable but unfortunatelly it’s not a fast connection.

  16. Author Photo

    Great Linode Rocks

  17. Author Photo

    Glad to see Linode working hard! 🙂

  18. Author Photo

    Nice job, Linode always stays at the top

  19. Author Photo

    Hello,

    do you have a high level schematics of your datacenter network layout ?

    regards

  20. Author Photo

    Awesome, this is great news. Linode always provides great value and I can see it’s only getting better.

  21. Author Photo

    Hmm…interestingly, for fun, I did a speed test from a linode, downloading a file from vultr (san jose silicon valley) and from linode (silicon valley fremont). It downloaded much faster from vultr? hmm…am I an outlier?

  22. Author Photo

    are you going to post news about linode network backbone?

  23. Author Photo

    How can we establish Bilateral Peering Request over DE-CIX Infrastructure with lonide?

Kommentar abgeben

Ihre E-Mail Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit *gekennzeichnet