banner
Heim / Blog / Auf dem heißen Stuhl im Hyperscale-Rechenzentrum
Blog

Auf dem heißen Stuhl im Hyperscale-Rechenzentrum

Jun 13, 2023Jun 13, 2023

Als einer der dominierenden Hyperscaler der Welt ist Microsoft führend und treibt die Effizienz in allen erdenklichen Bereichen bei Server-, Speicher-, Switching-, Software- und Rechenzentrumsdesign voran. Es muss oder sein Kapitalbudget und die Betriebsbudgets für die Azure Public Cloud werden es bei lebendigem Leibe auffressen.

Microsoft wurde von der Open-Source-Hardware-Religion erfasst, als es sich vor fünf Jahren dem Open Compute Project anschloss. Damals beschloss der Softwareriese, es auch mit Amazon Web Services im öffentlichen Cloud-Bereich aufzunehmen und zu versuchen, Googles Cloud-Plattform zu überholen. Es ist gelungen und hat sich zur zweitgrößten Infrastruktur und SaaS-Cloud der Welt entwickelt, aber das schwere Kapitalspiel dieses reichen Unternehmens birgt viele Risiken.

Während des OCP Global Summit letzte Woche haben wir uns zusammengesetzt und ein Gespräch mit Kushagra Vaid geführt, einem angesehenen Ingenieur und General Manager der Azure-Infrastruktur bei Microsoft. Wie seine Kollegen bei den größten Hyperscalern und Public-Cloud-Entwicklern hat Vaid einen der härtesten Jobs der Welt, aber man sieht es ihm nicht an, wenn man ihn ansieht. (Die Elite der Infrastruktur in den Vereinigten Staaten – Urs Hölzle von Google, James Hamilton von Amazon Web Services und Jason Taylor von Facebook – gehören zu den ruhigsten, coolsten und gesammeltsten Köpfen der IT-Branche. Hmmm. , . . Korrelation ist kein Kausalzusammenhang, aber dennoch verdächtig.) Wir setzen Vaid auf den heißen Stuhl, nur um zu erfahren, dass er dort lebt, auf dem heißesten Stuhl der Welt: dem modernen Hyperscale-Rechenzentrum. Und es wird immer heißer.

Timothy Prickett Morgan: Wie viel von dem Eisen, das Microsoft für Azure kauft, basiert auf den Designs, die Sie zu diesem Zeitpunkt zum Open Compute Project beisteuern? Soweit ich weiß, verwenden Sie auch Maschinen, die auf Facebook-Designs basieren, oder auf Open19-Inhalten, die von LinkedIn beigesteuert wurden, oder auf traditionelleren OEM-Geräten.

Kushagra Vaid: Ein Großteil der von uns gekauften Hardware basiert auf unseren Open Compute-Spezifikationen. Ich würde sagen, dass der Wert heute bei über 90 Prozent liegt und dass er im Laufe der Zeit gestiegen ist, aber seit zwei oder drei Jahren auf diesem Niveau liegt. Für die übrigen Maschinen ist es wichtig zu wissen, dass nicht jede Art von Hardware von diesen Spezifikationen abgedeckt wird, wie z. B. Vier- und Acht-Sockel-Server oder für unseren hierarchischen Speicher, wo wir Kopfknoten benötigen, die auch über Fibre-Channel-Konnektivität verfügen als Bandsubsysteme. Es hat einen sehr langen Schwanz, und dieser Wert wird mit der Zeit um weniger als 10 Prozent schrumpfen, wenn die Open Compute-Spezifikationen umfassender werden.

TPM: Microsoft ist vor etwas mehr als fünf Jahren dem Open Compute Project beigetreten. Was ich wirklich wissen möchte, ist, welche Auswirkungen der Beitritt zu OCP auf den Azure-Ausbau hatte. Wie wäre Azure ohne OCP gewesen? Wäre es, wie ich vermute, teurer oder langsamer gewesen, den normalen OEM-Weg zu gehen, oder wäre eine so schnelle Skalierung überhaupt nicht möglich gewesen? Wie sehr hat dies Microsoft dabei geholfen, sich gegen Amazon Web Services durchzusetzen, das einen so großen Vorsprung hatte? Es gibt nur zwei Unternehmen, die Hoffnung haben, mit AWS gleichziehen zu können, und Google muss für jeden Unternehmenskunden die Bäume schütteln, aber Microsoft muss sie dank seiner riesigen Windows Server-Unternehmensbasis nur dazu bringen, einen Knopf zu drücken, der besagt , „SQL Server auf Azure sichern“ und eine weitere Schaltfläche mit der Aufschrift „Active Directory nach Azure verschieben“ und Sie haben sofort Hyperscale und potenziell Millionen von Kunden.

Kushagra Vaid: [Gelächter] Der größte Vorteil, den ich gesehen habe – und das kann man tatsächlich sehen, wenn man den OCP Global Summit betritt – besteht darin, dass die ODMs unsere Spezifikationen für Project Olympus übernommen und sich alle Arten von Möglichkeiten ausgedacht haben, wo es eingesetzt werden kann . Am LinkedIn-Stand sehen Sie beispielsweise Olympus-Server in einem 19-Zoll-Rack. Andere nahmen Olympus und legten es in das Open Rack. Andere haben Speicher-SKUs erstellt, von denen ich nie geträumt hätte. Andere haben Olympus-Motherboards genommen und sie in GPU-beschleunigte Gehäuse eingebaut. Der Vorteil für mich besteht darin, dass ich nicht alle Möglichkeiten vorab abrufen und darüber nachdenken muss, wo ich eine bestimmte Art von Hardware benötigen könnte, da das Ökosystem alle diese Varianten erstellt.

TPM:Und Sie können zurückgehen und übernehmen, was Sie für richtig halten.

Kushagra Vaid: Genau. Wenn ich ein GPU-System benötige, wird jemand anderes ein neues Projekt starten und wir werden es haben. Das verschafft mir Zeit, Marktvorteile zu erzielen.

TPM: Ist die OCP-Lieferkette sicherer und breiter? Ich weiß, dass es Zeiten gegeben hat, in denen die Hyperscaler und Cloud-Builder alle gleichzeitig 100.000 Server kaufen wollten, und dies ist wahrscheinlich gleichzeitig ein aufregender und erschreckender Moment für die ODMs und OEMs. Ist die OCP-Lieferkette in fünf Jahren nun mehr multithreaded und ist es einfacher, Ihre Server- und Speicherkapazitätsanforderungen zu erfüllen? Oder übersteigt die Nachfrage immer noch das Angebot, egal was Sie tun?

Kushagra Vaid: Wenn Sie dieselben Bausteine ​​verwenden, erleichtert dies die Verwaltung der Lieferkette. Wenn wir zum Beispiel jedes Motherboard mit Cerberus-Sicherheitschips ausstatten, was wir tun, und solange alle anderen dasselbe Motherboard verwenden, erhalte ich diese Basisfähigkeit in der gesamten Lieferkette.

Hier ist ein weiteres Beispiel. Vor zwei Jahren, als wir das Olympus-Rack als Open-Source-Lösung herausbrachten, verfügte es über eine universelle Stromverteilungseinheit und einen dreiphasigen Eingang, sodass Sie zu jedem Rechenzentrum auf der Welt gehen konnten, sofern dieses Rechenzentrum das richtige Kabel für die Verbindung bereitstellte Mit dieser universellen PDU könnte man ein Rack bauen, es überall auf der Welt verschicken, und schon würde es einfach eingesteckt und funktionieren.

Diese Maßnahmen haben dazu beigetragen, die Latenz in der Lieferkette erheblich zu verkürzen, da wir keine Variationen bei den PDUs haben müssen und Sie Racks von einem Ort zum anderen transportieren können, ohne sich um die Demontage und Neuinstallation der Racks kümmern zu müssen. Wir haben also Modularität in den Systemen, in den Racks und über Regionen hinweg.

TPM: Sie verfügen über viele OEM-Geräte, die Sie von Hewlett Packard Enterprise und Dell in der Azure-Flotte gekauft haben, sowie über alle ursprünglichen Open CloudServer-Geräte, die Sie ab 2015 eingeführt haben, und jetzt über Project Olympus-Maschinen, von denen etwas mehr als zwei enthüllt wurden Jahre zuvor. Wie hoch ist heute die Marktdurchdringung der Maschinen von Olympus in der Azure-Flotte? Bekommen nur neue Rechenzentren das neuere Eisen?

Kushagra Vaid: Die Außerbetriebnahme der zuvor installierten Maschinen dauert eine Weile. Aber alle neuen Kapazitäten sind Olymp. Ich kann Ihnen die Verhältnisse nicht sagen, aber Sie können es wahrscheinlich erraten.

TPM:Nach zwei Jahren im Einsatz schätze ich, dass mehr als die Hälfte der installierten Kapazität aus Olympus-Eisen besteht.

Kushagra Vaid:[lächelt]

TPM: Ein besseres Serverdesign – effizienter, dichterer Rechner, flexibler – verkürzt nicht die Zeit, die eine Maschine im Einsatz ist. Ich gehe davon aus, dass es vollständig abgeschrieben werden muss und dass seine wirtschaftliche Nutzungsdauer gemäß den von den Buchhaltern festgelegten Regeln auslaufen muss. Dass Olympus besser war als Open CloudServer, beschleunigt diesen Wertverlust nicht und verkürzt somit die Einsatzzeit?

Kushagra Vaid:Das ist richtig.

TPM: Ich habe die Serverdesigns „Zion“ und „Kings Canyon“ für maschinelles Lernen-Training bzw. Inferencing gesehen. Ich habe keine Systemdesigns gesehen, die über HGX-1 hinausgehen, das Microsoft in Zusammenarbeit mit Nvidia erstellt und mit den Hyperscalern geteilt hat und das Nvidia mit den HGX-2-Designs mithilfe der NVSwitch-Speicherverbindung auf den GPUs erweitert hat.

Kushagra Vaid: Wir haben mit Facebook am OCP Accelerator Module zusammengearbeitet, das Teil dieses Zion-Systems ist. Mit diesem OAM sind die Pinbelegung, die Masse, die Stromversorgung und die Orte, an denen die Busse herauskommen, alle standardisiert. Facebook hat das Modul für das Beschleunigergehäuse gebaut und wir haben mit ihnen zusammengearbeitet, um sicherzustellen, dass das Modul die thermischen und mechanischen Anforderungen von Microsoft erfüllt. Jetzt können wir beide davon profitieren. Wenn wir also beispielsweise ein Gehäuse mit sechzehn statt acht GPUs bauen, können wir die Designs des anderen verwenden.

TPM:Es ist wie eine tragbare, standardisierte Steckdose mit einem Griff daran.

Kushagra Vaid: Ja. Und wenn Sie ein Chip-Anbieter sind und eine schnelle Einbindung in eines unserer Rechenzentren wünschen, sorgen Sie dafür, dass es im OAM funktioniert, und es funktioniert im Handumdrehen im Gehäuse. Ansonsten entwickelt jeder seine eigene bevorzugte Pinbelegung, sein bevorzugtes Modul und seine eigene thermische Lösung, und das macht es für uns alle schwieriger, sie zu integrieren.

TPM: Das bringt mich zum nächsten Punkt. Wir befinden uns in dieser kambrischen Explosion der Datenverarbeitung, mit so vielen verschiedenen Arten der Datenverarbeitung, und es gibt zum ersten Mal seit langem einen glaubwürdigen Wettbewerb im Datenverarbeitungsbereich um Mainstream-Maschinen und Preisklassen. Es gibt viele verschiedene Beschleuniger für die unterschiedlichsten Arbeitslasten. Aber was wird Microsoft eigentlich mit all dieser Rechenleistung machen? Ziel ist es, dass die Hälfte der Rechenleistung hinter den Azure-Diensten auf ARM-Prozessoren läuft – und nicht auf den Cloud-Infrastrukturkomponenten, die in den kommenden Jahren zwangsläufig zum größten Teil aus X86-Prozessoren bestehen müssen. Zur Beschleunigung bestimmter Funktionen stehen Ihnen FPGAs und GPUs zur Verfügung. Wie wirkt sich diese Vielfalt in den Azure-Rechenzentren aus?

Kushagra Vaid: Das hängt vom Workload-Typ ab. Die verfügbaren Arm-CPUs sind alle stark multithreaded und eignen sich gut für eine bestimmte Art von Arbeitslast. Die X86-Prozessoren werden eher für eine höhere Single-Threaded-Leistung und für eine andere Arbeitslast verwendet. Die Sache ist, dass das Rechenzentrum immer heterogener wird. Selbst wenn man sich auf den KI-Bereich beschränkt, gibt es so viele verschiedene KI-Arbeitslasten und kein einziger KI-Chip, sei es eine GPU oder etwas von einem dieser neuen Startups, wird alle diese KI-Arbeitslasten gleichzeitig gut bewältigen . Ich denke, dass wir am Ende auch Heterogenität haben werden.

TPM: Wie chaotisch wird das alles? Welche Kraft steht dieser Vielfalt und Komplexität der Datenverarbeitung entgegen? Wirtschaftlichkeit und einfache Anschaffung und Verwaltung bedeuten in der Regel, dass man sich für weniger mögliche Rechenarten entscheidet und nicht für mehr. Unter Hyperscalern besteht die Tendenz, nicht zu viele unterschiedliche Dinge zu haben, es besteht jedoch immer der Wunsch, eine Architektur speziell auf eine Arbeitslast abzustimmen. Ich gehe davon aus, dass an diesem Punkt im IT-Zyklus etwas, das auf die Anwendung abgestimmt ist, wichtiger ist als weniger Komplexität, weil man die Abstimmung wirklich braucht, um Effizienz zu erzielen.

Kushagra Vaid: Du bist genau richtig. Dies geschieht aufgrund der Verlangsamung des Mooreschen Gesetzes. In den guten alten Zeiten eignete sich die CPU gut für eine einheitliche Infrastruktur, da sie so ziemlich alles konnte, was benötigt wurde, und das ziemlich gut. Bei den Arbeitslasten handelte es sich immer noch um klassische Dinge wie Dateibereitstellung, Transaktionsverarbeitung, Datenbanken und so weiter. Doch als sich das Mooresche Gesetz zu verlangsamen begann, entstanden zufällig neue Arbeitslasten, bei denen dies nicht der Fall war.

Man kann sich das wie folgt vorstellen: Wenn es einen wirtschaftlichen Wert gibt, weil die Arbeitsbelastung so groß ist, dass sie für Ihre Finanzen von Bedeutung ist, dann sollten Sie etwas Spezialisiertes tun, weil es die Wirtschaftlichkeit – die Kosten und den Nutzen – berücksichtigt. diese Arbeitslast zu hosten. Die Frage ist also: Ab welcher Schwelle muss die Arbeitslast auf optimierter Hardware ausgeführt werden? Unterhalb dieses Schwellenwerts wissen Sie, dass es nicht optimal ist, aber Sie können es auf allgemeinerer Hardware ausführen und sind in Ordnung.

TPM:Wie ermitteln Sie diese Schwellenwerte?

Kushagra Vaid: Ich glaube nicht, dass es eine einfache Faustregel gibt. Es gibt so viele Faktoren.

TPM: Es scheint ein ziemlich langer Entscheidungsbaum zu sein, den man durchlaufen muss. Vielleicht könnten Sie KI nutzen, um es herauszufinden? Und um die Sache noch komplizierter zu machen, weiß man in diesem Geschäft, dass es immer etwas Besseres gibt, wenn man 12 bis vielleicht 18 Monate wartet. Du hast einen nervigen Job.

Kushagra Vaid: Auch hier sind Sie genau richtig. [Lachen]

Aufgrund der Verlangsamung und der Innovationen, die all diese neuen Unternehmen vorantreiben, und der neuen Arbeitsbelastung, die spezialisiert ist, wird es immer schwieriger. Und der einzige Weg, damit umzugehen, besteht darin, sich alle Optionen offen zu halten und die Effizienz in dieser Heterogenität voranzutreiben.

TPM: Die Möglichkeiten für Machine-Learning-Training nehmen zu, obwohl die GPU bisher nur völlig dominiert. Es gibt eine ganze Reihe anderer, die die Schlussfolgerungen des maschinellen Lernens angreifen. Intel hat Nervana für maschinelles Lernen übernommen und wir werden sehen, was dort passiert. FPGAs haben vorerst ihren Platz bei der Inferenz. Welche Meinung haben Sie im Allgemeinen und nicht speziell zu einem bestimmten Anbieter über die Aussichten dieser Start-ups, Fuß zu fassen?

Kushagra Vaid: Es ist noch zu früh. Keines davon ist noch in Produktion. Aber wenn man sich das Spektrum anschaut, ist es sehr vielversprechend. Wir werden sehen.

TPM:Was bleibt beim Infrastrukturdesign noch zu tun?

Kushagra Vaid: Wissen Sie, was meine größte Sorge ist? Wohin ich auch schaue, die Leistung steigt immer weiter. Die Leistung der CPUs liegt jetzt bei über 200 Watt.

TPM: Wir haben immer über Power7 und Power8 gelacht, weil sie über 200 Watt und 300 Watt lagen. Ich höre jetzt niemanden lachen, weil sie alle aufgeholt haben.

Kushagra Vaid: Alles, was die Macht betrifft, dreht sich also nach oben. AI-Chips haben eine Leistung von 250 Watt bis 400 Watt. Es ist verrückt. Und das Rack ist immer noch 40U bis 48U groß und wir kommen an den Punkt, an dem wir es nicht mehr mit Luft kühlen können. Es ist einfach nicht effizient und bei der hohen Leistungsdichte kann niemand genug Luft bewegen, um es zu kühlen, und selbst wenn ich es könnte. Ich werde die Rechenzentrumsumgebung radikal verändern, weil der Luftstrom so hoch sein wird und meine Delta-Ts völlig aus dem Gleichgewicht geraten werden. Es ist noch kein großes Problem, aber in zwei oder drei Jahren und von da an wird es ein großes Problem sein, insbesondere wenn die Skalierung immer schlimmer wird.

Wir müssen also zu einer alternativen Form der Kühlung übergehen. Ich weiß nicht, was die richtige Antwort ist – es könnte immersive Flüssigkeitskühlung oder Heatpipes und Kühlplatten sein. Aber wir müssen herausfinden, wie wir mit der Heterogenität der Beschleuniger in allen Bereichen umgehen, die alle eine hohe Leistung haben werden. Und es ist ein Systemproblem. Sie müssen es direkt auf Chip-Ebene, auf Gehäuseebene, auf Rack-Ebene und auf Datencenter-Ebene entwerfen. Dieser ganze Stapel geht auf und ab, weil er sich auf die Wirtschaftlichkeit des Hostings dieser neuen Workloads auswirkt.

TPM: Wie hoch ist heute die Leistungsdichte eines Racks mit neuen Olympus-Geräten? Liegt es über 30 Kilowatt oder nähert es sich 40 Kilowatt?

Kushagra Vaid: Es hängt davon ab, was Sie hineingeben. Wenn Sie sich die Olympus PDU ansehen, kann sie 480 Volt, 30 Ampere, dreiphasigen Strom liefern. So können Sie problemlos 15 Kilowatt pro Rack leisten. Das könnte man auf vielleicht 30 Kilowatt steigern. Aber dann kommt es zu thermischen Problemen.

TPM: Kann man mit Sicherheit sagen, dass es zu diesem Zeitpunkt eine Art Flüssigkeitskühlung geben wird? Ich meine, immersive Kühlung ist interessant, exotisch und völlig mühsam, es sei denn, Sie möchten die Decke eines Rechenzentrums nur einen Meter hoch machen, nachdem Sie die Racks aufgestellt und sie mit Mineralöl, Pflanzenöl oder einem beliebigen Fluorkohlenwasserstoff Ihrer Wahl gefüllt haben .

Kushagra Vaid:Möglicherweise erscheinen Heatpipes und Kühlplatten realistischer, da Sie den Betrieb des Rechenzentrums nicht vollständig ändern müssen, um sie zu verwenden.

TPM:Wie sehr hat Microsoft bisher mit anderen Formen der Kühlung in den Azure-Rechenzentren herumgespielt?

Kushagra Vaid:Es wird viel experimentiert, aber bisher können selbst die High-End-GPUs noch mit Luft gekühlt werden.

TPM:Und die Regale füllen?

Kushagra Vaid: [Gelächter] Man kann die Regale nicht füllen. Man muss viel Platz lassen.

TPM:Da stellt sich die Frage: Warum auf diese Dichte drängen, wenn man die Regale nur zur Hälfte füllen kann?

Kushagra Vaid: Das ist der Kern des Problems. Wenn das so weitergeht, haben Sie eine Sache in einem Regal und es wird größtenteils leer sein.

Das heutige Olympus-Chassis verfügt über Heatpipes. Die beiden CPUs verfügen wie üblich über einen Kühlkörper, die Heatpipes verlaufen jedoch nach hinten; Sie sind im geschlossenen Kreislauf und werden bereits in der Produktion eingesetzt. Aber die exotische Flüssigkeitskühlung durchbricht das Betriebsmodell des Rechenzentrums. Wie warten Sie es?

TPM:All diese zunehmende Rechendichte ist interessant – Sie können doppelt so viele Kerne in einen Sockel stecken, verbrennen aber doppelt so viel Saft und erhalten dabei etwas weniger Leistung.

Kushagra Vaid: Ja, es ist schlimm. Sie haben ein Regal und verschwenden Platz. Sie haben oben im Rack einen Switch und lassen die Ports ungenutzt. Es fängt immer wieder an, sich zu summieren.

TPM: Bist du nicht sauer wegen all dem? Das liegt alles an den Gesetzen der Physik, die wirklich enttäuschend sind.

Kushagra Vaid:Es sind die Gesetze der Physik, und das Ende von CMOS wird chaotisch sein.

TPM: Du bist sehr ruhig, also werde ich wütend auf dich. Das ist nur ein Dichtespiel und wir werden nicht gewinnen. Sie verdoppeln die Kerne, aber die Taktraten sinken etwas und die Kosten pro Kern sind gleich oder vielleicht sogar höher. Wenn Sie Softwareunternehmen dazu bringen können, für Dinge pro Socket statt pro Kern zu berechnen, haben Sie zumindest etwas davon. Die Anweisungen pro Kern steigen um 2 Prozent, 5 Prozent, vielleicht 10 Prozent pro Generation. Die Breite der Vektoren verdoppelt sich ständig, und wir verwenden gemischte Präzision, um mehr Material durch sie hindurchzudrücken. Sie müssen jedoch verlangsamt werden, wenn sie breiter werden, sonst schmilzt der Chip. Das ist schmerzhaft anzusehen. Und wenn man mit jeder Generation ein Drittel der Server aus dem Rack nehmen muss, weil man das Rack sonst nicht kühl halten kann, ist das wirklich ein Ärgernis. In einem Rack können Sie keine 80-Kilowatt- oder 100-Kilowatt-Leistung unterbringen, denn selbst wenn Sie es kühlen könnten, können Sie nicht so viel Leistung in ein Rechenzentrum bringen.

Wie weit können Sie dies auch mit alternativer Kühlung und nicht mit Luftkühlung vorantreiben?

Kushagra Vaid: Denken Sie so darüber nach. Sie müssen darauf achten, wie viel Leistung Sie liefern können und wie viel Sie kühlen können. Sie lösen ein Problem und stoßen auf das andere. Angenommen, Sie könnten ein Rack kühlen. Wie wird das Rack mit Strom versorgt? Und wenn Sie das können, wie hoch ist dann die Stromschiene, die das Rack mit Strom versorgt, und wie hoch ist seine aktuelle Kapazität?

Heute liegt der Sweet Spot zwischen 10 Kilowatt und 15 Kilowatt, basierend auf Standardteilen mit Luftkühlung. Sie können die Leistung wahrscheinlich auf etwa 25 Kilowatt steigern, und das ist einigermaßen in Ordnung, aber jetzt brauchen Sie mehr Kupfer und die Kosten beginnen zu steigen. Darüber hinaus glaube ich nicht, dass die Branche über Lösungen verfügt, die auf breiterer Ebene verfügbar sind – mit Ausnahme von Supercomputern und anderen exotischen Geräten.

TPM: Neues Thema. Wenn Sie sich die Trenddaten des letzten Jahrzehnts ansehen, haben sich die durchschnittlichen Kosten eines Servers mehr als verdoppelt, und Sie wissen genauso gut wie ich, dass wir für die Rechenleistung einen Aufpreis zahlen. Die Kosten pro Recheneinheit sinken nicht mehr so ​​schnell wie früher, auch wenn die Multithread-Leistung von Prozessoren und Beschleunigern steigt – wenn auch nicht so schnell wie früher innerhalb ihrer Architekturen. Machen Sie sich darüber Sorgen? Es gibt so viele Dinge, gegen die du verdammt noch mal nichts tun kannst.

Kushagra Vaid: Es gibt viele Dinge. Bei den Verbindungsleitungen geht Kupfer die Puste aus. Wir haben eine Signalisierung mit 25 Gbit/s durchgeführt, und wir haben 50 Gbit/s und können möglicherweise 100 Gbit/s erreichen. Und dann was? Dann müssen wir es optisch machen. Das ist also eine weitere Störung am Horizont. Ich glaube nicht, dass die Branche wirklich herausgefunden hat, wie sie diesen Übergang bewältigen soll.

Im Backbone und im WAN spricht man von optischen Signalen, aber wenn wir die Feeds und Geschwindigkeiten auf Serverebene weiter steigern müssen, weil die Anzahl der Kerne steigt, muss das Netzwerk mithalten können. Und wenn Ihnen Kupfer mit etwa 100 Gbit/s die Puste ausgeht, müssen Sie auf Silizium-Photonik umsteigen. Es gibt keine andere Wahl und es ist noch keine Lösung in Sicht. Und wenn es dann tatsächlich ankommt, wird es kostenneutral sein? Photonik ist schwer umzusetzen.

TPM:Wann planen Sie also, in den Ruhestand zu gehen?

Kushagra Vaid: [Gelächter] Nachdem ich all diese Probleme gelöst habe. Dann kann ich in Rente gehen.

TPM: Gute Antwort. Früher dachte ich, ich wollte einen Job wie deinen. Jetzt bin ich mir nicht mehr so ​​sicher. Nein, eigentlich bin ich mir sicher. Ich will es nicht. Aber ich werde Ihnen diesen Deal machen: Ich werde nicht in den Ruhestand gehen, bis Sie alle diese Probleme gelöst haben, und ich werde beobachten, wie Sie es machen.

Mit Highlights, Analysen und Geschichten der Woche direkt von uns in Ihren Posteingang, ohne dass etwas dazwischen liegt. Jetzt abonnieren

Timothy Prickett Morgan:Kushagra Vaid:TPM:Kushagra Vaid:TPM:Kushagra Vaid:TPM:Kushagra Vaid:TPM:Kushagra Vaid:TPM:Kushagra Vaid:TPM:Kushagra Vaid:TPM:Kushagra Vaid:TPM:Kushagra Vaid:TPM:Kushagra Vaid:TPM:Kushagra Vaid:TPM:Kushagra Vaid:TPM:Kushagra Vaid:TPM:Kushagra Vaid:TPM:Kushagra Vaid:TPM:Kushagra Vaid:TPM:Kushagra Vaid:TPM:Kushagra Vaid:TPM:Kushagra Vaid:TPM:Kushagra Vaid:TPM:Kushagra Vaid:TPM:Kushagra Vaid:TPM:Kushagra Vaid:TPM:Kushagra Vaid:TPM:Kushagra Vaid:TPM:Kushagra Vaid:TPM: