Testlösungen für verbesserte KI-Leistung

Wir liefern das umfassendste Lösungsangebot zum Testen der KI-Infrastruktur

End-to-End-Support für die Entwicklung und Bereitstellung künstlicher Intelligenz

Seit über zwei Jahrzehnten spielt Teledyne LeCroy eine Schlüsselrolle beim zuverlässigen Betrieb von Technologien, die künstliche Intelligenz in Rechenzentren ermöglichen. Unsere Testlösungen werden im gesamten Ökosystem für Hochleistungs-Computing und -Analyse, für Netzwerke, die eine effiziente Verschiebung und den Zugriff auf Daten ermöglichen, und für Speichergeräte, die das Rückgrat für Hot- und Cold-Storage in der Cloud bilden, eingesetzt. Dies erreichen wir, indem wir führende Lösungen für Technologien wie PCI Express, CXL, NVMe, Gigabit Ethernet und SAS liefern, die in Hyperscale-Umgebungen verwendet werden, um Ingenieure und Testingenieure zu entwickeln, von Early Adopters bis hin zu Systemintegratoren.

    Berechnen

    KI-Anwendungen erfordern High-Performance-Computing in Rechenzentren, um große Datenmengen mit hohem Durchsatz und geringer Latenz zu analysieren, was die Basis moderner computer- und datenzentrierter Architekturen bildet.

    Netzwerke

    Die Verschiebung großer Datenmengen innerhalb von Racks, Rechenzentren und Campusgeländen beschleunigt die Entwicklung schnellerer und effizienterer Netzwerktechnologien.

    Speicher

    Der ständig steigende Bedarf an Speicherkapazität und der Wunsch, von überall auf Daten zugreifen zu können, treiben die Entwicklung von Cloud- und Hybrid-Speicherlösungen sowie Speicherschnittstellentechnologien voran.

    Compute – Verbindungen, Verarbeitung, Datenfluss und Speicherverwaltung

    Im Mittelpunkt der transformativen Kraft der KI stehen die Rechen- und Verarbeitungsanforderungen, die dies alles ermöglichen. KI-Workloads treiben die Transformation des High-Performance-Computing (HPC) in Rechenzentren voran und ermöglichen Billionen von Berechnungen pro Sekunde, die Bilderkennung, natürliches Sprachverständnis und Trendvorhersagen mit erstaunlicher Geschwindigkeit und Genauigkeit ermöglichen. Die parallelen Verarbeitungssysteme ermöglichen der KI effizientes Multitasking und spiegeln die Komplexität des menschlichen Gehirns wider.

    Colorful image of an AI brain representing PCIe / CXL
    Colorful image of a head managing memories and AI

    Teledyne LeCroy Summit Analysatoren, Exerciser, Störsender, Interposer und Testsysteme helfen beim Aufbau und der Optimierung der schnellsten und neuesten Systeme mit PCIe zur Unterstützung von KI. Diese Geräte und Computersysteme verwenden die Hochgeschwindigkeitsschnittstelle, die KI-Beschleuniger wie GPUs und benutzerdefinierte Siliziumchips mit der zentralen Verarbeitungseinheit (CPU) verbindet. Die kontinuierliche Weiterentwicklung stellt sicher, dass KI-Systeme auf dem neuesten Stand der Technik bleiben und bereit sind, die Herausforderungen der datengesteuerten Welt von morgen zu meistern.

    • Skalierbarkeit: Mit jeder neuen Generation verdoppelt PCIe seine Bandbreite und trägt so den wachsenden Anforderungen von KI-Anwendungen Rechnung. Die neueste PCIe 6.0-Spezifikation bietet eine Datenübertragungsrate von 64 GT/s pro Pin und stellt sicher, dass KI-Systeme immer komplexere Aufgaben bewältigen können.
    • Vielseitigkeit: PCIe wird in verschiedenen Formfaktoren verwendet, von großen Chips für Deep-Learning-Systeme bis hin zu kleineren räumlichen Beschleunigern, die hochskaliert werden können, um umfangreiche neuronale Netzwerke zu verarbeiten, die Hunderte von PetaFLOPS an Rechenleistung erfordern.
    • Energieeffizienz: Neuere PCIe-Versionen führen Energiesparzustände ein und tragen so zu einer höheren Energieeffizienz in KI-Systemen bei. Dies ist für einen nachhaltigen und kostengünstigen KI-Betrieb unerlässlich.
    • Interkonnektivität: PCIe erleichtert die Verbindung von Rechnern, Beschleunigern, Netzwerken und Speichergeräten innerhalb der KI-Infrastruktur und ermöglicht effiziente Rechenzentrumslösungen mit geringerem Stromverbrauch und maximaler Reichweite.

    CXL verspricht viel, die Landschaft der KI zu prägen, und die Lösungen von Teledyne LeCroy sind die einzige Möglichkeit, die heutigen CXL-Systeme zu testen und zu optimieren. Speichereffizienz, Latenzreduzierung und Leistung werden alle durch Teledyne LeCroy-Lösungen erreicht, die CXL-Tests und -Konformität unterstützen – alles entscheidend für die Aufrechterhaltung niedriger Latenz und hohen Durchsatzes. Dies ist besonders wichtig für bandbreitenintensive KI-Workloads, die schnellen Zugriff auf große Datensätze erfordern.

    • Erweiterung der Speicherkapazität: CXL ermöglicht die Verbindung eines großen Speicherpools mit mehreren Prozessoren oder Beschleunigern. Dies ist von entscheidender Bedeutung für KI-/HPC-Anwendungen, die mit riesigen Datensätzen arbeiten.
    • Reduzierte Latenz: Das Low-Latency-Design von CXL stellt sicher, dass Daten schnell zwischen Rechenelementen übertragen werden. KI-/ML-Workloads profitieren von minimierten Wartezeiten.
    • Flexible Kommunikation: CXL fördert herstellerneutrale Kompatibilität, sodass verschiedene Beschleuniger und Speichermodule nahtlos zusammenarbeiten können.
    • Verbesserte Speicherbandbreite: CXL verbessert die Speicherbandbreite erheblich und stellt sicher, dass datenintensive Workloads ohne Engpässe auf Daten zugreifen.

    Netzwerke - High Speed ​​Ethernet, Datendurchsatz, Fabrics und Netzwerke

    Neuere Large Language Models wie GPT-$ erfordern Hunderte Millionen und mehr Parameter, die aus unterschiedlichen Quellen über skalierbare Netzwerke bereitgestellt werden. Dafür müssen Hochgeschwindigkeitsnetzwerke und Netzwerktechnologien niedrige Latenzzeiten und eine effiziente Informationsübertragung unterstützen, die auf diese neuen Arbeitslasten optimiert ist.

    Wired connections to AI infrastructures
    Stylized worldwide networks for AI back-end testing

    Gigabit-Ethernet mit 1 Gbit/s (Gigabit pro Sekunde) bietet schnelle Datenübertragungsraten. Diese Geschwindigkeit ist entscheidend für die Verarbeitung großer Datensätze in KI-Workloads. Terabit-Ethernet mit 1 Tbit/s (Terabit pro Sekunde) erleichtert den nahtlosen Austausch riesiger Datensätze. Es unterstützt neue Technologien wie das Internet der Dinge (IoT), künstliche Intelligenz (KI) und Big Data Analytics.

    title page image - How to test Data Center Switches Optimized for Artificial Intelligence - white paper So testen Sie für künstliche Intelligenz optimierte Rechenzentrums-Switche – Whitepaper
    • Reaktionsfähigkeit in Echtzeit: Eine geringe Latenz ist für KI-Systeme unerlässlich. Gigabit-Ethernet minimiert Verzögerungen und gewährleistet zeitnahe Interaktionen zwischen Komponenten wie GPUs, CPUs und Speichergeräten.
    • Entscheidungsfindung in Echtzeit: Terabit-Ethernet ermöglicht KI-gesteuerte Entscheidungsfindung in Echtzeit. Seine hohe Bandbreite gewährleistet eine effiziente Kommunikation zwischen KI-Knoten.
    • Verlustfreies Networking: Bei herkömmlichem Ethernet können bei Überlastung Pakete verloren gehen, was die Genauigkeit des KI-Modells beeinträchtigt. Neue Technologien versprechen jedoch eine „verlustfreie“ Übertragung, die die Datenintegrität auch bei hoher Belastung gewährleistet
    • Skalierbarkeit: Da KI-Modelle immer komplexer werden, wird eine skalierbare Infrastruktur unverzichtbar. Gigabit-Ethernet ermöglicht eine nahtlose Erweiterung durch den Anschluss zusätzlicher Server und Geräte. Terabit-Ethernet trägt ihrem exponentiellen Wachstum Rechnung und sorgt für effiziente Konnektivität und Datenaustausch.

    Mit den XENA-Produkten von Teldyne LeCroy können Unternehmen ihre KI-Backend-Netzwerkstruktur optimieren und zukunftssicher machen, um große Mengen zeitkritischen Datenverkehrs zu bewältigen. Rechenzentrumsarchitekturen für KI-Workloads verwenden häufig eine Spine-and-Leaf-Struktur und verbinden Tausende von KI-Beschleunigern und Speicherlösungen über eine L2/L3-Netzwerkinfrastruktur mit geringer Latenz und Portgeschwindigkeiten von 400 bis 800 Gbit/s. RDMA over Converged Ethernet (RoCE) ist eine vielversprechende Wahl für ein Speicherdatentransportprotokoll.

    title page image - How to test Data Center Switches Optimized for Artificial Intelligence - white paper So testen Sie für künstliche Intelligenz optimierte Rechenzentrums-Switche – Whitepaper
    • Rechenzentrumsüberbrückung (DCB): Ermöglichen Sie den Transport von RDMA-Paketen mit hohem Durchsatz, geringer Latenz und ohne Paketverlust (verlustfreier Datenverkehr) neben dem regulären Best-Effort-Datenverkehr (verlustbehafteter Datenverkehr).
    • Prioritätsstromregelung (PFC): um Paketverlust zu verhindern, indem ein Absender aufgefordert wird, das Senden von Paketen vorübergehend zu unterbrechen, wenn ein Puffer über einen bestimmten Schwellenwert hinaus gefüllt ist.
    • Überlastungsmeldung (CN): RoCEv1 und RoCEv2 implementieren eine Signalisierung zwischen Netzwerkgeräten, die eine Überlastung verhindert und dazu verwendet werden kann, die Ausbreitung von Überlastungen in verlustfreien Netzwerken zu verringern, die Latenz zu verringern und die Burst-Toleranz zu verbessern.
    • Erweiterte Verkehrsauswahl (ETS): Ermöglicht die Zuweisung einer garantierten Mindestbandbreite zu jeder Serviceklasse (Class of Service, CoS).

    Speicher - SSDs, Rechenzentren, Datenverwaltung

    KI-Speicherlösungen müssen sich schnell an die Skalierungsanforderungen von KI/ML-Workloads anpassen. Diese Skalierbarkeit von Speicherkapazität und Leistung sollte unterstützt werden, ohne den laufenden Betrieb zu stören und Überbereitstellung und Unterauslastung zu verhindern. Und das alles bei gleichzeitiger Unterstützung strukturierter und unstrukturierter Daten. Den Kern der Speicherinfrastruktur bilden Technologien wie NVMe, SAS, CXL, die mit Solid-State-Laufwerken, Rotationsmedien und Speicherelementen mit hoher Bandbreite verwendet werden.

    AI and Oakgate SSD Device Testing
    Colorful image of a head managing memories and AI
    Colorful image of AI head and SAS boxes

    Das Aufkommen von KI und maschinellem Lernen (ML) wird den dringenden Bedarf an umfassenden Tests von Solid-State-Speichergeräten (SSDs) nur noch weiter steigern. Es wird erwartet, dass KI die Nachfrage nach SSDs in Rechenzentren aufgrund der hohen Rechenleistungsanforderungen von KI-Workloads erhöhen wird. KI-Anwendungen generieren und verarbeiten riesige Datenmengen, was Speicherlösungen mit Hochgeschwindigkeitsdatenzugriffs- und -verarbeitungsfunktionen erfordert.

    • Schnellerer Datenzugriff und schnellere Verarbeitungsgeschwindigkeiten: unerlässlich für die Verarbeitung großer Datensätze und komplexer Algorithmen, die bei KI-Aufgaben verwendet werden. KI-Anwendungen beinhalten häufige Lese- und Schreibvorgänge, weshalb SSDs aufgrund ihrer Leistung und Haltbarkeit besser geeignet sind als herkömmliche HDDs. Diese Nachfrage wird wahrscheinlich Innovationen in der SSD-Technologie und anderen Hochleistungsspeicherlösungen vorantreiben.
    • Spezialisierte und vielfältige Arbeitslasten: Es wird wahrscheinlich eine Nachfrage nach Speicherlösungen geben, die speziell auf die Anforderungen von KI-Anwendungen zugeschnitten sind. Dazu könnten Speichersysteme gehören, die für Deep-Learning-Algorithmen, Echtzeitanalysen oder die Verarbeitung großer Datenmengen optimiert sind.
    • Speichersysteme optimieren: für Effizienz, Zuverlässigkeit und Leistung. Dabei werden Algorithmen des maschinellen Lernens verwendet, um Speichernutzungsmuster vorherzusagen, die Datenschichtung zu automatisieren oder Datenkomprimierungstechniken zu verbessern.

    Teledyne LeCroy OakGate Lösungen bieten Testfunktionen für neue CXL-Speichergeräte (Compute Express Link), die Rechenzentren revolutionieren werden, insbesondere für KI- und maschinelle Lernarbeitslasten. KI-Plattformen, die CXL verwenden, erfordern einen schnellen, kohärenten Speicherzugriff zwischen CPUs und Beschleunigern wie GPUs, FPGAs und TPUs. CXL-Speichergeräte werden die Datenübertragungsgeschwindigkeiten erheblich steigern, die Latenz verringern und die Gesamtsystemleistung verbessern.

    • Funktions- und Leistungsvalidierungstests: Sicherstellen, dass neue CXL-Geräte bei der Markteinführung den Standard erfüllen.
    • Qualitäts- und Konformitätstests: Dies bedeutet schnellere Trainings- und Inferenzzeiten für KI-Modelle und führt letztendlich zu effizienteren und leistungsfähigeren maschinellen Lernvorgängen in Rechenzentren.
    • Trainings- und Inferenzzeiten: Das Testen von KI-Systemen auf effizientere und leistungsfähigere maschinelle Lernvorgänge in Rechenzentren und ein verbesserter kohärenter Speicherzugriff zwischen verschiedenen Verarbeitungseinheiten ermöglicht komplexere und anspruchsvollere KI-Algorithmen und -Arbeitsabläufe.

    Das Testen von Serial Attached SCSI (SAS) ist für die Unterstützung von KI-Anwendungen von entscheidender Bedeutung, insbesondere im Hinblick auf Datenspeicherung und -abruf. Indem sichergestellt wird, dass SAS-Systeme gründlich getestet und kompatibel sind, können KI-Anwendungen von zuverlässigen, schnellen und skalierbaren Datenspeicherlösungen profitieren, die für einen effektiven KI-Betrieb von grundlegender Bedeutung sind.

    • High-Speed-Datenübertragung: SAS bietet Hochgeschwindigkeitsdatenübertragungsraten, die für KI-Anwendungen, die schnellen Zugriff auf große Datensätze erfordern, unerlässlich sind. Dadurch wird sichergestellt, dass KI-Modelle effizient trainiert und bereitgestellt werden können.
    • Zuverlässigkeit und Redundanz: SAS-Systeme sind für ihre Zuverlässigkeit und Redundanzfunktionen bekannt. Dies ist für KI wichtig, da es sicherstellt, dass Daten durchgängig verfügbar und vor Ausfällen geschützt sind.
    • Skalierbarkeit: SAS unterstützt skalierbare Speicherlösungen, sodass KI-Systeme wachsen und zunehmende Datenmengen verarbeiten können, ohne dass die Leistung darunter leidet.
    • Kompatibilität: SAS ist mit verschiedenen Speichergeräten und Schnittstellen kompatibel und daher vielseitig für unterschiedliche KI-Anwendungen und -Umgebungen einsetzbar.
    • Anforderungsprüfung: Konformitätstests für SAS stellen sicher, dass die Hardware den Industriestandards für Leistung und Zuverlässigkeit entspricht. Dies ist entscheidend für die Aufrechterhaltung der Integrität von KI-Systemen, die auf diese Speicherlösungen angewiesen sind

    Benötigen Sie Hilfe oder Informationen?

    Wir sind hier, um Ihnen zu helfen und alle Ihre Fragen zu beantworten. Wir freuen uns von Ihnen zu hören