Inference at the Edge: Gcore sorgt für nahtlose Echtzeit-Performance von KI-Anwendungen

en de

Neue KI-Lösung ermöglicht global eine schnelle, sichere und kosteneffiziente Bereitstellung von vortrainierten maschinellen Lernmodellen direkt am Netzwerkrand.

<< Zurück
12/06/2024 |
  • Andre Reitenbach CEO at Gcore27

    Andre Reitenbach, CEO at Gcore

Gcore, globaler Anbieter von Edge-KI-, Cloud-, Netzwerk- und Sicherheitslösungen, hat die Einführung von Inference at the Edge angekündigt. Die innovative Lösung ermöglicht KI-Anwendungen mit extrem niedrigen Latenzzeiten und erleichtert so die verteilte Bereitstellung vortrainierter Machine-Learning-Modelle (ML) an Edge-Inferenzknoten.

Mit Hilfe von Gcore Inference at the Edge können Unternehmen aus den unterschiedlichsten Branchen KI-Modelle kostengünstig, skalierbar und sicher einsetzen. Dazu gehören beispielsweise die Fertigungs- und Automobilindustrie, der Einzelhandel und der Technologiesektor. Anwendungsfälle wie generative KI, Objekterkennung, Verhaltensanalysen in Echtzeit, virtuelle Assistenten und Produktionsüberwachung können nun schnell und weltweit implementiert werden.

Der Service läuft auf Gcores globalem Netzwerk mit mehr als 180 Edge-Knoten, die durch eine ausgeklügelte Smart-Routing-Technologie mit geringer Latenz miteinander verbunden sind. Jeder dieser Hochleistungsknoten befindet sich am Rande des Gcore-Netzwerks und sorgt für eine strategische Platzierung der Server in der Nähe der Endnutzer:innen. Inference at the Edge läuft auf dem marktführenden Chip L40S GPUs von NVIDIA, der speziell für KI-Inferenzen entwickelt wurde. Sendet ein:e Anwender:in eine Anfrage, bestimmt ein Edge-Knoten die Route zur nächstgelegenen verfügbaren Inferenzregion mit der geringsten Latenz, wodurch eine typische Antwortzeit von unter 30ms erreicht wird.

Die neue Lösung unterstützt eine breite Palette grundlegender ML- und benutzerdefinierter Modelle. Zu den im Gcore ML Model Hub verfügbaren Open-Source-Grundmodellen gehören LLaMA Pro 8B, Mistral 7B und Stable-Diffusion XL. Modelle können nach Bedarf ausgewählt und flexibel trainiert werden, bevor sie global über Gcore Inference an den Edge-Knotenpunkten verteilt werden. Damit wird ein wesentliches Problem von Entwicklungsteams gelöst: Normalerweise werden KI-Modelle auf denselben Servern ausgeführt, auf denen sie auch trainiert wurden, was zu einer verminderten Leistung führt.

Weitere Vorteile von Gcore Inference at the Edge sind:

  • Kostengünstige Bereitstellung: Eine flexible Preisstruktur sorgt dafür, dass Kund:innen nur für die Ressourcen zahlen, die sie auch tatsächlich nutzen.
  • Eingebauter DDoS-Schutz: Die Infrastruktur von Gcore schützt ML-Endpunkte automatisch vor DDoS-Angriffen.
  • Datenschutz und Sicherheit auf höchstem Niveau: Die Lösung verfügt über eine eingebaute DSGVO-Konformität und folgt den Standards PCI DSS und ISO/IEC 27001.
  • Modell-Autoskalierung: Für Lastspitzen steht eine Autoskalierung zur Verfügung, so dass jederzeit ein Modell bereitgestellt werden kann, um Nachfragespitzen und unerwartete Lastspitzen zu bewältigen.
  • Unbegrenzter Objektspeicher: Skalierbarer S3-kompatibler Cloud-Speicher, der mit den wachsenden Anforderungen des Modells wächst. Anwender:innen erhalten dadurch eine flexible, kosteneffiziente und zuverlässige Lösung, die eine einfache Integration ermöglicht.

Andre Reitenbach, Geschäftsführer von Gcore, erklärt: „Mit Gcore Inference at the Edge können sich unsere Kund:innen darauf konzentrieren, ihre Machine-Learning-Modelle zu optimieren, anstatt sich um die Kosten, Kapazitäten und Infrastruktur zu kümmern, die für die globale Bereitstellung von KI-Anwendungen erforderlich sind. Wir bei Gcore sind davon überzeugt, dass die beste Performance und das beste Endnutzer:innen-Erlebnis am Rande des Netzwerks erreicht wird. Deshalb entwickeln wir unsere Lösungen kontinuierlich weiter, um sicherzustellen, dass jede:r Kund:in eine konkurrenzlose Skalierung und Performance erfährt. Gcore Inference at the Edge ist leistungsstark, aber unkompliziert und bietet eine moderne, effektive und effiziente Echtzeitdatenverarbeitung mithilfe von Künstlicher Intelligenz."

Gcore Inference at the Edge ist ab sofort erhältlich. Mehr dazu unter:  https://gcore.com/inference-at-the-edge

Zurück nach oben | << Zurück

Communiqués liés

Terminal Bettembourg-Dudelange Copyright CFL multimodal
10/09/2024

Lancement d'une nouvelle connexion intermodale entre Bettemb...

CFL multimodal a le plaisir d'annoncer le lancement de sa  nouvelle connexion i...

CFL multimodal
Pierre Thomas X Jean-Paul Scheuren
03/09/2024 Partenariat

LetzToken et La Vie est Belle annoncent leur partenariat ouv...

«?LetzToken?», plateforme de tokenisation pionnière basée à Luxembourg, et ...

LetzToken
UBP Door 3
05/08/2024

L’Union Bancaire Privée signe deux accords exclusifs en v...

L’Union Bancaire Privée, UBP SA (UBP) annonce ce jour avoir conclu deux accor...

UBP
Raiffeisen Analina Clouet
29/07/2024

Banque Raiffeisen passe le cap des 50 000 membres

Seule banque coopérative du Luxembourg, Banque Raiffeisen est fière d’annonc...

Raiffeisen
Promotions DSM 2024
29/07/2024 Personnalités

Promotions chez DSM Avocats à la Cour

L’étude DSM Avocats à la Cour a le plaisir de présenter les nominations sui...

DSM
DHL x Google Image 1
26/07/2024 Partenariat

Google and DHL collaborate on sustainable worldwide shipping

Google will utilize DHL Express GoGreen Plus service and invest in Sustainable A...

DHL

Il n'y a aucun résultat pour votre recherche

Cookies gewährleisten die bestmögliche Verwendung der Webseite. Bei Verwendung der Webseite stimmen Sie zu dem Einsatz von Cookies zu. OK Mehr Infos