Le Lézard
Sujets : Photo/Multimedia, Product/Service

Gcore dévoile sa solution Inference at the Edge pour rapprocher les applications IA des utilisateurs finaux en vue d'une performance en temps réel sans précédent


Gcore, le fournisseur mondial de solutions d'IA, de cloud, de réseau et de sécurité en périphérie, annonce aujourd'hui le lancement de Gcore Inference at the Edge, une solution révolutionnaire qui offre des expériences de latence ultra-faible pour les applications d'IA. Cette solution innovante permet le déploiement distribué de modèles d'apprentissage automatique (ML) pré-entraînés sur les noeuds d'inférence en périphérie, assurant ainsi une inférence optimale en temps réel.

Gcore Inference at the Edge permet aux entreprises de divers secteurs, notamment l'automobile, la fabrication, la vente au détail et la technologie, de déployer des modèles d'IA rentables, évolutifs et sécurisés. Des cas d'utilisation tels que l'IA générative, la reconnaissance d'objets, l'analyse comportementale en temps réel, les assistants virtuels et la surveillance de la production peuvent maintenant être rapidement réalisés à l'échelle mondiale.

Gcore Inference at the Edge fonctionne sur le vaste réseau mondial de plus de 180 noeuds périphériques de Gcore, tous interconnectés par la technologie sophistiquée de routage intelligent et à faible latence de Gcore. Chaque noeud haute performance se trouve à la périphérie du réseau Gcore, plaçant stratégiquement les serveurs à proximité des utilisateurs finaux. Inference at the Edge fonctionne sur les GPU L40S de NVIDIA, la puce leader du marché conçue spécifiquement pour l'inférence d'IA. Lorsqu'un utilisateur envoie une demande, un noeud périphérique détermine l'itinéraire vers la région d'inférence disponible la plus proche avec la latence la plus faible, générant un temps de réponse type inférieur à 30 ms.

La nouvelle solution prend en charge une large gamme de modèles ML et personnalisés fondamentaux. Les modèles de fondation open source disponibles dans le Gcore ML Model Hub incluent LLaMA Pro 8B, Mistral 7B et Stable-Diffusion XL. Les modèles peuvent être sélectionnés et entraînés de manière agnostique pour s'adapter à n'importe quel cas d'utilisation, avant de les distribuer globalement aux noeuds Gcore Inference at the Edge. Cela répond à un défi important auquel sont confrontées les équipes de développement, avec des modèles d'IA généralement exécutés sur les mêmes serveurs que ceux sur lesquels ils ont été formés, ce qui entraîne de piètres performances.

Parmi les avantages de Gcore Inference at the Edge figurent :

Andre Reitenbach, CEO de Gcore, déclare : «Gcore Inference at the Edge permet aux clients de se concentrer sur la formation de leurs modèles d'apprentissage automatique, plutôt que de se soucier des coûts, des compétences et de l'infrastructure nécessaires pour déployer des applications d'IA à l'échelle mondiale. Chez Gcore, nous croyons que la périphérie est l'endroit où les meilleures performances et expériences de l'utilisateur final sont atteintes, et c'est pourquoi nous innovons continuellement pour nous assurer que chaque client reçoit une échelle et des performances inégalées. Gcore Inference at the Edge fournit toute la puissance sans aucun tracas, offrant ainsi une expérience d'inférence d'IA moderne, efficace et efficiente. »

Pour de plus amples renseignements, rendez-vous sur https://gcore.com/inference-at-the-edge

À propos de Gcore
Gcore est le fournisseur mondial de solutions d'IA, de cloud, de réseau et de sécurité en périphérie. Gcore fournit ses solutions aux leaders mondiaux dans de nombreuses industries. La société gère sa propre infrastructure IT mondiale sur six continents, avec l'une des meilleures performances réseau en Europe, en Afrique et en Amérique latine, avec un temps de réponse moyen de 30 ms. Le réseau de Gcore se compose de plus de 180 points de présence au niveau mondial, dans des centres de données éprouvés de niveau IV et III, pour une capacité totale dépassant 200 Tbps.

Le texte du communiqué issu d'une traduction ne doit d'aucune manière être considéré comme officiel. La seule version du communiqué qui fasse foi est celle du communiqué dans sa langue d'origine. La traduction devra toujours être confrontée au texte source, qui fera jurisprudence.



Communiqué envoyé le et diffusé par :