Elle a créé des programmes d’accélérateurs aérospatiaux et défense uniques qui combinent les meilleurs aspects des accélérateurs de startups traditionnels et des programmes MBA avec une connaissance unique de l’industrie et une expertise approfondie. Fondé en 2012 par François Chopard, Starburst est le principal accélérateur de startups et cabinet de conseil stratégique dans le domaine de l’aérospatiale et de la défense (A&D). Starburst est le principal accélérateur de startups et cabinet de starburst conseil stratégique dans le domaine de l’aérospatiale et de la défense (A&D).
Junior – Consultant en stratégie et innovation – Défense et Aérospatiale
- L’environnement de développement n’exige pas que les utilisateurs déplacent des données ou construisent des pipelines complexes.
- Cette initiative reflète la vision de Starburst visant à unifier les capacités de calcul CPU et GPU au sein d’un moteur open unique, permettant aux entreprises d’exploiter un traitement de données gouverné et haute performance au rythme de l’innovation.
- « L’innovation en matière d’IA est centrée sur l’intégration des données, des modèles et des applications », note-t-il.
- Kevin Petrie a quant à lui suggéré que Starburst, qui évolue vers le développement de l’IA, devrait faire davantage d’effort pour intégrer les opérations de données, de développement et de modélisation.
Grâce à son architecture ouverte, hybride et fédérée basée sur Trino, Starburst supprime ces limites et optimise l’accès aux infrastructures d’inférence les plus avancées. « Notre collaboration avec Starburst, pour optimiser leur plateforme basée sur Trino pour le CPU NVIDIA Vera, fournira une solution fondamentale pour le traitement de données fédérées en temps réel. « L’avenir de l’IA d’entreprise repose sur la capacité à obtenir instantanément des insights à partir de données souvent réparties dans des environnements hybrides complexes », a déclaré Dion Harris, Senior Director HPC, Cloud et AI Infrastructure chez NVIDIA. » Les bénéfices pour les clients Starburst Les premiers tests de benchmarking montrent que Starburst sur CPU NVIDIA Vera offre des performances de requête nettement supérieures et une efficacité CPU bien plus élevée que les configurations traditionnelles basées sur des processeurs x86. Starburst, leader des plateformes de données et d’intelligence artificielle, annonce des optimisations pour le CPU NVIDIA Vera, dévoilé lors de la conférence NVIDIA GTC. Jitender Aswani, SVP Engineering chez Starburst, explique ainsi que « Avec Trino sur NVIDIA Vera, nous débloquons un nouveau niveau de performance pour l’accès fédéré aux données.
IA souveraine : 91 % des entreprises s’appuient sur le stockage objet pour leurs déploiements en production
Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Disponibilité Starburst étudie comment l’architecture CPU NVIDIA Vera peut améliorer les charges analytiques et d’IA propulsées par Trino. À l’inverse, les écosystèmes Hadoop et Spark traditionnels ne prennent pas nativement en charge l’inférence.
Il y a inclus un catalogue de données pour favoriser la découverte des données, une couche de gouvernance, des capacités de transformation et de gestion de flux de données, et même des outils d’analytique en libre-service. Ces annonces témoignent de la croissance de l’éditeur au-delà de son statut de spécialiste du data lakehouse. Vous l’aurez compris, Starburst travaille essentiellement dans l’écosystème aérospatial et défense, et est régulièrement en contact avec des grands donneurs d’ordre, équipementiers industriels et parties prenantes militaires. Starburst travaille avec des gouvernements, des instituts universitaires et des laboratoires de recherche, des investisseurs, des incubateurs et d’autres organisations soutenant l’innovation, afin d’offrir aux startups de son portefeuille le contexte dont elles ont besoin pour entrer sur le marché.
« Ces flux de travail et agents d’IA s’appuient sur l’atout principal de Starburst, à savoir l’accès aux données sur site ou dans des environnements en cloud », considère Kevin Petrie. L’environnement de développement n’exige pas que les utilisateurs déplacent des données ou construisent des pipelines complexes. Aujourd’hui, Starburst rejoint la mêlée en dévoilant AI Workflows, un ensemble d’outils en préversion privée conçu pour permettre aux clients de développer, déployer et gérer des modèles et des applications d’IA.
Starburst muscle sa plateforme pour briser les silos de données à l’ère agentique
Starburst a dévoilé lundi une série de nouvelles fonctionnalités, notamment AI Workflows et AI Agent. L’entreprise s’efforce de fournir des services de croissance aux leaders de la deep tech qui bouleversent l’industrie et œuvrent pour un monde plus sûr, plus vert et plus connecté.
Mais la plupart des entreprises ont déjà déployé des systèmes en s’appuyant sur les bases de données propriétaires et PostgreSQL. Beaucoup d’autres, dont Dataiku, ont également fait de la facilitation du développement des applications GenAI une priorité. Quant à lui, l’accélérateur vise à offrir un accompagnement personnalisé aux startups identifiées ainsi que de donner à ses partenaires industriels et institutionnels internationaux un accès à l’écosystème d’innovation que crée Starburst.
Portée par ses nouvelles capacités IA, la société a signé plusieurs contrats à huit chiffres et doublé son activité hors des États-Unis. En février 2026, l’entreprise a franchi le cap symbolique des 100 millions de dollars d’ARR, avec une croissance annuelle de près de 40 % et un run rate IA déjà estimé à 20 millions de dollars. L’approche a séduit plus de 60 pays et des poids lourds comme Comcast, Citigroup ou quatre des cinq premières banques mondiales. Dans le monde des lakehouses, il y a les deux mastodontes Databricks et Snowflake qui vous demandent de centraliser vos données chez eux avant de faire quoi que ce soit (bon okay, on carricature là). Vera n’est pas encore sorti, que déjà Starburst y voit une opportunité de grignoter de nouvelles parts de marché. « Notre feuille de route est axée sur la suppression des silos de données et la fourniture de l’infrastructure nécessaire pour alimenter ces agents avec des informations contextuelles et gouvernées, de leur ingestion à leur analyse », avance Matt Fuller.