NVidia veut conquérir l’industrie automobile avec une puce qui conduit « comme un humain »

L’entreprise américaine NVidia est surtout connue pour ses cartes graphiques, mais cela va changer. A la GTC Europe 2016, son fondateur n’a laissé planer aucun doute : le futur du GPU, c’est l’intelligence artificielle sous toutes ses formes. Un secteur en particulier semble cependant recevoir l’attention de l’électronicien : l’automobile. Partenariat avec TomTom, nouveau superordinateur mobile, système d’exploitation dédié, véhicule de recherche… NVidia multiplie les initiatives, et se pose en concurrent sérieux des équipementiers historiques.

NVidia veut conquérir l'industrie automobile avec une puce qui conduit comme un humain
NVidia veut conquérir l’industrie automobile avec une puce qui conduit « comme un humain »

Système d’exploitation dédié, partenariat pour la cartographie, architectures matérielles spécialisées… L’entreprise NVidia, qui se définit comme l’inventeur du GPU (unité de calcul graphique), envoie un message très clair ce 28 septembre : elle n’est plus qu’une entreprise de cartes graphiques. A la GTC Europe 2016, sa première conférence professionnelle en Europe, le mot d’ordre est deep learning. Et en particulier véhicule autonome.

 

LE GPU, CLÉ DU DEEP LEARNING

Jen-Hsun Huang, fondateur et CEO, a passé près d’une heure et demi pendant sa keynote d’ouverture à rappeler comment la révolution du deep learning est arrivée, depuis ses débuts en 2012 jusqu’à son ubiquité actuelle. S’il a passé tant de temps sur le sujet, c’est pour mieux imprimer dans les esprits le nouveau tournant pris par NVidia. Le deep learning est la conséquence de la vague de GPGPU (utilisation de puces spécialisées dans le calcul graphique pour effectuer des opérations générales, comme le font les CPU), sur laquelle NVidia a très vite capitalisé en lançant son programme CUDA. Cette vague du deep learning s’est donc appuyée sur NVidia, qui équipe aussi bien les réseaux neuronaux de Google que ceux de Facebook, Microsoft ou Baidu. CQFD. Son nouveau moteur d’inférence optimisé, TensorRT, est d’ailleurs d’ores et déjà compatible avec leurs plateformes.

 

SUCCÈS ANNONCÉ POUR LE SUPERORDINATEUR DGX-1

Après une annonce de partenariat avec IBM il y a 3 semaines sur un serveur de nouvelle génération interconnectant les GPU et CPU pour le marché de l’entreprise, c’est SAP qui a été annoncé comme nouveau partenaire. Le spécialiste allemand des ERP a reçu deux superordinateurs dédiés DGX-1 de NVidia, un en Allemagne et l’autre en Israël.

Les deux entreprises ont par ailleurs débuté une collaboration sur la partie applicative.

La start-up britannique Benevolent AI en a aussi fait l’acquisition pour accélérer la découverte de molécules médicamenteuses, et l’Université de Reims Champagne-Ardenne utilisera le sien pour aider à la guérison des maladies… touchant les vignobles. Deux centres de recherche en intelligence artificielle, le DFKI allemand et le IDSIA suisse, ont par ailleurs conclu des partenariats qui leur donneront accès au DGX-1 et aux travaux de NVidia.

 

PARTENARIAT AVEC TOMTOM SUR LA CARTOGRAPHIE HD

Mais c’est surtout sur l’automobile, et plus spécifiquement les véhicules autonomes, que se concentre NVidia. L’entreprise voit cette industrie comme pesant 10 000 milliards de dollars à terme. Cela commence avec un partenariat avec TomTom, qui s’appuie sur le boîtier Drive PX2 pour lancer un service de cartographie « cloud-to-car », qui permettra une meilleure localisation des véhicules dans l’environnement. Le système s’appuie sur les 120 000 kilomètres de routes que TomTom a cartographiées en haute résolution, et permettra par ailleurs aux véhicules de décupler le nombre de routes capturées de cette manière, pour le rapprocher des 47 millions de kilomètres dont dispose TomTom en basse résolution.

DRIVEWORKS, UN SYSTÈME D’EXPLOITATION DÉDIÉ AU VÉHICULE AUTONOME

Si NVidia était particulièrement excité par cette annonce, c’est aussi car elle ouvre la voie à Driveworks Alpha 1, son système d’exploitation conçu spécifiquement pour les véhicules autonomes. Celui-ci s’appuie sur des cartes en haute définition et des algorithmes de vision par ordinateur (computer vision, l’une des sous-disciplines de l’intelligence artificielle) pour se repérer sur la route… comme le ferait un humain.

 

« Aujourd’hui, les algorithmes vérifient qu’ils ne rencontrent pas d’obstacles prédéfinis : pas de piéton, pas de camion, pas de moto, pas de mur, etc. Mais quand on conduit, on n’énumère pas de liste de ce genre, on voit juste que la route est libre, » explique Jen-Hsun Huang. Le système reproduit ce comportement.

Il fusionne les informations fournies par les capteurs du véhicule avec les images HD de la route et crée une version virtuelle de l’environnement routier, affichée en temps réel sur le tableau de bord. La force de cette « occupancy grid » (grille d’occupation de la route) est qu’elle est une représentation en 3D du véhicule et de son environnement, avec un tracking à 360°. Driveworks est open source, et sortira publiquement en octobre, après quoi il sera mis à jour tous les deux mois.

 

BB8, UNE VOITURE QUI APPREND PAR L’EXEMPLE

Et pour démontrer la validité de son approche, quoi de mieux qu’une véritable démonstration ? C’est l’objectif du projet de véhicule autonome BB8. « Il n’y a pas de système de détection, pas d’entraînement au préalable. Nous avons simplement conduit la voiture, et BB8 a appris en nous regardant faire, » affirme fièrement Jen-Hsun Huang.

Force est de reconnaître que le résultat, présenté en vidéo, est impressionnant. Le véhicule a passé son permis en Californie, mais il a conduit sans problème dans le New Jersey. La route n’a pas de marquages au sol ? Pas de problème. La route est partiellement encombrée ? Pas de problème. Un virage sans visibilité ? Pas de problème. Conduite de nuit ? Pas de problème. On est loin de « l’Autopilot » de Tesla, dont les multiples accidents ont démontré les limites.

 

Le plus bluffant reste encore la vision de ce à quoi le système fait attention quand il conduit. Très peu de choses au final : le respect des lignes blanches, les véhicules avoisinants… Loin de la sur-analyse de toutes les variables répétée en boucle, le système se rapproche étrangement du fonctionnement humain. Une méthode plus élégante, et surtout plus efficace.

 

XAVIER, UN SUPERORDINATEUR POUR L’IA SOUS FORME DE PUCE MOBILE

Dernière annonce et non des moindres, le projet Xavier (du nom du leader des X-Men). Un System-on-a-Chip (SoC) dédié à l’intelligence artificielle dont la sortie est prévue pour le 4e trimestre 2017. Cette puce intégrera 2 GPUs de classe Volta (de prochaine génération non encore annoncée) cumulant 512 coeurs ainsi qu’un CPU ARM64 customisé, composé de 8 cœurs et baptisé Carmel. Au total, Xavier disposera de 7 milliards de transistors gravés à une finesse de 16 nm, et fournira 20 000 milliards d’opérations par seconde en ne consommant que 20 watts. Xavier sera donc à lui seul aussi puissant que le système Drive PX2 (déjà utilisé par Baidu entre autres), qui consomme 80 watts. NVidia voit en lui un composant qui équipera toute l’industrie automobile à l’avenir… Et on est tenté d’y croire. Les équipementiers traditionnels du secteur automobile, qui ferment leur porte à NVidia depuis des années, ont du souci à se faire.

 

source: http://www.usine-digitale.fr/article/nvidia-veut-conquerir-l-industrie-automobile-avec-une-puce-qui-conduit-comme-un-humain.N443352
Publicités

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s