L’IA a un impact substantiel sur le « cloud computing », qu’il s’agisse de générer une plus grande demande de calcul unique dans le cloud, de charges de travail rigoureuses pour le déploiement d’applications de Deep Learning et d’apprentissage automatique, de permettre aux développeurs de produire des apps « intelligentes » en tirant parti des API d’IA dans le cloud ou de tirer parti de l’IA pour gérer et surveiller les grands centres de données. Cet article va traiter de comment l’IA transforme le cloud computing.
Les 3 percées dans le cloud qui accélèrent les solutions d’IA
Alors, pourquoi l’intelligence artificielle est-elle soudainement devenue si importante dans tant de domaines différents ?
La « révolution » actuelle de l’IA est le résultat direct de trois percées importantes qui ont fait progresser le développement de solutions d’IA pratiques, ce sont : l’émergence d’un traitement parallèle abordable ; la disponibilité de Big Data ; et l’accès à des algorithmes (d’apprentissage automatique) améliorés.
Regardons plus en détail chacun de ces trois catalyseurs (Cloud-Computing) :
Origine du traitement parallèle de haut niveau
Les architectures et plateformes de processeurs traditionnelles ont souvent besoin de plusieurs jours pour estimer la plage d’option d’un réseau neuronal (algorithme d’apprentissage profond). De nos jours, des grappes de processeurs modernes (GPU) et des processeurs spécialisés haut de gamme tels que le Xeon Phi d’Intel peuvent y parvenir beaucoup plus rapidement. Une génération moderne d’architectures de processeurs « optimisés » pour l’intelligence artificielle, comme l’unité de traitement Tensor (TPU) de Google et la plateforme Intel Nervana, est en cours de développement pour prendre en charge les fonctionnalités et les capacités émergentes de l’IA-as-a-Service basée sur le cloud.
Pas toutes les organisations ont les compétences et le capital nécessaires pour gérer les plateformes informatiques industrielles qui sont nécessaires pour exécuter l’apprentissage automatique avancé. Les fournisseurs de services de cloud public tels que Google Cloud Platform ML Engine, Amazon Web Services (AWS Machine Learning), Microsoft Azure ML et IBM Watson Developer Cloud, offrent aux développeurs et aux scientifiques des données, une infrastructure évolutive optimisée pour l’apprentissage automatique à un coût minimal par rapport à la mise en place et à la configuration de leur propre environnement sur site.
L’intelligence artificielle est devenue un moteur essentiel pour une analyse prédictive et une prise de décision de premier ordre. Selon Gartner Inc, l’intelligence artificielle, la science des données et l’apprentissage automatique avancé figureront parmi les principales nouvelles technologies permettant de modéliser les tendances commerciales à l’avenir.
Disponibilité des Big data
En 2020, l’univers numérique devrait atteindre 44 zettaoctets (1 zettaoctet est égal à 1 milliard de téraoctets). Les données qui sont très importantes pour les entreprises. En particulier les données non organisées provenant de sources non traditionnelles et les dispositifs IoT, sont estimées s’étirer à la fois en tailles relatives et absolues.
L’IA a besoin de « Big Data » et l’analyse « Big Data » a besoin de l’IA. Afin de développer « l’intelligence », les algorithmes d’apprentissage profond nécessitent l’accès à d’énormes quantités de données. Cela ne peut se produire que si les ordinateurs sont formés avec ce type d’entrées, ils peuvent étendre leurs capacités. Une fois de plus, le Cloud Computing permet l’accès au « Big Data ».
Le traitement et le stockage centralisés du « Big Data » dans les Data Centers améliorent la génération actuelle d’applications d’IA. Inversement, l’IA est essentielle à la prochaine vague d’analyse des « Big Data ». C’est un outil important pour atteindre une échelle et une maturité plus élevées dans l’analyse des données ; et pour permettre un déploiement plus large des analyses avancées.
Le « déluge » imminent de données
À l’horizon 2020, dans le nouveau monde de personnes et d’objets connectés, il y aura un véritable déluge de données générées quotidiennement. Par exemple, chaque voiture à conduite autonome pourrait produire jusqu’à 4 000 Go de données chaque jour et une usine (intelligente) connectée pourrait générer plus d’un million de Go en une seule journée !
Le rôle des dispositifs d’informatique de périphérie
Pas toutes ces données seront stockées et poussées vers le cloud. La plupart d’entre elles seront traitées localement par des appareils informatiques spécialisés « Edge ».
Ces appareils « Edge » seront également en mesure d’exploiter les analyses en matière d’intelligence artificielle grâce à des chipsets spécialisés tels que le FPGA (Field Programmable Gate Array) Intel Arria 10 pour l’inférence Deep Learning en temps réel, le moteur de vision Intel Movidius Myriad et le moteur de reconnaissance vocale Intel GNA.
Accès aux algorithmes (IA) avancés
Les fournisseurs de services cloud de premier plan font place à des capacités d’IA avancées telles que la reconnaissance d’images, les algorithmes d’apprentissage automatique à usage général et le traitement du langage naturel. Il existe également un marché émergent pour les ensembles de données volumineuses et les algorithmes qui peuvent être utilisés pour les applications d’IA.
Par exemple, Algorithmia se concentre sur la construction d’une place de marché pour les algorithmes qui sont accessibles via une API simple et évolutive. L’objectif d’Algorithmia est de rendre les applications plus intelligentes en construisant une communauté de développeurs autour d’applications plus intelligentes. Plus de 30 000 développeurs ont déjà accédé à leur bibliothèque croissante de 3 000 microservices algorithmiques.
Kaggle est une base pour les concours d’analyse et de modélisation prédictive dans laquelle les chercheurs et les entreprises postent des données, les data miners et les statisticiens s’affrontent pour produire les meilleurs modèles de description et de prédiction des données.
Cette approche collaborative dépend de la vérité qu’il existe une infinité de stratégies qui peuvent être appliquées à diverses tâches de modélisation prédictive et qu’il est difficile de savoir dès le départ quel analyste ou quelle technique sera le plus efficace.