Introducing G2.ai, the future of software buying.Try now

11 Applications de l'intelligence artificielle en 2020

18 Mars 2019
par Rebecca Reynoso

L'intelligence artificielle est utilisée comme un terme générique pour de nombreux sous-ensembles de l'IA, qui est en elle-même un sous-ensemble de l'informatique.

En explorant le monde de l'IA, vous pourriez avoir l'impression de plonger tête la première dans des eaux infestées de requins. Il y a tellement de composants et de sous-sujets de l'IA que tenter de s'y retrouver peut être difficile sans orientation. Pour paraître informé sur un sujet, il est crucial que vous appreniez d'abord certaines applications importantes du domaine global.

Applications de l'intelligence artificielle

Cliquez sur n'importe quel terme ci-dessous pour lire une description étendue ainsi qu'un exemple d'applications actuelles.

Intelligence artificielle étroite (ANI)

Intelligence artificielle étroite (ANI), ou IA faible, est un type d'intelligence artificielle qui ne peut se concentrer que sur une tâche ou un problème spécifique à la fois. C'est notre définition actuelle largement comprise de l'intelligence artificielle dans son ensemble. L'IA étroite est programmée pour accomplir une seule tâche, comme indiquer la météo ou jouer à un jeu.

L'IA étroite n'est ni consciente d'elle-même ni sensible. Bien qu'elle puisse sembler très capable, l'ANI est limitée par une programmation stricte pour des tâches singulières. L'ANI est considérée comme faible car elle n'a pas la capacité d'égaler ou de dépasser l'intelligence humaine ou d'apprendre et de s'adapter comme d'autres formats d'IA peuvent le faire.

Malgré cela, les machines ANI peuvent sembler plus informées et sophistiquées en surpassant les connaissances ou les compétences humaines sur la tâche individuelle pour laquelle elles ont été programmées ; cependant, ces systèmes fonctionnent comme programmés, non pas parce qu'ils apprennent activement de nouvelles informations.

Un exemple d'IA étroite est les assistants pour smartphones comme Bixby ou Siri. Même s'ils peuvent « communiquer » avec les utilisateurs humains, leurs réponses sont limitées par un manque de compréhension des mots et des phrases au-delà de ce pour quoi ils ont été programmés pour interpréter.

gif de l'assistant virtuel Bixby image de tarte

GIF courtoisie de F. Martin Ramin via amysboyd.com

Vous voulez en savoir plus sur Plateformes MLOps ? Découvrez les produits Plateformes MLOps.

Intelligence artificielle générale (AGI)

L'intelligence artificielle générale (AGI), ou IA forte, est l'inverse de l'ANI. L'AGI fait référence aux machines qui peuvent accomplir avec succès des tâches humaines. Ce type d'intelligence est considéré comme « semblable à l'humain », étant donné que l'IA générale peut planifier, raisonner, apprendre et communiquer d'une manière alignée avec les fonctions et processus humains. De plus, certaines machines AGI sont capables de voir (par le biais de la vision par ordinateur) ou de manipuler des objets.

Actuellement, l'AGI est à des stades préliminaires avec des applications réelles hypothétiques à l'horizon dans un avenir prévisible. 

Big data

Big data définit de grandes quantités de données structurées et non structurées. C'est un domaine qui analyse et extrait des informations à partir de masses d'informations (données) trop complexes pour être traitées par des logiciels de traitement de données standard.

Un exemple de big data dans le développement de produits est Netflix. Parce que la base d'utilisateurs de Netflix est de 100 millions de personnes ou plus, ils utilisent le big data pour construire des modèles prédictifs afin d'améliorer l'expérience utilisateur. Chaque fois que vous recevez une recommandation sur une émission ou un film qui pourrait vous intéresser en fonction de ce que vous avez regardé auparavant, Netflix utilise sa masse de données et de préférences d'utilisateurs pour créer une sélection de correspondances probables pour les utilisateurs individuels.

gif de l'écran d'accueil de Netflix avec diverses suggestions d'émissions

GIF courtoisie de Ramy Khuffash via uimovement.com

Netflix collecte des big data de multiples façons en suivant comment un utilisateur découvre un programme ou un film (fonction de recherche, suggestion) ; les évaluations par étoiles ; les requêtes de recherche ; quand ou si les utilisateurs mettent en pause ou arrêtent de regarder une émission/programme ; la ou les dates où le contenu a été regardé ; et plus encore. Ils utilisent ces données pour recommander de nouveaux contenus aux utilisateurs et montrer à un utilisateur « ce qui est tendance » (ce qui peut influencer certains utilisateurs à regarder pour être au courant) avec des programmes nouveaux et populaires.

Vision par ordinateur

La vision par ordinateur est lorsque une machine traite une entrée visuelle à partir de fichiers image (JPEG) ou de flux de caméra. Non seulement la vision par ordinateur peut « voir » l'image ou les images, mais elle comprend et traite également ce qu'elle voit. Si cela devait être mis en termes d'existence humaine, la vision par ordinateur est à la compréhension cérébrale ce que les yeux sont à la vue.

Fondamentalement, chaque fois qu'une machine traite une entrée visuelle brute – comme un fichier JPEG ou un flux de caméra – elle utilise la vision par ordinateur pour comprendre ce qu'elle voit. Il est plus facile de penser à la vision par ordinateur comme la partie du cerveau humain qui traite les informations reçues par les yeux – pas les yeux eux-mêmes. Pour simplifier, utiliser la vision par ordinateur signifie que l'utilisateur entre une image dans le système, et ce que l'utilisateur reçoit en sortie peut inclure des caractéristiques quantitatives et qualitatives de l'image, y compris la couleur, la forme, la taille et la classification.

Un exemple de vision par ordinateur est les images que les voitures autonomes de Tesla voient. Le système doit non seulement reconnaître les images par forme, type et couleur, mais aussi traiter ces informations extrêmement rapidement étant donné qu'il effectue une action en temps réel.  

gif de l'écran de voiture sans conducteur de Tesla avec plusieurs vues de caméra

 GIF courtoisie de Steph Davidson via Tesla 

En relation : Consultez 7 rôles pour l'intelligence artificielle dans l'éducation pour voir comment l'IA est intégrée au-delà de la sphère technologique dans les environnements d'apprentissage éducatif. 

Fouille de données

La fouille de données est le processus de tri de grands ensembles de données afin d'identifier des motifs récurrents tout en établissant des relations de résolution de problèmes. La fouille de données est un sous-ensemble mixte de l'informatique et des statistiques dont le seul but est d'extraire des données à l'aide de l'IA tout en les transformant en informations utiles.

Des exemples de fouille de données se produisent dans le commerce électronique, avec Amazon en tête du jeu de collecte de données. Amazon cible ses clients et utilise leurs données en montrant aux acheteurs des produits recommandés que « d'autres » ont achetés en relation avec l'achat prévu du consommateur (c'est-à-dire si vous envisagez d'acheter ceci, les gens achètent généralement aussi cela). Amazon utilise les données des clients (ce que les gens ont acheté plus ce que les gens ont dit de leurs achats) pour identifier les habitudes d'achat et déduire ce que les clients pourraient aimer en fonction des données d'autres utilisateurs.  

image de sacs à main et portefeuilles Kate Spade sur Amazon

Apprentissage automatique

L'apprentissage automatique se concentre sur le développement de programmes qui accèdent et utilisent des données par eux-mêmes, amenant les machines à apprendre par elles-mêmes et à s'améliorer à partir d'expériences apprises sans être explicitement programmées.

De nombreux exemples d'apprentissage automatique dans la vie quotidienne existent actuellement, y compris les publicités ciblées sur les réseaux sociaux, les assistants vocaux virtuels sur les téléphones portables, les logiciels de reconnaissance faciale sur les sites de réseaux sociaux, et les prédictions de trajet à partir d'applications comme Google Maps ou les données GPS des téléphones portables. 

image du visage d'un homme animé avec des outils de reconnaissance faciale

 Image courtoisie de vigilantsolutions.com

Apprentissage profond

L'apprentissage profond est une technique d'apprentissage automatique qui enseigne aux ordinateurs comment apprendre par cœur. En d'autres termes, l'apprentissage profond permet aux machines d'acquérir la capacité d'imiter l'apprentissage comme le ferait un esprit humain en classant le texte, le son et les images en catégories.

Des exemples d'apprentissage profond se trouvent dans diverses technologies existantes, telles que les voitures sans conducteur et les assistants vocaux. Ces exemples spécifiques utilisent des techniques d'apprentissage profond en apprenant à partir de centaines – sinon de milliers – d'heures de vidéos, d'images et d'échantillons par lesquels la technologie s'auto-enseigne la reconnaissance de motifs. 

Par exemple, les voitures sans conducteur apprennent à conduire et à naviguer sur les routes en étudiant les motifs routiers et les habitudes de conduite des conducteurs humains existants et d'autres véhicules. De même, les assistants vocaux écoutent d'innombrables heures de données vocales de personnes avec différents types de voix, langues et motifs de parole afin d'apprendre à reproduire la parole humaine.

Réseaux neuronaux

Un réseau neuronal se modèle d'après le cerveau humain en créant un réseau neuronal artificiel via un algorithme de reconnaissance de motifs. Cet algorithme permet à un ordinateur d'apprendre et d'interpréter des données sensorielles dans le but de classer et de regrouper ces données.

Par exemple, une tâche courante pour les réseaux neuronaux est la reconnaissance d'objets. La reconnaissance d'objets est lorsque un réseau neuronal reçoit un grand nombre d'objets similaires (panneaux de signalisation, images d'animaux, etc.) à inspecter et analyser. Il interprète ensuite ce que sont les objets tout en apprenant à identifier des motifs au sein de ces objets, finissant par comprendre comment catégoriser le contenu futur.  

gif de réseaux neuronaux montrant des images d'un chien et d'un chat

GIF courtoisie de www.analyticsindiamag.com

Réseau de neurones convolutifs (CNN)

Les réseaux de neurones convolutifs sont un type de réseau neuronal spécifiquement créé pour analyser, classer et regrouper des images visuelles en utilisant des perceptrons multicouches. Les CNN aident à la reconnaissance d'objets dans des scènes (pensez : objets dans une image plus grande, pas seulement l'objet autonome) ainsi qu'au texte numérisé ou manuscrit en utilisant des outils de reconnaissance optique de caractères (OCR). 

Réseaux antagonistes génératifs (GAN)

Les réseaux antagonistes génératifs sont un type de réseau neuronal qui peut générer des photographies apparemment authentiques, du moins à une échelle superficielle pour les yeux humains. Les images générées par GAN prennent des éléments de données photographiques et les façonnent en images réalistes de personnes, d'animaux et de lieux.

Un exemple récent est présenté dans un article de NVIDIA, une architecture de générateur basée sur le style pour les GAN (StyleGAN). StyleGAN est capable de produire des images artificielles de manière progressive, d'une image pixelisée de basse qualité qui finit par devenir une image haute résolution réaliste d'un individu sur https://thispersondoesnotexist.com/ ou d'un chat sur https://thiscatdoesnotexist.com/.

Le StyleGAN modifie les caractéristiques de ce à quoi une personne (ou un chat) ressemblerait, empruntant à des images réelles de personnes et de chats existants, assignant de manière complexe des caractéristiques et des propriétés physiques à un niveau de détail élevé (par exemple, couleur de peau, pores, coiffure, couleur des yeux, pilosité faciale, et plus encore.)

gif de l'image artificielle de visage humain de StyleGAN

GIF courtoisie de https://arxiv.org/pdf/1710.10196.pdf 

Traitement du langage naturel (NLP)

Le traitement du langage naturel (NLP) aide les ordinateurs à traiter, interpréter et analyser le langage humain et ses caractéristiques en utilisant des données de langage naturel. Le NLP est utilisé dans le but d'aider à combler le fossé entre les humains et les ordinateurs en conversant et en se comprenant mutuellement.

Un exemple de NLP peut être vu dans la transcription de la conversion de la parole en texte des messages vocaux.  

Passer au crible le jargon

Maintenant que vous avez appris certaines des applications les plus importantes de l'IA, vous pouvez pousser un soupir de soulagement et essuyer la sueur de votre front – vous l'avez fait ! Vous êtes en bonne voie pour devenir informé sur tout ce qui concerne l'intelligence artificielle. 

Vous voulez continuer à développer votre expertise sur l'intelligence artificielle au-delà des bases ? Consultez notre guide sur l'histoire de l'IA. 

Rebecca Reynoso
RR

Rebecca Reynoso

Rebecca Reynoso is the former Sr. Editor and Guest Post Program Manager at G2. She holds two degrees in English, a BA from the University of Illinois-Chicago and an MA from DePaul University. Prior to working in tech, Rebecca taught English composition at a few colleges and universities in Chicago. Outside of G2, Rebecca freelance edits sales blogs and writes tech content. She has been editing professionally since 2013 and is a member of the American Copy Editors Society (ACES).