Watson est ce système d’intelligence artificielle qui fait beaucoup parler de lui, considéré à la fois comme une ressource de calcul importante dans le Cloud et un algorithme cognitif de très haut niveau. Une sorte de socle sur lequel peuvent s’appuyer des applications nouvelles telles que le BI, l’aide au diagnostic médical, les simulations financières, le big data, l’organisation du travail à travers de nouvelles formes de messageries, etc.

Pour ceux qui ont connu et parfois subi IBM et ses mainframes, ils ne reconnaissent plus la compagnie de Ginny Rometty. Le mainframe étant en quelque sorte remplacé par un « super brain », capable de s’adapter et de nous assister dans n’importe quelle situation.

Watson exprime des émotions

Lors de sa conférence « Interconnect » qui s’est tenue à Las Vegas, IBM a annoncé plusieurs évolutions majeures de ses API Tone Analyser, Emotion Analysis et Expressive TTS, accessibles sur la plate-forme PaaS Bluemix, ainsi qu’une nouvelle API, Visual Recognition, qui est centrée sur l’identification des contenus d’images et leur catégorisation.

Les 3 premières sont déjà utilisées par 80.000 chercheurs, étudiants et développeurs en entreprises, qui constituent la communauté « Watson Developer Cloud ».

La première API, Tone Analyser, a pour objet d’analyser un texte pour en faire ressortir des signaux émotionnels : l’indifférence, la familiarité, l’agressivité…encore que s’il s’agit d’un courriel de client qui nous traite d’abruti, on n’a pas vraiment besoin de Watson pour détecter un début de récrimination à notre égard.

Watson s’appuie pour cela sur des techniques avancées de linguistique, qu’il aura poussées aux limites.

L’API Tone Analyser était déjà capable de faire ressortir 9 tonalités selon 3 axes : les émotions (sentiments négatifs, enthousiasme, colère), la sociabilité (interlocuteur ouvert, agréable, consciencieux), le style d’écriture (analytique, confiant, hésitant) et en plus maintenant, la joie, le dégoût, la peur, la tristesse et l’extraversion.

Autre évolution majeure, l’API orientée texte, qui se concentrait auparavant sur les mots, agit désormais sur des phrases entières.

La seconde API, Emotion Analysis, sert à analyser des contenus externes, tels que des sessions de « chat » ou les réactions des internautes, sur les réseaux sociaux.

Grâce à cette API, les développeurs qui vont l’intégrer dans leurs applications, vont pouvoir déceler des émotions très diverses, histoire de mieux comprendre et réagir, par exemple aux comportements de leurs clients.

Pour ce qui concerne l’API TTS (Text To Speech), là encore IBM a introduit une composante émotionnelle.

Reste la toute dernière, Visual Recognition, qui permet d’aller (selon IBM) bien au-delà de la reconnaissance d’images traditionnelles. Cette fois son objectif est de scuter les contenus des images ou frames vidéos, pour en faire apparaître des objets que l’on pourra automatiquement classer dans des catégories préétablies. Ceci de manière automatique, pour éviter à avoir à le faire manuellement, comme cela se fait généralement.

L’API exploite des mécanismes de « learning machine », en ce sens que l’algorithme passe par une phase d’apprentissage, phase sur laquelle il s’appuie ensuite pour effectuer ses analyses.

Il ne saura peut-être pas distinguer deux tableaux de la période bleue de Picasso, mais il saura faire la différence entre la période cubique et la période bleue. Tout est dans l’apprentissage et une fois qu’il aura emmagasiné les éléments de classification qui nous intéressent, il sera capable d’effectuer le travail à très grande vitesse.

IBM nous recommande d’ailleurs de faire des essais pour voir ce que cela donne…

Ce que nous avons fait. Et là surprise, en lui proposant une image de Ginni Rometty, CEO d’IBM, il a réussi l’exploit de faire ressortir le fait qu’à 93 % il pense qu’il s’agit d’une personne. Encore heureux qu’il ne l’ait pas confondue avec un char d’assaut… Et ce qui nous inquiète, ce sont les 7 %. Peut-être estime-t-il, sans oser le dire, qu’il peut s’agir aussi d’une batte de baseball ou d’un presse-purée…

Quelle crédibilité accorder à ces API

Nous persistons à penser qu’il ne faut pas prendre pour argent comptant ce qui n’est sans doute encore qu’une intention, un regard vers le futur. IBM a évidemment les ressources pour construire des systèmes cognitifs de grande envergure, mais cela fait au moins 30 ans qu’on se dit la même chose avec lui. Et que même si les ressources de Watson peuvent sembler stupéfiantes et nous pensons en premier à l’algorithmique qui se cache derrière, le chemin sera sans doute très long, avant de faire ne serait-ce que 10 % de ce qu’est capable de faire un primate de la forêt amazonienne.

Il ne faut pas confondre sa capacité à traiter des volumes de données importantes et c’est surtout là où Watson est imbattable, avec son potentiel de réflexion cognitive, qui ne fait que commencer.