IBM travaille à la création d’une application mobile qui permettrait aux utilisateurs d’exploiter l’intelligence artificielle
de son superordinateur Watson pour obtenir des réponses aux questions
les plus complexes. C’est avant tout au secteur professionnel que se
destinerait cet assistant vocal.
Voilà à quoi ressemble Watson, le superordinateur d’IBM, dont la puissance équivaut à celle de 6.000 PC de bureau. Un monstre de puissance à 3 millions de dollars. © IBM
Watson, le superordinateur d’
IBM
dont la connaissance encyclopédique et la vitesse d’analyse lui ont
permis de battre les humains au jeu télévisé américain Jeopardy, va se
transformer en assistant vocal pour terminaux mobiles. C’est ce à quoi
travaille actuellement Big Blue, qui cherche à capitaliser sur cette
technologie dans le domaine des services analytiques, un marché qui se
chiffre en dizaines de milliards de dollars.
Techniquement, Watson repose sur 10
serveurs rack IBM alimentés par 90
processeurs Power7 octuple cœur (3,5 GHz) qui totalisent 2.880 fils d’exécution ou
threads et 16 téraoctets de
mémoire vive. Pour fournir une réponse à une question, Watson travaille à partir du
logiciel IBM nommé DeepQA qui interroge et décortique les informations piochées dans une
base de données
géante de 200 millions de pages (dictionnaires, encyclopédies,
documents de recherche, articles d’actualité…). Sa vitesse d’analyse est
de 500 Go de données par seconde.
En septembre 2011, IBM a passé un partenariat avec
le prestataire américain de services médicaux WellPoint, afin d’utiliser
Watson comme assistant d’aide au
diagnostic sur le
cancer. En mars dernier, c’est
Citigroup
qui a décidé d’évaluer les capacités de Watson sur l’analyse financière
dans le but d’améliorer les transactions des investisseurs.
Un petit frère de Watson est en route
IBM souhaite désormais créer l’application qui
permettra aux entreprises auxquelles il fournit la technologie Watson de
pouvoir l’interroger depuis un terminal mobile. Bernie Meyerson,
vice-président de l’innovation chez IBM a expliqué à
Bloomberg qu’un «
Watson 2.0
» était en préparation. Principal objectif, le doter de la technologie
de reconnaissance des images et du langage naturel afin que les usagers
puissent lui poser une question ou lui montrer quelque chose à analyser
en prenant une photo avec leur
smartphone ou leur
tablette. Pour cela, IBM va notamment recourir à la
reconnaissance vocale Nuance, qu’Apple utilise déjà pour son assistant Siri. «
La puissance nécessaire à faire fonctionner Watson est en train de chuter comme une pierre », assure Bernie Meyerson.
L’idée n’est pas de faire entrer Watson dans les mobiles, mais plutôt de l’interroger à distance. La requête sera transmise via
Internet
au superordinateur qui renverra sa réponse en quelques secondes. C’est
ainsi que fonctionne l’assistant vocal Siri, en envoyant les questions
vers les serveurs Apple qui la traitent puis restituent une réponse par
le biais d’une voix de synthèse.
Mais la grande différence entre Siri et Watson,
c’est que le premier a pour vocation de déduire le sens d’une requête
afin de comprendre n’importe quelle question, tandis que le second tire
sa puissance de sa capacité à récupérer l’information au moyen d’une
analyse approfondie.
Watson le spécialiste, contre Siri le généraliste
Watson est un spécialiste plutôt qu’un généraliste,
auquel il faut beaucoup de temps pour apprendre un sujet donné. Dans le
cas du partenariat avec WellPoint, le service d’aide au diagnostic
médical ne sera opérationnel que fin 2013, le temps que Watson assimile
toutes les données liées à l’
oncologie.
C’est pour cette raison qu’IBM ne compte pas s’orienter vers des
applications grand public mais au contraire fournir un service
professionnel pointu. Le modèle économique consiste à vendre des outils
analytiques basés sur Watson à une entreprise ayant un besoin dans un
domaine spécifique (finance, santé, télécommunications, agronomie…) et à
lui apporter l’application mobile adaptée. Ce n’est donc pas encore
demain que l’on pourra se mesurer à Watson avec son smartphone dans une
partie de Jeopardy…
Par Marc Zaffagni, Futura-Sciences