Parmi les nombreux sujets sur lesquels je vais porter mon attention cette année, il y en a un en particulier qui va me préoccuper particulièrement, c’est ce qu’on appelle au niveau marketing “l’Intelligence Artificielle”.
Vous le savez sans doute, derrière l’IA se trouve un nouveau monde de use cases mais aussi de technologies et d’algorithmes. L’ensemble constitue un corpus dont certains termes techniques claquent pas mal : deep learning, machine learning, IA faible, IA forte, GPGPU, réseaux de neurones etc. Evidemment, il faut aussi y ajouter des sources d’apprentissage pour alimenter tout cela : il faut aussi y connecter des machins comme le big data ou les data lakes, entre autres. A bien y regarder ce n’est pas si nouveau d’ailleurs (renseignez-vous sur le laboratoire français IRISA, par exemple), mais il semble qu’aujourd’hui nous soyons arrivé à un stade de maturité et de puissance de calcul qui nous permette d’envisager et d’exploiter un nombre croissant d’applications industrielles.
Dans notre domaine spécifique de la santé, force est de constater que ce petit monde est en train d’éclore. Rien que depuis le début de cette année, ce sont pas moins de 3 projets sur lesquels j’ai du travailler. Dans l’ensemble cela reste encore du domaine de la recherche médicale, mais tout comme la génétique il y a quelques années, on arrivera rapidement aux premières applications cliniques, la vraie production de soins.
En attendant, il faut comme toujours que nous soyons prêts en temps et en heure. C’est maintenant qu’il faut y travailler et avancer. Pour ce faire, il va falloir discuter et échanger (encore !) avec les industriels et les spécialistes avant-vente. J’irais évidement faire un tour chez nVidia, partenaire incontournable sur le GPGPU et qui me doit pas mal d’explication notamment autour du licensing. Il semble que même chez les intégrateurs partenaires et vendeurs de solutions de la marque au caméléon, tout ne soit pas clair. A leur décharge, cela évolue très vite en ce moment même donc raison de plus pour prendre le train en marche et avoir les bon contacts.
Ceci étant, au gré de mes pérégrinations dans le salon, je pense que je trouverai certainement d’autres interlocuteurs, voire des pépites/startups qui travaillent le sujet en ce moment même. C’est d’ailleurs souvent une source d’information particulièrement riche : petit conseil au passage, ne vous attardez pas tant que cela sur les gros stands (sauf pour les goodies éventuellement ^^), VMworld regorge de personnes super intéressantes sur les tout petits stands aussi !
Je n’imagine pas qu’à terme, une solution “globale” soit trouvée pour que la gestion des GPGPU et leur licensing éventuel soit aussi transparente sur ESXi que les CPUs ne le sont actuellement. Cela me fait d’ailleurs penser à la présentation de Niels Hagoort qui nous expliquait lors du VMUG France de Septembre (petit compte-rendu ici) tout le travail actuel de VMware à l’amélioration de l’exploitation des GPGU dans ESXi tout comme la prise en charge progressive des FPGAs. Nul doute que ce type de composants programmable soit beaucoup utilisé par l’IA dans les années qui viennent.
Au demeurant, c’est sans doute là que le bas blesse encore aujourd’hui : pas assez de concurrence face à nVidia ! Que font AMD et Intel, pour ne citer qu’eux ? Vous imaginez un monde ou Intel vous demanderait directement, en plus des licences ESXi, ses propres licences CPU ? Inconcevable. Donc les petits louloups de la marque verte, faites gaffe, à top vouloir manger de gâteau, vous risquez l’indigestion comme toujours…
N’hésitez pas à échanger autour du projet magna qui à base de ML/DL va révolutionner les prochaines versions vSAN, vSphere et NSX ;)
Allez ! On se fixe un rdv ? :)
Avec plaisir au vmworld on parlera un peu de magna.
Marrant ce que tu dis. Je ne retrouve pas du tout le nVidia que j’ai connu…
4.5