Le déploiement des modèles d’inférence au plus près des données (3/4)

Découvrez notre coeur de métier et les grands enjeux de l’intelligence artificielle appliquée à l’acoustique !

 

Dans une logique de vulgarisation, nous partageons dans une série d’articles les thématiques qui font le quotidien de nos data scientists.                             
Dans ce troisième volet, nous abordons la phase de déploiement des modèles.
  • d’une part sur la plateforme d’entraînement, ici sur un serveur de calcul,
  • d’autre part sur la plateforme cible, ici le capteur muni d’un microphone.

Scikit-Learn

Un exemple peut être donné avec Scikit-Learn, une bibliothèque Python utilisée dans le Machine Learning. Le modèle au format binaire est exporté via le module pickle.

Moteur d’inférence

Une autre solution est d’utiliser un moteur d’inférence, une librairie qui permet :

  • de charger le modèle,
  • de spécifier les entrées et sorties,
  • d’exécuter ce modèle en tirant parti des unités de traitements.

Il en existe de nombreux, comme par exemple ONNX Runtime, qui a l’avantage de fonctionner sur une grande variété de modèles, mais aussi ARM NN ou encore Intel OpenVINO.

Déploiement sur microcontrôleur

Une fois le modèle entraîné, un générateur de code pour des cibles munies de microcontrôleurs peut être utilisé pour déployer le modèle sur capteur.