Le premier directeur de l'IA du HHS voit des promesses dans 100 cas d'utilisation de l'IA, mais des défis pour les faire avancer |  Réseau de nouvelles fédérales

Le premier directeur de l’intelligence artificielle du ministère de la Santé et des Services sociaux ne travaille plus au gouvernement fédéral. Mais il dit que de plus en plus d’agences et d’organisations de santé suivent son exemple et nomment leurs propres responsables de l’IA.

“C’est un bon signe que nous allons dans la bonne direction”, a déclaré Oki Mek, l’ancien directeur de l’IA du HHS, aujourd’hui directeur de la sécurité de l’information d’Equideum Health, dans le dernier épisode de All About Data.

LIRE LA SUITE

Le premier directeur de l’intelligence artificielle du ministère de la Santé et des Services sociaux ne travaille plus au gouvernement fédéral. Mais il dit que de plus en plus d’agences et d’organisations de santé suivent son exemple et nomment leurs propres responsables de l’IA.

“C’est un bon signe que nous allons dans la bonne direction”, a déclaré Oki Mek, l’ancien directeur de l’IA du HHS, aujourd’hui directeur de la sécurité de l’information d’Equideum Health, lors du dernier épisode de Tout sur les données.

Dans une interview de sortie revenant sur son mandat au HHS, Mek a déclaré que son ancien poste avait été mis au point après que les responsables de l’agence aient trouvé plus de 100 cas d’utilisation de l’IA dans tout le département, mais ne savaient pas comment procéder pour bon nombre de ces projets.

Mek a déclaré que le ministère ne savait pas si ces cas d’utilisation suivaient les mandats, les recommandations et les décrets fédéraux.

L’ancien président Donald Trump, dont un promouvant l’utilisation d’une IA digne de confiance au sein du gouvernement fédéral et un autre sur le maintien du leadership américain en matière d’IA.

«Il n’y avait aucune clarté, en termes de respect de cette politique. Existe-t-il une gouvernance et une conformité ? Il y a donc eu peu de surveillance », a déclaré Mek.

Des recherches récentes de Gartner estiment qu’environ 85 % des projets d’IA échoueront et fourniront des résultats inexacts en raison de biais dans les données, les algorithmes ou les équipes qui les gèrent.

«Ils sont en quelque sorte coincés dans la preuve de concept. Cela crée beaucoup de risques, non seulement en raison des coûts et de la réputation, mais parce que nous travaillons beaucoup dans l’IA et l’apprentissage automatique », a déclaré Mek.

«Nous voulions résoudre ces problèmes et nous y plonger. C’est pourquoi nous avons commencé à examiner le département et comment élaborer une stratégie sur l’IA », a-t-il ajouté.

Mek a déclaré que les problèmes de données se distinguaient comme un défi persistant pour les cas d’utilisation de l’IA chez AI, en particulier en essayant de comprendre où résident les données.

“La plupart du travail dans l’IA et l’apprentissage automatique est exécuté sur des données, et la plupart d’entre elles traitent réellement les données, en obtenant les données à partir de documents papier ou numérisés pour les rendre lisibles par machine. Je pense que c’est le plus grand défi », a-t-il déclaré.

Mek a déclaré que son objectif était de travailler avec le responsable de la sécurité de l’information pour développer une politique dans laquelle tout système qui passe par le processus d’autorisation d’exploitation (ATO) fournit un dictionnaire de données.

« Mon objectif était que je ne voudrais pas être dans le domaine de la négociation de données. Je laisserais cela au propriétaire de l’entreprise, au propriétaire du processus, mais je leur fournirais un mécanisme leur permettant de savoir où résident les données, où ils pourraient rechercher des données et savoir qui contacter pour obtenir ces ensembles de données. Le problème des données est définitivement un obstacle majeur à surmonter », a-t-il déclaré.

Parmi les 100 cas d’utilisation de l’IA de l’agence, Mek a déclaré que l’utilisation de l’IA pour la cybersécurité se démarquait comme un développement particulièrement prometteur.

“L’intégration de l’IA dans le cyber a du sens pour moi car le processus est assez désuet pour le moment pour lutter contre les mauvais acteurs qui utilisent la technologie de pointe, l’IA et l’apprentissage automatique contre nous”, a déclaré Mek.

Mek a déclaré que la Food and Drug Administration a également envisagé d’utiliser l’IA et l’apprentissage automatique pour aider à examiner et à approuver les aliments, les médicaments et les dispositifs médicaux.

HHS a nommé Mek au poste de CAIO en mars 2021, et il a quitté le poste moins d’un an plus tard.

Mais au cours de son mandat, Mek a supervisé les prochaines étapes de la stratégie d’IA de l’agence, a développé un livre de jeu d’IA digne de confiance et a lancé une communauté de pratique et un conseil d’IA.

Mek a déclaré que la stratégie HHS AI servait de feuille de route précieuse pour d’autres organisations qui commençaient tout juste à utiliser l’IA.

“Beaucoup de gens partent de zéro en termes de stratégie d’IA, et comment nous alignons-nous sur tous les décrets exécutifs qui descendent de l’OMB ? Je recommanderais fortement aux gens, même si vous n’êtes pas dans le secteur de la santé, de consulter la stratégie d’IA, ainsi que le playbook digne de confiance. Nous avons reçu beaucoup de commentaires sur les documents que nous avons créés », a-t-il déclaré.

Mek a déclaré que la communauté de pratique HHS a aidé les membres à partager les meilleures pratiques et à sensibiliser les projets. Le Conseil de l’IA, a-t-il ajouté, a veillé à ce que chaque division du HHS “ait une voix dans la manière dont nous avons mis en œuvre la stratégie”.

« Nous ne voulions pas le faire en silos. Nous ne pouvons pas prêcher que nous voulons briser les silos, mais prendre des décisions assis au siège sans impliquer les chefs de division sur l’IA », a déclaré Mek.

Mek a déclaré que HHS a également organisé une série de programmes de déjeuners-conférences et invité des invités qui ont remporté le prix Turing, l’équivalent du prix Nobel pour la recherche sur l’IA et l’informatique.