Comment l'IA sera-t-elle utilisée de manière éthique à l'avenir ?  AI Responsibility Lab a un plan

Nous sommes ravis de ramener Transform 2022 en personne le 19 juillet et virtuellement du 20 au 28 juillet. Rejoignez les leaders de l’IA et des données pour des discussions approfondies et des opportunités de réseautage passionnantes. Inscrivez-vous aujourd’hui!


À mesure que l’utilisation de l’IA dans toutes les industries et dans presque tous les aspects de la société se développe, il est de plus en plus nécessaire de mettre en place des contrôles pour une IA responsable.

L’IA responsable consiste à s’assurer que l’IA est utilisée d’une manière qui n’est pas contraire à l’éthique, qui aide à respecter la vie privée et qui évite généralement les préjugés. Il existe un flux apparemment infini d’entreprises, de technologies et de chercheurs qui s’attaquent aux problèmes associés à une IA responsable. Maintenant, le bien nommé AI Responsibility Labs (AIRL) se joint à la mêlée, annonçant un financement de pré-amorçage de 2 millions de dollars, parallèlement au lancement en avant-première de la plate-forme logicielle en tant que service (SaaS) Mission Control de la société.

Le chef de la direction de l’AIRL est le PDG de la société, Ramsay Brown, qui a suivi une formation de neuroscientifique informatique à l’Université de Californie du Sud, où il a passé beaucoup de temps à travailler sur la cartographie du cerveau humain. Sa première startup était à l’origine connue sous le nom de Dopamine Labs, rebaptisée Boundless Mind, avec un accent sur l’ingénierie comportementale et la façon d’utiliser l’apprentissage automatique pour faire des prédictions sur la façon dont les gens vont se comporter. Boundless Mind a été acquis par Thrive Global en 2019.

Chez AIRL, Brown et son équipe s’attaquent aux problèmes de sécurité de l’IA, en s’assurant que l’IA est utilisée de manière responsable d’une manière qui ne nuit pas à la société ou aux organisations qui utilisent la technologie.

“Nous avons fondé l’entreprise et construit la plate-forme logicielle pour Mission Control pour commencer par aider les équipes de science des données à faire leur travail mieux, plus précisément et plus rapidement”, a déclaré Brown. “Lorsque nous examinons la communauté responsable de l’IA, certaines personnes travaillent sur la gouvernance et la conformité, mais elles ne parlent pas aux équipes de science des données et ne découvrent pas ce qui fait réellement mal.”

Ce dont les équipes de science des données ont besoin pour créer une IA responsable

Brown a déclaré avec insistance qu’aucune organisation ne se propose probablement de créer une IA délibérément biaisée et qui utilise les données de manière contraire à l’éthique.

Au lieu de cela, ce qui se produit généralement dans un développement complexe avec de nombreuses pièces mobiles et différentes personnes, ce sont des données qui sont involontairement mal utilisées ou des modèles d’apprentissage automatique formés sur des données incomplètes. Lorsque Brown et son équipe ont demandé aux scientifiques des données ce qui manquait et ce qui nuisait aux efforts de développement, les répondants lui ont dit qu’ils recherchaient davantage un logiciel de gestion de projet qu’un cadre de conformité.

“C’était notre grand moment ‘a-ha'”, a-t-il déclaré. “Ce qui a manqué aux équipes, ce n’est pas qu’elles ne comprenaient pas la réglementation, c’est qu’elles ne savaient pas ce que faisaient leurs équipes.”

Brown a noté qu’il y a deux décennies, l’ingénierie logicielle a été révolutionnée avec le développement d’outils de tableau de bord comme Jira d’Atlassian, qui a aidé les développeurs à créer des logiciels plus rapidement. Maintenant, il espère que le contrôle de mission d’AIRL sera le tableau de bord de la science des données pour aider les équipes de données à créer des technologies avec des pratiques d’IA responsables.

Travailler avec les frameworks IA et MLops existants

Il existe de nombreux outils que les organisations peuvent utiliser aujourd’hui pour aider à gérer les workflows d’IA et d’apprentissage automatique, parfois regroupés sous la catégorie industrielle de MLops.

Les technologies populaires incluent AWS Sagemaker, Google VertexAI, Domino Data Lab et BigPanda.

Brown a déclaré que l’une des choses que son entreprise a apprises lors de la création de son service de contrôle de mission est que les équipes de science des données disposent de nombreux outils différents qu’elles préfèrent utiliser. Il a déclaré qu’AIRL ne cherchait pas à concurrencer MLops et les outils d’IA existants, mais plutôt à fournir une superposition pour une utilisation responsable de l’IA. Ce qu’AIRL a fait, c’est développer un point de terminaison d’API ouvert afin qu’une équipe utilisant Mission Control puisse acheminer toutes les données de n’importe quelle plate-forme et les faire finir dans le cadre des processus de surveillance.

Le contrôle de mission d’AIRL fournit un cadre permettant aux équipes de prendre ce qu’elles ont fait dans des approches ad hoc et de créer des processus standardisés pour l’apprentissage automatique et les opérations d’IA.

Brown a déclaré que Mission Control permet aux utilisateurs de prendre des cahiers de science des données et de les transformer en processus et flux de travail reproductibles qui fonctionnent dans des paramètres configurés pour une utilisation responsable de l’IA. Dans un tel modèle, les données sont connectées à un système de surveillance qui peut alerter une organisation en cas de violation des politiques. Par exemple, il a noté que si un scientifique des données utilise un ensemble de données qui n’est pas autorisé par la politique à être utilisé pour une certaine opération d’apprentissage automatique, Mission Control peut l’attraper automatiquement, signaler aux responsables et suspendre le flux de travail.

“Cette centralisation de l’information crée une meilleure coordination et visibilité”, a déclaré Brown. “Cela réduit également la probabilité que des systèmes avec des résultats vraiment nocifs et indésirables se retrouvent en production.”

Vers 2027 et l’avenir de l’IA responsable

À l’horizon 2027, AIRL a un plan de feuille de route pour répondre aux préoccupations plus avancées concernant l’utilisation de l’IA et le potentiel de l’intelligence générale artificielle (AGI). L’objectif de l’entreprise en 2027 est de permettre un effort qu’elle appelle le protocole d’incitation au travail synthétique (SLIP). L’idée de base est d’avoir une forme de contrat intelligent pour utiliser la main-d’œuvre alimentée par l’AGI dans l’économie.

“Nous envisageons l’avènement de l’intelligence artificielle générale, en tant que préoccupation logistique au niveau des entreprises et de la société, dont il faut parler non pas en termes” de science-fiction “, mais en termes pratiques de gestion des incitations”, a déclaré Brown.

La mission de VentureBeat est d’être une place publique numérique permettant aux décideurs techniques d’acquérir des connaissances sur la technologie d’entreprise transformatrice et d’effectuer des transactions. En savoir plus sur l’adhésion.