AbbVie choisit Cerebras Systems pour accélérer la recherche biopharmaceutique sur l'IA

SUNNYVALE, Californie–(FIL D’AFFAIRES)–Cerebras Systems, le pionnier de l’informatique d’intelligence artificielle (IA) haute performance, et AbbVie, une société biopharmaceutique mondiale, ont annoncé aujourd’hui une réalisation historique dans le travail d’AbbVie sur l’IA. En utilisant un Cerebras CS-2 sur des modèles biomédicaux de traitement du langage naturel (NLP), AbbVie a atteint des performances 128 fois supérieures à celles d’une unité de traitement graphique (GPU), tout en utilisant 1/3 de l’énergie. Non seulement AbbVie a formé les modèles plus rapidement et pour moins d’énergie, grâce au flux de travail de programmation simple et basé sur des normes du CS-2, mais le temps généralement alloué à la configuration et au réglage des modèles a également été considérablement réduit.

“Un défi commun que nous rencontrons avec la programmation et la formation BERT GRANDE fournit des ressources de cluster GPU suffisantes pour des périodes de temps suffisantes », a déclaré Brian Martin, responsable de l’IA chez AbbVie. « Le système CS-2 apportera des améliorations rapides qui réduiront une grande partie de ce défi, tout en fournissant un modèle de programmation plus simple qui accélère notre livraison en permettant à nos équipes d’itérer plus rapidement et de tester plus d’idées. »

En mettant l’accent sur la R&D de pointe dans les domaines de l’immunologie, des neurosciences, de l’oncologie et de la virologie, il est essentiel pour les scientifiques d’AbbVie de se tenir au courant des résultats de recherche du monde entier. À cette fin, AbbVie utilise de grands modèles de langage d’IA sophistiqués pour créer son service de traduction automatique, Abbelfish. Ce service traduit avec précision et rend consultables de vastes bibliothèques de littérature biomédicale dans 180 langues à l’aide de grands modèles Transformer à la pointe de la technologie tels que BERT, BERT GRANDEet BioBERT.

S’assurer qu’Abbelfish est à la fois précis et toujours à jour nécessite de former et de recycler les modèles NLP à partir de zéro avec des données biomédicales spécifiques au domaine. Cependant, le modèle d’Abbelfish est très grand – 6 milliards de paramètres. Un tel modèle n’est pas pratique pour s’entraîner même sur les plus grands clusters GPU. Cerebras Systems rend ce type de formation à l’IA à grande échelle rapide et facile.

Grands modèles de langage comme BERT GRANDE ont démontré une précision de pointe sur de nombreuses tâches de traitement et de compréhension du langage. La formation de ces grands modèles de langage à l’aide de GPU est difficile et prend du temps. La formation à partir de zéro sur de nouveaux ensembles de données prend souvent des semaines, même sur de grands clusters d’équipements hérités. À mesure que la taille du cluster augmente, la puissance, le coût et la complexité augmentent de manière exponentielle. La programmation de grappes d’unités de traitement graphique nécessite des compétences rares, différents cadres d’apprentissage automatique et des outils spécialisés qui prennent des semaines de temps d’ingénierie à chaque itération.

Le CS-2 a été conçu pour répondre directement à ces défis et réduire radicalement le temps de perspicacité. Le CS-2 offre les performances d’apprentissage en profondeur de centaines de GPU, avec la facilité de programmation d’un seul nœud. En conséquence, moins de temps est consacré à l’installation et à la configuration, moins de temps est consacré à la formation et plus d’idées sont explorées. L’équipe AbbVie a pu mettre en place et former son BERT personnalisé GRANDE modèle à partir de zéro en moins de deux jours avec le Cerebras CS-2.

« Chez Cerebras Systems, notre objectif est de permettre à l’IA d’accélérer la mission de nos clients », a déclaré Andrew Feldman, PDG et cofondateur de Cerebras Systems. « Il ne suffit pas de fournir aux clients l’IA la plus rapide du marché, il faut aussi qu’elle soit la plus économe en énergie et la plus facile à déployer. C’est incroyable de voir AbbVie non seulement accélérer ses énormes modèles de langage, mais le faire tout en consommant une fraction de l’énergie utilisée par les solutions héritées.

Le Cerebras CS-2 est alimenté par le plus grand processeur jamais construit – le Cerebras Wafer-Scale Engine 2 (WSE-2), qui est 56 fois plus grand que le concurrent le plus proche. En conséquence, le CS-2 offre plus de cœurs de calcul optimisés pour l’IA, une mémoire plus rapide et plus de bande passante de structure que tout autre processeur d’apprentissage en profondeur existant. Il a été spécialement conçu pour accélérer les charges de travail d’apprentissage en profondeur en réduisant le temps de réponse par ordre de grandeur.

Avec des clients et des partenaires en Amérique du Nord, en Asie, en Europe et au Moyen-Orient, Cerebras fournit des solutions d’IA de pointe à une liste croissante de clients dans les segments des entreprises, des gouvernements et du calcul haute performance, notamment GlaxoSmithKline, AstraZeneca, TotalEnergies, nference, Argonne Laboratoire national, Laboratoire national Lawrence Livermore, Pittsburgh Supercomputing Center, Edinburgh Parallel Computing Center (EPCC) et Tokyo Electron Devices.

Pour plus d’informations sur le système Cerebras CS-2 et son application dans le domaine de la santé et de la pharmacie, veuillez visiter https://cerebras.net/industries/health-and-pharma/.

À propos des systèmes Cerebras

Cerebras Systems est une équipe d’architectes informatiques pionniers, d’informaticiens, de chercheurs en apprentissage profond et d’ingénieurs de tous types. Nous nous sommes réunis pour construire une nouvelle classe de systèmes informatiques, conçus dans le seul but d’accélérer l’IA et de changer à jamais l’avenir du travail de l’IA. Notre produit phare, le système CS-2, est alimenté par le plus grand processeur au monde – le Cerebras WSE-2 à 850 000 cœurs, permet aux clients d’accélérer leur travail d’apprentissage en profondeur par des ordres de grandeur sur les unités de traitement graphique.