March 23, 2023

perspectives d’avenir : Un nouveau rapport a révélé le grand nombre de GPU Nvidia que Microsoft utilise et les innovations nécessaires pour les organiser afin d’aider OpenAI à former ChatGPT. La nouvelle survient alors que Microsoft a annoncé une mise à niveau majeure de son supercalculateur d’IA pour soutenir son initiative nationale d’IA générative.

Selon Bloomberg, OpenAI qualifié ChatGPT sur un supercalculateur Microsoft construit à partir de dizaines de milliers de GPU Nvidia A100. Microsoft a annoncé un nouveau champ en utilisant Cette semaine, le nouveau GPU H100 de Nvidia.

Le défi auquel l’entreprise est confrontée a commencé en 2019 après que Microsoft a investi 1 milliard de dollars dans OpenAI tout en acceptant de construire un supercalculateur d’IA pour la startup. Cependant, Microsoft n’avait pas son propre matériel pour ce dont OpenAI avait besoin.

Après avoir acquis les puces Nvidia, Microsoft a dû repenser la manière dont il organisait un nombre aussi important de GPU pour éviter les surchauffes et les pannes de courant. La société ne dira pas exactement combien l’effort a coûté, mais le vice-président exécutif Scott Guthrie a estimé le chiffre à plus de plusieurs centaines de millions de dollars.

Le fonctionnement actuel de tous les A100 a obligé Redmond à réfléchir à leur placement et à leur alimentation. Il a également dû développer de nouveaux logiciels pour augmenter l’efficacité, s’assurer que l’équipement réseau pouvait gérer d’énormes quantités de données, concevoir de nouveaux chemins de câbles qu’il pouvait fabriquer de manière indépendante et utiliser plusieurs méthodes de refroidissement. Selon le changement climatique, les techniques de refroidissement comprenaient l’évaporation, les refroidisseurs de marais et l’air extérieur.

Depuis le succès initial de ChatGPT, Microsoft et certains de ses concurrents ont commencé à travailler sur des modèles d’IA parallèles pour les moteurs de recherche et d’autres applications. Pour accélérer son IA générative, la société a introduit la machine virtuelle ND H100 v5, une machine virtuelle pouvant utiliser de huit à des milliers de GPU Nvidia H100.

Les H100 se connectent via NVSwitch et NVLink 4.0 avec 3,6 To/s de bande passante entre chacun des 8 GPU locaux au sein de chaque machine virtuelle. Chaque GPU offre une bande passante de 400 Gb/s via Nvidia Quantum-2 CX7 InfiniBand et des connexions PCIe5 de 64 Gb/s. Chaque machine virtuelle gère 3,2 Tb/s via un réseau fat-tree non bloquant. Le nouveau système de Microsoft comprend également des processeurs Intel Xeon de 4e génération et une RAM DDR5 à 16 canaux à 4800 MHz.

Microsoft prévoit d’utiliser la machine virtuelle ND H100 v5 pour son nouveau moteur de recherche Bing alimenté par l’IA, son navigateur Web Edge et Microsoft Dynamics 365. La machine virtuelle est désormais disponible en préversion et sera livrée en standard avec le portefeuille Azure. Utilisateurs potentiels peut demander l’accès.


Leave a Reply

Your email address will not be published. Required fields are marked *