Alpha-News.org ➤ L'actualité du monde est ici

SAN FRANCISCO/NEW YORK, 10 février (Reuters) - OpenAI poursuit son plan visant à réduire sa dépendance à l'égard de Nvidia pour l'approvisionnement de ses puces en développant sa première génération de silicium d'intelligence artificielle interne.

Le fabricant de ChatGPT finalise la conception de sa première puce interne dans les prochains mois et prévoit de l'envoyer pour fabrication chez Taiwan Semiconductor Manufacturing Co, ont déclaré des sources à Reuters. Le processus d'envoi d'une première conception dans une usine de puces s'appelle le "taping out".

OpenAI et TSMC ont refusé de commenter.

Cette mise à jour montre qu'OpenAI est en bonne voie pour atteindre son objectif ambitieux de production de masse chez TSMC en 2026. Un taping out typique coûte des dizaines de millions de dollars et prendra environ six mois pour produire une puce finie, sauf si OpenAI paie considérablement plus pour une fabrication accélérée. Il n'y a aucune garantie que le silicium fonctionnera au premier taping out et en cas d'échec, l'entreprise devra diagnostiquer le problème et répéter l'étape du taping out.

À l'intérieur d'OpenAI, la puce axée sur l'entraînement est considérée comme un outil stratégique pour renforcer le pouvoir de négociation d'OpenAI avec d'autres fournisseurs de puces, ont indiqué les sources. Après la puce initiale, les ingénieurs d'OpenAI prévoient de développer des processeurs de plus en plus avancés avec des capacités plus larges à chaque nouvelle itération.

Si le taping out initial se déroule sans heurts, cela permettrait au fabricant de ChatGPT de produire en masse sa première puce d'intelligence artificielle interne et potentiellement de tester une alternative aux puces de Nvidia plus tard cette année. Le plan d'OpenAI d'envoyer sa conception à TSMC cette année démontre que la start-up a progressé rapidement sur sa première conception, un processus qui peut prendre plusieurs années à d'autres concepteurs de puces.

De grandes entreprises technologiques comme Microsoft et Meta ont du mal à produire des puces satisfaisantes malgré des années d'efforts. Le récent effondrement du marché a également soulevé des questions sur la nécessité de moins de puces pour développer des modèles puissants à l'avenir.

La puce est conçue par l'équipe interne d'OpenAI dirigée par Richard Ho, qui a doublé au cours des derniers mois pour atteindre 40 personnes, en collaboration avec Broadcom. Ho a rejoint OpenAI il y a plus d'un an en provenance de Google d'Alphabet où il a aidé à diriger le programme de puces personnalisées d'intelligence artificielle du géant de la recherche. Reuters l'avait signalé en premier l'année dernière.

L'équipe de Ho est plus petite que les efforts à grande échelle des géants de la technologie tels que Google ou Amazon. Une nouvelle conception de puce pour un programme ambitieux à grande échelle pourrait coûter 500 millions de dollars pour une seule version d'une puce, selon des sources de l'industrie connaissant les budgets de conception de puces. Ces coûts pourraient doubler pour construire les logiciels et périphériques nécessaires autour.

Les fabricants de modèles d'intelligence artificielle générative tels qu'OpenAI, Google et Meta ont démontré que des nombres toujours plus grands de puces assemblées dans des data centers rendent les modèles plus intelligents, et ont donc une demande insatiable de puces.

Meta a déclaré qu'elle dépenserait 60 milliards de dollars pour l'infrastructure d'intelligence artificielle l'année prochaine et Microsoft a déclaré qu'il dépenserait 80 milliards de dollars en 2025. Actuellement, les puces de Nvidia sont les plus populaires et détiennent une part de marché d'environ 80%. OpenAI participe elle-même aux 500 milliards de dollars annoncés par le président américain le mois dernier.

Mais les coûts croissants et la dépendance à un seul fournisseur ont poussé des clients importants tels que Microsoft, Meta et maintenant OpenAI à explorer des alternatives internes ou externes aux puces de Nvidia.

La puce d'intelligence artificielle interne d'OpenAI, tout en capable de former et d'exécuter des modèles d'IA, sera initialement déployée à petite échelle, et principalement pour exécuter des modèles d'IA, ont indiqué les sources. La puce aura un rôle limité au sein de l'infrastructure de l'entreprise.

Pour mettre en place un effort aussi complet que le programme de puces d'IA de Google ou Amazon, OpenAI devrait embaucher des centaines d'ingénieurs.

TSMC fabrique la puce d'IA d'OpenAI en utilisant sa technologie de processus 3 nanomètres avancée. La puce dispose d'une architecture de réseau systolique couramment utilisée avec de la mémoire haute bande passante (HBM) - également utilisée par Nvidia pour ses puces - et des capacités de mise en réseau étendues, ont rapporté les sources.