TAIPEI, 10 mars (Reuters) - Foxconn de Taïwan a annoncé lundi avoir lancé son premier modèle de langage de grande envergure et prévoit d'utiliser la technologie pour améliorer la fabrication et la gestion de la chaîne d'approvisionnement.
Le modèle, nommé "FoxBrain", a été formé à l'aide de 120 des GPU H100 de Nvidia et a été achevé en environ quatre semaines, a déclaré le plus grand fabricant mondial d'électronique contractuelle dans un communiqué.
La entreprise, qui assemble des iPhone pour Apple et produit également des serveurs d'intelligence artificielle de Nvidia, a indiqué que le modèle est basé sur l'architecture Llama 3.1 de Meta.
Il s'agit du premier grand modèle de langage de Taïwan doté de capacités de raisonnement optimisé pour les styles de chinois traditionnel et de taïwanais, a-t-elle déclaré.
Foxconn a déclaré qu'il existait un léger écart de performance par rapport au modèle de distillation de DeepSeek en Chine, mais que sa performance globale est très proche des normes mondiales.
Conçu initialement pour des applications internes, FoxBrain couvre l'analyse de données, le support à la décision, la collaboration de documents, les mathématiques, le raisonnement et la résolution de problèmes, ainsi que la génération de code.
Foxconn a déclaré qu'il prévoyait de collaborer avec des partenaires technologiques pour étendre les applications du modèle, partager ses informations en open source et promouvoir l'IA dans la fabrication, la gestion de la chaîne d'approvisionnement et la prise de décision intelligente.
Nvidia a fourni un support via son supercalculateur basé à Taïwan "Taipei-1" et a offert des conseils techniques lors de la formation du modèle, a déclaré Foxconn.
Taipei-1, le plus grand supercalculateur à Taïwan, est la propriété et est exploité par Nvidia à Kaohsiung, une ville du sud de l'île.
Foxconn annoncera d'autres détails sur le modèle lors de la conférence des développeurs GTC de Nvidia à la mi-mars.