Alpha-News.org ➤ L'actualité du monde est ici
Accident de Cybertruck : des signaux d'alarme concernant le logiciel de conduite autonome de Tesla

Le 13 février (Reuters) - Un accident impliquant un Tesla Cybertruck en mode de conduite autonome cette semaine a suscité des inquiétudes quant à la fiabilité du logiciel de l'entreprise qui alimente cette fonctionnalité, quelques jours seulement après que le PDG Elon Musk ait annoncé qu'il déploierait un service de robotaxis payant cette année.

La camionnette, le dernier modèle de la gamme Tesla, n'a pas réussi à se fusionner hors d'une voie se terminant, a heurté le trottoir et s'est écrasée contre un poteau dans la ville de Reno dans le Nevada alors qu'elle était en mode Full Self-Driving, nécessitant toujours un conducteur humain derrière le volant.

"Ne faites pas la même erreur que moi. Soyez attentifs. Il est facile de devenir complaisant maintenant - ne le soyez pas", a déclaré le conducteur Jonathan Challinger sur la plateforme de médias sociaux X en taguant Musk. "Faites passer mon message et aidez à sauver d'autres personnes du même sort, voire pire."

Le conducteur a signalé qu'il y avait des problèmes mécaniques inconnus qui ont causé au véhicule de quitter la voie et de heurter le poteau, selon un rapport de police vu par Reuters.

Tesla a été critiqué et fait l'objet d'enquêtes depuis des années pour la sécurité de son logiciel avancé d'aide à la conduite après plusieurs accidents, dont un mortel.

Mais Musk a déclaré fin février que les gens sceptiques quant à la technologie devraient l'essayer maintenant, mettant en avant "l'énorme amélioration" dans le profil de sécurité de sa dernière version appelée Version 13.

Le dernier accident du Cybertruck - devenu viral sur les réseaux sociaux - est un signe d'alerte sur la sécurité de la technologie et la préparation de Tesla à retirer le conducteur, selon des experts en technologie des véhicules autonomes.

"La course est engagée sur une technologie qui n'est pas prête pour le déploiement", a déclaré Saber Fallah, professeur de Safe AI and Autonomy à l'Université de Surrey.

"Les extrémités de voie, les fusions et les changements soudains de tracé routier restent problématiques pour les systèmes pilotés par l'IA, qui manquent de l'adaptabilité cognitive des conducteurs humains", a-t-il dit.

Tesla n'a pas répondu à une demande de commentaire sur l'accident.

Musk a déclaré que Tesla lancerait des robotaxis à Houston, au Texas - un État avec presque aucune exigence réglementaire pour les véhicules autonomes - suivi par la Californie et d'autres régions des États-Unis d'ici la fin de l'année.

Un déploiement réussi des robotaxis est crucial pour Tesla alors qu'elle fait face à un ralentissement plus large de la demande pour sa gamme de VE vieillissante, tandis que les investisseurs parient fortement sur la transition de Musk vers la robotique et l'IA pour une croissance future.

Contrairement à d'autres constructeurs automobiles, qui utilisent des technologies redondantes pour la sécurité, l'approche de Tesla repose uniquement sur des caméras, ce qui la rend moins chère mais aussi plus risquée dans des conditions de visibilité difficiles, comme de fortes pluies, de la neige ou du brouillard, selon des experts.

L'accident montre qu'il y a des problèmes avec les capacités de détection nocturne de FSD, la cartographie des données et l'approche basée uniquement sur la vision, a déclaré le chercheur Troy Teslike, qui surveille de près les ventes et les technologies de Tesla, sur X.

"FSD ne semble pas prêt pour une opération sans conducteur encore", a-t-il dit.