|
Azure, AWS et GCP sont des noms peu familiers du grand public, et pourtant, ces services sont la colonne vertébrale de nombreuses applications utilisées quotidiennement par des millions de personnes. Si la plupart de ces services sont hébergés sur des serveurs utilisant des processeurs Intel ou maison avec des cartes spécialisées créées par Nvidia, Apple a pensé (et pense peut-être encore) pouvoir tirer son épingle du jeu grâce à ses propres puces.
The Information a révélé l’existence d’un projet interne nommé ACDC (Apple Chips in Data Centers). Jusqu’à présent, les développeurs utilisaient le cloud principalement pour ses capacités de stockage et sa bande passante. Cependant, les besoins évoluent, et de plus en plus d’applications font appel au cloud pour des calculs liés à l’intelligence artificielle. Si Nvidia est souvent cité comme le leader des puces dédiées à l’IA, Apple n’est pas en reste. En effet, la société développe ses propres puces depuis 2010 et a intégré un Neural Engine à celles-ci depuis 2017. Dans le domaine des data centers, Apple est bien placée pour rivaliser avec les meilleurs. L’efficacité est cruciale dans ce secteur, et les puces Apple sont loin d’être à la traîne. Certaines start-up spécialisées utilisent même des ordinateurs Apple pour des tâches liées à l’intelligence artificielle. Par exemple, Dragonfruit.ai utilise des Mac mini pour la reconnaissance d’objets, la détection d’intrusion et la prévention du vol à partir de flux de caméras de surveillance dans les magasins et les entrepôts. Amit Kumar, PDG de l’entreprise, est un fervent partisan des SoC d’Apple. Apple a une longue expérience du calcul d’intelligence artificielle dans ses SoC. Alors que Nvidia se concentrait encore sur les jeux vidéo, Apple était déjà en train de faire des calculs d’intelligence artificielle. Étonnamment, Apple loue encore des serveurs à ses concurrents, notamment Amazon et Google, pour entraîner son IA. Elle dépense 7 milliards de dollars par an pour cela. Pourquoi Apple loue-t-elle des serveurs alors qu’elle pourrait tout faire en interne ? Selon The Information, l’entraînement de l’IA est la partie la plus gourmande dans la création de celle-ci. Apple n’est pas prête à investir dans un nombre important de NPU Nvidia, car ils pourraient devenir obsolètes si elle décide d’utiliser sa propre architecture plus tard. En interne, les développeurs d’Apple utilisent des serveurs équipés de puces maison pour tester des services tels que Photos, Apple Music et, bien sûr, Siri, qui a été le premier à fonctionner sur les serveurs conçus par Cupertino. Apple a également fait ses preuves en matière de gestion de charges de transactions importantes, ses propres serveurs gérant les échanges d’Apple Wallet. Compte tenu de la puissance de ses derniers processeurs, Apple possède sans aucun doute les capacités nécessaires pour proposer des services de cloud computing. Cependant, ce projet pourrait être compromis par le départ de son créateur et défenseur, Michael Abbott. Abbott, qui dirigeait l’ingénierie cloud depuis 2018, a quitté l’entreprise en 2023. Depuis le départ d’Abbott, aucune information n’a filtré concernant les ambitions d’Apple en matière de services de cloud computing. Cependant, le marché du cloud computing étant en pleine expansion, comme le démontre le succès de services tels que Google Cloud, qui a généré 42,3 milliards de dollars de revenus pour Alphabet en 2024, il serait regrettable pour Apple de laisser passer une telle opportunité. |
ACTUALITÉS TECH |
