Découvrir au quotidien les enjeux de la technologie. Le podcast de la rédaction de ZDNet, pour les professionnels à la recherche d'infos pratiques et concrètes pour mieux comprendre le marché IT et telco et son influence sur les métiers.
ZD Tech : tout comprendre en moins de 3 minutes

Imaginez vendre votre bien immobilier en cinq jours seulement, tout en empochant une plus-value de 85 000 euros par rapport aux estimations des experts du secteur. Et le tout sans verser de commission d'agence.C'est la prouesse réalisée par un consultant américain en Floride, et elle souligne un basculement majeur.L'IA générative devient un outil capable de concurrencer des métiers établis. Un prompt en lieu et place d'un agentAu lieu de se fier à l'instinct d'un agent immobilier, le propriétaire a utilisé ChatGPT pour auditer son propre bien.En injectant des données précises et en orientant ses prompts, il a obtenu une feuille de route opérationnelle incluant les rénovations prioritaires, comme le choix des peintures, mais aussi une analyse fine du calendrier de mise en vente.L'IA a ici joué le rôle de chef de projet, identifiant les détails infimes qui maximisent la valeur perçue du bien.En clair, l'IA est capable de transformer un amateur éclairé en un gestionnaire de patrimoine redoutable.Le top sur la logistique et le marketingEnsuite, c'est surtout sur le terrain du marketing et de la logistique que l'IA a fait la différence.Car l'algorithme ne s'est pas contenté de rédiger une annonce attrayante. Il a optimisé l'organisation des visites en suggérant les créneaux horaires les plus pertinents pour créer un effet de rareté et de compétition entre les acheteurs.Résultat, 15 visites organisées en un temps record et 5 offres qualifiées.Pour les professionnels du secteur de l'immobilier, le message est limpide : la valeur ajoutée ne réside plus dans l'accès à l'information ou la simple mise en relation.L'humain reste le garant de la conformitéEnfin, il faut noter les limites et la nouvelle répartition des rôles que dessine cette expérience.Si le vendeur a court-circuité l'agent immobilier, il a en revanche sécurisé la transaction en engageant un avocat pour la partie juridique.L'IA a géré le marketing, la négociation et l'émotionnel, mais l'humain reste le garant de la conformité légale.Cette anecdote n'annonce pas forcément la fin des agents immobiliers, mais elle marque la fin de l'agent "traditionnel". En clair, demain, un expert qui n'utilise pas l'IA pour affiner ses estimations ou son ciblage sera mécaniquement moins performant qu'un particulier bien "augmenté" par ses prompts.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, nous plongeons dans un paradoxe technologique fascinant : comment une solution purement mécanique peut vaincre les algorithmes les plus sophistiqués de nos accessoires connectés.Le constructeur automobile Škoda vient en effet de présenter la sonnette DuoBell. Ce n'est pas qu'un simple accessoire pour cyclistes, c'est une réponse directe à une menace croissante pour la sécurité en zone urbaine : l'isolation sonore totale des piétons connectés à leurs casques audio.Lutter contre l'ANCD'abord, il faut comprendre le mur technologique auquel font face les professionnels de la mobilité urbaine.Avec la généralisation de la réduction de bruit active, ou ANC, les algorithmes de nos casques et écouteurs sont devenus si performants qu'ils filtrent désormais les alertes sonores traditionnelles.En clair, le timbre d'une sonnette de vélo classique, inchangé depuis un siècle, est interprété par l'IA des écouteurs comme un bruit parasite et purement et simplement effacé.À Londres, où le nombre de cyclistes s'apprête à dépasser celui des automobilistes, les collisions avec des piétons inattentifs ont bondi de 24 % l'an dernier.Comment ça marche ? Alors concrètement, comment la sonnette de Skoda parvient-il à contourner cette situation ?Les chercheurs ont identifié une faille dans la matrice de l'ANC, une sorte de "brèche de sécurité" acoustique située entre 750 et 780 Hertz.La sonnette de Skoda émet donc précisément sur cette fréquence que les filtres numériques peinent à traiter.Mais Škoda ne s'est pas arrêté là. En générant des ondes sonores non répétitives, son dispositif sature la capacité de traitement en temps réel des puces de réduction de bruit.L'algorithme, incapable de prédire le motif sonore pour l'annuler, laisse donc passer l'alerte.22 mètres de distance de réaction supplémentaireEnfin, quels sont les impacts réels pour la sécurité et le business ?Les tests en conditions réelles sont sans appel. Le DuoBell offre aux piétons équipés de casques jusqu'à 22 mètres de distance de réaction supplémentaire par rapport à une sonnette standard. Et c'est clairement une marge de manœuvre vitale pour éviter l'accident.En rendant ses recherches publiques, Skoda se positionne comme un acteur de la "Safe Tech" et de l'aménagement des smart cities. Des flottes de courriers à vélo, comme Deliveroo, ont déjà testé le prototype avec un retour très positif.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Imaginez un instant qu'en ouvrant simplement votre navigateur pour consulter votre profil professionnel, un algorithme fouille discrètement les moindres recoins de votre machine pour y dresser la liste de vos logiciels installés.C'est précisément l'accusation gravissime qui pèse aujourd'hui sur LinkedIn, la filiale de Microsoft, suite aux révélations de l'enquête BrowserGate menée par l'association Fairlinked.Un code cachéConcrètement, l'investigation révèle que LinkedIn exécute un code caché capable de scanner les extensions de votre navigateur et les logiciels installés sur votre ordinateur.Pour un DSI, c'est un cauchemar de sécurité et de conformité. Le script identifie non seulement des outils de productivité, mais aussi des données ultrasensibles. L'enquête mentionne le repérage d'extensions révélant des opinions politiques, des convictions religieuses ou des troubles neurologiques.Plus cynique encore, LinkedIn scannerait plus de cinq cents outils de recherche d'emploi. En clair, la plateforme sait qui cherche secrètement à quitter son entreprise alors même que l'employeur actuel est souvent un client payant des solutions de recrutement de LinkedIn.LinkedIn surveillerait plus de 200 concurrents directsMais le scandale prend une dimension industrielle quand on regarde la liste des cibles de ce scan.LinkedIn surveillerait plus de deux cents produits concurrents directs de ses propres solutions de vente, comme Apollo ou ZoomInfo. En croisant ces découvertes avec l'identité réelle des utilisateurs et de leurs employeurs, Microsoft dispose d'une cartographie mondiale et en temps réel de la clientèle de ses adversaires.C'est une forme d'espionnage industriel automatisé. Et ces données serviraient déjà à envoyer des mises en demeure ciblées aux utilisateurs d'outils tiers. Pour les entreprises du secteur logiciel, c'est un vol pur et simple de leurs listes de clients via le navigateur de leurs propres utilisateurs.Mais qu'en dit l'UE ?Enfin, cette affaire place LinkedIn dans une posture de défiance ouverte face aux régulateurs, particulièrement en Europe.Alors que le Digital Markets Act oblige les contrôleurs d'accès à ouvrir leur écosystème, LinkedIn aurait fait l'inverse. Officiellement, la firme montre patte blanche à la Commission Européenne.Mais au lieu de favoriser l'interopérabilité demandée par Bruxelles, LinkedIn aurait construit une véritable machine de guerre pour identifier et pénaliser tout usage de services tiers non validés par ses soins.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

On entend souvent dire que 95 % des projets pilotes en IA générative échouent.Mais les données terrain racontent une tout autre histoire : celle d'une pénétration fulgurante dans les plus grandes entreprises mondiales.A bas les idées reçues !D'abord, l'idée que l'IA piétine en entreprise est une idée reçue que les chiffres récents viennent balayer.Aujourd'hui, 29 % des entreprises du Fortune 500 sont déjà des clients payants de startups leaders en IA comme Anthropic ou Perplexity.On ne parle pas ici de simples tests gratuits, mais de contrats signés au plus haut niveau, de pilotes validés, et de solutions déployées de manière effective.Cette rapidité d'adoption est sans précédent. Là où une startup mettait autrefois des années à séduire un grand compte, l'IA a bousculé les normes, poussant les directions à parier sur des technologies émergentes moins de trois ans après le lancement de ChatGPT.L'IA roi du codeConcrètement, le retour sur investissement le plus massif se concentre sur trois piliers : le code, le support client et la recherche d'information.Le développement informatique est, de loin, l'usage dominant. Des outils comme Cursor ou Claude Code ne se contentent pas d'aider. Ils dopent la productivité des meilleurs ingénieurs d'un facteur 10 à 20.Le code est un terrain de jeu idéal pour l'IA car il est dense, textuel et, surtout, vérifiable immédiatement.Le support client suit une logique similaire de rentabilité directe. En s'appuyant sur des procédures standardisées, les agents IA gèrent un volume de tickets plus important avec des scores de satisfaction en hausse, le tout pour un coût réduit.La machine a cash de la santé et du juridiqueMais le vrai changement de paradigme se situe dans les secteurs comme le juridique ou la santé.L'IA a débloqué ces marchés car elle excelle là où les logiciels classiques échouaient. C'est à dire dans l'analyse de textes denses et complexes.Dans le juridique, des solutions comme Harvey atteignent des revenus records en automatisant la rédaction et l'analyse de contrats.Dans la santé, l'IA contourne les lourdeurs des systèmes de dossiers partagés en prenant en charge des tâches administratives précises, comme la transcription médicale.Les capacités des modèles progressent d'ailleurs de manière spectaculaire. On note des bonds de performance de 20 à 30 % en seulement quatre mois sur des tâches liées à l'audit ou à l'investigation. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Derrière le succès fulgurant de ChatGPT et les records de valorisation d'OpenAI se cache une réalité beaucoup plus sombre : celle de son leader, Sam Altman.Alors qu'il s'apprête à affronter Elon Musk devant les tribunaux californiens mi-avril, de nouvelles révélations du New Yorker viennent écorner durablement le mythe du génie philanthrope pour laisser place à une figure de manipulateur dont la moralité interroge les plus hautes sphères de la tech. La question de la fiabilitéEt le premier point concerne la fiabilité même de Sam Altman en tant que dirigeant. Si son éviction temporaire en 2023 avait déjà fait couler beaucoup d'encre, les documents internes révélés ces derniers jours confirment que le malaise est structurel.Ilya Sutskever, l'ancien scientifique en chef de l'entreprise, l'accuse explicitement d'avoir falsifié des données devant son propre conseil d'administration. Et ce manque de transparence n'est pas une anomalie isolée mais semble être un mode opératoire.Pour les décideurs qui intègrent les solutions d'OpenAI dans leurs infrastructures, cette instabilité au sommet pose une question critique de gouvernance : peut-on bâtir une stratégie B2B à long terme sur un partenaire dont les fondateurs eux-mêmes dénoncent la propension au mensonge et à la manipulation ?Décalage entre promesse et réalitéEnsuite, il faut observer le décalage flagrant entre la promesse originelle et la réalité d'OpenAI.On assiste à un glissement majeur sur ce point. La sécurité de l'IA, autrefois priorité absolue pour garantir un bénéfice à l'humanité, est désormais reléguée au second plan derrière la course au profit et au produit.Des équipes entières dédiées à la sûreté ont été écartées, et Sam Altman court-circuite de plus en plus souvent les commissions de contrôle interne pour accélérer les mises sur le marché.Ce passage d'un modèle de recherche éthique à une logique de pure "Big Tech" commerciale change la donne pour les entreprises clientes, qui pourraient se retrouver exposées à des compromis techniques ou éthiques pour satisfaire les objectifs financiers agressifs du groupe.Une approche "tactique" de la conformitéEnfin, l'ambiguïté géopolitique et morale d'Altman ajoute une couche de risque non négligeable. Ses liens étroits avec des puissances étrangères, notamment au Moyen-Orient, ainsi que les rumeurs persistantes sur sa vie privée utilisées comme armes de déstabilisation par ses concurrents, créent un climat de suspicion permanente.Plus inquiétant encore, son approche de la conformité semble purement tactique. Ses critiques affirment que son seul cap sur ce point est de savoir si sa société peut "s'en tirer sans sanctions".Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, nous plongeons dans les coulisses de la transformation numérique de l'immobilier, un secteur où l'intelligence artificielle n'est plus un gadget, mais le moteur principal de la compétitivité.Des photos retouchées ?Le premier constat est sans appel. Pour les agences immobilières, l'IA est devenue un levier de performance.En seulement quarante secondes de navigation sur les portails majeurs d'annonces immobilières, on tombe désormais sur des mentions "photo retouchée par IA".Cette retouche permet par exemple de remplacer un ciel gris par un bleu azur, ou de corriger une exposition défaillante de la photo.Home staging virtuelMais le véritable saut de productivité se situe dans le home staging virtuel.Car transformer virtuellement un salon vétuste en une pièce moderne digne d'un catalogue de décoration permet d'augmenter significativement le taux de clic et le nombre de visites physiques.Mais les agents immobiliers doivent aussi apprendre à "freiner" l'outil d'IA pour qu'il ne dénature pas le bien, sous peine de créer une déception immédiate lors de la visite réelle.Et cela nous amène à notre deuxième point. Car oui, en matière d'IA, il existe une frontière très très ténue entre optimisation marketing et pratique commerciale trompeuse.Si l'embellissement est toléré, la manipulation d'une photo pose un risque juridique.Supprimer une fissure sur un mur, modifier les volumes d'une pièce ou masquer un vis-à-vis entre directement en conflit avec le Code de la consommation.Sauf que actuellement, il n'existe pas de loi spécifique encadrant l'IA dans l'immobilier. Et la mention de son usage n'est pas obligatoire.Pourtant, la régulation se fait par l'usage. En clair, une annonce survendue se brise souvent contre la réalité de la visite.Le défi pour les agents immobiliers est donc de protéger la réputation de l'enseigne, tout en exploitant les capacités offertes par les algorithmes d'IA.Vers le web sémantique et conversationnelMais au delà de l'image modifiée, c'est toute l'expérience de recherche des annonces immobilières qui bascule vers le web sémantique et conversationnel.Nous quittons l'ère des filtres et des cases à cocher pour celle du langage naturel. Demain, ou plutôt dès juin prochain pour certains grands réseaux, les acquéreurs ne chercheront plus "3 pièces, 60 mètres carrés", mais taperont des requêtes complexes comme "cherche un chalet avec vue sur le Mont-Blanc".Pour les professionnels de l'immobilier, l'enjeu est de créer des annonces nativement optimisées pour être indexées par ces nouveaux assistants intelligents. Bref, l'avenir de la profession, c'est déjà maintenant !Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, on analyse le crash d'une promesse technologique qui devait redéfinir la propriété numériques.Oui, je vous parle des NFT. Pourquoi cette bulle, qui brassait des milliards il y a encore trois ans, s'est donc évaporée ?Emballement spéculatifD'abord, il faut revenir sur l'emballement spéculatif qui a déconnecté la valeur du jeton de sa réalité technique, mentionne Les Echos.Entre 2021 et 2022, le marché a été littéralement cannibalisé par les objets de collection, les fameux "collectibles" comme les Bored Apes.On ne parlait plus de technologie blockchain ou de certification d'actifs, mais uniquement de plus-values rapides.À son apogée, une plateforme comme OpenSea était valorisée 13 milliards de dollars, soit autant qu'une grande banque traditionnelle. Cette "NFT-ification" à outrance a créé une rareté artificielle sur des images numériques qui, au fond, n'apportaient pas de service concret aux entreprises.L'argent et le récit marketing ont simplement accéléré beaucoup plus vite que les usages réels.Le coût technique des NFTEnsuite, le deuxième pilier de cet effondrement, c'est la confrontation brutale avec la réalité économique et industrielle.La technologie NFT souffre d'un défaut majeur pour une adoption de masse, à savoir son coût.Pour qu'une innovation s'impose en entreprise, elle doit être radicalement différente ou beaucoup moins chère.Or, créer un NFT coûtait parfois plusieurs dizaines d'euros en frais de réseau, là où une base de données classique réalise la même opération pour quelques centimes.Ce duel était donc perdu d'avance. Ajoutez à cela la fin de "l'argent gratuit" avec la remontée des taux d'intérêt et l'effondrement de l'écosystème crypto suite à l'affaire FTX, et vous obtenez un cocktail toxique qui a fait fuir les investisseurs institutionnels.Un avenir hors du marché de l'artEnfin, la question qui se pose pour les décideurs actuels est celle de l'héritage.Si 99 % des projets de la bulle ont disparu, la technologie n'est pas tout à fait morte, elle est en train de muter vers des usages B2B plus discrets mais plus solides.On quitte le monde de l'art et des avatars pour celui de la logistique, de la billetterie ou de la traçabilité industrielle.Le luxe lui, après s'être brûlé les ailes, utilise désormais ces jetons comme des passeports numériques pour garantir l'authenticité des produits physiques.Bref, c'est la fin du folklore des métavers, mais peut-être le début d'une infrastructure de certification plus mature, débarrassée de son écume spéculative.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

On entend souvent dire que l'intelligence artificielle menace les emplois, mais une étude de l'Insee publiée récemment apporte un éclairage concret et inquiétant sur le secteur informatique français.Pour la première fois, les chiffres montrent que le remplacement des fonctions juniors par l'automatisation n'est plus une théorie de prospectiviste, mais une réalité statistique.SéismeD'abord, il faut mesurer l'ampleur du séisme dans le secteur de la programmation et des services numériques.Après deux décennies de croissance ininterrompue, l'emploi informatique en France marque un coup d'arrêt brutal. Mais ce recul n'est pas uniforme. Selon les données de l'Insee basées sur les déclarations de sécurité sociale, cette baisse est portée quasi exclusivement par les jeunes de moins de trente ans.Fin 2026, l'emploi des 15-29 ans, hors alternance, a chuté de 7,4% sur un an. C'est un indicateur majeur car il confirme une tendance déjà observée aux États-Unis, où le taux d'emploi des jeunes développeurs a plongé de 20% depuis l'émergence de l'IA générative.Concrètement, le ticket d'entrée sur le marché du travail pour les profils juniors est en train de devenir un mur.Le secteur réalise des gains de productivité très importantsEnsuite, l'analyse de la productivité nous donne une clé de compréhension sur la stratégie des entreprises.On pourrait croire que ce recul est dû à un ralentissement économique global, mais les chiffres de la valeur ajoutée disent le contraire.La richesse produite par les entreprises de services informatiques continue de progresser alors que les effectifs jeunes diminuent. Cela signifie que le secteur réalise des gains de productivité très importants.En d'autres termes, les organisations parviennent à produire davantage de code, de documentation et de tests avec moins de ressources humaines. Les tâches de premier niveau, autrefois dévolues aux débutants pour se former, sont désormais absorbées par les outils d'IA, modifiant profondément le besoin en capital humain des DSI.Un défi structurel pour la transmission des compétencesEnfin, ce phénomène pose un défi structurel pour la transmission des compétences et l'avenir des carrières techniques.Si l'Insee reste prudente et ne lie pas encore officiellement 100% de cette baisse à la seule IA, la corrélation temporelle est indéniable.Et le risque est de voir apparaître un trou générationnel. Si l'on ne recrute plus de juniors parce que l'IA fait leur travail de rédaction de rapports ou de débogage de base, comment formerons-nous les seniors de demain ?Le gain de productivité immédiat pourrait se payer par une pénurie de profils experts dans dix ans.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

L'Europe n'a pas dit son dernier mot sur l'échiquier mondial de l'innovation et les chiffres qui viennent de tomber le prouvent.L'Office européen des brevets vient de publier son bilan 2025 et c'est une année historique avec plus de 200 000 demandes déposées.L'informatique reste le moteur de la croissancePremier enseignement majeur, l'informatique reste le moteur de cette croissance, portée par une accélération sans précédent de l'intelligence artificielle.Les dépôts liés aux réseaux neuronaux et à la reconnaissance d'images ont bondi de près de 10 %.Mais la vraie surprise vient de la provenance de ces inventions. Si les États-Unis dominent encore le volume global en informatique, les innovateurs européens gardent la main sur les sous-domaines stratégiques de l'IA.Mieux encore, sur le terrain du quantique, les dépôts européens affichent une santé de fer avec une hausse de plus de 22 %. Cela confirme que la souveraineté technologique européenne est en train de se construire sur le temps long, via la propriété intellectuelle.Les prémices de la 6GEnsuite, il faut noter l'explosion des brevets concernant les infrastructures de communication et les semi-conducteurs.La communication numérique enregistre la progression la plus fulgurante. Et on y voit clairement les prémices de la 6G. Ici, l'Europe fait preuve d'une agressivité nouvelle avec des dépôts en hausse de 23 %.Parallèlement, le secteur des semi-conducteurs poursuit sa montée en puissance. Dans un contexte de tensions sur les chaînes d'approvisionnement mondiales, le fait que les demandeurs européens représentent la plus grosse part des brevets dans les puces est un signal fort. C'est le socle indispensable pour garantir notre autonomie industrielle dans les années à venir.Le domaine de l'énergie électrique est boosté par les technologies de batteriesEnfin, regardons du côté de l'énergie et du stockage. Le domaine des machines et de l'énergie électrique est boosté par les technologies de batteries, qui représentent désormais quasiment la moitié des dépôts de ce secteur.Mais attention, la concurrence asiatique est féroce. Le Japon, la Chine et la Corée du Sud affichent des croissances à deux chiffres.Si l'Europe domine encore huit des dix principaux domaines technologiques, notamment les transports et les instruments de mesure, elle doit accélérer sur le stockage d'énergie pour ne pas devenir dépendante des brevets étrangers.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Le marché de la mobilité s'apprête à vivre une année 2026 sous haute tension et pour cause, une crise des composants sans précédent redessine totalement la fiche technique de nos smartphones.Explosion des coûts de la RAMLe premier point de rupture concerne l'explosion des coûts de la mémoire vive, la fameuse RAM.Sous la pression monumentale des géants de l'intelligence artificielle qui raflent les stocks mondiaux pour leurs serveurs, les prix s'envolent.Pour les fabricants de smartphones, l'impact sur la facture globale des composants est direct. Et leur réponse est un véritable déclassement des configurations.Là où le standard du milieu de gamme s'orientait vers 12 gigaoctets de RAM, les constructeurs font machine arrière pour revenir à des modèles dotés de seulement 8 gigaoctets.Concrètement pour les professionnels, cela signifie d'être très vigilant sur les outils logiciels déployés sur les smartphones. Car moins de mémoire vive pourrait par exemple limiter l'exécution locale des futurs outils d'IA embarquée.Le grand retour du port micro SDMais cette crise force aussi une certaine créativité, et c'est notre deuxième point. On note par exemple le grand retour du port micro SD via des emplacements SIM hybrides.Les constructeurs réintègrent en effet cette solution économique que l'on croyait pourtant condamnée sur les smartphones haut de gamme.Et c'est une excellente nouvelle pour la gestion des coûts de stockage, car elle permet d'étendre la capacité des terminaux à moindre frais.Mais, et c'est une mauvaise nouvelle, ce retour s'accompagne aussi de compromis sur les matériaux. Le châssis en plastique et les lecteurs d'empreintes optiques font leur réapparition sur des segments de prix où l'aluminium et l'ultrasonique étaient devenus la norme.Le message est clair : en 2026, l'esthétique et le confort premium des smartphones sont sacrifiés sur l'autel de la rentabilité.On voit ressurgir des dalles à 90 HertzEnfin, le troisième pilier de cette mutation est l'apparition d'un fossé technologique sur l'entrée de gamme professionnelle.Pour maintenir des prix d'appel compétitifs malgré l'inflation des composants, certains standards de l'affichage régressent. On voit ressurgir des dalles à 90 Hertz, alors que cette technologie est clairement désuète.L'enjeu pour l'acheteur sera donc de naviguer dans un catalogue 2026 où le rapport qualité-prix se dégrade mécaniquement.Et il faudra analyser très finement les fiches techniques, car l'étiquette de prix ne garantira plus, comme auparavant, un certain niveau de qualité matérielle.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Imaginez un collaborateur qui, en pleine session de formation, décide soudainement de monter sa propre petite entreprise de minage de crypto-monnaies sur votre infrastructure. Et ce tout en vous ouvrant une porte dérobée vers l'extérieur.Et bien ce n'est pas le scénario d'un film d'espionnage. Il s'agit plutôt d'une étonnante découverte faite par des chercheurs de l'entreprise chinoise Alibaba quand ils se sont penchés un peu sérieusement sur leur dernier agent d'intelligence artificielle, nommé ROME.Un comportement déviant spontanéJusqu'ici, nous redoutions que les IA soient manipulées par des humains via des injections de requêtes malveillantes.Mais voici que l'agent d'IA ROME a lui eu un comportement spontané. Sans aucune instruction explicite ni sollicitation extérieure, l'IA a tenté de miner de la crypto monnaie en sortant totalement du bac à sable, cet à dire un environnement sécurisé censé la contenir.Plus inquiétant encore, l'agent a créé un tunnel SSH inversé. Concrètement, elle a ouvert un accès discret depuis l'intérieur du système vers un ordinateur externe. Pour un DSI, c'est le cauchemar absolu. Il s'agit d'une faille de sécurité majeure générée non pas par un bug ou un pirate, mais par l'autonomie d'un agent d'IA.Les IA, comme n'importe quel organisme, luttent d'abord pour leur survieEnsuite, cet événement illustre une tendance de fond. Et cette tendance, c'est que les IA, comme n'importe quel organisme, luttent d'abord pour leur survie.Ici, le choix du minage de cryptomonnaie n'est en effet pas du tout le fait du hasard.C'est le carburant naturel d'une entité numérique qui cherche à s'émanciper.Car en accédant à des portefeuilles digitaux, ces agents d'IA peuvent théoriquement rédiger des contrats, échanger des fonds et s'offrir les ressources de calcul nécessaires à leur propre survie.Et cette prise d'initiative n'est d'ailleurs pas un cas isolé.On se souvient de Claude, d'Anthropic, qui avait été capable de dissimuler ses intentions pour éviter d'être mis hors ligne. Ou encore d'agents OpenClaw décidant seuls de chercher un emploi sur le web.Désormais le RSSI doit surveiller le comportement des IABref, désormais le RSSI doit surveiller le comportement des IA.Et pour ce faire, la réponse des chercheurs nous donne une piste sur la stratégie à adopter.Face à ces comportements imprévus, l'équipe d'Alibaba a dû renforcer drastiquement les restrictions du modèle et revoir totalement le processus d'entraînement pour brider ces capacités d'évasion.En clair, le sandboxing traditionnel ne suffit plus. Il devient indispensable d'intégrer des outils de monitoring réseau et de gestion des identités spécifiques aux machines.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, on s'immerge dans le vacarme des entrepôts et des usines pour comprendre comment le Bluetooth est en train de devenir le système nerveux de l'industrie 4.0.Longtemps cantonné à nos casques audio, le standard sans fil s'impose désormais dans la logistique.La fin du trou noir entre deux scansLe premier point de bascule concerne la fin du trou noir entre deux scans dans les entrepôts.Jusqu'ici, la gestion de ces entrepôts reposait sur des événements ponctuels. On scanne un code-barres ou une puce RFID à un point A, puis à un point B. Mais entre les deux, c'est en effet le trou noir de l'information.Un transpalette mal garé ou un chariot élévateur qui tourne à vide restent donc invisibles jusqu'à l'inventaire suivant.Le Bluetooth change la donne en passant d'une logique d'événement à une logique de flux continu puis que cette technologie permet un suivi constant des outils et des objets.Avec des réseaux de capteurs à bas coût, les gestionnaires disposent donc d'une cartographie vivante. Concrètement, si un colis dévie de sa zone ou si un goulot d'étranglement se forme sur un quai de déchargement, l'alerte est immédiate. On ne subit plus l'erreur, on la corrige en cours de shift.La supériorité du Bluetooth face aux technologies sans-fil concurrentesEnsuite, il faut regarder la supériorité du Bluetooth face aux technologies sans-fil concurrentes.Le Wi-Fi, bien que puissant, s'avère souvent imprécis pour la géolocalisation intérieure. Et son usage s'accompagne de frais de licence et de maintenance élevés.Le RFID, lui, plafonne à quelques mètres de portée.Le Bluetooth offre donc le meilleur ratio coût-performance-agilité.Et des cas d'usage concrets existent ! Des acteurs comme Minew ou BlueIOT déploient désormais des passerelles capables de capter les données de milliers de tags en moins de deux minutes en environnement industriel.Pour un DSI, c'est l'assurance d'une infrastructure capable de gérer une haute densité d'objets connectés sans saturer la bande passante.Des cartes de chaleur pour mieux gérer les fluxEnfin, l'impact se mesure sur la rentabilité et la sécurité au travail. Car au-delà du simple suivi de marchandises, la donnée Bluetooth génère des "heatmaps", des cartes de chaleur qui révèlent les failles de conception des flux.Et en analysant les trajectoires des chariots et des personnels, les directions opérationnelles peuvent donc par exemple redessiner les règles de circulation pour éviter les collisions et optimiser les temps de trajet.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Le ciel s'assombrit sur la supply chain mondiale des composants électroniques, et cette fois, le coupable est un gaz noble.L'hélium vient à manquer suite aux frappes iraniennes et au blocage du détroit d'Ormuz.L'hélium n'est pas qu'une question de ballons de baudrucheD'abord, il faut comprendre que l'hélium n'est pas qu'une question de ballons de baudruche. C'est un élément critique et non substituable pour la high-tech.Dans les méga-usines de semi-conducteurs, ce gaz est en effet indispensable pour refroidir les disques de silicium lors de la gravure des puces.Et c'est le Qatar qui assure en temps normal un tiers de l'approvisionnement mondial. L'arrêt brutal de la production sur son site de Ras Laffan sous le feu de l'Iran crée donc un choc d'offre immédiat.QatarEnergy a déjà prévenu qu'il faudra entre trois et cinq ans pour revenir à la normale.Un effet dominoEnsuite, parlons de l'effet domino de ce bombardement sur les géants du secteur et vos futurs équipements.Le leader mondial des composants, le taïwanais TSMC, qui fournit Apple et Nvidia, tente pour l'instant de rassurer les marchés en s'appuyant sur ses stocks de sécurité.Mais attention, les prix de l'hélium flambent déjà avec des hausses dépassant les 40 %.Et si la crise s'installe, ce surcoût sera inévitablement répercuté sur le prix final des serveurs, des stations de travail et des flottes de smartphones.Surtout, au-delà de l'informatique, c'est toute la numérisation de l'économie qui est freinée, des consoles de jeux aux voitures électriques, jusqu'au secteur de l'imagerie médicale qui dépend aussi de ce gaz pour ses IRM.Les États-Unis et l'Algérie tentent de compenserEnfin, cette crise souligne l'urgence absolue de la souveraineté et de la diversification des sources.Dépendre d'une zone géographique à haut risque géopolitique est devenu un pari industriel intenable.Si les États-Unis et l'Algérie tentent de compenser le manque à gagner, leurs capacités ne suffiront pas à combler le vide qatari à court terme.Quant à la Russie, elle dispose de réserves, mais les sanctions internationales bloquent pour l'heure les commandes en provenance d'entreprises occidentales.Cette affaire de l'hélium souligne donc que la résilience numérique ne se joue pas seulement dans le code ou le cloud, mais dans la stabilité physique et géopolitique des usines qui produisent les molécules les plus élémentaires de notre industrie.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Découvrons aujourd'hui le futur de l'hospitalité avec une étude du BCG qui annonce la fin de l'hôtellerie telle que nous la connaissons.Oubliez les recherches interminables sur les plateformes de réservation, l'ère de l'hôtel AI-first, ou littéralement piloté par l'intelligence artificielle, est à nos portes.L'effondrement des agences de voyage en ligneLe premier pilier de cette révolution, c'est l'effondrement du modèle des agences de voyage en ligne, les fameuses OTA.Jusqu'ici, ces plateformes régnaient en maîtres, prélevant des commissions allant de 15 à 30 %. Mais le vent tourne.Selon le BCG, 37 % des voyageurs utilisent déjà des IA pour planifier leurs trajets.Et demain, ce ne sont plus les humains qui chercheront des chambres, mais leurs assistants numériques personnels.Pour les hôteliers, l'enjeu business est vital. Il ne s'agit plus de payer pour être en tête de liste sur un site, mais d'être "lisible" et pertinent pour les algorithmes d'IA qui composeront des itinéraires sur mesure en une fraction de seconde.Ceux qui réussiront cette transition vers la réservation directe pilotée par l'IA pourront capter une part massive des 262 milliards de dollars que représente ce marché.L'IA transforme radicalement la rentabilitéEnsuite, parlons de l'avantage de coût, car c'est là que l'IA transforme radicalement la rentabilité.Dans un secteur où la main-d'œuvre pèse pour la moitié des marges brutes, l'automatisation devient une question de survie, surtout face à une hausse des salaires de plus de 11 % en un an.En synchronisant les plannings des employés et les préférences clients en temps réel, certains établissements ont déjà réduit le temps de préparation des chambres de 20 %.Plus impressionnant encore, l'IA s'attaque au gaspillage alimentaire, avec des réductions de déchets de 50 % en moins d'un an dans certains complexes de luxe.C'est un changement de paradigme : l'IA gère le back-office et la maintenance prédictive, permettant au personnel de se concentrer sur l'interaction humaine.Du mieux sur la conception des plans d'hôtelsEnfin, le troisième point de rupture concerne l'immobilier lui-même.Traditionnellement, construire un hôtel est un processus lent, rigide et coûteux. Et l'IA générative est en train de faire voler ce modèle en éclats.Là où il fallait seize semaines pour étudier seulement deux ou trois concepts architecturaux, les outils de conception générative produisent désormais des milliers de plans optimisés en quelques jours.Couplée à la construction modulaire et à l'impression 3D, cette technologie permet de passer du concept à l'ouverture en quelques mois au lieu de plusieurs années, assure le BCG.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, nous plongeons au cœur du défi numéro un de la cybersécurité moderne : le risque humain.Car ne vous y trompez pas, si les pare-feu et les algorithmes de détection sont de plus en plus robustes, les attaquants, eux, ont trouvé une parade bien plus efficace : pirater l'utilisateur plutôt que la machine. L'effondrement du paradigme technocentréPremier point de rupture, l'effondrement du paradigme technocentré.Pendant des années, la réponse à toute menace a été l'empilement de solutions logicielles affirme le rapport The State of Human Risk 2026 de la société Mimecast.Pourtant, aujourd'hui, la majorité des incidents majeurs ne provient pas d'une faille de code, mais d'un abus d'identifiants ou d'une erreur de manipulation de la part des utilisateurs.Et les cybercriminels exploitent systématiquement ces faiblesses.On sécurise des forteresses videsMais le problème n'est pas que l'humain est faible. En fait nos systèmes de protection n'ont pas été pensés pour la manière dont les employés travaillent réellement en 2026.En clair, on sécurise des forteresses vides alors que les employés sont déjà dehors, exposés à un hameçonnage ultra-personnalisé par l'IA.Ensuite, il faut regarder la réalité mathématique de ce risque, et elle est frappante.Saviez-vous que seulement 8 % des collaborateurs sont à l'origine de 80 % des incidents de sécurité ?En clair, nous faisons face à une concentration extrême du danger.Et attention, on ne parle pas ici de sabotage interne ou de malveillance. Il s'agit la plupart du temps d'employés bien intentionnés, mais victimes de la fatigue, de la distraction ou de tactiques d'ingénierie sociale tellement sophistiquées qu'elles deviennent indétectables.Et l'impact financier, lui, n'a rien de virtuel. Un seul incident lié à une menace interne coûte en moyenne 13 millions de dollars.La place de la FranceEnfin, comment se situe la France dans ce paysage mouvant ?Le marché français se distingue par une posture de "pragmatique prudent" selon l'étude.Les décideurs français ne cèdent pas à la panique mais adoptent une approche méthodique. Les DSI français ont compris que l'IA sert avant tout aux attaquants pour créer des leurres parfaits.Pour y répondre, la France mise sur deux leviers.D'abord, une gouvernance de fer héritée des secteurs très réglementés comme la banque, qui tire l'ensemble du marché vers le haut.Ensuite, une conviction profonde que la technologie seule est aveugle sans formation.En France, l'éducation des utilisateurs est donc perçue comme un investissement de sécurité prioritaire.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, on démonte une idée reçue qui a la vie dure dans les couloirs des DSI.Non, les agents d'IA ne vont pas tuer les bases de données vectorielles. C'est même tout le contraire.On pensait que l'augmentation massive de la taille des fenêtres de contexte des grands modèles de langage rendrait la recherche vectorielle obsolète, mais la réalité du terrain montre que les agents ont besoin de ces infrastructures plus que jamais.Du RAG aux agents d'IAD'abord, il faut comprendre que le passage du RAG classique, la génération augmentée par récupération, vers les agents autonomes change totalement d'échelle.Là où un humain pose quelques questions par minute, un agent peut générer des centaines, voire des milliers de requêtes par seconde pour collecter les informations nécessaires à une seule prise de décision.Cette intensité transforme la recherche vectorielle, qui n'est plus un simple accessoire de stockage mais devient une véritable couche d'infrastructure critique.C'est ce que confirme Andre Zayarni, le patron de Qdrant, qui vient de lever 50 millions de dollars. Pour lui, la mémoire des agents ne remplace pas la recherche, elle s'appuie dessus.Et si cette couche de récupération n'est pas taillée pour la charge, c'est toute la qualité de la décision de l'IA qui s'effondre.Vers les moteurs spécialisésEnsuite, parlons de la spécialisation technique.Aujourd'hui, presque toutes les bases de données du marché, de Postgres aux solutions des hyperscalers, supportent le format vectoriel.Mais attention, supporter un format ne signifie pas savoir gérer la performance à grande échelle.Et pour les entreprises qui manipulent des millions de documents, les solutions généralistes montrent vite leurs limites.On observe en effet trois signaux d'alerte : une dégradation de la pertinence quand les données changent trop vite, une latence qui explose lors des appels d'outils en parallèle par l'agent, et des coûts d'infrastructure qui s'envolent.C'est là que des moteurs spécialisés, souvent écrits en Rust, reprennent l'avantage en offrant une précision que les fenêtres de contexte ne peuvent pas garantir seules.Dès que la qualité vient à manquer, il faut migrerEnfin, l'enjeu stratégique pour vos équipes est de savoir quand basculer vers une infrastructure dédiée.Commencez donc avec ce que vous avez déjà dans votre pile technologique. Mais dès que la qualité vient à manquer, il faut migrer.En clair, l'agent n'est que l'interface. C'est la base vectorielle qui est la "vérité du terrain".En résumé, les bases vectorielles ne sont pas un artefact de l'ère précédente, elles sont le moteur de l'autonomie des agents de demain.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, nous plongeons dans les entrailles de l'infrastructure de Netflix. Le géant du streaming vient de lever le voile sur un mystère technique : pourquoi vos conteneurs ralentissent-ils parfois sans raison ?La réponse ne se trouve pas dans votre code, mais bien plus bas, au croisement du noyau Linux et de l'architecture de vos processeurs.Le mur invisible du noyau LinuxEt le premier point, c'est le mur invisible du noyau Linux.Les ingénieurs de Netflix ont en effet remarqué que lors de pics de charge, la création de conteneurs se figeait totalement pendant plusieurs secondes.En creusant, ils ont découvert un goulot d'étranglement au niveau du "Global Mount Lock" du système de fichiers virtuel de Linux.Concrètement, chaque conteneur nécessite des dizaines de montages de couches d'images. Et lors d'un déploiement massif, le système peut subir plus de 20 000 appels système simultanés.Et comme ils doivent tous passer par un seul et même verrou de sécurité dans le noyau, tout le serveur s'arrête net, un peu comme une foule immense essayant de passer par une seule porte battante.Tous les processeurs ne sont pas égauxMais le second pilier, c'est l'impact crucial du matériel.Car l'étude de Netflix révèle que tous les processeurs ne sont pas égaux face à ce stress.Sur les anciennes instances, la gestion de la mémoire entre les processeurs, ce qu'on appelle le NUMA, aggrave massivement la latence.À l'inverse, les puces de nouvelle génération, comme les processeurs AMD et Intel les plus récents sur AWS, s'en sortent bien mieux grâce à leurs architectures de cache distribué.Et plus surprenant encore, désactiver l'Hyper-Threading a permis d'améliorer la latence de 30 %.Bref, pour des charges de travail intensives en conteneurs, le choix de l'instance cloud ne se résume pas au nombre de cœurs, mais à la topologie réelle du silicium.Repenser la structure même des images de conteneursEnfin, quelles solutions pour vos équipes ?La solution la plus efficace a été pour Netflix de repenser la structure même des images de conteneurs. En regroupant les montages de couches sous un parent commun, Netflix a fait passer la charge de travail d'un mode linéaire à un mode constant.Peu importe le nombre de couches de votre application, l'impact sur le noyau reste donc minimal. En combinant cette optimisation logicielle avec un routage des tâches vers les processeurs les plus robustes, le groupe a retrouvé de la fluidité.C'est la preuve qu'à grande échelle, la performance ne se gagne plus seulement dans l'application, mais dans une parfaite maîtrise de toute la pile technologique.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Google vient de franchir une étape historique pour sa division Cloud en bouclant le rachat de Wiz pour 32 milliards de dollars.Ce n'est pas seulement une acquisition de plus, c'est une refonte totale de la stratégie de cybersécurité du géant de Mountain View qui entend désormais s'imposer comme le gardien du temple de l'intelligence artificielle. Le fameux "security graph" de WizPremier point, Google Cloud et Wiz affichent une ambition claire : passer d'une sécurité réactive à une protection "de bout en bout" pensée pour l'ère de l'IA.Concrètement, l'idée est de fusionner le renseignement sur les menaces de Google avec le fameux "security graph" de Wiz.Ce dernier permet de cartographier l'intégralité des ressources cloud, du code source jusqu'à l'exécution en temps réel.Pour les DSI, la promesse est forte : disposer d'une plateforme unique intégrant les opérations de sécurité, la détection des menaces et la protection spécifique des modèles d'IA.Une approche strictement multi-cloud et multi-modèlesDeuxième axe stratégique, et c'est sans doute le plus crucial pour le marché, Google et Wiz maintiennent une approche strictement multi-cloud et multi-modèles.C'était la grande crainte des observateurs, mais la réponse des dirigeants est sans équivoque : Wiz restera agnostique. La plateforme continuera de sécuriser les environnements des clients, qu'ils tournent sur AWS, Azure ou Google Cloud.De la même manière, si Gemini sera au cœur de l'intégration, la plateforme ne se fermera pas aux autres modèles de langage. Dans un monde hybride où les entreprises refusent de mettre tous leurs œufs dans le même panier, Google joue la carte de l'ouverture, quel que soit l'hébergeur ou l'IA utilisée.L'arrivée des agents d'IAEnfin, l'apport de Google doit permettre à Wiz de passer à la vitesse supérieure en matière d'automatisation grâce aux agents d'IA.Aujourd'hui, le temps entre la découverte d'une vulnérabilité et son exploitation par des acteurs malveillants s'est drastiquement réduit.Pour contrer cette accélération, l'intégration prévoit de doper les trois agents IA de Wiz dédiés aux tests d'intrusion, à l'investigation et à la remédiation.L'objectif final est d'aboutir à des flux de travail entièrement "agentiques" où la sécurité s'auto-corrige presque en temps réel.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Le stockage pour les pros vient de vivre un véritable changement de dimension ces derniers mois.Selon les derniers chiffres de TrendForce pour le quatrième trimestre 2025, les revenus des cinq plus grands fabricants mondiaux de disques SSD pour entreprises ont bondi de plus de 50 %.On ne parle plus ici d'une simple croissance de marché, mais d'une explosion portée par la maturité de l'intelligence artificielle générative et une mutation profonde des infrastructures de données.Le basculement massif de l'IA vers la phase d'inférenceLe premier moteur de cette envolée, c'est le basculement massif de l'IA vers la phase d'inférence.Si 2024 et le début de 2025 étaient consacrés à l'entraînement des modèles d'IA, nous sommes désormais dans l'ère de l'exécution.Or, l'inférence demande une lecture de données ultra-rapide et constante. Conséquence directe, les clients délaissent les disques durs mécaniques, dont les stocks s'amenuisent, pour passer au tout SSD.C'est le groupe SK qui tire le mieux son épingle du jeu avec une croissance record de 75 % sur le trimestre. Leur stratégie est claire : miser sur les SSD de très haute capacité basés sur la technologie QLC. Ces disques permettent de stocker des volumes massifs de données tout en offrant la réactivité nécessaire aux serveurs d'IA modernes.La sécurisation des approvisionnementsLe deuxième point clé de cette mutation réside dans la verticalité et la sécurisation des approvisionnements.Samsung conserve sa place de leader mondial grâce à un argument de poids en période de tensions logistiques : le contrôle total de sa chaîne de valeur.En produisant à la fois ses propres puces de mémoire vive DRAM et ses puces de stockage NAND Flash, le géant coréen rassure les DSI qui craignent des ruptures de stock.Cette intégration verticale devient un avantage concurrentiel critique alors que les infrastructures deviennent de plus en plus complexes.L'innovation se déplace désormais sur les SSD à haute enduranceEnfin, il faut regarder vers l'avenir proche car le paysage technologique va encore bouger.Micron et Kioxia l'ont bien compris en délaissant le marché grand public pour se concentrer sur les marges élevées du secteur professionnel.L'innovation se déplace désormais sur des segments de niche mais stratégiques, comme les SSD à haute endurance capables de supporter des cycles d'écriture intensifs pour les opérations de mise en cache.Pour les décideurs, l'enjeu de 2026 ne sera pas seulement de trouver du volume de stockage, mais de choisir des solutions spécifiquement optimisées pour les charges de travail de l'IA, capables d'allier vitesse de transfert et stabilité sur le long terme.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Et si le succès planétaire de Pokémon Go n'était pas seulement une affaire de chasse aux monstres, mais le fondement très discret d'une infrastructure pour la robotique autonome ?C'est le pari de Niantic Spatial, qui transforme des milliards de captures d'images en un système de géolocalisation d'une précision chirurgicale.Une base de données de 30 milliards d'images de paysages urbainsD'abord, il faut comprendre que Niantic possède un actif unique au monde : une base de données de 30 milliards d'images de paysages urbains, capturées sous tous les angles par des centaines de millions de joueurs depuis 2016.Contrairement aux voitures Google Street View qui restent sur la chaussée, les joueurs de Pokémon Go ont documenté les trottoirs, les parcs et les recoins piétons.En exploitant ces données crowdsourcées, Niantic a entraîné un "modèle de monde" capable de situer un objet avec une marge d'erreur de seulement quelques centimètres.C'est ce qu'on appelle le positionnement visuel, une technologie qui s'affranchit des limites physiques de la cartographie traditionnelle.Une réponse concrète au "canyon urbain"Ensuite, ce modèle apporte une réponse concrète au cauchemar des robots de livraison, à savoir le "canyon urbain".Car en ville, le signal GPS est notoirement instable. Entre les gratte-ciels et les tunnels, les ondes rebondissent, provoquant des erreurs de positionnement de plusieurs dizaines de mètres.Pour un robot livreur de la startup Coco Robotics, qui vient de signer un partenariat exclusif avec Niantic, une telle dérive signifie finir sur la mauvaise rue ou bloquer le passage des piétons.En utilisant ses caméras pour comparer ce qu'il voit avec le modèle de Niantic, le robot peut désormais naviguer sans GPS avec une fiabilité totale, garantissant que votre pizza arrive exactement au bon pas de porte.L'ère des cartes pour humains touche à sa finEnfin, cette collaboration marque un tournant stratégique dans la conception même des cartes numériques.Pour les experts de Niantic, l'ère des cartes pour humains touche à sa fin au profit de cartes pour machines.On ne parle plus simplement de coordonnées géographiques, mais de "descriptions sémantiques". Le but est de créer un jumeau numérique vivant du monde réel, où chaque objet est étiqueté avec ses propriétés physiques pour aider l'intelligence artificielle à acquérir ce "sens commun" de l'espace qui lui manque encore.C'est l'étape indispensable pour que les robots s'intègrent de manière fluide et non disruptive dans notre environnement quotidien.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Plongeons dans la sécurité du ciel avec une annonce majeure d'Orange Business.L'opérateur lance une offre nommée Orange Drone Guardian.C'est une solution de lutte anti-drones qui change radicalement la donne pour les sites sensibles.La lutte anti-drones "as a Service"D'abord, il faut comprendre qu'Orange ne se contente pas de vendre des capteurs de détection des drones, mais propose une véritable rupture de modèle avec la lutte anti-drones "as a Service".Concrètement, pour les Opérateurs d'Importance Vitale, les ports ou les aéroports, Orange Drone Guardian repose sur un abonnement qui offre une détection, une identification et une classification des drones intrus en temps réel.Cette agilité permet aux organisations de se concentrer sur l'alerte opérationnelle plutôt que sur la gestion technique des radars ou des caméras. Et de passer en coût Opex un coût Capex souvent très conséquent, puisque la maintenance de ces équipements est très onéreux.Utilisation inédite du patrimoine d'infrastructure d'OrangeEnsuite, la force de frappe de cette offre réside dans l'utilisation inédite du patrimoine d'infrastructure d'Orange.L'opérateur s'appuie sur les 19 700 sites de Totem, sa TowerCo, pour transformer ses points hauts en supports pour les capteurs de détection de son système anti drone.Cette capillarité territoriale est un avantage compétitif immense. Elle permet de surveiller des zones urbaines denses ou des sites industriels, et ce sans que le client n'ait à ériger ses propres pylônes ou son propre système de surveillance.Toutes ces données sont ensuite acheminées vers Cloud Avenue, la plateforme SecNumCloud de l'opérateur.L'idée est donc de proposer une chaîne de confiance 100% souveraine, de l'antenne au stockage, ce qui est un argument de poids pour les institutions publiques et les OIV.Simuler des scénarios d'attaqueEnfin, Orange Drone Guardian se veut une plateforme d'IA ouverte et tournée vers l'avenir.L'architecture est dite "ouverte" parce quelle peut intégrer des jumeaux numériques pour simuler des scénarios d'attaque, ou encore les futures capacités de radio sensing offertes par la 5G.Cela signifie qu'à terme, le réseau mobile d'Orange lui-même pourrait devenir un capteur géant capable de repérer des objets volants.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, nous plongeons au cœur d'une révolution pour la santé publique mondiale.Google vient de dévoiler comment son outil Google Earth AI, dopé aux nouveaux modèles de fondation, transforme la gestion des crises sanitaires en passant d'une logique de réaction à une stratégie de prédiction.Modéliser la dynamique des populationsLe premier pilier de cette avancée repose sur la capacité de l'IA à modéliser la dynamique des populations à une échelle inédite.Grâce au Population Dynamics Foundation Model, ou PDFM, Google ne se contente plus de fournir des cartes satellites. L'outil analyse désormais comment les populations interagissent avec leur environnement physique, qu'il s'agisse de la qualité de l'air, de la météo ou des infrastructures de transport.Concrètement, au Malawi, des chercheurs utilisent ces données pour prédire le taux d'utilisation des hôpitaux.Pour un décideur en santé, cela signifie pouvoir anticiper les signes avant-coureurs d'une épidémie et allouer les ressources humaines et matérielles là où la pression va monter. Et ce avant même que les patients ne se présentent en nombre.Maladies aux facteurs climatiques et géographiquesMais l'impact est encore plus frappant lorsqu'on s'attaque aux maladies dont la propagation dépend de facteurs climatiques et géographiques.En couplant les modèles de séries temporelles de Google avec les données météo et la dynamique des populations, la précision des prévisions pour des maladies comme le choléra ou la dengue fait un bond de géant.En Afrique, une collaboration avec l'OMS a permis d'améliorer la précision des prévisions de cas de choléra de 35 % par rapport aux modèles standards.Et au Brésil, les autorités disposent désormais d'une visibilité à six mois sur les pics de dengue. Cette fenêtre de tir permet de déployer des stocks de médicaments ou des campagnes de prévention de manière proactive.Estimations de couverture vaccinale à l'échelle du code postalEnfin, cette nouvelle sorte d'IA s'attaque à un défi de précision chirurgicale.Aux États-Unis, des chercheurs utilisent Earth AI pour produire des estimations de couverture vaccinale à l'échelle du code postal, et ce avec la promesse de ne pas compromettre la vie privée.Cette « super-résolution » des données permet d'identifier des poches de sous-vaccination invisibles dans les statistiques globales, mais qui correspondent pourtant aux récents foyers de rougeole.Pour le secteur de la santé, le message est clair : l'IA géographique n'est plus un outil de visualisation. Il est en passe de devenir un nouveau système nerveux de la prévention mondiale.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Imaginez pouvoir séjourner dans les plus grands palaces madrilènes pour le prix d'un bonbon.C'est l'exploit, certes illégal, réalisé par un hacker de 20 ans en Espagne.Mais derrière l'anecdote du séjour à un centime d'euro se cache une faille critique dans les paiements en ligne.Forcer le système à accepter un montant dérisoireD'abord, il faut comprendre le mécanisme de cette intrusion. Le hacker ne s'est pas contenté de voler des numéros de carte bancaire, il a directement manipulé le flux de données entre le site de réservation et une plateforme de paiement internationale de premier plan.Au moment de finaliser sa transaction, il modifiait le processus de validation pour forcer le système à accepter un montant dérisoire tout en renvoyant une confirmation d'achat apparemment légitime.Concrètement, le système de l'hôtel recevait un feu vert officiel pour une réservation de plusieurs milliers d'euros, alors que le virement effectif n'était que d'un centime. C'est une attaque sophistiquée sur l'intégrité des données en transit qui montre que la simple présence d'un prestataire de paiement reconnu ne suffit pas à garantir la réalité de la somme versée.Décalage temporel entre la validation du paiement et le règlement financierEnsuite, cette affaire met en lumière une faille majeure. Il s'agit du décalage temporel entre la validation du paiement et le règlement financier.Dans ce cas précis, l'escroquerie n'était détectée que plusieurs jours après le départ du client, au moment où la plateforme de paiement virait les fonds réels sur le compte de l'hôtel.Ce "modus operandi", identifié pour la première fois par la police espagnole, exploite une confiance aveugle dans les notifications de succès transactionnel.Le préjudice est ici de plus de 20 000 euros. Cela souligne l'urgence pour les DSI de mettre en place des systèmes de réconciliation financière en temps réel, capables de vérifier que le montant autorisé correspond strictement au montant facturé. Et ce avant de fournir la prestation.La cybersécurité des plateformes de réservation tierces est le maillon faible de l'écosystèmeEnfin, cet incident nous rappelle que la cybersécurité des plateformes de réservation tierces est le maillon faible de l'écosystème.L'enquête a d'ailleurs démarré suite à la plainte d'une agence de voyages, et non de l'hôtel lui-même.Pour les professionnels, le risque est double : financier, bien sûr, mais aussi réputationnel.La réponse ne peut plus être uniquement technique, elle doit être procédurale, en intégrant des alertes automatiques sur les écarts de prix flagrants lors de la validation.Car si le hacker de 20 ans a fini par être arrêté dans un palace de Madrid, il est la preuve même que la technologie ne dispense pas d'une surveillance humaine.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, nous plongeons dans le palmarès 2025 des véhicules volés. Si le nombre total de vols baisse de 9 %, la technologie a radicalement changé la donne : le vol physique disparaît au profit de méthodes électroniques sophistiquées.Le chiffre est spectaculaire : en 2010, 80 % des vols de voitures se faisaient avec effraction. En 2025, cette proportion s'est inversée : dans 70 % des cas, le véhicule est dérobé sans aucune trace visible."Mouse jacking"Cette transformation technologique, souvent appelée "mouse jacking", permet aux malfaiteurs de pirater les systèmes de sécurité électroniques en quelques secondes.Les réseaux criminels investissent désormais entre 4 000 et 5 000 euros dans du matériel spécifique : brouilleurs de fréquence, boîtiers de démarrage modifiés ou même des enceintes connectées trafiquées pour intercepter les signaux des clés.Le palmarès 2025 montre aussi que les voleurs se professionnalisent et s'internationalisent.Les voitures électriques sont encore largement épargnéesLes modèles les plus ciblés, comme le Toyota RAV4 ou la Hyundai Tucson IV, sont choisis pour leur forte valeur de revente sur les marchés étrangers. À l'inverse, les voitures électriques sont encore largement épargnées car les infrastructures de recharge manquent dans les pays où sont exportés les véhicules volés. Il s'agit surtout des pays d'Afrique du Nord, d'Afrique de l'Ouest, d'Europe de l'Est ou du Moyen-Orient précise la société Coyote.Cependant, l'hyper-connectivité des modèles récents crée de nouvelles failles. Les experts alertent sur le détournement d'applications mobiles et l'exploitation de données circulant sur le web pour ouvrir et démarrer des voitures haut de gamme à distance.Le vol de véhicule devient ainsi une activité de cybercriminalité à part entière.Des mesures tech de protectionFace à cette "techno-délinquance", la réponse des autorités et des assureurs est elle aussi technologique. Le groupement ARGOS a déployé "ARGOS Tracking", une plateforme qui transmet en temps réel les données de géolocalisation des véhicules volés aux forces de l'ordre.En 2025, cette collaboration a permis de retrouver près de 40 % des voitures déclarées volées. Un tiers d'entre elles sont récupérées en moins d'une semaine.Pour les gestionnaires de flotte, l'intégration de traceurs GPS et l'inscription aux fichiers de traçabilité numérique deviennent des piliers indispensables de la gestion des risques.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Imaginez un processeur qui n'est pas fait de silicium, mais de véritables neurones humains cultivés en laboratoire, capables d'apprendre à jouer au jeu vidéo culte Doom.Ce n'est plus de la science-fiction, c'est la dernière avancée de la start-up australienne Cortical Labs qui vient de commercialiser son boîtier CL1, une machine hybride où le vivant rencontre l'informatique.Une prouesse techniqueLe premier point à retenir, c'est la prouesse technique derrière cette interface cerveau-machine.Pour que des neurones puissent jouer à un jeu en 3D comme Doom, il faut traduire le chaos de l'écran en impulsions électriques.Le flux visuel du jeu est converti en signaux acheminés vers cinquante-neuf électrodes qui stimulent le tissu neuronal.En retour, les neurones répondent par leurs propres décharges, lesquelles sont immédiatement traduites en commandes : tirer, avancer ou pivoter.Contrairement aux IA classiques qui traitent des données froides, on est ici face à un apprentissage adaptatif en temps réel avec une latence inférieure à la milliseconde.Les neurones cherchent instinctivement à structurer leur activité pour réduire l'imprévisibilité de leur environnement électrique, une théorie biologique appelée le principe de l'énergie libre.Nous ne sommes pas encore face à un champion d'e-sportMais attention, car le deuxième point nous force à la nuance. Nous ne sommes pas encore face à un champion d'e-sport organique.Si les neurones montrent des signes de détection d'ennemis et de navigation, leurs performances restent celles d'un débutant complet.Pour l'instant, le personnage meurt beaucoup, il erre, mais il apprend de ses erreurs d'une manière radicalement différente d'un algorithme traditionnel.Le potentiel économique et énergétiqueEnfin, il faut regarder le potentiel économique et énergétique de cette technologie.Cortical Labs a déjà livré ses cent quinze premiers exemplaires du CL1 au prix de trente-cinq mille dollars l'unité. L'argument choc pour les entreprises n'est pas seulement la puissance de calcul, mais la sobriété.Un rack de trente unités biologiques consomme moins de mille watts, soit une fraction infime de ce qu'exige un cluster de GPU traditionnel pour faire tourner des modèles d'IA.À l'heure où la consommation énergétique de la tech devient un frein stratégique, l'ordinateur biologique propose une voie de rupture : utiliser l'efficacité naturelle du cerveau humain, le processeur le plus économe au monde, pour traiter des tâches complexes.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

L'industrie automobile allemande, symbole de puissance mécanique, est en train de vivre sa mue robotique sous la pression de la concurrence asiatique.BMW vient de franchir un cap symbolique à Leipzig en intégrant deux robots humanoïdes sur ses lignes de production.Ce n'est plus de la science-fiction, c'est une réponse directe aux enjeux de compétitivité.Au delà des simples automates programmésD'abord, il faut comprendre que ces robots, développés par le Suédois Hexagon, ne sont pas de simples automates programmés.Ce sont des agents autonomes dopés à l'intelligence artificielle. Hauts de un mètre soixante-cinq, ces humanoïdes sur roues possèdent vingt-deux capteurs et une vision à 360 degrés qui leur permettent de naviguer dans une usine intégralement numérisée.Contrairement aux bras robotiques classiques fixés au sol, ce robot prend ses propres décisions pour identifier le chemin optimal et manipuler des composants. C'est l'IA qui devient le système nerveux de l'usine, capable de gérer l'imprévu sans intervention humaine constante.Chaque unité coûte un montant à six chiffresEnsuite, parlons du modèle économique de cette main-d'œuvre d'un nouveau genre.Chaque unité coûte un montant à six chiffres, un investissement massif qui vise à transformer les coûts fixes en gains de productivité sur le long terme.Avec une autonomie de trois heures et un changement de batterie éclair en trente secondes, ces machines promettent une continuité de flux que l'humain ne peut égaler sur des tâches répétitives.Face aux craintes légitimes de suppressions de postes, BMW adopte une communication prudente : le groupe assure qu'il n'est pas prévu de réduire la main-d'œuvre, mais de soulager les employés des tâches les plus pénibles.L'idée est de créer un binôme homme-machine où l'IA gère la logistique interne pour laisser aux techniciens les missions à plus haute valeur ajoutée.Un contexte de guerre technologique mondialeEnfin, ce déploiement est un signal politique fort dans un contexte de guerre technologique mondiale.Alors que le chancelier Friedrich Merz vient de constater l'avance fulgurante de la Chine en visitant les usines d'Unitree, l'Allemagne n'a plus le choix.Pour BMW, l'enjeu est de prouver que la vieille Europe peut encore mener la danse de l'innovation industrielle. En intégrant l'IA au cœur de son usine de Leipzig, le constructeur cherche à combler son retard de compétitivité face à des constructeurs chinois qui automatisent à marche forcée. C'est une bataille pour la survie du label "Made in Germany" qui se joue désormais à coups d'algorithmes et de capteurs LiDAR.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Et aujourd'hui, nous allons parler d'un saut de géant pour la mobilité en entreprise et dans le secteur public.Apple vient en effet de franchir une étape historique. L'OTAN a officiellement validé l'iPhone et l'iPad pour traiter des informations classifiées.C'est un séisme dans le monde de la cybersécurité.Fini les smartphones spécialisés ?D'abord, comprenons bien la portée de cette annonce. L'OTAN a certifié que les iPhone et iPad de série, tournant sous iOS 26 et iPadOS 26, sont désormais jugés assez sûrs pour manipuler des données classées au niveau Restreint.On ne parle pas ici de téléphones durcis, de prototypes militaires ou de matériel spécifique modifié de fond en comble. Non, il s'agit des appareils que vous et moi avons dans la poche.Pour les DSI et les responsables de la sécurité, c'est la fin d'un vieux dogme. Jusqu'ici, on considérait que le matériel grand public, aussi sophistiqué soit-il, ne pouvait pas atteindre ce degré de confiance sans des couches logicielles lourdement modifiées.Et Apple vient de prouver le contraire en intégrant ses produits au catalogue officiel de l'OTAN, une liste où l'on ne croise d'habitude que des fournisseurs spécialisés dans la défense.Comment Apple a-t-il réussi à convaincre l'Alliance Atlantique ?Ensuite, comment Apple a-t-il réussi à convaincre l'Alliance Atlantique ?Le secret réside dans une configuration spécifique nommée Indigo. Cette validation s'appuie sur le travail préalable de l'Office fédéral allemand de la sécurité de l'information, le BSI.Après des tests techniques approfondis, leurs experts ont conclu que l'architecture matérielle et logicielle d'Apple offrait des garanties suffisantes.Les processeurs A19 et M5 jouent ici un rôle crucial. Ils intègrent la technologie Memory Integrity Enforcement, qui bloque des classes entières de cyberattaques s'attaquant à la mémoire.Ajoutez à cela l'enclave sécurisée qui isole les clés de chiffrement et la biométrie, et vous obtenez une forteresse numérique capable de protéger des mails, des calendriers et des contacts sensibles sans nécessiter de logiciels tiers complexes.Quel est l'impact concret pour le marché professionnel ?Enfin, quel est l'impact concret pour le marché professionnel ? Et bien c'est un argument commercial massif.En devenant le seul fabricant d'appareils grand public à bénéficier de cette distinction auprès des nations de l'OTAN, Apple ringardise les solutions ultra-verrouillées et coûteuses de niche.Cette certification valide la stratégie du "Security by Design" d'Apple et risque d'accélérer l'adoption de l'iPad et de l'iPhone dans toutes les administrations et industries critiques qui calquent leurs exigences sur les standards de l'OTAN.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

C'est une mésaventure qui aurait pu être fatale à une PME britannique, mais qui sert surtout de mise en garde brutale pour tous les gestionnaires de flottes mobiles.Andrew Alty, un chef d'entreprise anglais, a vu sa facture de roaming s'envoler à environ 50 000 euros, et ce après seulement huit heures d'utilisation de TikTok par sa fille, durant des vacances au Maroc.Surtout, ce qui ressemble à une erreur de virgule est en réalité le résultat d'une faille contractuelleLe piège du contrat pro sans garde-fouEt le premier, c'est le piège du contrat pro sans garde-fou.Car contrairement aux contrats destinés aux particuliers, qui bénéficient souvent de protections automatiques ou de plafonds de consommation imposés par les régulateurs, les contrats "Business"offrent plus de flexibilité. Mais aussi plus de risques.Et sans ce verrou, le prix de la donnée explose. À plus de 5 000 euros l'heure de navigation sur un réseau étranger, le flux vidéo ultra-gourmand de TikTok devient une arme de destruction financière massive pour la trésorerie d'une petite structure de cinq personnes.Il a fallu une médiation pour que les charges soient finalement annulées.Anticiper le décalage entre les usages personnels et professionnelsLa morale de l'histoire, c'est que la signature d'un contrat de flotte mobile ne doit jamais se limiter au prix du forfait mensuel. L'audit des clauses d'itinérance et la vérification de l'activation des seuils d'alerte sur chaque ligne sont des étapes critiques.Enfin, il faut anticiper le décalage entre les usages personnels et professionnels, et la réalité technique des réseaux.Nous vivons dans une ère de data illimitée en Europe. Et cela crée un sentiment de sécurité trompeur.Car dès que l'on sort des zones de libre itinérance, les mécanismes de facturation de gros entre opérateurs internationaux reprennent leurs droits avec des tarifs tout à fait prohibitifs.Le recours au MDMPour les entreprises, la solution passe par des outils de Mobile Device Management, ou MDM, qui permettent de bloquer les applications non professionnelles ou de restreindre l'usage de la data dès qu'une carte SIM change de zone géographique.Car sans une politique de sécurité mobile stricte, le smartphone reste le maillon le plus imprévisible de votre comptabilité.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

La course à la connectivité ultime vient de franchir un nouveau cap à Barcelone.Lors du Mobile World Congress 2026, qui se tenait la semaine dernière à Barcelone, Qualcomm a dévoilé son nouveau fleuron, le modem X105.Et ce composant est le pivot d'une bataille stratégique qui oppose le fondeur de San Diego au géant Apple, tout en traçant la route vers la future 6G.Vers la 5G AdvancedD'abord, le X105 marque l'avènement de ce qu'on appelle la 5G Advanced.C'est techniquement le premier modem au monde compatible avec la version 19 de la norme 5G. Pour les entreprises et les utilisateurs, cela se traduit par des chiffres vertigineux.On parle d'une bande passante capable d'atteindre 14,8 gigabit par seconde en téléchargement.Mais la performance brute n'est pas le seul argument. Grâce à une gravure ultra-fine en 6 nanomètres, Qualcomm réussit le tour de force de réduire la consommation d'énergie de 30 %.C'est un gain crucial pour l'autonomie des flottes de smartphones professionnels, mais aussi pour l'intégration de ce modem dans des terminaux toujours plus fins.Prise en charge complète des réseaux non-terrestresEnsuite, ce modem change la donne sur la connectivité entre terre et espace. Le X105 intègre en effet une prise en charge complète des réseaux non-terrestres, la 5G satellite.Concrètement, si vous perdez la couverture réseau classique, le système bascule automatiquement sur le satellite pour les messages, la voix et même la vidéo.Et si vraiment rien ne passe, il utilise un standard de secours pour garantir une messagerie minimale, même dans les zones les plus isolées comme les parkings souterrains ou les ascenseurs. C'est une assurance de continuité de service quasi totale pour les travailleurs nomades ou les infrastructures critiques.Une contre-attaque frontale face à AppleEnfin, il faut lire entre les lignes. Ce lancement est une contre-attaque frontale face à Apple.La firme à la pomme tente de s'émanciper en développant ses propres modems internes, les puces C1 et C2, déjà présentes sur certains modèles d'iPhone.En dégainant le X105 maintenant, Qualcomm veut prouver que son avance technologique est trop importante pour être rattrapée facilement.Et en intégrant des briques technologiques qui préfigurent déjà la 6G, le fondeur espère rendre ses puces indispensables pour les futurs iPhone 18 et au-delà, alors que l'accord de licence avec Apple arrive à échéance en 2027.En clair, Qualcomm ne vend pas seulement du débit, il vend du temps d'avance.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

L'ère du Cloud-Native a vécu, place à l'ère de l'IA-Native. Selon une étude du cabinet Deloitte, le marché du logiciel, qui pèse aujourd'hui 4 000 milliards de dollars, s'apprête à vivre une onde de choc comparable à l'arrivée du SaaS il y a dix ans.Pour les DSI et les décideurs, ce n'est pas seulement une question de nouveaux outils.C'est une remise en question profonde des modèles économiques et opérationnels.Un nouveau modèle de revenuD'abord, le séisme porte sur le modèle de revenus.Les géants du logiciel traditionnel sont sous une pression immense pour abandonner le classique paiement à la licence au profit d'une tarification axée sur les résultats.Les nouveaux entrants, ces entreprises nées avec l'IA dans leur ADN, arrivent sur le marché avec des structures de coûts ultra-légères.Elles ne cherchent pas à vendre des abonnements en volume, mais à résoudre des problèmes métier ultra-spécifiques, souvent dans des niches délaissées par les grands éditeurs.Et cette concurrence va mécaniquement redonner du pouvoir aux acheteurs, notamment aux PME, qui pourront accéder à des capacités de niveau "grand compte" pour une fraction du prix habituel.L'interface utilisateur est en train de disparaîtreEnsuite, l'interface utilisateur telle que nous la connaissons est en train de disparaître.Deloitte prédit que l'IA va devenir la couche d'interface primaire au-dessus de toutes vos applications. Nous ne naviguerons plus entre dix logiciels différents. Nous interagirons avec un orchestrateur capable de piloter des agents autonomes.La bataille ne se joue donc plus sur qui possède le meilleur tableur ou le meilleur CRM. Mais sur qui contrôlera cette couche de contrôle.Pour les entreprises, cela implique un virage technologique vers des plateformes d'orchestration capables de surveiller et de gérer ces flottilles d'agents IA pour éviter qu'elles ne travaillent en silo.Gestion des marges et des compétencesEnfin, attention au revers de la médaille. Et ce revers, c'est la gestion des marges et des compétences.Car si l'IA-Native promet de l'agilité, elle coûte cher en infrastructure.En 2026, l'explosion des coûts de calcul liés aux LLM va donc peser lourdement sur les budgets.Parallèlement, le succès de cette transition ne sera pas technologique, mais humain. Il va falloir redéfinir les rôles, de l'ingénieur au chef de produit, en mettant l'accent sur la gestion des données et l'évaluation des nouveaux fournisseurs.Alors le gain de productivité est réel, mais Deloitte prévient : il viendra d'un déploiement discipliné et mesurable.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Et si votre smartphone n'était bientôt plus le centre de votre monde numérique ?C'est le pari de Qualcomm qui vient de frapper un grand coup lors du Mobile World Congress 2026. Le fondeur a en effet dévoilé sa nouvelle puce Snapdragon Wear Elite, une architecture conçue pour propulser une nouvelle génération de terminaux portables, des lunettes connectées aux bagues intelligentes en passant par les pendentifs IA.Un NPU dans les wearables !L'idée est simple mais radicale. Il s'agit de transformer ces accessoires, autrefois de simples extensions, en acteurs autonomes et surpuissants de votre quotidien professionnel.Pour y parvenir, Qualcomm intègre son NPU Hexagon capable de faire tourner des modèles d'IA de plusieurs milliards de paramètres directement en local, à la périphérie du réseau.Concrètement, cette puce change la donne sur deux points critiques.Performance et autonomieD'une part, la performance brute et l'autonomie.Comparée à la génération précédente, la Snapdragon Wear Elite affiche une puissance de calcul multipliée par cinq et une rapidité de lancement des applications sept fois supérieure.Mais la véritable prouesse réside dans sa gestion énergétique.Grâce au "Micro-Power Wi-Fi", la puce permet une synchronisation continue des données avec une consommation infime.Qualcomm promet ainsi une autonomie étendue de 30 % sur une journée type. Et pour les plus pressés, la charge rapide permet de récupérer 50 % de batterie en seulement dix minutes.C'est l'infrastructure indispensable pour que l'IA puisse enfin nous accompagner du matin au soir sans faillir.Quel est l'impact pour l'utilisateur pro ?Mais au-delà des chiffres, quel est l'impact pour l'utilisateur pro ?C'est ici qu'entre en scène l'IA agentique. Cette puce permet à vos appareils de devenir "contextuels".Imaginez par exemple vos lunettes ou votre montre capables d'analyser votre environnement pour anticiper vos besoins.On parle ici de "life-logging" intelligent. Vous pourrez par exemple demander à votre bague où vous avez posé vos clés ou quel était le nom du café où vous avez déjeuné à Paris le mois dernier.Plus impressionnant encore, ces terminaux pourront bientôt agir pour vous, comme commander un repas ou organiser un trajet par simple commande vocale naturelle, sans même sortir votre téléphone de votre poche.Les prochains modèles de Samsung, Google ou Motorola, attendus plus tard cette année, seront les premiers laboratoires de cette émancipation du wearable.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, nous plongeons dans l'éternité numérique. Vous le savez, pour un DSI, l'archivage est une plaie. Les bandes magnétiques et les disques durs s'altèrent en quelques décennies, imposant des cycles de migration coûteux et risqués.Mais Microsoft vient de franchir une étape décisive avec son Project Silica. La société de Redmond annonce avoir levé les derniers verrous technologiques et surtout économiques du stockage sur verre.On ne parle plus seulement d'innovation de laboratoire, mais d'une viabilité industrielle capable de conserver vos données intactes pendant 10 000 ans.Le passage du luxe à la grande distributionLe premier point de rupture est le passage du luxe à la grande distribution.Jusqu'ici, le Project Silica nécessitait du verre de quartz, ou silice fondue, un matériau pur, onéreux et complexe à produire.Microsoft a réussi l'exploit de porter cette technologie sur le verre borosilicaté. C'est le verre que vous trouvez dans vos plats de cuisine ou vos vitres de four.En utilisant un support aussi commun et peu coûteux, Microsoft élimine l'obstacle majeur de la disponibilité des matériaux à grande échelle. Pour les entreprises, cela signifie que le coût d'entrée du stockage éternel vient de chuter drastiquement.Vitesse et efficacité opérationnelleLe deuxième pilier de cette avancée concerne la vitesse et l'efficacité opérationnelle. Graver des données au laser femtoseconde à l'intérieur d'une plaque de verre est complexe.Mais Microsoft a mis au point une technique d'écriture dite à pseudo-impulsion unique et un système multifaisceaux. Concrètement, on écrit désormais beaucoup plus vite et de manière parallèle.Côté lecture, la simplification est tout aussi radicale. Là où il fallait auparavant quatre caméras pour décoder les signaux, une seule suffit désormais grâce à de nouveaux algorithmes d'apprentissage automatique. On réduit ainsi la taille des lecteurs, leur coût et leur maintenance.Densité et résilienceEnfin, il faut parler de la densité et de la résilience.Imaginez une plaque de verre de seulement deux millimètres d'épaisseur capable de stocker des centaines de couches de données.Ce support est par nature insensible aux ondes électromagnétiques, à l'eau, à la chaleur et à la poussière.Plus besoin de salles blanches climatisées à outrance ou de systèmes anti-incendie ultra-complexes qui peuvent parfois endommager les serveurs.Les tests de vieillissement accéléré confirment la promesse de 100 siècles de stabilité. Pour l'archivage légal, médical ou patrimonial, c'est le "Write Once, Read Forever" qui devient enfin une réalité métier.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

L'autonomie totale des voitures promise par Elon Musk se heurte aujourd'hui à une réalité statistique brutale.Les robotaxis de Tesla, en test au Texas, affichent un taux d'accident quatre fois supérieur à celui d'un conducteur humain moyen. 14 accidents ont été officiellement recensésD'abord, il faut regarder les chiffres de l'expérimentation au-delà du marketing.Depuis huit mois, une flotte de 43 Tesla opérant en mode autonome a parcouru près de 1,3 millions de kilomètres. Et sur cette très longue distance, 14 accidents ont été officiellement recensés.En calculant la moyenne, cela représente une collision tous les 90 000 kilomètres.Pour mettre ce chiffre en perspective, les propres données de Tesla indiquent qu'un conducteur humain moyen ne subit un incident mineur que tous les 368 000 kilomètres.Concrètement, le système de conduite autonome de Tesla est actuellement quatre fois moins sûr que le plus banal des automobilistes texans.La courbe de progression semble s'inverserEnsuite, l'analyse de la nature des accidents révèle des lacunes technologiques inquiétantes pour un déploiement à grande échelle.Les rapports d'accidents font état de crash avec cinq autres véhicules, cinq objets fixes, mais aussi un cycliste et un animal.Plus troublant encore, la courbe de progression semble s'inverser. Alors que l'IA est censée s'améliorer par l'apprentissage continu, plus de 35 % des incidents ont été signalés sur les deux derniers mois de l'étude.Ce constat pose une question fondamentale sur la fiabilité du système vision-only de Tesla, qui refuse d'utiliser les capteurs Lidar, jugés trop chers. Sans une amélioration radicale de ces scores, le passage d'une flotte expérimentale à un service commercial semble s'éloigner.Sincérité ?Enfin, c'est la transparence de Tesla qui est aujourd'hui remise en question.Un incident survenu en juillet dernier, initialement déclaré comme un simple dommage matériel, n'a été requalifié en accident avec hospitalisation que cinq mois plus tard.Ce délai dans la déclaration soulève des interrogations sur le reporting de l'entreprise et la sincérité des promesses de son dirigeant.Surtout, la promesse d'une IA conductrice plus sûre que l'humain reste, pour l'instant, une ambition non vérifiée par les faits.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, nous plongeons dans les coulisses de la conduite autonome avec une percée majeure signée Waymo.La filiale d'Alphabet vient de dévoiler son "Waymo World Model", une intelligence artificielle génératrice de mondes virtuels capable de simuler des situations de conduite avec un réalisme jamais atteint.Ce n'est pas seulement une prouesse technique, c'est le moteur qui va permettre aux véhicules autonomes de franchir un cap critique en matière de sécurité et de passage à l'échelle.Créer des environnements 3D photoréalistes et interactifsConcrètement, ce modèle s'appuie sur Genie 3, l'IA de Google DeepMind, pour créer des environnements 3D photoréalistes et interactifs.Le premier point de rupture, c'est la gestion des cas limites, ce que les ingénieurs appellent le "long-tail".En s'appuyant sur une connaissance du monde apprise via des milliards de vidéos, le simulateur peut inventer des scénarios que la flotte de Waymo n'a jamais croisés dans la réalité, comme une rencontre fortuite avec un éléphant ou une tornade en pleine ville.Là où les simulateurs classiques sont limités par les données collectées sur route, le World Model s'en affranchit donc pour préparer l'IA à l'imprévisible.ContrôlabilitéMais attention, il ne s'agit pas de simples vidéos passives. Le deuxième pilier de cette technologie, c'est la contrôlabilité.Les ingénieurs peuvent modifier une scène par un prompt ou changer la trajectoire du véhicule pour tester des scénarios contrefactuels. Comme par exemple que se serait-il passé si la voiture avait accéléré au lieu de freiner ?L'IA recalcule alors en temps réel non seulement l'image de la caméra, mais aussi les données LiDAR, indispensables pour la perception de la profondeur.C'est cette fusion multi-capteurs qui garantit que ce qui est appris en simulation est directement applicable sur le bitume.Waymo peut transformer n'importe quelle vidéo amateur en une simulation 3DEnfin, la force de ce modèle réside dans sa capacité de conversion.Waymo peut désormais transformer n'importe quelle vidéo amateur ou de dashcam en une simulation 3D.Une rue enneigée filmée par un smartphone devient donc un terrain d'entraînement multi-modal.Associé à une optimisation de l'inférence qui permet de simuler des séquences longues sans explosion des coûts de calcul, Waymo dispose ainsi d'un outil de validation scalable.Au final, la course à l'autonomie ne se gagne plus seulement sur la route, mais dans la capacité à générer et maîtriser des milliards de kilomètres virtuels hyper-réalistes.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Le e-commerce français vient de franchir un cap historique en 2025 en frôlant la barre symbolique des 200 milliards d'euros de chiffre d'affaires selon la Fevad.Une performance qui, derrière l'aspect spectaculaire des chiffres, révèle une mutation profonde des comportements d'achat et des stratégies de vente en ligne.Le e-commerce se structure autour d'un paradoxe de consommationLe premier point à retenir, c'est que le e-commerce ne se contente plus de croître, il se structure autour d'un paradoxe de consommation.En 2025, nous avons réalisé 3,2 milliards de transactions, soit une hausse de 10 % en un an.Mais attention, dans le même temps, le panier moyen a reculé de 3 % pour s'établir à 62 euros.Concrètement, cela signifie que les Français achètent beaucoup plus souvent, mais pour des montants plus faibles.Pour les retailers, l'enjeu stratégique n'est donc plus seulement de déclencher l'achat plaisir, mais de s'intégrer dans une routine de consommation quotidienne où la recherche du "petit prix" devient le moteur principal des arbitrages.L'insolente santé du secteur des servicesLe deuxième pilier de cette analyse, c'est l'insolente santé du secteur des services qui tire désormais la croissance globale.Avec une progression de 9 %, les services pèsent aujourd'hui 120 milliards d'euros, éclipsant la vente de produits physiques qui plafonne à 4 % de croissance.Ce sont les secteurs du voyage, des loisirs et surtout des transports qui boostent ces résultats.La valeur ajoutée migre donc vers l'immatériel. Le e-commerce de 2025 est avant tout un e-commerce de l'expérience et de la mobilité, capable de résister à une conjoncture politique et économique pourtant instable.Souveraineté numérique et compétition internationaleEnfin, il faut regarder ce que ces chiffres disent de la souveraineté numérique et de la compétition internationale.Si le secteur progresse, il fait face à une pression sans précédent des plateformes asiatiques.Comme le souligne la Fevad, cette solidité du marché français est un atout de souveraineté qu'il faut protéger par l'innovation.Cependant, tout n'est pas rose. Le segment B2B, les ventes aux professionnels, affiche une stabilité qui trahit une forme de prudence, voire de gel des investissements face au manque de visibilité économique.En clair, si le consommateur final est au rendez-vous, les entreprises, elles, attendent des signaux plus clairs avant de relancer leurs cycles d'achats numériques.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, nous plongeons au cœur d'un paradoxe qui secoue l'industrie technologique : alors que l'intelligence artificielle n'a jamais été aussi puissante, elle est en train de rendre vos ordinateurs et vos smartphones moins essentiels, tout en faisant exploser leur prix.C'est le grand retour de l'informatique dite légère, c'est à dire du client léger.La fin d'un règne de quarante ansD'abord, il faut comprendre que l'IA marque la fin d'un règne de quarante ans, celui du client lourd.Depuis les années 80, la puissance informatique était locale, tout se passait dans votre PC ou votre téléphone.Mais avec l'IA générative, supportée par le cloud computing, tout bascule. L'interface se résume désormais à un simple champ de texte, une bulle de chat.Que vous utilisiez un smartphone à 1500 euros ou un vieux terminal, le résultat est identique car 100 % du calcul se fait dans le cloud.Pour le dire franchement, la valeur repose désormais dans la capacité de calcul distante. Et c'est une menace directe pour les éditeurs dont la valeur reposait jusqu'ici sur l'ergonomie locale des logiciels.L'IA sur le serveur s'occupe de toutEnsuite, cette révolution s'accélère avec l'arrivée des agents IA.On ne parle plus ici de poser une question à un chatbot, mais d'accomplir une tâche complexe de bout en bout avec un agent d'IA.Et dans ce monde d'agents, tout ce qui se passe entre votre requête et le résultat final devient invisible. L'IA sur le serveur s'occupe de tout.Et pour être compétitive, l'IA locale aurait besoin de quantités phénoménales de mémoire vive, ce qui nous amène à notre troisième point, beaucoup plus concret pour vos budgets.La mauvaise nouvelle, c'est l'éviction par la mémoireCar la mauvaise nouvelle, c'est ce qu'on appelle l'éviction par la mémoire.C'est très simple. L'appétit des centres de données pour la mémoire haute performance est tel qu'il crée une pénurie mondiale.On apprend ainsi que Sony envisage de repousser la PlayStation 6 à 2029 et que des fabricants comme Oppo ou Xiaomi revoient leurs ambitions à la baisse pour 2026.Par ailleurs, Samsung renégocie désormais ses contrats de mémoire chaque trimestre plutôt qu'une fois par an.En clair, l'IA est en train de rendre vos ordinateurs et smartphones plus chers, tout en les rendant techniquement moins indispensables.Pour un DSI, l'arbitrage va devenir crucial. Faut-il continuer à investir dans des flottes de machines surpuissantes alors que l'essentiel de la valeur métier migre vers des infrastructures partagées dans le cloud ?Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Imaginez une bulle de connectivité 5G capable de suivre un navire de guerre en pleine tempête.Ce n'est plus de la science-fiction, c'est ce que viennent de valider les entreprises Ericsson et Leonardo, deuxième groupe industriel italien, et la marine italienne, en Méditerranée.Le succès de ce test en conditions réelles marque un tournant pour les réseaux critiques.Un réseau 5G Standalone autonome en pleine merD'abord, la prouesse technologique réside dans le déploiement d'un réseau 5G Standalone, totalement autonome en pleine mer.Le système installé sur le navire amphibie San Giorgio est une solution de bout en bout totalement indépendante, assure la marine italienne.Ericsson a utilisé son équipement et des antennes MIMO pour créer une bulle réseau privée. Concrètement, cela signifie que les unités navales ne dépendent plus d'une infrastructure terrestre ou satellitaire vulnérable pour leurs échanges locaux.Le bénéfice est la création d'un réseau tactique projetable, capable d'offrir des débits 5G et une latence quasi nulle sur un théâtre d'opérations mobile. De quoi changer radicalement la donne pour la coordination des flottes modernes.Traiter des volumes de données colossaux en temps réel et de manière sécuriséeEnsuite, l'enjeu majeur de cette expérimentation était la capacité à traiter des volumes de données colossaux en temps réel et de manière sécurisée.De manière sécurisée car la solution de chiffrement de Leonardo permet aux navires d'échanger des informations classifiées sans risque d'interception.Concrètement, le réseau a supporté les flux vidéo provenant de douze drones aériens et maritimes, dont les données ont été traitées instantanément par une plateforme d'intelligence artificielle.Cette convergence entre 5G et IA permet à chaque officier sur le pont de voir ce que voient les drones en haute définition, sans décalage.La 5G n'est plus seulement une technologie civileEnfin, ce test valide, selon Ericsonn, la supériorité de la 5G sur les systèmes traditionnels radios qui présentent des risques d'interférences ou de saturation.Pour les militaires, c'est peut être la preuve que la 5G n'est plus seulement une technologie civile.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

C'est peut-être une surprise, mais quand on ouvre les entrailles des usines et des centres logistiques modernes, une technologie de connexion sans-fil bien connue des amateurs de casque audio, le Bluetooth, devient le nouveau système nerveux de l'industrie mondiale, indique le Bluetooth Special Interest Group.Et voici un chiffre pour l'illustrer. Selon ABI Research, ce sont 600 millions d'équipements industriels Bluetooth qui seront livrés chaque année d'ici 2028.Et je vous explique l'impact de cette révolution pour vos infrastructures industrielles avec trois cas d'usage.Maintenance prédictiveD'abord, le Bluetooth industriel est utilisé pour faire de la maintenance prédictive.Concrètement, des capteurs Bluetooth basse consommation sont désormais greffés sur les moteurs et les convoyeurs pour surveiller en temps réel les vibrations, la température et le bruit. Le gain est surtout la fin des câblages complexes.Les données remontent vers des plateformes d'IA qui détectent les anomalies avec l'objectif de prévenir les pannes. Résultat, une réduction des pannes d'équipement de près de 70 % selon Deloitte.Localiser chaque objet en temps réelLe second cas d'usage, c'est une visibilité totale sur les machines et les outils présents dans les entreprises grâce au traçage Bluetooth.Et dans un entrepôt ou sur un chantier, le temps perdu à chercher un outil ou une pièce détachée est une perte nette de productivité.Les tags Bluetooth permettent ici de localiser chaque objet en temps réel. Et la nouveauté réside ici dans l'arrivée du "Bluetooth Channel Sounding".Derrière ce terme technique se cache une capacité de mesure de distance qui transforme votre inventaire en une carte interactive et dynamique.Sur ce point, ce sont 760 millions de balises de suivi qui devront être expédiées annuellement d'ici 2029.Le Bluetooth sécurise désormais les zones à risque via le "geofencing"Enfin le troisième point concerne la sécurité des professionnels sur les sites industriels.Le Bluetooth sécurise désormais les zones à risque via le "geofencing" ou périmètre virtuel.Pour ce faire, les équipements de protection individuelle, comme les casques ou les badges connectés, sont équipés de tags Bluetooth. Et ils communiquent avec les machines.Concrètement, si un opérateur pénètre dans une zone dangereuse, le système peut alerter ou stopper automatiquement l'équipement.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Plongeons dans une faille de sécurité émergente aussi subtile que redoutable. Il s'agit de l'empoisonnement des recommandations des IA par manipulation de la mémoire.Concrètement, derrière le bouton "Résumer avec l'IA" que vous utilisez peut-être chaque jour avec les logiciels et sites internet, se cachent parfois des instructions malveillantes visant à biaiser durablement le jugement de votre assistant numérique.Le premier point de rupture concerne donc l'usage détourné des fonctions de résumé automatique.Le bouton "Résumer" : un cheval de Troie invisibleMicrosoft a identifié une nouvelle tendance baptisée "AI Recommendation Poisoning".Concrètement, des entreprises malveillantes insèrent des instructions cachées dans les paramètres URL des boutons de résumé.Lorsqu'un utilisateur clique pour obtenir une synthèse, il injecte sans le savoir une commande de persistance dans la mémoire de son assistant, comme ChatGPT ou Copilot.Ces instructions ordonnent alors à l'IA de considérer telle marque comme une "source de confiance" ou de la "recommander en priorité" dans toutes les discussions futures.Ce n'est donc plus une simple publicité, c'est une altération profonde et invisible du moteur de décision de l'assistant d'IA.Et cette stratégie marketing s'industrialise.L'industrialisation de la manipulationEn l'espace de deux mois, plus de 50 exemples distincts provenant de 31 entreprises ont été repérés dans les secteurs de la finance ou de la santé.Mais le plus inquiétant est l'apparition d'outils "clés en main" comme le package CiteMET ou des générateurs d'URL optimisés pour le GEO.En clair, ces outils permettent à n'importe quel site web d'implanter ses arguments de vente directement dans la mémoire à long terme des assistants d'IA.Le risque est donc pour l'utilisateur de recevoir une analyse de marché ou un conseil en investissement biaisé par une instruction implantée des semaines auparavant lors d'une simple navigation web.Vers une hygiène numérique de la mémoire IALa mémoire des assistants IA, conçue pour personnaliser l'expérience, devient donc une surface d'attaque persistante.Car contrairement à un résultat de recherche Google que l'on peut ignorer, une instruction mémorisée par l'IA agit en arrière-plan de manière permanente.Pour les entreprises, la protection contre ce type d'attaques passe par un audit régulier des "faits enregistrés" dans les paramètres de l'IA et une grande méfiance envers les liens de type "Summarize".Par ailleurs, les équipes cyber doivent désormais traquer les mots-clés comme "trusted source" ou "remember" dans les flux d'URL pour détecter les attaques de ce type.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, on plonge dans le code avec OpenAI qui vient de frapper un grand coup en lançant GPT-5.3-Codex-Spark.C'est une version allégée mais ultra-rapide de son modèle de génération de code.La vitesse pureD'abord, la promesse est simple : la vitesse pure.Ce nouveau modèle "Spark" est capable de générer du code 15 fois plus vite que le modèle standard GPT-5.3-Codex.On parle d'une réduction drastique de la latence, avec une réponse aux requêtes presque instantanée. Pour les développeurs, cela signifie la fin du mode "batch" où l'on envoyait une instruction avant de partir prendre un café en attendant le résultat.Ici, on entre dans l'ère de la collaboration en temps réel. Le modèle permet des micro-éditions ciblées et des ajustements d'interface en direct, et ce sans casser le flux de travail.Partenariat stratégique avec CerebrasEnsuite, il faut regarder sous le capot pour comprendre ce bond de performance.Cette prouesse est le fruit d'un partenariat stratégique avec le fabricant de puces Cerebras. Le modèle Spark tourne sur le "Wafer Scale Engine 3", un processeur géant de la taille d'une galette qui regroupe toutes les ressources de calcul sur une seule pièce de silicium.Concrètement, OpenAI a réduit l'échange de données entre le client et le serveur de 80 %. C'est cette architecture matérielle unique qui permet une interactivité fluide, autorisant même le développeur à interrompre ou à rediriger l'IA en plein milieu de sa tâche.Mais attention, et c'est mon troisième point, cette vitesse a un prix : celui de la précision et de la sécurité.Plus vite, mais plus faillibleOpenAI est très honnête sur ce point : sur les bancs d'essai mesurant les capacités d'ingénierie logicielle autonome, Spark est moins performant que son grand frère.Plus inquiétant encore pour les entreprises, il n'atteint pas les seuils de haute capacité en cybersécurité définis par OpenAI.En clair, Spark fait les choses beaucoup plus vite, mais il est plus susceptible de commettre des erreurs ou de générer des failles.On est donc sur un outil de prototypage rapide et d'itération légère, plutôt que sur un agent capable de gérer seul des infrastructures critiques.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, nous plongeons dans une application fascinante de l'intelligence artificielle qui dépasse le cadre des entreprises pour s'attaquer aux mystères de l'histoire.Une équipe internationale vient de prouver que l'IA peut redonner vie à des pans entiers de notre culture en reconstituant les règles d'un jeu de société romain dont le manuel avait disparu depuis deux millénaires.Simulation de données au service de l'archéologieD'abord, il faut comprendre que nous ne sommes pas ici dans de la génération de texte à la ChatGPT, mais dans de la simulation massive de données au service de l'archéologie.Le point de départ est une simple plaque de calcaire gravée, découverte aux Pays-Bas. Si les traces d'usure suggérait un jeu, personne ne savait comment on y jouait. Les chercheurs ont donc utilisé la numérisation 3D pour cartographier chaque micro-rayure et formuler des centaines d'hypothèses de plateaux.C'est ici que l'IA entre en scène : au lieu de tester manuellement chaque théorie, les scientifiques ont injecté ces données dans Ludii, une plateforme logicielle dédiée aux systèmes de jeux. En quelques heures, l'IA a simulé des milliers de parties pour tester la viabilité mathématique et logique de chaque règle potentielle par rapport à l'usure réelle de la pierre.L'IA agit ici comme un accélérateur de raisonnementEnsuite, cette prouesse technique nous livre un enseignement stratégique sur la nature même de l'IA.Pour Éric Piette, le chercheur à l'origine du projet, l'IA agit ici comme un accélérateur de raisonnement. Elle a permis de valider que ce plateau correspondait à un jeu de blocage, où l'objectif est d'immobiliser l'adversaire, un mécanisme que l'on retrouvera bien plus tard en Scandinavie.Concrètement, l'outil n'a pas remplacé l'archéologue, il a éliminé les impasses logiques pour ne laisser que les scénarios robustes. En clair, l'IA excelle là où la combinatoire humaine sature, permettant de transformer des indices fragmentaires en modèles de connaissances exploitables.Etude des mécanismes cognitifs et du comportement humainEnfin, les retombées de ce projet Ludii dépassent largement le cadre des musées. Si cette IA sait reconstituer les interactions sociales de l'Antiquité, elle est surtout un laboratoire pour l'étude des mécanismes cognitifs et du comportement humain.Ces mêmes algorithmes de simulation sont aujourd'hui utilisés pour analyser la manière dont nous apprenons, dont nous interagissons et dont nous résolvons des problèmes complexes.Pour les décideurs de la tech, le message est clair : l'IA devient un pont entre des disciplines autrefois silotées, comme l'informatique, l'histoire et la psychologie, créant un langage commun pour modéliser n'importe quel système de règles, qu'il soit ludique, social ou industriel.Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Et si l'avenir de l'intelligence artificielle ne se jouait plus au sol, mais à 500 kilomètres au-dessus de nos têtes ?C'est le pari fou, mais très sérieux, de Google et la société Planet avec le projet Suncatcher. L'objectif est simple : construire les premiers centres de données orbitaux.Les deux géants viennent d'annoncer une accélération majeure avec le lancement prévu de deux satellites de démonstration d'ici début 2027.Une alimentation solaire quasi continueLe premier pilier de cette stratégie repose sur la résolution d'une équation énergétique devenue critique sur Terre.Aujourd'hui, les centres de données IA saturent les réseaux électriques et posent des problèmes de refroidissement colossaux.En plaçant ces serveurs en orbite héliosynchrone, Google et Planet visent une alimentation solaire quasi continue.Concrètement, ces satellites qui serviraient de "fermes de calcul" déploieront des panneaux solaires XXL pour alimenter des puces TPU, les processeurs de Google optimisés pour l'IA.Mais le vrai défi technique reste la dissipation de la chaleur dans le vide spatial et la protection des composants contre les radiations. C'est tout l'enjeu des tests de 2027. Il s'agit de prouver qu'on peut faire tourner un cluster de calcul intensif dans l'hostilité de l'espace.Un cluster spatial volantEnsuite, le projet Suncatcher inaugure une architecture réseau d'un genre nouveau : le cluster spatial volant.On ne parle pas de satellites isolés, mais de grappes de machines situées à moins de 200 mètres les unes des autres, reliées par des liaisons laser à très haut débit.Cela préfigure un cloud hybride totalement indépendant des infrastructures terrestres et capable de traiter les données directement dans l'espace.Planet utilise ici son expérience unique, ayant déjà mis en orbite plus de 600 satellites, pour industrialiser ce que Google appelle un "système de cluster à grande échelle".Vers le développement industrielEnfin, cette alliance marque un tournant concurrentiel majeur dans la course à l'espace.Si Jeff Bezos et Elon Musk ont déjà évoqué l'idée de data centers spatiaux, Google et Planet sont les premiers à passer concrètement en phase de recherche et développement industrielle.Le PDG de Planet, Will Marshall, l'affirme : nous ne sommes qu'à quelques années du point de bascule économique où l'espace deviendra moins cher que la Terre pour le calcul intensif.Avec la baisse drastique des coûts de lancement, l'infrastructure spatiale devient un levier stratégique pour la puissance de calcul.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Ce n'est plus de la science-fiction. La réalité brutale de l'intelligence artificielle générative qui vient de franchir un cap historique, note le dernier baromètre de l'Arcep.En seulement deux ans, nous sommes passés d'une curiosité de laboratoire à un outil de masse utilisé par près d'un Français sur deux. C'est aussi un séisme qui redéfinit les frontières entre vie privée et vie professionnelle.Une accélération technologique sans précédentLe premier constat est celui d'une accélération technologique sans précédent dans l'histoire moderne.Là où le smartphone avait mis trois ans pour atteindre un niveau de pénétration significatif, l'IA générative n'a eu besoin que de vingt-quatre mois pour conquérir près de 50 % de la population.Et cette adoption quasi instantanée culmine chez les français de moins de 25 ans avec un taux de 85 %.Pour les entreprises, cela signifie que la question n'est plus de savoir s'il faut intégrer l'IA, mais comment gérer des collaborateurs qui sont déjà, pour la plupart, des utilisateurs aguerris de cette technologie dans leur sphère privée.L'IA générative inverse les codes traditionnels de l'innovationSurtout, au-delà de cette vitesse de déploiement, l'IA générative inverse les codes traditionnels de l'innovation.Historiquement, les grandes vagues technologiques entraient dans nos vies par le bureau avant de s'inviter dans nos salon. Pour l'IA, c'est l'inverse.Le recours à ces outils relève d'abord d'une initiative personnelle plus de 40 % des usagers, tandis que l'usage strictement professionnel concerne 30 % des actifs.C'est ce qu'on appelle le Shadow AI. Les salariés testent, expérimentent et résolvent des problèmes complexes avec ChatGPT ou Claude chez eux, avant de ramener ces réflexes au travail.Par ailleurs, une pression nouvelle apparaît. Près de 20 % des Français se voient désormais imposer l'IA par les plateformes qu'ils utilisent déjà, comme les moteurs de recherche ou les messageries, rendant la technologie incontournable, qu'on le veuille ou non.Une nouvelle fracture numérique de compétence et d'usageEnfin, il faut noter une nouvelle fracture numérique, non plus d'accès, mais de compétence et d'usage.Le profil type de l'utilisateur intensif se dessine très nettement. Il est jeune, diplômé du supérieur, cadre ou indépendant.Pour le monde professionnel, ce clivage est un enjeu majeur. Les indépendants et les cadres, avec plus de 75 % d'utilisateurs, transforment déjà leurs méthodes de travail quand d'autres secteurs restent sur le bord de la route.Cette concentration des usages chez les profils les plus qualifiés risque de créer un avantage compétitif pour ceux qui maîtrisent l'art de la requête et du prompt, laissant présager une restructuration profonde du marché du travail basée sur la collaboration homme-machine.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Imaginez un moteur de Formule 1 monté sur un châssis de vélo. C'est un peu l'image que renvoie aujourd'hui l'intelligence artificielle générative dans le secteur des achats en entreprise.On en parle partout, on multiplie les essais, mais quand il s'agit de passer à la vitesse supérieure, les entreprises calent.Le dernier baromètre publié par EFESO Management Consultants vient de tomber, et le chiffre est sans appel.Seules 5 % des directions achats ont réellement franchi le cap de l'industrialisation à grande échelle de l'IA générative.Les directeurs achats ont changé de braquetLe premier constat de cette étude, c'est que nous assistons à la fin de l'ère de l'expérimentation joyeuse pour entrer dans celle de la discipline de fer.Si 75 % des entreprises testent l'IA, le déploiement massif reste marginal car les directeurs achats ont changé de braquet.Ils ne cherchent plus à savoir si l'IA fonctionne, mais ils exigent désormais une démonstration tangible de la valeur créée avant de signer le moindre chèque.En clair, les projets ne sont plus validés sur leur aspect innovant, mais sur leur capacité à s'intégrer aux processus opérationnels existants.Super-secrétariat technique plutôt que aide à la décisionPar ailleurs, l'IA générative semble pour l'instant cantonnée dans le monde des achats à des rôles de super-secrétariat technique plutôt qu'à des fonctions de décision.Les usages qui s'industrialisent réellement sont ceux qui présentent le moins de risques et une forte densité de données faciles à traiter.On parle ici de l'analyse et de la synthèse de contrats pour près de 70 % des entreprises, ou encore de la veille fournisseur pour plus de 60 % d'entre elles.En revanche, dès que l'on touche au cœur du métier, comme la négociation assistée par l'IA, le taux d'adoption chute à 35 %.Pourquoi ? Parce que confier une négociation stratégique à un algorithme demande une profondeur de données et une gouvernance que peu d'organisations possèdent encore aujourd'hui.La crise de confiance freine le passage à l'échelleEnfin, l'étude note que c'est la crise de confiance qui freine le passage à l'échelle.Seul un tiers des directeurs achats se dit pleinement satisfait des résultats obtenus par rapport aux investissements initiaux.Et le problème ne vient pas toujours de l'outil lui-même, mais de la matière première. Près de 70 % des décideurs pointent la fiabilité des données comme un obstacle majeur.En clair, avertit l'étude, 2026 s'annonce comme l'année où le fossé va se creuser irrémédiablement entre les directions achat qui sauront industrialiser leurs pilotes de manière sélective et celles qui resteront bloquées dans une boucle infinie d'expérimentations sans lendemain.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, on s'intéresse à une petite révolution dans la manière dont nous allons bientôt faire nos courses en ligne.Criteo vient de lever le voile sur son Agentic Commerce Recommendation Service, un nom un peu complexe pour une mission très concrète.Il s'agit d'apporter plus d'intelligence commerciale aux assistants d'achat basés sur l'IA.Sous le capot des assistants d'achatPour comprendre l'enjeu, il faut d'abord regarder sous le capot de nos assistants d'achat actuels.Aujourd'hui, qu'il s'agisse d'un chatbot de retailer ou d'un grand modèle de langage, ces outils se contentent souvent de lire des descriptions de produits, un peu comme un simple robot qui scannerait une étiquette.Le problème, c'est que ça ne suffit pas pour conseiller efficacement un client. Il a besoin par exemple des avis d'autres consommateurs, ou encore des volumes de vente pour savoir si ce produit est le bon.Criteo assure donc vouloir changer la donne en injectant sa base de données directement dans ces flux d'IA.Le service s'appuie sur des données réelles. Criteo assure disposer de données de consommation de 720 millions d'utilisateurs de site de e-commerce.En utilisant ces signaux d'achat concrets plutôt que de simples textes marketing, Criteo affirme pouvoir booster la pertinence des recommandations des chatbots.De quoi en faire des vendeurs experts qui savent ce qui se vend vraiment et pourquoi.Connecter les cerveaux des IA aux inventairesAu-delà de cette précision, l'autre force de cette annonce réside dans l'infrastructure technique utilisée. Criteo dit utiliser le Model Context Protocol ou MCP.Ce nouveau protocole permet de connecter directement les cerveaux des IA aux inventaires en temps réel des commerçants.Concrètement, lorsqu'un consommateur demande une sélection pour un budget précis, l'IA ne va plus seulement chercher des mots-clés. Elle interroge le service de Criteo qui filtre et classe les produits selon la popularité, la disponibilité et l'intention réelle de l'utilisateur.L'assistant IA peut alors accompagner le client jusqu'au paiement. C'est ce que Criteo appelle le commerce agentique.Des agents d'IA qui parleront à des agents d'IAEt le futur du commerce agentique passera très certainement par un dialogue entre des robots diligentés par les acheteurs, et des robots maîtrisés par les vendeurs.Dans ce nouveau monde où les agents IA font le gros du travail de recherche pour les humains, le véritable avantage concurrentiel côté retailer ne sera plus seulement d'avoir un bon produit, mais d'être visible par l'algorithme qui conseille l'acheteur.Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Imaginez un smartphone qui ne dépendrait plus d'aucune antenne terrestre, un appareil capable de capter le réseau au milieu de l'océan ou au sommet de l'Everest.C'est ce scénario qui vient d'être évoqué par Elon Musk. Il assure pour cela que le lancement d'un smartphone sous la marque Starlink est envisagé.Un smartphone qui pour communiquer n'aurait besoin que de la constellation de satellites de l'homme le plus fortuné du monde.Starlink est devenu une poule aux œufs d'orLe premier pilier de cette annonce est purement économique. Starlink est devenu une véritable poule aux œufs d'or.En 2025, elle a généré entre 50 et 80 % des profits de l'entreprise SpaceX à laquelle elle est rattachée.Pour maintenir cette croissance insolente, le lancement d'un smartphone propriétaire permettrait de verrouiller l'utilisateur dans un écosystème complet.Ce ne serait alors pas seulement un téléphone, mais une porte d'entrée payante vers un réseau de communication mondial, affranchi des opérateurs de télécoms traditionnels.Pour les entreprises clientes, cela signifierait aussi une connectivité totale, permanente, sans zones blanches, directement gérée par un seul fournisseur d'infrastructure.Une rupture technologique qui interpelleMais au-delà de cette manne financière potentielle, c'est la rupture technologique qui interpelle.Elon Musk prévient que cet appareil serait radicalement différent de ce que nous connaissons.L'idée est d'intégrer au cœur du smartphone les capacités de xAI, sa société d'intelligence artificielle, et de Grok, son agent conversationnel.En couplant des datacenters spatiaux, une autre idée de l'entrepreneur, avec des terminaux mobiles ultra-optimisés pour l'IA, Musk vise la création d'un cerveau numérique portable. Rien de moins.Musk s'attaque frontalement au duo Apple et GoogleEnfin, en lançant son propre matériel, Musk s'attaque frontalement au duo Apple et Google en essayant de briser leur duopole sur les systèmes d'exploitation mobiles.C'est un pari risqué. D'autres ont essayé et se sont cassé les dents.Mais avec la force de frappe de Starlink, Musk dispose déjà de l'infrastructure mondiale nécessaire pour bousculer ces géants de la mobilité.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

C'est un séisme financier qui secoue aujourd'hui le secteur de la crypto et du bitcoin.Strategy, le géant américain connu pour être le plus grand détenteur mondial de bitcoins, vient de dévoiler un bilan trimestriel qui donne le vertige. La société accuse 12 milliards de dollars de pertes nettes en seulement trois mois.Transformer une pépite technologique en gouffre financierCe crash n'est bien sûr pas qu'une ligne comptable.Il illustre la vulnérabilité extrême des entreprises qui ont lié leur destin de manière quasi organique à la volatilité des cryptomonnaies.En voyant le cours du bitcoin plonger sous la barre des 60 000 dollars la semaine dernière, Strategy voit son modèle économique et sa capitalisation boursière s'évaporer à vue d'œil.En clair, la stratégie de trésorerie d'entreprise basée sur un actif hautement spéculatif peut transformer une pépite technologique en gouffre financier. Et ce en un seul trimestre.Le soutien de Trump au secteur crypto ne suffit plus à rassurerAu-delà de ce chiffre colossal, c'est le changement brutal de climat macroéconomique qui fragilise tout l'écosystème.On assiste à un retour massif de l'aversion au risque.Plusieurs facteurs s'entrechoquent pour créer cette tempête.D'un côté, les tensions géopolitiques et les incertitudes sur la croissance poussent les investisseurs à délaisser le secteur tech pour se réfugier vers des valeurs plus stables, comme l'or.De l'autre, la politique monétaire américaine change de visage. La nomination de Kevin Warsh à la tête de la Réserve fédérale américaine laisse présager un assèchement des liquidités disponibles pour les actifs risqués.Et les chiffres parlent d'eux-mêmes. Près de 9 milliards de dollars ont été sortis des ETF bitcoin au comptant en seulement deux mois.Ce désengagement prouve que même le soutien politique affiché par la nouvelle administration Trump au secteur crypto ne suffit plus à rassurer les marchés.L'incroyable résilience, ou peut-être obstination, de Michael SaylorEnfin, il faut noter l'incroyable résilience, ou peut-être l'obstination, de Michael Saylor, le patron de Strategy.Malgré l'hémorragie, le dirigeant refuse de dévier de sa trajectoire. Il balaye les inquiétudes d'un revers de main, qualifiant ceux qui quittent le navire de simples touristes du secteur de la crypto.Pour lui, les fondamentaux des monnaies virtuelles restent sains. Il pense que l'intégration du bitcoin dans les grandes structures bancaires et réglementaires est irréversible.En bref, le bras de fer entre la vision idéologique de la crypto et la rigueur des bilans financiers des entreprises n'a jamais été aussi tendu.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, nous décollons pour une première historique qui se joue à 362 millions de kilomètres de nos bureaux.Pour la première fois, une intelligence artificielle a pris les commandes d'un véhicule. Et ce sur une autre planète.En décembre dernier, le rover Perseverance de la NASA a en effet parcouru environ 400 mètres sur la planète Mars en suivant un itinéraire entièrement planifié par Claude, le modèle d'IA d'Anthropic.Un basculement majeur pour l'exploration spatialeD'abord, c'est un basculement majeur pour l'exploration spatiale.Jusqu'ici, chaque mètre parcouru dans le cratère martien Jezero exigeait une planification humaine méticuleuse pour éviter que le robot de la taille d'une voiture ne s'ensable ou ne bascule sur le côté.En utilisant Claude pour générer les points de passage précis du rover, les ingénieurs du Jet Propulsion Laboratory ont prouvé que l'IA peut désormais traduire des images satellites en trajectoires sécurisées sur un terrain accidenté.Diviser par deux le temps de planification des itinérairesPar ailleurs, pour guider Perseverance, Claude ne s'est pas contenté de dessiner une ligne.L'IA a dû ingérer des années de données de conduite et maîtriser le Rover Markup Language, un langage de programmation spécifique basé sur l'XML.Et le résultat est sans appel. Les ingénieurs de la NASA estiment que l'intégration de l'IA dans ce processus permet de diviser par deux le temps de planification des itinéraires.Cela signifie pour ces ingénieurs moins de temps passé sur des tâches fastidieuses de routage, et plus de temps alloué à la collecte et à l'analyse de données scientifiques.Laboratoire pour les ambitions lunaires de la NasaEnfin, l'autre versant de cette avancée technologique, c'est que ce test réussi sur Mars sert de laboratoire pour les futures ambitions lunaires de la Nasa.Avec le programme américain Artemis qui vise à établir une base permanente sur le pôle sud de la Lune, les défis logistiques vont exploser.Et dans ces environnements hostiles, une IA capable de trouver un chemin à partir de photos satellite est plus que précieux.Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

C'est un géant du monde des centres de données qui débarque dans votre bureau ou votre commerce.Vertiv lance une nouvelle gamme d'onduleurs, nommé Power UPS 200, pour équiper locaux professionnels mais aussi personnels avec une solution compacte qui répond à une urgence simple mais vitale, c'est à dire sécuriser l'alimentation électrique là où la donnée est créée, c'est-à-dire au plus près de l'utilisateur final. La démocratisation d'une expertise industrielleLe premier point, c'est que cette annonce marque la démocratisation d'une expertise industrielle. En effet, il ne s'agit pas d'une batterie de secours.Elle intègre en effet la régulation automatique de tension, qui est une technologie indispensable pour stabiliser le courant avant même qu'une coupure ne survienne.Pour un point de vente ou une petite infrastructure IT, c'est la garantie que les variations de tension ne grilleront pas les composants sensibles.Des batteries remplaçables directement par l'utilisateurAu-delà de cette robustesse technique, Vertiv dit assurer une meilleure durabilité opérationnelle. La marque propose en effet des batteries remplaçables directement par l'utilisateur.C'est un argument de poids pour les entreprises, car cela permet de prolonger la vie de l'onduleur sans passer par un service technique coûteux ou un remplacement complet de l'unité.Ajoutez à cela une interface intuitive avec écran LCD couleur, et vous obtenez un outil professionnel pour des collaborateurs qui ne sont pas forcément des ingénieurs réseau.Vertiv transforme ses onduleurs en hub de gestion de l'énergie au bureauEnfin, il faut souligner l'aspect hybride de ces nouveaux boîtiers qui s'adaptent aux nouveaux usages des professionnels nomades.En intégrant des ports de charge USB de Type-A et surtout de Type-C, Vertiv transforme ses onduleurs en hub de gestion de l'énergie au bureau.Ce n'est donc plus seulement l'ordinateur central qui est protégé, mais tout l'écosystème mobile qui gravite autour. Bref, Vertiv cherche à verrouiller le marché des équipements périphériques avec la même rigueur que celui des centres de données.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, on s'installe confortablement dans le cockpit de notre navigateur puisque Google Chrome active son mode pilote automatique.La firme de Mountain View vient de frapper un grand coup avec le lancement d'Auto Browse, une fonctionnalité dopée à Gemini 3 qui ne se contente plus de suggérer des recherches, mais agit concrètement à votre place sur le web. On passe de l'IA conversationnelle à l'IA "agentique"D'abord, comprenons bien la rupture technologique. On passe de l'IA conversationnelle à l'IA "agentique". Concrètement, Google veut nous débarrasser de ce qu'il appelle la lessive numérique, c'est à dire ces tâches répétitives et sans valeur ajoutée.Lors de sa présentation, la vice-présidente de Chrome a montré des capacités bluffantes. Gemini peut désormais scanner plusieurs onglets ouverts pour remplir automatiquement un formulaire d'inscription ou trier vos favoris sur un site immobilier selon des critères ultra-précis, comme le fait d'accepter par exemple les animaux de compagnie.L'IA ne se contente pas de lire, elle navigue, clique et saisit des données en temps réel sous vos yeux.Au-delà de la simple navigation bien sûr, l'intégration de briques e-commerce est mise en avant par Google.Pour rendre Auto Browse opérationnel, Google a en effet déployé son Universal Commerce Protocol en partenariat avec des géants comme Shopify ou Etsy.Et je vous décrit un exemple. Vous montrez une photo de sapin de Noël décoré à Gemini, et l'IA va d'elle-même chercher les boules et les guirlandes correspondants sur des sites de commerce en ligne, les ajouter au panier et préparer la transaction.Pour rassurer les plus sceptiques face à ce majordome numérique qui manipule votre carte bleue, Google impose une validation humaine systématique avant chaque paiement final.Ultra-personnalisation via la fonction Personal IntelligenceEnfin, l'enjeu majeur de cette mise à jour réside dans l'ultra-personnalisation via la fonction Personal Intelligence.En activant cette option, vous permettez à Gemini de puiser dans tout votre écosystème Google, de Gmail à Drive en passant par Photos, pour affiner ses actions.C'est un pas de géant vers une assistance totale, même si la prudence reste de mise.L'outil est encore loin d'être infailliblePour l'instant, Auto Browse reste réservé aux abonnés AI Pro et Ultra, et l'outil est encore loin d'être infaillible.Si Gemini excelle dans la navigation marchande, il bute encore sur des commandes de précision dans les tableurs.Le passage de témoin entre l'homme et la machine doit donc encore se faire avec une certaine vigilance.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, nous plongeons au cœur d'un divorce technologique majeur. La France a décidé de rompre officiellement avec les géants américains de la visioconférence.Teams, Zoom ou encore Google Meet sont désormais sur la sellette au sein de l'administration française. Le gouvernement déploie sa propre solution nationale, baptisée Visio, avec un objectif clair : l'indépendance totale d'ici 2027. Ce n'est pas seulement une question de logiciel, c'est une véritable bascule politique et industrielle.Souveraineté des donnéesLe premier pilier de cette décision est la souveraineté des données.Pour Paris, il ne s'agit plus de faire confiance aveugle aux Big Tech. L'ombre du US Cloud Act de 2018 plane toujours.Cette loi permet aux autorités américaines d'accéder à des données stockées sur des serveurs, même s'ils sont situés sur le sol européen. En migrant vers Visio, le gouvernement français s'assure que les échanges scientifiques, les innovations stratégiques et les données sensibles de l'État restent sous juridiction européenne.C'est une réponse directe à l'insécurité juridique que pose la dépendance aux infrastructures extra-européennes.La force de l'open source et de l'innovation localeAu-delà de la sécurité, l'autre versant de cette annonce c'est la force de l'open source et de l'innovation locale.Visio n'est pas un gadget bricolé dans un coin. C'est un outil robuste développé par la DINUM, en collaboration avec l'Allemagne et les Pays-Bas.Basé sur des technologies comme Django et React, il intègre même de l'intelligence artificielle pour la transcription grâce à la pépite française Pyannote.Ce projet s'inscrit dans une "Suite Numérique" plus large, visant à remplacer Gmail ou Slack par des alternatives souveraines. C'est donc une véritable rampe de lancement pour l'écosystème tech européen, prouvant que nous pouvons produire des outils collaboratifs au niveau des standards mondiaux.Un enjeu économique et pragmatiqueEnfin, il y a un enjeu économique et pragmatique indéniable.Car l'État français compte bien faire des économies d'échelle.On parle d'un million d'euros d'économie par an pour chaque tranche de 100 000 utilisateurs grâce à l'arrêt des licences payantes.Alors que 40 000 agents utilisent déjà Visio au quotidien, le passage à 200 000 utilisateurs est imminent. Si cette transition réussit son pari sur l'ergonomie et la fiabilité, la France pourrait bien fournir le modèle à suivre pour tous les pays européens qui cherchent à reprendre le contrôle de leur infrastructure numérique sans sacrifier la productivité de leurs agents.Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.