Découvrir au quotidien les enjeux de la technologie. Le podcast de la rédaction de ZDNet, pour les professionnels à la recherche d'infos pratiques et concrètes pour mieux comprendre le marché IT et telco et son influence sur les métiers.
ZD Tech : tout comprendre en moins de 3 minutes

C'est peut-être une surprise, mais quand on ouvre les entrailles des usines et des centres logistiques modernes, une technologie de connexion sans-fil bien connue des amateurs de casque audio, le Bluetooth, devient le nouveau système nerveux de l'industrie mondiale, indique le Bluetooth Special Interest Group.Et voici un chiffre pour l'illustrer. Selon ABI Research, ce sont 600 millions d'équipements industriels Bluetooth qui seront livrés chaque année d'ici 2028.Et je vous explique l'impact de cette révolution pour vos infrastructures industrielles avec trois cas d'usage.Maintenance prédictiveD'abord, le Bluetooth industriel est utilisé pour faire de la maintenance prédictive.Concrètement, des capteurs Bluetooth basse consommation sont désormais greffés sur les moteurs et les convoyeurs pour surveiller en temps réel les vibrations, la température et le bruit. Le gain est surtout la fin des câblages complexes.Les données remontent vers des plateformes d'IA qui détectent les anomalies avec l'objectif de prévenir les pannes. Résultat, une réduction des pannes d'équipement de près de 70 % selon Deloitte.Localiser chaque objet en temps réelLe second cas d'usage, c'est une visibilité totale sur les machines et les outils présents dans les entreprises grâce au traçage Bluetooth.Et dans un entrepôt ou sur un chantier, le temps perdu à chercher un outil ou une pièce détachée est une perte nette de productivité.Les tags Bluetooth permettent ici de localiser chaque objet en temps réel. Et la nouveauté réside ici dans l'arrivée du "Bluetooth Channel Sounding".Derrière ce terme technique se cache une capacité de mesure de distance qui transforme votre inventaire en une carte interactive et dynamique.Sur ce point, ce sont 760 millions de balises de suivi qui devront être expédiées annuellement d'ici 2029.Le Bluetooth sécurise désormais les zones à risque via le "geofencing"Enfin le troisième point concerne la sécurité des professionnels sur les sites industriels.Le Bluetooth sécurise désormais les zones à risque via le "geofencing" ou périmètre virtuel.Pour ce faire, les équipements de protection individuelle, comme les casques ou les badges connectés, sont équipés de tags Bluetooth. Et ils communiquent avec les machines.Concrètement, si un opérateur pénètre dans une zone dangereuse, le système peut alerter ou stopper automatiquement l'équipement.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Plongeons dans une faille de sécurité émergente aussi subtile que redoutable. Il s'agit de l'empoisonnement des recommandations des IA par manipulation de la mémoire.Concrètement, derrière le bouton "Résumer avec l'IA" que vous utilisez peut-être chaque jour avec les logiciels et sites internet, se cachent parfois des instructions malveillantes visant à biaiser durablement le jugement de votre assistant numérique.Le premier point de rupture concerne donc l'usage détourné des fonctions de résumé automatique.Le bouton "Résumer" : un cheval de Troie invisibleMicrosoft a identifié une nouvelle tendance baptisée "AI Recommendation Poisoning".Concrètement, des entreprises malveillantes insèrent des instructions cachées dans les paramètres URL des boutons de résumé.Lorsqu'un utilisateur clique pour obtenir une synthèse, il injecte sans le savoir une commande de persistance dans la mémoire de son assistant, comme ChatGPT ou Copilot.Ces instructions ordonnent alors à l'IA de considérer telle marque comme une "source de confiance" ou de la "recommander en priorité" dans toutes les discussions futures.Ce n'est donc plus une simple publicité, c'est une altération profonde et invisible du moteur de décision de l'assistant d'IA.Et cette stratégie marketing s'industrialise.L'industrialisation de la manipulationEn l'espace de deux mois, plus de 50 exemples distincts provenant de 31 entreprises ont été repérés dans les secteurs de la finance ou de la santé.Mais le plus inquiétant est l'apparition d'outils "clés en main" comme le package CiteMET ou des générateurs d'URL optimisés pour le GEO.En clair, ces outils permettent à n'importe quel site web d'implanter ses arguments de vente directement dans la mémoire à long terme des assistants d'IA.Le risque est donc pour l'utilisateur de recevoir une analyse de marché ou un conseil en investissement biaisé par une instruction implantée des semaines auparavant lors d'une simple navigation web.Vers une hygiène numérique de la mémoire IALa mémoire des assistants IA, conçue pour personnaliser l'expérience, devient donc une surface d'attaque persistante.Car contrairement à un résultat de recherche Google que l'on peut ignorer, une instruction mémorisée par l'IA agit en arrière-plan de manière permanente.Pour les entreprises, la protection contre ce type d'attaques passe par un audit régulier des "faits enregistrés" dans les paramètres de l'IA et une grande méfiance envers les liens de type "Summarize".Par ailleurs, les équipes cyber doivent désormais traquer les mots-clés comme "trusted source" ou "remember" dans les flux d'URL pour détecter les attaques de ce type.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, on plonge dans le code avec OpenAI qui vient de frapper un grand coup en lançant GPT-5.3-Codex-Spark.C'est une version allégée mais ultra-rapide de son modèle de génération de code.La vitesse pureD'abord, la promesse est simple : la vitesse pure.Ce nouveau modèle "Spark" est capable de générer du code 15 fois plus vite que le modèle standard GPT-5.3-Codex.On parle d'une réduction drastique de la latence, avec une réponse aux requêtes presque instantanée. Pour les développeurs, cela signifie la fin du mode "batch" où l'on envoyait une instruction avant de partir prendre un café en attendant le résultat.Ici, on entre dans l'ère de la collaboration en temps réel. Le modèle permet des micro-éditions ciblées et des ajustements d'interface en direct, et ce sans casser le flux de travail.Partenariat stratégique avec CerebrasEnsuite, il faut regarder sous le capot pour comprendre ce bond de performance.Cette prouesse est le fruit d'un partenariat stratégique avec le fabricant de puces Cerebras. Le modèle Spark tourne sur le "Wafer Scale Engine 3", un processeur géant de la taille d'une galette qui regroupe toutes les ressources de calcul sur une seule pièce de silicium.Concrètement, OpenAI a réduit l'échange de données entre le client et le serveur de 80 %. C'est cette architecture matérielle unique qui permet une interactivité fluide, autorisant même le développeur à interrompre ou à rediriger l'IA en plein milieu de sa tâche.Mais attention, et c'est mon troisième point, cette vitesse a un prix : celui de la précision et de la sécurité.Plus vite, mais plus faillibleOpenAI est très honnête sur ce point : sur les bancs d'essai mesurant les capacités d'ingénierie logicielle autonome, Spark est moins performant que son grand frère.Plus inquiétant encore pour les entreprises, il n'atteint pas les seuils de haute capacité en cybersécurité définis par OpenAI.En clair, Spark fait les choses beaucoup plus vite, mais il est plus susceptible de commettre des erreurs ou de générer des failles.On est donc sur un outil de prototypage rapide et d'itération légère, plutôt que sur un agent capable de gérer seul des infrastructures critiques.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, nous plongeons dans une application fascinante de l'intelligence artificielle qui dépasse le cadre des entreprises pour s'attaquer aux mystères de l'histoire.Une équipe internationale vient de prouver que l'IA peut redonner vie à des pans entiers de notre culture en reconstituant les règles d'un jeu de société romain dont le manuel avait disparu depuis deux millénaires.Simulation de données au service de l'archéologieD'abord, il faut comprendre que nous ne sommes pas ici dans de la génération de texte à la ChatGPT, mais dans de la simulation massive de données au service de l'archéologie.Le point de départ est une simple plaque de calcaire gravée, découverte aux Pays-Bas. Si les traces d'usure suggérait un jeu, personne ne savait comment on y jouait. Les chercheurs ont donc utilisé la numérisation 3D pour cartographier chaque micro-rayure et formuler des centaines d'hypothèses de plateaux.C'est ici que l'IA entre en scène : au lieu de tester manuellement chaque théorie, les scientifiques ont injecté ces données dans Ludii, une plateforme logicielle dédiée aux systèmes de jeux. En quelques heures, l'IA a simulé des milliers de parties pour tester la viabilité mathématique et logique de chaque règle potentielle par rapport à l'usure réelle de la pierre.L'IA agit ici comme un accélérateur de raisonnementEnsuite, cette prouesse technique nous livre un enseignement stratégique sur la nature même de l'IA.Pour Éric Piette, le chercheur à l'origine du projet, l'IA agit ici comme un accélérateur de raisonnement. Elle a permis de valider que ce plateau correspondait à un jeu de blocage, où l'objectif est d'immobiliser l'adversaire, un mécanisme que l'on retrouvera bien plus tard en Scandinavie.Concrètement, l'outil n'a pas remplacé l'archéologue, il a éliminé les impasses logiques pour ne laisser que les scénarios robustes. En clair, l'IA excelle là où la combinatoire humaine sature, permettant de transformer des indices fragmentaires en modèles de connaissances exploitables.Etude des mécanismes cognitifs et du comportement humainEnfin, les retombées de ce projet Ludii dépassent largement le cadre des musées. Si cette IA sait reconstituer les interactions sociales de l'Antiquité, elle est surtout un laboratoire pour l'étude des mécanismes cognitifs et du comportement humain.Ces mêmes algorithmes de simulation sont aujourd'hui utilisés pour analyser la manière dont nous apprenons, dont nous interagissons et dont nous résolvons des problèmes complexes.Pour les décideurs de la tech, le message est clair : l'IA devient un pont entre des disciplines autrefois silotées, comme l'informatique, l'histoire et la psychologie, créant un langage commun pour modéliser n'importe quel système de règles, qu'il soit ludique, social ou industriel.Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Et si l'avenir de l'intelligence artificielle ne se jouait plus au sol, mais à 500 kilomètres au-dessus de nos têtes ?C'est le pari fou, mais très sérieux, de Google et la société Planet avec le projet Suncatcher. L'objectif est simple : construire les premiers centres de données orbitaux.Les deux géants viennent d'annoncer une accélération majeure avec le lancement prévu de deux satellites de démonstration d'ici début 2027.Une alimentation solaire quasi continueLe premier pilier de cette stratégie repose sur la résolution d'une équation énergétique devenue critique sur Terre.Aujourd'hui, les centres de données IA saturent les réseaux électriques et posent des problèmes de refroidissement colossaux.En plaçant ces serveurs en orbite héliosynchrone, Google et Planet visent une alimentation solaire quasi continue.Concrètement, ces satellites qui serviraient de "fermes de calcul" déploieront des panneaux solaires XXL pour alimenter des puces TPU, les processeurs de Google optimisés pour l'IA.Mais le vrai défi technique reste la dissipation de la chaleur dans le vide spatial et la protection des composants contre les radiations. C'est tout l'enjeu des tests de 2027. Il s'agit de prouver qu'on peut faire tourner un cluster de calcul intensif dans l'hostilité de l'espace.Un cluster spatial volantEnsuite, le projet Suncatcher inaugure une architecture réseau d'un genre nouveau : le cluster spatial volant.On ne parle pas de satellites isolés, mais de grappes de machines situées à moins de 200 mètres les unes des autres, reliées par des liaisons laser à très haut débit.Cela préfigure un cloud hybride totalement indépendant des infrastructures terrestres et capable de traiter les données directement dans l'espace.Planet utilise ici son expérience unique, ayant déjà mis en orbite plus de 600 satellites, pour industrialiser ce que Google appelle un "système de cluster à grande échelle".Vers le développement industrielEnfin, cette alliance marque un tournant concurrentiel majeur dans la course à l'espace.Si Jeff Bezos et Elon Musk ont déjà évoqué l'idée de data centers spatiaux, Google et Planet sont les premiers à passer concrètement en phase de recherche et développement industrielle.Le PDG de Planet, Will Marshall, l'affirme : nous ne sommes qu'à quelques années du point de bascule économique où l'espace deviendra moins cher que la Terre pour le calcul intensif.Avec la baisse drastique des coûts de lancement, l'infrastructure spatiale devient un levier stratégique pour la puissance de calcul.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Ce n'est plus de la science-fiction. La réalité brutale de l'intelligence artificielle générative qui vient de franchir un cap historique, note le dernier baromètre de l'Arcep.En seulement deux ans, nous sommes passés d'une curiosité de laboratoire à un outil de masse utilisé par près d'un Français sur deux. C'est aussi un séisme qui redéfinit les frontières entre vie privée et vie professionnelle.Une accélération technologique sans précédentLe premier constat est celui d'une accélération technologique sans précédent dans l'histoire moderne.Là où le smartphone avait mis trois ans pour atteindre un niveau de pénétration significatif, l'IA générative n'a eu besoin que de vingt-quatre mois pour conquérir près de 50 % de la population.Et cette adoption quasi instantanée culmine chez les français de moins de 25 ans avec un taux de 85 %.Pour les entreprises, cela signifie que la question n'est plus de savoir s'il faut intégrer l'IA, mais comment gérer des collaborateurs qui sont déjà, pour la plupart, des utilisateurs aguerris de cette technologie dans leur sphère privée.L'IA générative inverse les codes traditionnels de l'innovationSurtout, au-delà de cette vitesse de déploiement, l'IA générative inverse les codes traditionnels de l'innovation.Historiquement, les grandes vagues technologiques entraient dans nos vies par le bureau avant de s'inviter dans nos salon. Pour l'IA, c'est l'inverse.Le recours à ces outils relève d'abord d'une initiative personnelle plus de 40 % des usagers, tandis que l'usage strictement professionnel concerne 30 % des actifs.C'est ce qu'on appelle le Shadow AI. Les salariés testent, expérimentent et résolvent des problèmes complexes avec ChatGPT ou Claude chez eux, avant de ramener ces réflexes au travail.Par ailleurs, une pression nouvelle apparaît. Près de 20 % des Français se voient désormais imposer l'IA par les plateformes qu'ils utilisent déjà, comme les moteurs de recherche ou les messageries, rendant la technologie incontournable, qu'on le veuille ou non.Une nouvelle fracture numérique de compétence et d'usageEnfin, il faut noter une nouvelle fracture numérique, non plus d'accès, mais de compétence et d'usage.Le profil type de l'utilisateur intensif se dessine très nettement. Il est jeune, diplômé du supérieur, cadre ou indépendant.Pour le monde professionnel, ce clivage est un enjeu majeur. Les indépendants et les cadres, avec plus de 75 % d'utilisateurs, transforment déjà leurs méthodes de travail quand d'autres secteurs restent sur le bord de la route.Cette concentration des usages chez les profils les plus qualifiés risque de créer un avantage compétitif pour ceux qui maîtrisent l'art de la requête et du prompt, laissant présager une restructuration profonde du marché du travail basée sur la collaboration homme-machine.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Imaginez un moteur de Formule 1 monté sur un châssis de vélo. C'est un peu l'image que renvoie aujourd'hui l'intelligence artificielle générative dans le secteur des achats en entreprise.On en parle partout, on multiplie les essais, mais quand il s'agit de passer à la vitesse supérieure, les entreprises calent.Le dernier baromètre publié par EFESO Management Consultants vient de tomber, et le chiffre est sans appel.Seules 5 % des directions achats ont réellement franchi le cap de l'industrialisation à grande échelle de l'IA générative.Les directeurs achats ont changé de braquetLe premier constat de cette étude, c'est que nous assistons à la fin de l'ère de l'expérimentation joyeuse pour entrer dans celle de la discipline de fer.Si 75 % des entreprises testent l'IA, le déploiement massif reste marginal car les directeurs achats ont changé de braquet.Ils ne cherchent plus à savoir si l'IA fonctionne, mais ils exigent désormais une démonstration tangible de la valeur créée avant de signer le moindre chèque.En clair, les projets ne sont plus validés sur leur aspect innovant, mais sur leur capacité à s'intégrer aux processus opérationnels existants.Super-secrétariat technique plutôt que aide à la décisionPar ailleurs, l'IA générative semble pour l'instant cantonnée dans le monde des achats à des rôles de super-secrétariat technique plutôt qu'à des fonctions de décision.Les usages qui s'industrialisent réellement sont ceux qui présentent le moins de risques et une forte densité de données faciles à traiter.On parle ici de l'analyse et de la synthèse de contrats pour près de 70 % des entreprises, ou encore de la veille fournisseur pour plus de 60 % d'entre elles.En revanche, dès que l'on touche au cœur du métier, comme la négociation assistée par l'IA, le taux d'adoption chute à 35 %.Pourquoi ? Parce que confier une négociation stratégique à un algorithme demande une profondeur de données et une gouvernance que peu d'organisations possèdent encore aujourd'hui.La crise de confiance freine le passage à l'échelleEnfin, l'étude note que c'est la crise de confiance qui freine le passage à l'échelle.Seul un tiers des directeurs achats se dit pleinement satisfait des résultats obtenus par rapport aux investissements initiaux.Et le problème ne vient pas toujours de l'outil lui-même, mais de la matière première. Près de 70 % des décideurs pointent la fiabilité des données comme un obstacle majeur.En clair, avertit l'étude, 2026 s'annonce comme l'année où le fossé va se creuser irrémédiablement entre les directions achat qui sauront industrialiser leurs pilotes de manière sélective et celles qui resteront bloquées dans une boucle infinie d'expérimentations sans lendemain.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, on s'intéresse à une petite révolution dans la manière dont nous allons bientôt faire nos courses en ligne.Criteo vient de lever le voile sur son Agentic Commerce Recommendation Service, un nom un peu complexe pour une mission très concrète.Il s'agit d'apporter plus d'intelligence commerciale aux assistants d'achat basés sur l'IA.Sous le capot des assistants d'achatPour comprendre l'enjeu, il faut d'abord regarder sous le capot de nos assistants d'achat actuels.Aujourd'hui, qu'il s'agisse d'un chatbot de retailer ou d'un grand modèle de langage, ces outils se contentent souvent de lire des descriptions de produits, un peu comme un simple robot qui scannerait une étiquette.Le problème, c'est que ça ne suffit pas pour conseiller efficacement un client. Il a besoin par exemple des avis d'autres consommateurs, ou encore des volumes de vente pour savoir si ce produit est le bon.Criteo assure donc vouloir changer la donne en injectant sa base de données directement dans ces flux d'IA.Le service s'appuie sur des données réelles. Criteo assure disposer de données de consommation de 720 millions d'utilisateurs de site de e-commerce.En utilisant ces signaux d'achat concrets plutôt que de simples textes marketing, Criteo affirme pouvoir booster la pertinence des recommandations des chatbots.De quoi en faire des vendeurs experts qui savent ce qui se vend vraiment et pourquoi.Connecter les cerveaux des IA aux inventairesAu-delà de cette précision, l'autre force de cette annonce réside dans l'infrastructure technique utilisée. Criteo dit utiliser le Model Context Protocol ou MCP.Ce nouveau protocole permet de connecter directement les cerveaux des IA aux inventaires en temps réel des commerçants.Concrètement, lorsqu'un consommateur demande une sélection pour un budget précis, l'IA ne va plus seulement chercher des mots-clés. Elle interroge le service de Criteo qui filtre et classe les produits selon la popularité, la disponibilité et l'intention réelle de l'utilisateur.L'assistant IA peut alors accompagner le client jusqu'au paiement. C'est ce que Criteo appelle le commerce agentique.Des agents d'IA qui parleront à des agents d'IAEt le futur du commerce agentique passera très certainement par un dialogue entre des robots diligentés par les acheteurs, et des robots maîtrisés par les vendeurs.Dans ce nouveau monde où les agents IA font le gros du travail de recherche pour les humains, le véritable avantage concurrentiel côté retailer ne sera plus seulement d'avoir un bon produit, mais d'être visible par l'algorithme qui conseille l'acheteur.Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Imaginez un smartphone qui ne dépendrait plus d'aucune antenne terrestre, un appareil capable de capter le réseau au milieu de l'océan ou au sommet de l'Everest.C'est ce scénario qui vient d'être évoqué par Elon Musk. Il assure pour cela que le lancement d'un smartphone sous la marque Starlink est envisagé.Un smartphone qui pour communiquer n'aurait besoin que de la constellation de satellites de l'homme le plus fortuné du monde.Starlink est devenu une poule aux œufs d'orLe premier pilier de cette annonce est purement économique. Starlink est devenu une véritable poule aux œufs d'or.En 2025, elle a généré entre 50 et 80 % des profits de l'entreprise SpaceX à laquelle elle est rattachée.Pour maintenir cette croissance insolente, le lancement d'un smartphone propriétaire permettrait de verrouiller l'utilisateur dans un écosystème complet.Ce ne serait alors pas seulement un téléphone, mais une porte d'entrée payante vers un réseau de communication mondial, affranchi des opérateurs de télécoms traditionnels.Pour les entreprises clientes, cela signifierait aussi une connectivité totale, permanente, sans zones blanches, directement gérée par un seul fournisseur d'infrastructure.Une rupture technologique qui interpelleMais au-delà de cette manne financière potentielle, c'est la rupture technologique qui interpelle.Elon Musk prévient que cet appareil serait radicalement différent de ce que nous connaissons.L'idée est d'intégrer au cœur du smartphone les capacités de xAI, sa société d'intelligence artificielle, et de Grok, son agent conversationnel.En couplant des datacenters spatiaux, une autre idée de l'entrepreneur, avec des terminaux mobiles ultra-optimisés pour l'IA, Musk vise la création d'un cerveau numérique portable. Rien de moins.Musk s'attaque frontalement au duo Apple et GoogleEnfin, en lançant son propre matériel, Musk s'attaque frontalement au duo Apple et Google en essayant de briser leur duopole sur les systèmes d'exploitation mobiles.C'est un pari risqué. D'autres ont essayé et se sont cassé les dents.Mais avec la force de frappe de Starlink, Musk dispose déjà de l'infrastructure mondiale nécessaire pour bousculer ces géants de la mobilité.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

C'est un séisme financier qui secoue aujourd'hui le secteur de la crypto et du bitcoin.Strategy, le géant américain connu pour être le plus grand détenteur mondial de bitcoins, vient de dévoiler un bilan trimestriel qui donne le vertige. La société accuse 12 milliards de dollars de pertes nettes en seulement trois mois.Transformer une pépite technologique en gouffre financierCe crash n'est bien sûr pas qu'une ligne comptable.Il illustre la vulnérabilité extrême des entreprises qui ont lié leur destin de manière quasi organique à la volatilité des cryptomonnaies.En voyant le cours du bitcoin plonger sous la barre des 60 000 dollars la semaine dernière, Strategy voit son modèle économique et sa capitalisation boursière s'évaporer à vue d'œil.En clair, la stratégie de trésorerie d'entreprise basée sur un actif hautement spéculatif peut transformer une pépite technologique en gouffre financier. Et ce en un seul trimestre.Le soutien de Trump au secteur crypto ne suffit plus à rassurerAu-delà de ce chiffre colossal, c'est le changement brutal de climat macroéconomique qui fragilise tout l'écosystème.On assiste à un retour massif de l'aversion au risque.Plusieurs facteurs s'entrechoquent pour créer cette tempête.D'un côté, les tensions géopolitiques et les incertitudes sur la croissance poussent les investisseurs à délaisser le secteur tech pour se réfugier vers des valeurs plus stables, comme l'or.De l'autre, la politique monétaire américaine change de visage. La nomination de Kevin Warsh à la tête de la Réserve fédérale américaine laisse présager un assèchement des liquidités disponibles pour les actifs risqués.Et les chiffres parlent d'eux-mêmes. Près de 9 milliards de dollars ont été sortis des ETF bitcoin au comptant en seulement deux mois.Ce désengagement prouve que même le soutien politique affiché par la nouvelle administration Trump au secteur crypto ne suffit plus à rassurer les marchés.L'incroyable résilience, ou peut-être obstination, de Michael SaylorEnfin, il faut noter l'incroyable résilience, ou peut-être l'obstination, de Michael Saylor, le patron de Strategy.Malgré l'hémorragie, le dirigeant refuse de dévier de sa trajectoire. Il balaye les inquiétudes d'un revers de main, qualifiant ceux qui quittent le navire de simples touristes du secteur de la crypto.Pour lui, les fondamentaux des monnaies virtuelles restent sains. Il pense que l'intégration du bitcoin dans les grandes structures bancaires et réglementaires est irréversible.En bref, le bras de fer entre la vision idéologique de la crypto et la rigueur des bilans financiers des entreprises n'a jamais été aussi tendu.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, nous décollons pour une première historique qui se joue à 362 millions de kilomètres de nos bureaux.Pour la première fois, une intelligence artificielle a pris les commandes d'un véhicule. Et ce sur une autre planète.En décembre dernier, le rover Perseverance de la NASA a en effet parcouru environ 400 mètres sur la planète Mars en suivant un itinéraire entièrement planifié par Claude, le modèle d'IA d'Anthropic.Un basculement majeur pour l'exploration spatialeD'abord, c'est un basculement majeur pour l'exploration spatiale.Jusqu'ici, chaque mètre parcouru dans le cratère martien Jezero exigeait une planification humaine méticuleuse pour éviter que le robot de la taille d'une voiture ne s'ensable ou ne bascule sur le côté.En utilisant Claude pour générer les points de passage précis du rover, les ingénieurs du Jet Propulsion Laboratory ont prouvé que l'IA peut désormais traduire des images satellites en trajectoires sécurisées sur un terrain accidenté.Diviser par deux le temps de planification des itinérairesPar ailleurs, pour guider Perseverance, Claude ne s'est pas contenté de dessiner une ligne.L'IA a dû ingérer des années de données de conduite et maîtriser le Rover Markup Language, un langage de programmation spécifique basé sur l'XML.Et le résultat est sans appel. Les ingénieurs de la NASA estiment que l'intégration de l'IA dans ce processus permet de diviser par deux le temps de planification des itinéraires.Cela signifie pour ces ingénieurs moins de temps passé sur des tâches fastidieuses de routage, et plus de temps alloué à la collecte et à l'analyse de données scientifiques.Laboratoire pour les ambitions lunaires de la NasaEnfin, l'autre versant de cette avancée technologique, c'est que ce test réussi sur Mars sert de laboratoire pour les futures ambitions lunaires de la Nasa.Avec le programme américain Artemis qui vise à établir une base permanente sur le pôle sud de la Lune, les défis logistiques vont exploser.Et dans ces environnements hostiles, une IA capable de trouver un chemin à partir de photos satellite est plus que précieux.Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

C'est un géant du monde des centres de données qui débarque dans votre bureau ou votre commerce.Vertiv lance une nouvelle gamme d'onduleurs, nommé Power UPS 200, pour équiper locaux professionnels mais aussi personnels avec une solution compacte qui répond à une urgence simple mais vitale, c'est à dire sécuriser l'alimentation électrique là où la donnée est créée, c'est-à-dire au plus près de l'utilisateur final. La démocratisation d'une expertise industrielleLe premier point, c'est que cette annonce marque la démocratisation d'une expertise industrielle. En effet, il ne s'agit pas d'une batterie de secours.Elle intègre en effet la régulation automatique de tension, qui est une technologie indispensable pour stabiliser le courant avant même qu'une coupure ne survienne.Pour un point de vente ou une petite infrastructure IT, c'est la garantie que les variations de tension ne grilleront pas les composants sensibles.Des batteries remplaçables directement par l'utilisateurAu-delà de cette robustesse technique, Vertiv dit assurer une meilleure durabilité opérationnelle. La marque propose en effet des batteries remplaçables directement par l'utilisateur.C'est un argument de poids pour les entreprises, car cela permet de prolonger la vie de l'onduleur sans passer par un service technique coûteux ou un remplacement complet de l'unité.Ajoutez à cela une interface intuitive avec écran LCD couleur, et vous obtenez un outil professionnel pour des collaborateurs qui ne sont pas forcément des ingénieurs réseau.Vertiv transforme ses onduleurs en hub de gestion de l'énergie au bureauEnfin, il faut souligner l'aspect hybride de ces nouveaux boîtiers qui s'adaptent aux nouveaux usages des professionnels nomades.En intégrant des ports de charge USB de Type-A et surtout de Type-C, Vertiv transforme ses onduleurs en hub de gestion de l'énergie au bureau.Ce n'est donc plus seulement l'ordinateur central qui est protégé, mais tout l'écosystème mobile qui gravite autour. Bref, Vertiv cherche à verrouiller le marché des équipements périphériques avec la même rigueur que celui des centres de données.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, on s'installe confortablement dans le cockpit de notre navigateur puisque Google Chrome active son mode pilote automatique.La firme de Mountain View vient de frapper un grand coup avec le lancement d'Auto Browse, une fonctionnalité dopée à Gemini 3 qui ne se contente plus de suggérer des recherches, mais agit concrètement à votre place sur le web. On passe de l'IA conversationnelle à l'IA "agentique"D'abord, comprenons bien la rupture technologique. On passe de l'IA conversationnelle à l'IA "agentique". Concrètement, Google veut nous débarrasser de ce qu'il appelle la lessive numérique, c'est à dire ces tâches répétitives et sans valeur ajoutée.Lors de sa présentation, la vice-présidente de Chrome a montré des capacités bluffantes. Gemini peut désormais scanner plusieurs onglets ouverts pour remplir automatiquement un formulaire d'inscription ou trier vos favoris sur un site immobilier selon des critères ultra-précis, comme le fait d'accepter par exemple les animaux de compagnie.L'IA ne se contente pas de lire, elle navigue, clique et saisit des données en temps réel sous vos yeux.Au-delà de la simple navigation bien sûr, l'intégration de briques e-commerce est mise en avant par Google.Pour rendre Auto Browse opérationnel, Google a en effet déployé son Universal Commerce Protocol en partenariat avec des géants comme Shopify ou Etsy.Et je vous décrit un exemple. Vous montrez une photo de sapin de Noël décoré à Gemini, et l'IA va d'elle-même chercher les boules et les guirlandes correspondants sur des sites de commerce en ligne, les ajouter au panier et préparer la transaction.Pour rassurer les plus sceptiques face à ce majordome numérique qui manipule votre carte bleue, Google impose une validation humaine systématique avant chaque paiement final.Ultra-personnalisation via la fonction Personal IntelligenceEnfin, l'enjeu majeur de cette mise à jour réside dans l'ultra-personnalisation via la fonction Personal Intelligence.En activant cette option, vous permettez à Gemini de puiser dans tout votre écosystème Google, de Gmail à Drive en passant par Photos, pour affiner ses actions.C'est un pas de géant vers une assistance totale, même si la prudence reste de mise.L'outil est encore loin d'être infailliblePour l'instant, Auto Browse reste réservé aux abonnés AI Pro et Ultra, et l'outil est encore loin d'être infaillible.Si Gemini excelle dans la navigation marchande, il bute encore sur des commandes de précision dans les tableurs.Le passage de témoin entre l'homme et la machine doit donc encore se faire avec une certaine vigilance.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, nous plongeons au cœur d'un divorce technologique majeur. La France a décidé de rompre officiellement avec les géants américains de la visioconférence.Teams, Zoom ou encore Google Meet sont désormais sur la sellette au sein de l'administration française. Le gouvernement déploie sa propre solution nationale, baptisée Visio, avec un objectif clair : l'indépendance totale d'ici 2027. Ce n'est pas seulement une question de logiciel, c'est une véritable bascule politique et industrielle.Souveraineté des donnéesLe premier pilier de cette décision est la souveraineté des données.Pour Paris, il ne s'agit plus de faire confiance aveugle aux Big Tech. L'ombre du US Cloud Act de 2018 plane toujours.Cette loi permet aux autorités américaines d'accéder à des données stockées sur des serveurs, même s'ils sont situés sur le sol européen. En migrant vers Visio, le gouvernement français s'assure que les échanges scientifiques, les innovations stratégiques et les données sensibles de l'État restent sous juridiction européenne.C'est une réponse directe à l'insécurité juridique que pose la dépendance aux infrastructures extra-européennes.La force de l'open source et de l'innovation localeAu-delà de la sécurité, l'autre versant de cette annonce c'est la force de l'open source et de l'innovation locale.Visio n'est pas un gadget bricolé dans un coin. C'est un outil robuste développé par la DINUM, en collaboration avec l'Allemagne et les Pays-Bas.Basé sur des technologies comme Django et React, il intègre même de l'intelligence artificielle pour la transcription grâce à la pépite française Pyannote.Ce projet s'inscrit dans une "Suite Numérique" plus large, visant à remplacer Gmail ou Slack par des alternatives souveraines. C'est donc une véritable rampe de lancement pour l'écosystème tech européen, prouvant que nous pouvons produire des outils collaboratifs au niveau des standards mondiaux.Un enjeu économique et pragmatiqueEnfin, il y a un enjeu économique et pragmatique indéniable.Car l'État français compte bien faire des économies d'échelle.On parle d'un million d'euros d'économie par an pour chaque tranche de 100 000 utilisateurs grâce à l'arrêt des licences payantes.Alors que 40 000 agents utilisent déjà Visio au quotidien, le passage à 200 000 utilisateurs est imminent. Si cette transition réussit son pari sur l'ergonomie et la fiabilité, la France pourrait bien fournir le modèle à suivre pour tous les pays européens qui cherchent à reprendre le contrôle de leur infrastructure numérique sans sacrifier la productivité de leurs agents.Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Imaginez un peu. Un tiers des lignes de code produites dans le monde sortent désormais directement d'une intelligence artificielle.C'est le constat vertigineux d'une étude du Complexity Science Hub qui analyse comment l'IA générative bouleverse le quotidien des développeurs.Mais attention, si la productivité globale grimpe de 4 %, cette manne technologique ne profite pas à tout le monde de la même manière et redessine une nouvelle hiérarchie au sein des équipes techniques.Le paradoxe de l'expérienceLe premier enseignement majeur de cette étude est ce qu'on pourrait appeler le paradoxe de l'expérience.Si les développeurs débutants sont les plus accros à l'IA avec un taux d'adoption de 37 %, ils n'en tirent paradoxalement aucun gain de productivité concret.À l'inverse, les profils seniors captent la quasi-totalité de la valeur créée.Pourquoi ? Parce que l'IA génère du code, mais elle génère aussi des erreurs que seul un œil expert peut détecter et corriger instantanément.Pour les entreprises, le message est clair. L'IA ne remplace pas le savoir-faire. Elle agit comme un multiplicateur de force pour ceux qui maîtrisent déjà les fondamentaux de l'architecture logicielle.L'IA transforme la nature même du travail de programmationMais au-delà du simple gain de vitesse, l'IA transforme la nature même du travail de programmation.L'étude montre que les développeurs utilisant l'IA générative s'aventurent beaucoup plus souvent hors de leur zone de confort en intégrant des combinaisons inédites de bibliothèques logicielles.L'IA joue ici un rôle d'accélérateur d'innovation individuelle, permettant de manipuler des briques technologiques complexes et inconnues jusqu'alors.C'est un changement de paradigme. On ne demande plus seulement à l'outil de coder plus vite, mais de nous aider à concevoir des solutions plus riches et plus créatives que ce que notre propre mémoire technique permettrait.La tentation de réduire les effectifs grâce à l'IA est réelleL'autre versant de l'étude concerne la stratégie business des directions techniques.La tentation de réduire les effectifs grâce à l'IA est réelle. Mais c'est une erreur de calcul note l'étude.La logique qui s'impose est celle du faire plus avec autant. En automatisant les tâches routinières, la documentation et les tests, l'IA libère du temps pour que les ingénieurs se concentrent sur la résolution de problèmes complexes et l'alignement des produits sur les objectifs métier.Le développeur de 2026 ne doit plus être un simple rédacteur de code, mais un chef d'orchestre capable de piloter l'IA comme un stagiaire très rapide mais qui nécessite une supervision constante.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

C'est un sacré un paradoxe du marché de l'audio. Tous les fournisseurs de casque évoquent des écouteurs intelligents.Mais alors que la rumeur d'un projet de hardware chez OpenAI s'intensifie, il est temps de se demander pourquoi vos écouteurs actuels ne sont en réalité que de simples haut-parleurs.Et bien voici les trois verrous technologiques qui doivent sauter pour en faire de vrais outils de productivité.Le LLM dans l'écouteurLe premier grand défi, c'est celui du traitement de l'IA directement embarqué, ce qu'on appelle l'on-device processing.Actuellement, quand vous demandez une traduction ou une transcription à vos écouteurs, le signal fait un aller-retour permanent vers votre téléphone.C'est lent, ça crée de la latence et cela pose de sérieuses questions de confidentialité des données.Pour que ces appareils deviennent de véritables assistants pro, ils doivent être capables de faire tourner des modèles de langage légers de manière autonome.Imaginez des écouteurs capables de transcrire une réunion ou de traduire une conversation complexe sans même avoir votre smartphone dans la poche. C'est le passage indispensable pour transformer un accessoire de mode en un terminal informatique à part entière.Du Wi-Fi dans le casque audioAu-delà de cette puissance de calcul, l'autre rupture majeure attendue concerne la connectivité, avec l'intégration du Wi-Fi.C'est un serpent de mer technique à cause de la consommation d'énergie, mais c'est la clé de l'indépendance.Aujourd'hui, vos écouteurs sont prisonniers du Bluetooth et de l'écosystème de votre téléphone. Le Wi-Fi permettrait non seulement une qualité audio sans perte, mais surtout un accès direct au cloud et à vos outils professionnels, comme votre calendrier ou vos applications de navigation, sans intermédiaire.Cela briserait enfin les silos fermés des constructeurs, permettant à une paire d'écouteurs de dialoguer nativement avec plusieurs plateformes de travail simultanément.De l'ANC dopé au machine learningLe dernier point, c'est l'évolution radicale de la réduction de bruit grâce à l'apprentissage machine contextuel.On ne parle plus seulement de supprimer le brouhaha de l'open space, mais de doter l'appareil d'une véritable compréhension de l'environnement sonore.Les modèles de demain devront apprendre de vos habitudes pour distinguer l'intention derrière un son. Un algorithme vraiment intelligent doit savoir isoler la voix de votre interlocuteur tout en laissant passer l'alerte sonore d'un passage piéton ou une annonce importante en gare.Ce passage d'une isolation passive à une audition sélective et contextuelle est le dernier pilier qui permettra aux professionnels de rester connectés à leur environnement tout en maximisant leur concentration.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Intéressons nous à la manière dont l'intelligence artificielle peut redonner du souffle à vos données de santé personnelles, avec un focus sur une initiative communautaire qui bouscule l'usage de l'Oura Ring.Transformer le flux illisible de l'application Oura en un rapport structuréLe constat de départ est simple. Posséder une bague ou une montre connectée, c'est bien. Mais se retrouver face à une avalanche de graphiques colorés sans savoir quoi en faire, c'est plus frustrant qu'autre chose.C'est là qu'intervient le Simple Wearable Report, un outil gratuit né sur Reddit via la communauté Oura Ring.Sa force n'est pas de collecter de nouvelles données, mais de transformer le flux illisible de l'application Oura en un rapport structuré, calqué sur le modèle des comptes-rendus de laboratoires d'analyses.L'objectif est double. Il s'agit d'offrir une lecture instantanée pour l'utilisateur et, surtout, fournir un document propre que votre médecin traitant peut réellement exploiter lors d'une consultation, sans avoir à défiler sur l'écran d'un smartphone.Compatibilité avec les LLMAu-delà de la mise en page, l'intérêt majeur de ce rapport réside dans sa compatibilité avec les grands modèles de langage comme ChatGPT, Claude ou Gemini.En injectant ces données structurées dans une IA, l'utilisateur change radicalement de perspective. Là où l'assistant officiel d'Oura se montre souvent diplomate, voire un peu flou, une IA généraliste comme Gemini adopte une approche sans filtre.Elle est par exemple capable de pointer du doigt une sédentarité excessive avec une franchise brutale.On passe ainsi d'un coach bienveillant qui suggère une petite marche à un analyste qui vous ordonne de fixer un plancher de pas quotidien pour éviter l'atrophie métabolique.Les questions de la confidentialité et de la pertinence médicaleC'est cette capacité de l'IA à "parler franchement" qui permet une interprétation bien plus concrète des cycles de sommeil ou de la variabilité cardiaque.Cependant, cette hyper-analyse soulève une question cruciale pour les professionnels et les particuliers, celle de la confidentialité et de la pertinence médicale.Si l'IA excelle pour déceler des corrélations invisibles à l'œil nu, comme l'impact réel d'une dette de sommeil sur votre fréquence cardiaque au repos, elle ne remplace en aucun cas un diagnostic.L'utilisation de chatbots non chiffrés pour traiter des données de santé reste un terrain glissant.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Plongeons ensemble dans le futur proche avec le rapport « Big Ideas 2026 » d'ARK Invest. Ce document de référence dessine les contours d'une économie mondiale transformée par l'intelligence artificielle.Pour les professionnels, il ne s'agit plus de prévoir des changements graduels, mais de se préparer à une accélération brutale de la croissance et de la productivité.Explosion des capacités de calculLe premier pilier de cette révolution concerne l'infrastructure. Nous assistons à une explosion des capacités de calcul. Depuis la fin de l'année 2022, la croissance des centres de données est passée de 5 % à 29 % par an.Cette accélération est portée par les géants du cloud qui ne regardent plus à la dépense. En 2026, les investissements en capital des hyperscalers devraient dépasser les 500 milliards de dollars.C'est presque quatre fois plus qu'en 2021, juste avant le séisme ChatGPT.Et l'arrivée de cette puissance de calcul massive a un effet immédiat pour les entreprises.Les coûts d'inférence, c'est-à-dire le coût pour faire fonctionner un modèle d'IA, ont chuté de plus de 99 % depuis 2025.Des agents d'IA pour e-commerceAu-delà de l'infrastructure, c'est notre manière d'interagir avec le numérique qui bascule vers ce que l'étude appelle l'« OS de l'IA grand public ».Nous quittons l'ère des applications pour entrer dans celle des agents autonomes. Aujourd'hui, près de 20 % des utilisateurs de smartphones utilisent déjà des chatbots. Mais le vrai changement est dans la rapidité de l'acte d'achat.Si, avant l'ère internet, il fallait une heure pour finaliser un achat, ce délai est tombé à moins de 90 secondes grâce aux agents IA.Ces assistants devraient capturer une part croissante des transactions numériques, passant de 2 % des dépenses en ligne en 2025 à environ 25 % d'ici 2030.Pour les directions marketing, l'enjeu est colossal. La recherche traditionnelle perd du terrain face à la recherche assistée par IA. Elle pourrait représenter 65 % du trafic mondial dans cinq ans.Des gains de productivité importants pour les prosEnfin, cette intelligence artificielle se traduit par un gain de productivité inédit pour les travailleurs du savoir.Les agents IA deviennent plus fiables et capables de gérer des tâches complexes sur de longues durées.La capacité de ces agents à mener des missions sans erreur est passée de 6 minutes à plus de 30 minutes en seulement un an.Dans le secteur du développement logiciel, les coûts ont littéralement fondu, chutant de plus de 90 % entre avril et décembre dernier pour atteindre à peine 25 cents d'euros par million de tokens.L'étude prévoit que cette automatisation ne va pas créer de chômage de masse à long terme, mais plutôt une réduction du temps de travail et une accélération massive des dépenses en logiciels, avec une croissance annuelle pouvant atteindre 56 % pour les entreprises cherchant à augmenter leurs effectifs grâce à l'IA.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Tournons nos regards vers la Fondation Raspberry Pi, qui continue d'étendre son écosystème avec le lancement d'un nouvel accessoire de stockage : le Raspberry Pi Flash Drive.Si la traditionnelle carte microSD reste le standard historique, cette nouvelle solution en USB 3.0 promet de lever certains goulots d'étranglement pour vos projets industriels et professionnels.Anticiper les pannes de stockage avant qu'elles n'arriventL'intérêt principal de ce nouveau support réside dans sa robustesse et sa durabilité, des points critiques pour les usages en entreprise. Contrairement aux clés USB grand public classiques, ces modèles intègrent le support de la technologie SMART, qui permet de surveiller l'état de santé du disque et d'anticiper les pannes avant qu'elles ne surviennent.Ils supportent également la commande TRIM, essentielle pour maintenir les performances et prolonger la durée de vie des cellules de stockage sur le long terme.Le tout est protégé par une coque intégrale en aluminium qui sert de dissipateur thermique, évitant ainsi les baisses de régime liées à la surchauffe lors de transferts intensifs.150 Mo/s en vitesse d'écriture soutenueCôté performances, l'écart avec les solutions classiques est significatif.Là où une carte microSD sur un Raspberry Pi 5 plafonne généralement autour de 30 Mégaoctet par seconde en écriture séquentielle, la version 256 gigaoctet de ce nouveau Flash Drive atteint les 150 Mégaoctet par seconde en vitesse d'écriture soutenue.Pour les professionnels manipulant des bases de données ou des fichiers lourds, ce gain de vitesse, couplé à des performances de lecture aléatoire bien supérieures, offre une réactivité système bien plus proche de celle d'un véritable ordinateur de bureau.Un nouveau hub USB 3 alimentéEnfin, la Fondation a pensé à la pérennité de vos infrastructures. Ces clés sont disponibles en deux capacités, 128 Go pour 30 dollars et 256 Go pour 50 dollars, avec une garantie de production annoncée jusqu'en 2030.Cette visibilité à long terme est un argument de poids pour les intégrateurs qui doivent maintenir des parcs de machines sur plusieurs années.Et pour ceux dont les besoins en connectivité dépassent les ports disponibles, un nouveau hub USB 3 alimenté a également été lancé pour supporter jusqu'à quatre périphériques haute vitesse sans compromis sur l'énergie.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

C'est une annonce fracassante, et elle nous vient de Microsoft.Le géant de Redmond vient de dévoiler la puce Maia 200, un processeur maison capable de faire trembler le monopole de Nvidia sur le marché de l'intelligence artificielle.Une puce déjà en productionCette nouvelle puce ne se contente pas de promesses techniques sur le papier. Elle est déjà opérationnelle et propulse actuellement les tâches d'inférence réalisées avec GPT-5.2 en production dans les datacenters de Microsoft.Scott Guthrie, le big boss de l'IA et du cloud chez Microsoft, assure aussi que Maia 200 sera utilisé en interne pour la génération de données synthétiques pour permettre avec de l'apprentissage par renforcement d'améliorer les nouveaux modèles d'IA.C'est un signal fort envoyé au marché, puisque Nvidia contrôle aujourd'hui environ 95 % du secteur des puces IA avec des marges dépassant les 70 %. Pour les professionnels du cloud et du développement, l'arrivée d'une alternative comme celle de Microsoft signifie potentiellement une réduction de la dépendance vis-à-vis d'un fournisseur unique et donc une optimisation des coûts d'infrastructure.Collaboration avec TSMCTechniquement, la puce Maia 200 affiche des caractéristiques impressionnantes. Gravée en 3 nanomètres en collaboration avec TSMC, elle embarque 140 milliards de transistors et délivre une puissance de 10 pétaflops en précision FP4.Côté mémoire, elle dispose de 216 gigaoctets de mémoire à haute bande passante, permettant de traiter des flux de données à une vitesse de 7 téraoctets par seconde.Ces chiffres placent la Maia 200 comme un concurrent direct des meilleures solutions actuelles, offrant une capacité de calcul massive pour les modèles de langage d'IA les plus gourmands.En concurrence avec Trainium 3 et TPU version 7 Enfin, l'enjeu majeur pour Microsoft est de prouver l'efficacité réelle de son matériel face à la concurrence. Les premiers tests indiquent que la Maia 200 serait trois fois plus rapide que la puce Trainium 3 d'Amazon et surpasserait le TPU version 7 de Google sur certains calculs.Plus important encore pour les budgets IT, Microsoft annonce un rapport performance-prix supérieur de 30 % par rapport à la génération actuelle.Pour accompagner ce lancement, une version préliminaire du kit de développement est déjà accessible aux développeurs et aux chercheurs.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Plongeons dans l'univers de la productivité et de la donnée avec une réussite européenne majeure : l'ascension fulgurante de GPT for Work.Cet outil, qui transforme nos tableurs habituels en véritables centres de commande boostés à l'intelligence artificielle, vient de franchir un cap symbolique important. Sortir Excel et Google Sheets de leur rôle de réceptacles de donnéesLe premier, c'est l'ampleur de l'adoption de cette solution. Talarian, l'éditeur européen derrière cet outil, vient d'annoncer avoir franchi la barre des 10 millions d'installations.Ce chiffre témoigne du besoin des entreprises de sortir Excel et Google Sheets de leur rôle de simples réceptacles de données pour en faire des outils plus actifs.Contrairement aux agents conversationnels classiques comme ChatGPT, auxquels vous parlez dans une fenêtre séparée, GPT for Work s'installe directement au cœur de vos cellules. Pour les professionnels, cela signifie que l'IA ne se contente plus de suggérer une idée, elle exécute des actions concrètes sur des milliers de lignes simultanément, qu'il s'agisse de segmenter des entreprises pour des acquisitions ou de catégoriser des listes de fournisseurs complexes.L'outil laisse l'utilisateur choisir son modèle d'IAEnsuite, voici pourquoi cette approche séduit davantage certains secteurs que les solutions intégrées par les géants comme Microsoft ou Google.Là où Copilot ou Gemini vous enferment dans leur propre écosystème, GPT for Work joue la carte de la flexibilité. L'outil laisse l'utilisateur choisir son modèle d'IA parmi les principaux fournisseurs du marché.Cette liberté est cruciale pour les entreprises qui souhaitent garder le contrôle sur la précision et le coût de leurs traitements.La nouvelle version de l'agent va encore plus loin en permettant désormais de gérer plusieurs onglets de manière synchronisée, une fonction attendue par les experts de la donnée qui doivent souvent jongler entre des sources d'informations multiples au sein d'un même fichier.Se concentrer sur l'analyse stratégique plutôt que sur la saisieEnfin, l'impact sur le quotidien des équipes est radical. Des tâches qui nécessitaient auparavant des journées entières de travail manuel, comme l'analyse de centaines de retours clients ou l'enrichissement de catalogues produits pour le SEO, sont désormais traitées en quelques minutes.En automatisant l'écriture de formules complexes ou le remplissage de tableaux volumineux, GPT for Work permet aux professionnels de se concentrer sur l'analyse stratégique plutôt que sur la saisie.La montée en puissance de ce secteur de niche de l'IA dans le tableur, avec des acteurs concurrents de Talarian, comme Numerous.ai ou Sheet AI, montre surtout que l'intelligence artificielle s'empare peu à peu des cellules et formules des tableurs.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Plongeons dans une nouvelle forme de cybermenace qui donne des sueurs froides aux experts en sécurité.Il s'agit de l'utilisation de l'intelligence artificielle pour générer des attaques d'hameçonnage en temps réel.Imaginez une page web qui semble parfaitement inoffensive au moment où vous cliquez, mais qui se transforme en piège malveillant une fois chargée dans votre navigateur grâce à la puissance des LLM.Une technique appelée « assemblage à l'exécution »Cette évolution, documentée par les chercheurs de l'unité Unit 42 de l'entreprise Palo Alto Network, repose sur une technique appelée « assemblage à l'exécution ».Contrairement aux attaques classiques où le code malveillant est déjà présent sur le serveur de l'attaquant, ici, la page web initiale est "propre".Mais une fois ouverte, elle utilise des appels API vers des services d'IA légitimes et réputés, comme Google Gemini ou DeepSeek, pour construire son propre code malveillant.Pour les professionnels de la cybersécurité, c'est un défi de taille : environ 36 % des pages malveillantes détectées chaque jour utilisent déjà des comportements d'assemblage à l'exécution pour dissimuler leur véritable nature.Ingénierie des instructions d'IALe secret de cette discrétion réside dans l'ingénierie des instructions d'IA, ce que tout le monde appelle désormais prompt. Les attaquants ont appris à contourner les garde-fous des IA en utilisant un langage naturel détourné.Plutôt que de demander par exemple "du code pour voler des mots de passe", ce qui serait bloqué par l'IA, ils demandent de générer une fonction technique générique.Une fois que l'IA renvoie ce fragment de code, la page web l'assemble instantanément pour créer une interface de connexion frauduleuse. Ce contenu est d'autant plus difficile à bloquer qu'il provient de domaines internet considérés comme fiables, ceux-là mêmes que vos collaborateurs utilisent peut-être déjà pour travailler au bureau ou dans les transports.Une menace polymorpheL'autre aspect redoutable de cette menace est son caractère « polymorphe ». Puisque l'IA génère une réponse légèrement différente à chaque fois, la signature numérique du script change pour chaque victime. Cela rend les analyses statiques et les filtres réseau traditionnels quasiment inopérants.Pour se protéger, les entreprises ne peuvent plus se contenter de lister les sites interdits. La défense doit désormais passer par une analyse comportementale en temps réel, capable de détecter une activité suspecte directement au sein du navigateur, au moment même où l'assemblage se produit.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Le FMI vient de revoir ses prévisions à la hausse pour 2026, confirmant que le boom des investissements technologiques est devenu un véritable moteur de croissance pour les entreprises et les États.Le facteur décisif reste l'investissement massif dans la techL'institution a relevé sa prévision de croissance mondiale à 3,3 % pour l'année 2026. Ce chiffre est significatif car il dépasse les estimations d'octobre dernier. Ce que cela nous indique, c'est que malgré les perturbations liées aux tarifs douaniers américains et les incertitudes géopolitiques, l'économie mondiale fait preuve d'une résilience étonnante.Selon l'économiste en chef du FMI, les entreprises ont réussi à s'adapter en réorganisant leurs chaînes d'approvisionnement. Mais le facteur décisif reste l'investissement massif dans la tech, qui vient compenser les freins commerciaux et créer de la richesse via les actifs financiers.Si l'on regarde de plus près les moteurs de cette dynamique, les États-Unis tirent clairement leur épingle du jeu grâce à une course effrénée vers les infrastructures d'IA.Investissements physiques lourdsCe sursaut n'est pas anodin pour vous, professionnels du secteur : il est directement lié aux capitaux colossaux injectés dans la construction de centres de données, l'achat de puces ultra-performantes et la sécurisation de l'approvisionnement énergétique.On ne parle plus seulement de spéculation logicielle, mais bien d'investissements physiques lourds qui soutiennent l'activité économique réelle. Cette tendance traverse d'ailleurs l'Atlantique, puisque des pays comme l'Espagne voient aussi leurs prévisions relevées grâce à ces investissements technologiques.Cependant, tout n'est pas gagné et le FMI met en garde contre une exubérance irrationnelle.Potentiel et risque de surchauffeD'un côté, le potentiel est immense : si l'adoption rapide des outils se traduit par des gains de productivité concrets, cela pourrait booster la croissance mondiale.C'est le scénario idéal où l'innovation stimule le dynamisme des entreprises. De l'autre, le risque de surchauffe est bien réel. Si les investissements continuent à ce rythme effréné sans générer les profits attendus, nous risquons une correction brutale, ce qui pourrait peser sur la demande globale.Pour les décideurs IT, le message est clair : la transformation par l'IA soutient la macroéconomie, à condition qu'elle délivre une valeur tangible rapidement.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, nous nous penchons sur une annonce très attendue qui pourrait redéfinir notre interaction avec l'intelligence artificielle.OpenAI confirme être en bonne voie pour dévoiler son tout premier appareil physique d'ici la fin de l'année 2026. C'est une étape cruciale pour l'entreprise de Sam Altman, qui cherche à matérialiser son IA générative dans un objet du quotidien, au-delà de nos écrans d'ordinateurs et de smartphones.Un appareil IAC'est depuis Davos, en marge du Forum économique mondial, que l'information a été officialisée le 19 janvier dernier. Chris Lehane, le responsable de la politique mondiale d'OpenAI, a déclaré que l'entreprise est "sur la bonne voie" pour présenter ce premier appareil au cours du second semestre 2026.Si Sam Altman évoquait ce projet depuis l'acquisition de la société de design de Jony Ive en mai dernier, le calendrier restait jusqu'ici très flou.Attention toutefois à ne pas confondre présentation et commercialisation.Chris Lehane est resté prudent. Certaines sources tablent plutôt sur une disponibilité réelle des produits pour 2027, laissant à 2026 le rôle d'année charnière pour l'annonce officielle.Un dispositif "paisible"Ensuite, parlons de la nature de cet appareil, qui promet de rompre avec nos habitudes.Ce projet est le fruit d'une collaboration étroite avec Jony Ive, l'ancien designer légendaire d'Apple, et son collectif "LoveFrom", dont l'équipe dédiée se nomme "io".L'objectif affiché par Sam Altman est de créer un dispositif plus "paisible" qu'un smartphone actuel. L'idée est de surprendre les utilisateurs par une simplicité radicale, loin des notifications incessantes.Cette orientation vers le "sans écran" est renforcée par des informations récentes indiquant qu'OpenAI travaille à l'amélioration de ses modèles audio, préparant le terrain pour un matériel piloté principalement par la voix.Pour les professionnels, cela signale l'émergence probable d'une nouvelle catégorie de terminaux, conçus pour intégrer l'IA de manière fluide et moins intrusive dans nos flux de travail quotidiens.Course aux talentsEnfin, pour concrétiser cette vision ambitieuse, OpenAI ne lésine pas sur le recrutement de talents.L'équipe de Jony Ive continue de puiser dans le vivier d'Apple pour renforcer ses rangs. Récemment, c'est Janum Trivedi, un ingénieur et designer d'interface reconnu, qui a rejoint l'équipe.Pour vous donner une idée de son expertise, Trivedi a travaillé sur des fonctionnalités clés de l'écosystème Apple, comme les gestes du pointeur sur iPadOS.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Alors que le géant américain supprime des postes dans sa division Reality Labs, Palmer Luckey, le fondateur d'Oculus, prend la parole pour défendre une vision à contre-courant et plutôt optimiste pour le secteur.10 % des effectifsD'abord, regardons les faits sans céder à la panique. Meta vient de se séparer d'environ 1 500 employés au sein de sa division Reality Labs.Si le chiffre paraît impressionnant, Palmer Luckey rappelle qu'il ne représente "que" 10 % des effectifs de la branche, ce qui correspond selon lui à six mois de rotation naturelle du personnel, mais concentrés sur une courte période.Surtout, il insiste sur un point crucial : même après ces coupes, Meta emploie toujours la plus grande équipe dédiée à la VR au monde, et de très loin, personne d'autre n'arrive à la cheville de leur force de frappe.Pour lui, le narratif selon lequel Meta abandonnerait la VR est donc "évidemment faux".La fin des jeux développés en interneEnsuite, il faut comprendre la logique stratégique derrière ces licenciements. Luckey explique que ces coupes visent principalement les équipes de contenu "first-party", c'est-à-dire les jeux développés en interne par Meta.Selon lui, c'est une excellente nouvelle pour l'écosystème.Pourquoi ? Parce que ces studios internes, aux budgets illimités, créaient une concurrence déloyale pour les développeurs tiers indépendants.Il cite un exemple frappant d'inefficacité avec le jeu Rock Band VR. Meta a dépensé une somme à huit chiffres, donc au moins 10 millions de dollars, pour s'assurer que le jeu soit parfait, pour au final n'en vendre que 700 exemplaires au lancement.En arrêtant de subventionner artificiellement ses propres productions à perte, Meta pourrait donc assainir le marché et laisser plus de place aux créateurs externes.Une question de croyanceEnfin, restons prudents, car cette transition n'est pas sans douleur ni sans risque. Si la théorie de l'assainissement se tient, la réalité immédiate est la fermeture de studios talentueux comme Sanzaru Games ou Armature.Cela implique l'annulation pure et simple de projets majeurs qui auraient pu porter le casque, comme un jeu Harry Potter ou la suite de Batman Arkham Shadow.Le risque est ici symbolique : si Nintendo annulait ses jeux maison pour sa prochaine console, le message envoyé au marché serait désastreux. En se retirant de la production de contenu, Meta risque de donner l'impression, comme Sony avec le PSVR 2, que le constructeur ne croit plus assez en son propre produit pour investir dedans.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

C'est une nouvelle qui risque de bouleverser le paysage de la mobilité en entreprise et le secteur du gaming.Asus confirme qu'il ne sortira aucun nouveau smartphone en 2026, marquant peut-être la fin définitive de son aventure sur Android.La fin des Zenfone et des ROG PhoneCommençons par l'annonce officielle qui met fin aux rumeurs. Jonney Shih, le président d'Asus, a confirmé le 16 janvier dernier que la marque ne lancerait pas de nouveaux modèles de téléphones à l'avenir.Si vous gérez une flotte mobile intégrant des Zenfone ou des ROG Phone, rassurez-vous tout de même.Le dirigeant a précisé qu'Asus continuerait d'assurer le support logiciel et les garanties pour les utilisateurs actuels. Néanmoins, le message semble clair : le développement de nouveaux terminaux est, au minimum, gelé pour une durée indéterminée.Une question de potentiel de croissanceMais pourquoi un tel retrait alors que la marque occupait des niches technologiques intéressantes ?La raison est purement stratégique : Asus considère que le marché du smartphone n'offre plus le potentiel de croissance nécessaire.L'entreprise opère donc un pivot majeur en redéployant ses équipes de recherche et développement vers des secteurs jugés plus porteurs, comme l'intelligence artificielle et ce que Jonney Shih appelle l'IA physique, ou "Physical AI".Concrètement, les ressources autrefois allouées aux smartphones vont désormais alimenter la conception de PC dopés à l'IA, de robots et même de lunettes connectées. C'est un pari sur l'avenir qui délaisse le matériel mobile classique au profit de l'automatisation et de l'informatique cognitive.La fin d'un marché de nicheEnfin, analysons l'impact de cette décision sur le marché.Ce retrait laisse le segment des smartphones gaming, où la gamme ROG excellait, dans une position précaire. Le concurrent direct, Redmagic, se retrouve désormais seul ou presque sur ce créneau spécifique.D'ailleurs, les signes avant-coureurs étaient là. Aux États-Unis, les stocks des modèles ROG Phone 8 et 9 sont pratiquement épuisés et le Zenfone 12 Ultra n'y a même pas été commercialisé.De plus, ce choix intervient dans un contexte économique tendu pour le matériel, Jonney Shih ayant évoqué des hausses de prix sur la mémoire qui impactent toute l'industrie tech, une inflation qu'Asus tente de compenser par l'optimisation de sa chaîne d'approvisionnement.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

C'est un tournant majeur pour la sécurité en ligne et la modération des contenus. La plateforme de jeu mondiale Roblox vient d'annoncer une mesure radicale en obligeant tous ses utilisateurs, sans exception, à vérifier leur âge pour accéder aux fonctionnalités de chat.C'est une première historique pour une plateforme de cette taille.Et cela pourrait bien redéfinir les standards de l'industrie en matière de protection des mineurs.Cloisonner les échanges pour éviter tout contact inapproprié entre adultes et mineursL'objectif est clair. Il s'agit de cloisonner les échanges pour éviter tout contact inapproprié entre adultes et mineurs. Concrètement, Roblox a mis en place un système de segmentation précis en six groupes d'âge distincts, allant des moins de 7 ans aux plus de 21 ans.La règle est stricte. Un utilisateur ne peut dialoguer qu'avec les personnes de son propre groupe ou des groupes immédiatement adjacents.Par exemple, un enfant de 9 ans ne pourra techniquement plus échanger avec un utilisateur de plus de 13 ans. C'est une barrière numérique proactive qui remplace la modération a posteriori par une limitation structurelle des contacts.Analyse en continu des interactionsD'un point de vue technique et conformité, la mise en œuvre de ce système représente un défi logistique considérable. Pour gérer ces millions de vérifications d'identité, Roblox s'est associé à l'entreprise spécialisée Persona.Pour rassurer sur la question sensible des données personnelles, la plateforme garantit que les documents d'identité et les images transmises sont supprimés immédiatement après la validation.Mais Roblox va plus loin en intégrant une couche d'intelligence artificielle comportementale. Le système analyse en continu les interactions. Si un utilisateur déclaré mineur se comporte comme un adulte, ou inversement, l'algorithme pourra exiger une re-vérification de l'âge.L'ère des échanges non régulés touche à sa finCela montre comment l'IA peut servir de filet de sécurité dynamique au-delà de la simple vérification administrative.Pour l'industrie du jeu vidéo et des réseaux sociaux, le message est fort. L'ère de l'anonymat total et des échanges non régulés sur les plateformes fréquentées par les jeunes touche à sa fin.Roblox tente ici de prouver qu'il est possible de concilier une audience massive et multigénérationnelle avec un environnement sécurisé. Et ce modèle sera sans doute scruté de près par les régulateurs.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Penchons nous sur une tendance qui tente de concilier consommation énergétique et crypto-monnaies.Il s'agit de l'utilisation de la chaleur dégagée par le minage de Bitcoin et d'autres crypto-monnaies pour chauffer nos habitations et nos locaux professionnels.Et cette innovation dépasse à présent le stade du prototype pour arriver concrètement sur le marché.Chauffer l'eau, et valider des transactions sur la blockchainCe phénomène a été particulièrement mis en lumière lors du CES 2026, qui vient de fermer ses portes.L'entreprise Superheat y a dévoilé un chauffe-eau électrique qui intègre directement des capacités de minage de Bitcoin.Le principe est ingénieux. L'appareil utilise l'énergie consommée non seulement pour chauffer l'eau, mais aussi pour valider des transactions sur la blockchain.L'objectif affiché est de permettre aux propriétaires de ces produits de compenser une partie de leurs factures d'énergie grâce aux revenus générés par le minage.Bien que le prix de lancement avoisine les 2 000 euros, cette approche marque une tentative sérieuse de transformer une dépense énergétique passive en un actif productif pour les particuliers.Valoriser la chaleur fatale des serveursMais au-delà de l'électroménager, c'est à l'échelle industrielle que cette technologie montre son potentiel le plus impressionnant. Les professionnels du secteur cherchent à valoriser la chaleur fatale des serveurs.L'exemple le plus frappant nous vient de Finlande, où le géant du minage Marathon Digital Holdings a mis en place un projet pilote d'envergure.En exploitant une installation de 2 mégawatts, l'entreprise a réussi à injecter l'eau chauffée par ses machines dans le réseau de chauffage urbain. Ce système permet de chauffer environ 11 000 foyers.D'autres acteurs, comme Canaan, explorent des pistes similaires au Canada, mais cette fois pour le secteur agricole, en chauffant des serres pour la culture maraîchère.Cependant, il convient de rester prudent quant à la viabilité économique de ces solutions.La réalité opérationnelle est complexeSi l'idée de recycler l'énergie est séduisante, la réalité opérationnelle est complexe. D'une part, la rentabilité de ces systèmes dépend étroitement du coût de l'électricité locale.Dans les régions où le gaz naturel reste bon marché, le retour sur investissement d'un chauffage par minage de crypto-monnaies est loin d'être garanti.D'autre part, la maintenance pose question. Intégrer des puces informatiques dans des appareils de chauffage domestique complexifie les réparations et peut faire grimper la facture en cas de panne.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, nous nous intéressons à l'avenir du recrutement assisté par intelligence artificielle. OpenAI semble vouloir transformer ChatGPT en véritable coach de carrière avec une nouvelle fonctionnalité dédiée à la recherche d'emploi.Tout part d'une découverte réalisée directement dans le code de l'application web de ChatGPT.C'est le développeur Tibor Blaho qui a mis en lumière l'existence d'un futur onglet baptisé "Jobs", actuellement en cours de développement.Une aide structurée incluant l'exploration de rôles, l'amélioration de CV et la planification de carrièreD'après les éléments extraits du code, cette fonctionnalité ne se limite pas à de la simple conversation.Elle est conçue pour offrir une aide structurée incluant l'exploration de rôles, l'amélioration de CV et la planification de carrière.Concrètement, pour les professionnels en transition ou en recherche d'opportunités, l'outil promet d'aider à clarifier le positionnement sur le marché, de mettre en valeur les profils et de comparer les offres disponibles.Verticalisation de l'offre d'OpenAID'un point de vue stratégique, cette nouveauté confirme la volonté d'OpenAI de verticaliser son offre. Elle vient d'annoncer un projet dédié à la santé, et s'attaque donc désormais au marché de l'emploi.Et ce module "Jobs" ne serait pas une simple option cosmétique. Il disposerait de sa propre mémoire dédiée, les "Jobs memories", et de connecteurs spécifiques, probablement pour s'interfacer avec des plateformes externes d'annonces d'emploi.C'est une stratégie de "lock-in" assez classique mais redoutable. En proposant des outils spécialisés pour la santé, et maintenant pour le travail, OpenAI cherche à rendre son écosystème incontournable pour les aspects majeurs de la vie professionnelle et personnelle."Tiroir fourre-tout"Cependant, cette expansion fonctionnelle ne se fait pas sans heurts du côté de l'expérience utilisateur.L'ajout continu de nouvelles rubriques dans la barre latérale de l'application commence à inquiéter certains usagers, qui redoutent que l'interface épurée de ChatGPT ne se transforme en "tiroir fourre-tout".La demande pour pouvoir masquer ces nouveaux modules se fait donc déjà sentir.Par ailleurs, OpenAI n'est pas seul sur ce créneau. Google propose déjà aux Etats-Unis "Career Dreamer", un outil basé sur l'IA générative capable d'analyser les compétences pour suggérer des reconversions. La guerre des assistants de carrière intelligents est donc bel et bien déclarée.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

La Silicon Valley est-elle en train de perdre ses figures tutélaires face à la pression fiscale ?La Californie envisage l'instauration d'une taxe exceptionnelle sur le patrimoine des ultra-riches, provoquant déjà le départ préventif de plusieurs milliardaires de la Tech vers des cieux plus cléments.Une initiative portée par un syndicatCe projet de loi, qui agite le secteur technologique, n'émane pas directement du gouvernement, mais d'une initiative portée par un puissant syndicat représentant 120 000 travailleurs de la santé.L'objectif est clair. Il s'agit de taxer à hauteur de 5 % le patrimoine net des milliardaires résidant en Californie pour combler les déficits budgétaires, notamment dans le système de santé.Si cette mesure venait à être adoptée, elle pourrait générer une manne financière colossale, estimée jusqu'à 100 milliards de dollars sur cinq ans par ses promoteurs, bien que des estimations plus prudentes évoquent plutôt quelques dizaines de milliards, tant la volatilité des grandes fortunes est importante.Face à cette menace fiscale, la réaction ne s'est pas fait attendre du côté des géants du numérique.Transfert d'actifsLarry Page et Sergey Brin, les cofondateurs de Google qui ont bâti leur légende à Stanford, semblent avoir pris les devants. Selon la presse américaine, ils organisent déjà le transfert de leurs actifs hors de l'État doré.Il faut dire que l'enjeu est massif. A eux deux, ils pèsent près de 518 milliards de dollars de patrimoine.Ils ne sont pas les seuls. Peter Thiel, figure historique de la Tech ayant cofondé PayPal et Palantir, a ouvert un bureau à Miami et déplacerait également ses capitaux.La destination de ces exils fiscaux est souvent la même. Il s'agit de la Floride, du Texas ou du Delaware, des États à la fiscalité bien plus douce.Jensen Huang à contre courantCependant, la partie n'est pas encore jouée. Et le front des patrons de la Tech n'est pas unanime. Pour que cette taxe s'applique, le syndicat doit d'abord réunir 875 000 signatures pour soumettre le texte au vote des Californiens en novembre prochain.Si elle est votée, la loi s'appliquerait rétroactivement aux résidents présents au 1er janvier 2026, ce qui explique l'urgence des départs actuels.À contre-courant de cet exode, Jensen Huang, l'emblématique patron de Nvidia dont le siège est à Santa Clara, joue la carte de la sérénité. Il a affirmé qu'il ne comptait pas quitter la Silicon Valley, se disant prêt à payer les impôts nécessaires pour continuer à vivre et travailler dans cet écosystème unique.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

C'est une avancée fascinante dévoilée au CES 2026 qui pourrait transformer le monde de l'e-sport.Il s'agit de l'arrivée des interfaces cerveau-machine directement dans les casques de jeu.Neurable et HyperX s'associent d'ailleurs pour proposer un prototype de périphérique capable de lire vos ondes cérébrales afin d'optimiser la concentration des joueurs professionnels de jeu vidéo.Ce casque intègre des capteurs EEGPour comprendre de quoi il s'agit, il faut regarder sous le capot de ce nouveau prototype.Ce casque intègre des capteurs d'électroencéphalogramme, dits EEG, directement dans les coussinets des oreillettes.L'objectif n'est pas de contrôler le jeu par la pensée, mais d'utiliser une intelligence artificielle pour capturer et traduire les signaux du cerveau en temps réel. Cette technologie permet de mesurer des métriques clés comme le niveau de concentration ou de stress, offrant ainsi aux joueurs un véritable outil d'entraînement mental pour améliorer leurs temps de réaction.Exercice de "centrage" mental proposé par le casqueL'efficacité de ce dispositif a été démontrée lors d'une session de test impressionnante réalisée sur le salon de Las Vegas.Un utilisateur a d'abord effectué une séance de tir sur le logiciel Aimlabs sans préparation mentale particulière, réalisant un score de 33333 points avec un temps de réaction de 478 millisecondes.Ensuite, il a suivi un exercice de "centrage" mental proposé par le casque, où il devait focaliser son attention visuelle pour regrouper des points dispersés sur un écran grâce à son activité cérébrale.Le résultat est sans appel. Lors du second essai, son score a grimpé à près de 40000 points et son temps de réaction s'est grandement amélioré. Ces chiffres illustrent concrètement comment la technologie peut aider à débloquer un état de performance optimale.Eviter de "craquer" sous la pression lors d'une finalePour les professionnels du secteur et les athlètes d'e-sport, les implications sont majeures. On le sait, dans les compétitions à fort enjeu, la différence se fait souvent sur la force mentale plutôt que sur les compétences techniques pures.C'est le mental qui évite de "craquer" sous la pression lors d'une finale.Avec cette technologie, les joueurs et leurs coachs pourront désormais visualiser l'aptitude mentale du jour, savoir quand l'attention décroche et gérer la fatigue cognitive. C'est une forme de musculation pour le cerveau, permettant de savoir exactement quand l'athlète est prêt à performer.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, nous revenons au CES de Las Vegas qui a eu lieu la semaine dernière pour découvrir une innovation qui montre que la santé connectée quitte nos poignets pour s'inviter dans des objets du quotidien beaucoup plus intimes.Le salon a en effet accueilli une serviette hygiénique capable d'analyser le sang menstruel pour fournir des diagnostics médicaux.La société Vivoo a en effet dévoilé le "FlowPad", qui ressemble à s'y méprendre à une protection hygiénique classique. Mais elle cache une couche de diagnostic microfluidique.Pas de puce Bluetooth ou de batterie à l'intérieurContrairement aux objets connectés habituels, il n'y a pas de puce Bluetooth ou de batterie à l'intérieur.Le système repose sur une technologie de test similaire aux tests antigéniques du COVID ou aux tests de grossesse.Une fois la protection portée, l'utilisatrice scanne simplement la zone de test via l'application mobile de Vivoo, qui utilise la caméra du smartphone et des algorithmes de vision par ordinateur pour interpréter les changements de couleur et les intensités de réaction.Suivi de la santé des femmesEnsuite, l'intérêt médical de ce dispositif est loin d'être anecdotique pour le suivi de la santé des femmes.L'idée derrière le FlowPad est que le sang menstruel est une source d'informations biologiques souvent sous-estimée. Il contient des biomarqueurs essentiels qui reflètent la santé du système endocrinien. Concrètement, ce dispositif permet de tester la fertilité, la santé ovarienne, ou encore de suivre les niveaux hormonaux en période de périménopause.Des études récentes suggèrent même que ce type d'analyse pourrait aider au dépistage de déséquilibres hormonaux, de l'endométriose, voire du diabète. C'est une manière de transformer un processus biologique quotidien en données exploitables pour la médecine préventive.Un coût estimé entre 4 et 5 euros par protectionEnfin, le dernier point clé concerne l'accessibilité et le modèle économique de ces nouveaux dispositifs de diagnostic à domicile.Vivoo vise une adoption massive avec un coût estimé entre 4 et 5 euros par protection, ce qui la rend comparable à des produits de parapharmacie plutôt qu'à du matériel médical plus onéreux.Reste que pour l'heure ce produit c'est pas encore disponible en France.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

En ce début d'année, la tradition des bonnes résolutions bat son plein, notamment celle de reprendre une activité physique régulière. Pourtant, nous savons tous à quel point il est difficile de tenir la distance passé les premières semaines de janvier.Aujourd'hui, nous nous penchons sur une étude fascinante qui suggère que la technologie, et plus particulièrement les montres connectées, pourrait être la clé pour briser le cycle de l'abandon des bonnes résolutions. Le fameux jour des abandonsPour commencer, il faut parler d'un phénomène bien connu des sociologues et des coachs sportifs : le "Quitters Day", ou le jour des abandons. Il tombe généralement le deuxième vendredi de janvier et marque le moment précis où la motivation initiale s'effondre pour la majorité des gens.C'est dans ce contexte qu'Apple a partagé les résultats de son "Apple Heart and Movement Study", une vaste analyse de données portant sur environ 100 000 participants. L'objectif était de voir si le port d'une Apple Watch influençait la persévérance sportive.Et la réponse semble être un grand oui. Les données montrent que les utilisateurs de la montre connectée parviennent à franchir ce fameux cap fatidique en maintenant leur dynamique d'exercice bien au-delà.Le suivi numérique permet d'ancrer des habitudes sur le long termeEnsuite, regardons les chiffres de plus près. Ils sont particulièrement révélateurs pour les professionnels de la santé et de la data. Après une baisse logique de l'activité durant les fêtes de fin d'année, on observe non seulement un rebond rapide en janvier, mais surtout une stabilisation de l'effort.L'étude révèle que près de 80 % des utilisateurs ayant augmenté leur temps d'exercice au début du mois ont réussi à maintenir ce niveau durant la seconde moitié de janvier. Plus impressionnant encore, parmi ce groupe persévérant, 90 % ont conservé ces habitudes sportives durant les mois de février et mars.Cela démontre que le suivi numérique permet d'ancrer des habitudes sur le long terme, transformant une impulsion de janvier en une routine de printemps.Comment expliquer cette réussite là où la simple volonté échoue souvent ?La réponse réside dans la combinaison de la précision technique et de la gamification. D'un côté, ces appareils s'appuient sur des capteurs de pointe comme l'accéléromètre, le gyroscope et le GPS pour fournir des métriques précises sur les calories et les mouvements, ce qui objective l'effort.De l'autre, Apple utilise des mécanismes de récompense, comme un défi particulier qui incite les utilisateurs à fermer leurs anneaux d'activité sept jours d'affilée.Pour vous qui nous écoutez peut-être sur le chemin du travail, cela confirme que le "quantified self", ou la mesure de soi, est un levier puissant de changement comportemental.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Si vous avez l'impression que YouTube est de plus en plus envahi par des vidéos étranges générées automatiquement, votre intuition est bonne.Une récente étude révèle que ce contenu de basse qualité, souvent qualifié de "slop", représente désormais une part massive des Shorts, tout en générant des revenus colossaux pour leurs créateurs. Un phénomène d'ampleurD'abord, penchons-nous sur l'ampleur du phénomène. L'éditeur vidéo Kapwing a mené l'enquête en créant un tout nouveau compte YouTube pour analyser ce que l'algorithme propose par défaut, sans aucun historique de navigation préalable.Le résultat de cette expérience est sans appel. Sur les 500 premières vidéos courtes visionnées, plus de 20 % étaient ce qu'on appelle du "AI slop". Il s'agit de contenus bâclés, générés par l'intelligence artificielle dans l'unique but de gonfler les statistiques de vues et d'abonnements.Plus inquiétant encore, un tiers du contenu total tombait dans la catégorie du "brainrot", ces vidéos absurdes, compulsives et de faible qualité, elles aussi souvent produites par des machines.Concrètement, cela signifie que l'algorithme commence à servir ce type de flux quasi immédiatement aux internautes. Il a suffi à l'auteur de l'étude de visionner 16 vidéos pour voir apparaître la première séquence de ce type.4 millions de personnes abonnées à ces comptes en FranceEnsuite, il est intéressant de voir que cette consommation est mondiale, mais avec des disparités géographiques surprenantes. Pour évaluer la popularité de ces contenus, l'étude a analysé les 100 chaînes tendances dans chaque pays. Contre toute attente, c'est l'Espagne qui arrive en tête de la consommation mondiale, avec plus de 20 millions d'abonnés cumulés sur les chaînes d'IA en tendance.La France se classe pour sa part seizième du classement, avec plus de 4 millions de personnes abonnées à ces comptes qui fournissent de la vidéo très bas de gamme.Ce n'est pas un phénomène marginal, car ces chaînes drainent à l'échelle mondiale une audience massive. Pour vous donner une idée de la puissance de frappe de ces créateurs synthétiques, la chaîne d'IA la plus populaire identifiée par l'étude, une chaîne indienne nommée Bandar Apna Dost, cumule à elle seule le chiffre astronomique de 2,07 milliards de vues.Enfin, il faut comprendre le moteur économique derrière cette déferlante. Si ces vidéos inondent nos écrans, c'est parce qu'elles répondent à une logique de rentabilité implacable. Pour les créateurs, l'usage de générateurs d'IA réduit les coûts de production à presque zéro, tout en permettant une cadence de publication effrénée que l'humain ne peut égaler.La chaîne indienne que je citais à l'instant génèrerait ainsi un revenu annuel estimé à 4,25 millions de dollars. Tant que l'algorithme de YouTube récompensera l'engagement par la visibilité et que les utilisateurs continueront de consommer ces vidéos, cette tendance va s'accentuer.Même si certaines plateformes comme celles de Meta tentent d'imposer un étiquetage des contenus IA, l'absence de frein financier pour les producteurs de "slop" laisse présager que ce contenu automatisé continuera de saturer les réseaux.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Voici une bonne nouvelle qui pourrait soulager bon nombre d'entre vous. Il s'agit de la fin potentielle des adresses Gmail embarrassantes ou obsolètes que l'on traîne parfois depuis des années.D'après des documents techniques repérés récemment, Google s'apprêterait enfin à permettre la modification d'une adresse email existante sans avoir à recréer un compte de zéro.La fin d'une règle gravée dans le marbreCe changement, qui n'a pas encore fait l'objet d'une annonce officielle, a été découvert de manière assez inattendue.Une mise à jour de la documentation, visible uniquement sur la version en langue hindi pour le moment, indique explicitement que la possibilité de changer son adresse de compte Google est en cours de déploiement progressif pour tous les utilisateurs.Jusqu'à présent, la règle d'or chez Google était la rigidité. Une fois une adresse Gmail créée, elle était gravée dans le marbre. La version anglaise du site continue d'ailleurs d'afficher l'ancien avertissement stipulant que l'adresse ne peut "pas être modifiée".Si cette modification se confirme à l'échelle mondiale, elle marquera un tournant majeur dans la gestion de l'identité numérique chez le géant du web.Continuité de serviceConcrètement, comment ce système va-t-il fonctionner pour conserver votre patrimoine numérique ? L'enjeu principal pour les professionnels est de ne pas perdre ses données en changeant de nom.Selon le document, la transition se fera en douceur. Vous conserverez l'accès à tous vos services associés, que ce soit vos fichiers sur Drive, vos photos, vos messages ou vos achats sur le Google Play Store.Techniquement, Google assurera donc une continuité de service. Vous pourrez vous connecter avec l'ancienne ou la nouvelle adresse, et surtout, vous recevrez les emails envoyés aux deux identifiants.Cependant, il y a des garde-fous. Une contrainte importante est en effet à noter. Si vous optez pour ce changement, vous ne pourrez pas créer une autre nouvelle adresse Gmail pour ce compte pendant une période de 12 mois. Cela vise sans doute à éviter les abus et les changements d'identité trop fréquents.Enfin, pourquoi est-ce une nouvelle stratégique ?Pour beaucoup d'utilisateurs pro ou semi-pro qui utilisent Gmail, c'est l'opportunité de professionnaliser une adresse créée durant leurs études, sans la lourdeur administrative d'une migration de données manuelle.Google rattrape ici son retard, car la plupart de ses concurrents offrent déjà cette flexibilité depuis longtemps.Il reste toutefois une inconnue. Le fait que la fuite provienne d'une page en hindi suggère que le déploiement pourrait commencer par ce marché spécifique avant d'arriver en Europe. Il faudra donc surveiller vos paramètres de compte dans les semaines à venir, mais l'espoir est permis pour ceux qui souhaitent enfin aligner leur adresse email avec leur image professionnelle actuelle.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Ce sujet a particulièrement captivé les lecteurs cette année, sans doute parce qu'il touche au cœur de notre quotidien professionnel hybride.Si pendant les repas de fin d'année, la discussion dérive sur la surveillance au travail ou le fameux "flicage" numérique, vous aurez désormais une anecdote croustillante et très concrète à partager pour épater la galerie entre le fromage et le dessert.Car oui, Microsoft Teams pourrait bientôt savoir, et surtout dire à tout le monde, exactement quand vous arrivez et quand vous partez du bureau.Concrètement, de quoi parle-t-on ?Microsoft travaille sur une nouvelle fonctionnalité pour son outil collaboratif phare, Teams. L'idée est d'automatiser la déclaration de votre lieu de travail. Fini le temps où vous deviez manuellement changer votre statut pour indiquer si vous étiez en télétravail ou au siège.Le système va s'appuyer sur votre connexion réseau. Dès que votre ordinateur, qu'il soit sous Windows ou Mac, se connectera au réseau Wi-Fi de votre entreprise, Teams mettra à jour votre localisation de lui-même. Il pourra même préciser dans quel bâtiment spécifique vous vous trouvez.C'est une évolution qui soulève autant d'intérêt que d'inquiétudes.Cette fonctionnalité est prévue pour être déployée en février 2026Si l'on regarde le calendrier, cette fonctionnalité est prévue pour être déployée en février 2026. C'est la date clé à retenir de la feuille de route de Microsoft 365. L'objectif affiché est évidemment la praticité : savoir si un collègue est dans les locaux pour aller prendre un café ou organiser une réunion impromptue en présentiel.Mais le revers de la médaille est évident. En automatisant cette détection, le système enregistre de facto vos heures de connexion au réseau de l'entreprise.Un manager pourrait donc, théoriquement, surveiller avec précision les heures d'arrivée et de départ de ses équipes, vérifiant ainsi le respect des jours de présence obligatoire au bureau.Cette géolocalisation ne sera pas activée par défautCependant, avant que les directions des ressources humaines ne se réjouissent ou que les syndicats ne montent au créneau, il faut nuancer l'impact pour les entreprises. Microsoft a précisé un point crucial pour les directeurs des systèmes d'information : cette géolocalisation ne sera pas activée par défaut. C'est une nuance de taille.La responsabilité incombera donc aux administrateurs de l'organisation. Ce seront eux qui devront décider, ou non, d'activer cette fonctionnalité et de demander le consentement des utilisateurs.Aujourd'hui, vous gardez le contrôle en définissant votre lieu manuellement via votre profil. Demain, le passage à l'automatisation sera un véritable choix de politique d'entreprise.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Abordons un sujet qui a suscité beaucoup d'intérêt parmi les lecteurs cette année : comment s'affranchir de Google Maps sans perdre le nord.Alors que beaucoup d'entre vous prennent la route pour rejoindre leur famille en cette fin d'année, c'est l'occasion idéale de briller lors des discussions au coin du feu en présentant une alternative crédible, respectueuse de la vie privée et capable de préserver la batterie de votre smartphone pour les photos du réveillon.Le constat de départ est simple et partagé par beaucoup : l'omniprésence du géant de la recherche peut devenir oppressante, même sur la route.Solution de remplacement sérieuseEntre les rapports mensuels détaillant vos moindres déplacements et une consommation énergétique souvent excessive sur des terminaux pourtant récents comme le Pixel 9 Pro, l'expérience utilisateur peut laisser à désirer.C'est ici qu'intervient CoMaps. Cette application gratuite s'est imposée cette année comme une solution de remplacement sérieuse. Elle promet non seulement de vous guider vocalement, mais surtout de le faire sans siphonner vos données personnelles ni votre batterie.Techniquement, il est intéressant de comprendre d'où vient cet outil. CoMaps n'est pas sorti de nulle part : c'est un "fork", une déclinaison d'Organic Maps, elle-même héritière de MapsWithMe. L'application repose sur la philosophie de l'open-source et utilise les données d'OpenStreetMap.CoMaps vous demande de télécharger en amont la carte de la région visitéeLa différence majeure avec son concurrent de Mountain View réside dans son fonctionnement hors ligne. Contrairement au streaming de cartes constant, CoMaps vous demande de télécharger en amont la carte de la région visitée.Cela offre deux avantages immédiats : l'application fonctionne parfaitement sans aucune connexion réseau, ce qui est crucial en zone blanche, et un mode "extérieur" très poussé pour les randonneurs, affichant sentiers et points d'eau potable.Pour les professionnels et les entreprises soucieux de la confidentialité des données, l'impact est significatif. Là où les solutions grand public traditionnelles monétisent la localisation, CoMaps garantit une absence totale de suivi, d'identification des personnes et de collecte de données.L'application est transparente, sans publicité et communautaire. Disponible sur Android et iOS depuis début juillet, elle représente une option robuste pour les flottes d'entreprise ou les collaborateurs qui ont besoin de fiabiliser leurs déplacements sans compromettre la sécurité de leurs informations ni l'autonomie de leurs appareils mobiles.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Voici de quoi vous servir d'anecdote pour épater la galerie lors de vos repas de famille. Imaginez pouvoir commander un robot humanoïde sur internet aussi simplement qu'un nouveau smartphone. C'est exactement le pari fou qu'a réussi une entreprise chinoise cette année, marquant une étape cruciale dans la démocratisation de la robotique.L'événement s'est déroulé en Chine, où l'entreprise Unitree a décidé de mettre en vente deux modèles de robots humanoïdes, le G1 et le H1, directement sur la plateforme de e-commerce grand public JD.com.Le robot humanoïde sort de la science-fictionContrairement à ce que l'on pourrait penser, il ne s'agissait pas de prototypes réservés à des laboratoires de recherche. Le fabricant a été très clair : tout le monde pouvait les acheter. Et le résultat ne s'est pas fait attendre, puisque les stocks ont été épuisés presque instantanément après leur mise en ligne.C'est un signal fort : le robot humanoïde sort de la science-fiction pour entrer dans le catalogue des produits de consommation.Ce qui frappe ici, ce sont les caractéristiques techniques rapportées au prix, qui défient toute concurrence. Prenons le modèle G1, le plus abordable. Pour environ treize mille euros, vous obtenez un robot d'un mètre trente pour trente-cinq kilos.12 km/hIl est capable de manipuler des objets avec ses trois doigts, dispose d'une autonomie de deux heures et se repère grâce à un Lidar 3D, une technologie similaire à celle des voitures autonomes.Le grand frère, le modèle H1, est une machine plus imposante d'un mètre quatre-vingts vendue aux alentours de 86000 euros. Il impressionne par sa motricité : il peut se déplacer à près de douze kilomètres-heure et a même démontré ses capacités en dansant sur scène, rappelant les démonstrations virales de Boston Dynamics.Pour les professionnels et les décideurs technologiques, cet engouement rapide souligne une tendance de fond. Nous assistons au passage d'une ère de recherche fondamentale à une ère de commodité.Le fait que des robots dotés de caméras de profondeur et de moteurs puissants soient proposés à des tarifs "raisonnables" pour ce type de matériel indique que la barrière à l'entrée s'effondre.Pour les entreprises, cela signifie que l'intégration de la robotique humanoïde dans des processus logistiques ou d'accueil pourrait devenir une réalité budgétaire beaucoup plus vite que prévu, ne serait-ce que pour des phases de test grandeur nature.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

C'est un sujet qui a passionné les lecteurs cette année, et qui pourrait bien alimenter vos débats lors des repas de famille, surtout si vous avez un cousin comptable ou un oncle DSI. Il s'agit de la mort annoncée du modèle SaaS tel que nous le connaissons. En clair, l'abonnement logiciel "par utilisateur", c'est bientôt fini, et c'est l'Intelligence Artificielle qui est en train de changer la donne.Pour comprendre ce bouleversement, il faut regarder comment nous consommons le logiciel aujourd'hui.Un modèle obsolèteDepuis des décennies, la norme, c'est la licence "par siège". Une entreprise paie un abonnement mensuel pour chaque employé qui a besoin d'accéder à un outil.Mais l'arrivée des agents d'IA, ces programmes capables d'agir de manière autonome, rend ce modèle obsolète. Selon une analyse marquante de McKinsey publiée cette année, nous entrons dans l'ère "post-SaaS".Pourquoi ? Parce que demain, ce ne seront plus seulement des humains qui cliqueront sur des boutons, mais des agents IA qui interagiront entre eux pour exécuter des tâches. Dès lors, facturer un accès humain n'a plus beaucoup de sens.Une restructuration totale du marchéL'ampleur de ce changement est chiffrée et elle est colossale. D'après l'étude, 63 % des fournisseurs de logiciels estiment que l'IA va fondamentalement changer leur modèle économique d'ici trois à cinq ans.C'est une restructuration totale du marché. Certains analystes prédisent même que les transactions logicielles gérées directement par des agents pourraient réduire le nombre de licences "humaines"nécessaires de 70 %.Les éditeurs ne peuvent donc pas rester les bras croisés. Ils s'attendent à ce que l'IA débloque une croissance significative de leur chiffre d'affaires, mais cela passera par une nouvelle façon de facturer.Concrètement, qu'est-ce que cela change pour les décideurs et les entreprises clientes ?C'est là que l'impact pro est le plus fort. Nous allons glisser d'une économie de la possession ou de l'accès vers une économie du résultat. Les éditeurs ne vous vendront plus une licence, mais une performance. La facturation pourrait se baser sur la consommation réelle, le nombre de tâches accomplies ou le résultat obtenu, un peu comme on paie l'électricité.Cependant, attention aux pièges lors de vos futures négociations. Il y a un risque que les fournisseurs "reconditionnent" leurs prix dans des offres groupées opaques.Le conseil à retenir est simple : avant de signer un contrat basé sur la consommation, exigez de voir les données de performance.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui revenons sur un sujet qui a passionné les lecteurs cette année et qui pourrait bien vous servir lors des repas de famille.En effet, si entre le fromage et le dessert, on vous demande un conseil simple et gratuit pour sécuriser un smartphone, vous pourrez désormais répondre avec assurance.Un petit redémarrage quotidienIl faut le redémarrer tous les jours. Et derrière cette astuce qui peut sembler anodine se cache en réalité une protection efficace contre des menaces de plus en plus sophistiquées.L'actualité récente de cette année l'a encore prouvé avec WhatsApp, qui a révélé une campagne de piratage utilisant un logiciel nommé Graphite, développé par la société Paragon Solutions.Le plus effrayant dans cette affaire, c'est la méthode utilisée. Il s'agit de l'attaque dite "zéro clic". Concrètement, la victime reçoit une pièce jointe, comme un simple PDF, et sans même avoir besoin de cliquer dessus ou de l'ouvrir, son téléphone est compromis.L'attaquant peut alors lire les messages, même chiffrés, à l'insu de l'utilisateur.Concurrence marketing entre les vendeurs de logiciels espionsDans cette affaire spécifique, WhatsApp a identifié environ 90 utilisateurs ciblés. Cela peut sembler peu, mais c'est probablement l'arbre qui cache la forêt.Car il existe désormais une véritable concurrence marketing entre les vendeurs de logiciels espions.Alors, quelles sont les conséquences pour vous et comment se protéger ? Et bien il faut traiter votre smartphone comme un ordinateur.Dès qu'un correctif est disponible chez Apple ou Google, installez-leC'est là que notre conseil du début prend tout son sens. Beaucoup de ces attaques, comme le tristement célèbre Pegasus, résident uniquement dans la mémoire vive de l'appareil et ne s'installent pas comme des fichiers classiques.Par conséquent, redémarrer votre téléphone quotidiennement permet, en théorie, de vider la mémoire et d'effacer le logiciel malveillant.Bien sûr, cela ne vous empêche pas d'être réinfecté par la suite. Mais cela complique considérablement la tâche des attaquants. Et dès qu'un correctif est disponible chez Apple ou Google, installez-le. C'est la seule façon de combler les vulnérabilités que ces logiciels exploitent.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

C'est un sujet qui a passionné les lecteurs de ZDNET cette année, et il est idéal si, entre la dinde et la bûche, votre oncle vous demande comment l'intelligence artificielle va encore évoluer.Vous pourrez lui répondre que la prochaine étape, c'est la fin du choix cornélien entre rapidité et intelligence.Le cœur de cette révolution, c'est ce que Nick Turley, le responsable de ChatGPT, décrit comme une unification totale des modèles d'IA dans les chatbots.Une gymnastique mentale souvent fastidieuseJusqu'à présent, nous étions habitués à devoir choisir manuellement notre modèle d'IA. Cette gymnastique mentale, souvent fastidieuse pour l'utilisateur, disparait avec les nouvelles versions des chatbots d'IA.L'idée derrière ce nouveau modèle est d'automatiser cette décision. Concrètement, le système fonctionne de manière beaucoup plus humaine.Si vous lui posez une question triviale, il vous répondra du tac au tac, en utilisant un modèle économe et rapide."Réfléchir" avant de répondreEn revanche, si vous lui soumettez une équation complexe ou une question pointue en sciences de l'environnement, l'IA prend le temps de "réfléchir" avant de répondre, et ce en activant ses capacités de raisonnement approfondi.Comme le souligne Sam Altman, le patron d'OpenAI, l'objectif est d'obtenir une fluidité conversationnelle où l'IA adapte son temps de latence à la difficulté de la tâche, et ce sans que vous n'ayez rien à configurer.Pour les entreprises et les professionnels, cet impact est majeur. Le collaborateur en entreprise n'a plus besoin d'être un expert en "prompt engineering" ou de connaître les subtilités de chaque version pour obtenir le meilleur résultat.Cette approche "tout-en-un" promet de simplifier drastiquement l'adoption de l'IA générative dans les processus métiers, en garantissant toujours la réponse la plus pertinente, qu'elle nécessite une seconde ou une minute de réflexion.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Ce sujet vous a particulièrement captivé cette année, sans doute parce qu'il touche au cœur même de l'indépendance technologique.Alors, si pendant les fêtes vous vous retrouvez à devoir expliquer à votre famille pourquoi il existe des alternatives aux géants américains du numérique, ou si l'on vous demande de dépanner le PC familial, vous pourrez désormais citer cet exemple frappant.Direction l'Allemagne, où une administration entière a prouvé qu'il était possible de couper le cordon avec Microsoft.Un chantier informatique colossalConcrètement, nous parlons ici du Land du Schleswig-Holstein. Cette région allemande a finalisé cette année un chantier informatique colossal en abandonnant totalement ses systèmes de messagerie et d'agenda propriétaires.Ils ont remplacé le couple bien connu Microsoft Exchange et Outlook par des solutions Open Source, à savoir Open-Xchange et Mozilla Thunderbird.Ce n'est pas une simple expérimentation de laboratoire. La bascule concerne l'ensemble de l'appareil d'État, de la chancellerie aux ministères, en passant par la police et la justice. L'objectif affiché est sans équivoque. Il faut garantir la souveraineté numérique et ne plus dépendre des décisions d'une seule grande entreprise technologique.Pour bien saisir la prouesse technique, il faut se pencher sur les chiffres, car ils donnent le vertige.La migration a duré six mois et a impliqué le transfert de plus de 40 000 boîtes aux lettres électroniquesLa migration a duré six mois et a impliqué le transfert de plus de 40 000 boîtes aux lettres électroniques. Au total, ce sont plus de 100 millions de messages et d'entrées d'agenda qui ont été migrés vers ce nouvel environnement libre.Les autorités locales qualifient elles-mêmes ce projet de pionnier, affirmant qu'il existe très peu de précédents de cette ampleur dans le monde. C'est d'ailleurs la suite logique d'une stratégie entamée l'année précédente avec le déploiement de LibreOffice pour remplacer la suite bureautique traditionnelle.Le logiciel libre est désormais une alternative crédible et robusteAu-delà de l'exploit technique, l'impact pour les décideurs informatiques et les administrations européennes est majeur. Le Schleswig-Holstein se positionne désormais comme un modèle exportable, prêt à partager son expertise, de l'analyse des données à la surveillance des centres de données.Ce mouvement s'inscrit dans une tendance de fond en Europe, rejoignant des initiatives similaires observées dans l'armée autrichienne ou, plus près de nous, dans la ville de Lyon.Pour les DSI, la leçon est claire : le logiciel libre est désormais une alternative crédible et robuste pour réduire les dépendances monopolistiques et garder la maîtrise réelle des données citoyens et entreprises.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, nous nous penchons sur l'entretien de nos téléviseurs connectés. Alors que vous êtes peut-être en famille pour les fêtes, c'est l'occasion idéale de briller en dépannant la Smart TV du salon qui montre des signes de fatigue, ou tout simplement d'optimiser votre propre installation pour les marathons de films de Noël.Entrons directement dans le vif du sujet.À l'ère du tout connecté, nos téléviseurs sont devenus de véritables ordinateurs. Ils nous offrent un accès illimité au divertissement, mais cela a un coût invisible : l'accumulation de données.C'est ce qu'on appelle la mémoire cache. Cette zone de stockage temporaire conserve des vignettes, des historiques ou des processus pour accélérer le chargement de vos applications préférées. Mais le revers de la médaille, c'est qu'avec le temps, ce cache s'encrasse de fichiers obsolètes.Le résultat est souvent frustrant : une interface qui rame, des applications qui plantent, voire des problèmes de mise en mémoire tampon en plein milieu de votre série.Concrètement, comment reprend-on le contrôle ?L'objectif est de faire le ménage sans tout casser.Il faut bien distinguer deux actions.D'un côté, vider le cache, qui supprime les fichiers temporaires et qui est sans risque.De l'autre, effacer les données, une action plus radicale qui remet l'application à zéro et vous obligera à entrer de nouveau vos identifiants.Pour un simple ralentissement, vider le cache suffit amplementPour un simple ralentissement, vider le cache suffit amplement. La procédure varie légèrement selon les marques, mais la logique reste la même. Rendez-vous dans les paramètres, puis dans la section "Applications" ou "Gestionnaire d'applications".Sur les téléviseurs Samsung par exemple, il faudra souvent passer par le menu "Assistance" puis "Entretien de l'appareil".Chez LG, cela se trouve généralement dans les paramètres de "Stockage".Quant aux téléviseurs sous Android ou Google TV, comme les modèles Sony, c'est plus direct : allez dans "Apps", affichez toutes les applications, sélectionnez celle qui pose problème et choisissez l'option "Vider le cache".Les experts recommandent d'effectuer cette petite maintenance environ tous les deux mois. Ou dès que vous sentez que votre téléviseur commence à traîner la patte. C'est une opération simple, rapide, et qui redonne à votre écran sa fluidité des premiers jours, vous garantissant une expérience visuelle optimale pour la fin de l'année.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, nous revenons sur un séisme réglementaire qui a beaucoup fait réagir les lecteurs de ZDNET.Il s'agit de la décision de Microsoft de séparer Teams de sa suite Office 365. C'est le genre d'information idéale pour briller lors des repas de famille, surtout quand on vous demandera inévitablement de jeter un œil à l'ordinateur du cousin ou d'expliquer pourquoi les logiciels de bureau ont changé.Vous pourrez alors leur expliquer les dessous de cette bataille géante entre Bruxelles et Redmond.Ne plus imposer systématiquement Teams au sein des suites Office 365 et Microsoft 365C'est donc l'histoire d'un tout petit bouton décoché qui a permis de désamorcer une véritable bombe réglementaire. Sous la pression constante de l'Union européenne, Microsoft a accepté cette année de ne plus imposer systématiquement Teams au sein de ses suites Office 365 et Microsoft 365.Ce compromis met fin à une longue procédure antitrust déclenchée en 2020 par une plainte de Slack.Le cœur du problème résidait dans le "bundling", cette pratique consistant à intégrer un produit, ici Teams, dans une offre plus large sans laisser le choix au client, ce qui a eu pour effet d'imposer la solution aux professionnels presque par défaut.Des versions d'Office "épurées"Ce revirement permet à Microsoft d'éviter une amende qui aurait pu être très salée.L'entreprise propose désormais des versions d'Office "épurées", sans Teams, à un prix inférieur, rendant l'outil collaboratif optionnel.L'objectif est de clarifier les prixL'objectif est de clarifier les prix. Cependant, le défi reste immense pour les rivaux de Microsoft.En effet, propulsé par l'essor du télétravail, Teams a déjà largement conquis le terrain et revendique plus de 280 millions d'utilisateurs.C'est une position dominante qui sera difficile à ébranler, même avec ces nouvelles règles du jeu.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

C'est un sujet qui touche à une problématique très concrète du quotidien, surtout en cette période de réunions familiales. Vous voulez montrer les vidéos de l'année ou lancer un jeu mobile pour les enfants, mais l'écran du smartphone est trop petit pour que tout le monde en profite.C'est là que vous, en tant qu'expert tech de la famille, intervenez pour projeter l'écran du mobile directement sur le téléviseur du salon.Entrons tout de suite dans le vif du sujet, il existe trois grandes voies pour y parvenir.Utiliser les fonctions natives de "miroir d'écran" ou "Screen Mirroring"La première méthode, et c'est souvent la plus fluide, consiste à utiliser les fonctions natives de "miroir d'écran" ou "Screen Mirroring".Si vous possédez un smartphone Samsung et un téléviseur de la même marque, c'est l'idéal via la fonction "Smart View".Il suffit d'ouvrir le panneau des raccourcis sur le téléphone, de détecter la TV à proximité et de valider la connexion. C'est immédiat et sans latence. Pour les autres marques, le principe reste le même, bien que le nom de la fonction puisse varier, s'appelant souvent "Diffusion" ou "Partage d'écran".Google TV et dongle ChromecastSi cette option ne fonctionne pas, la deuxième solution repose sur l'environnement Google. Si votre téléviseur tourne sous Google TV ou si vous avez branché un dongle Chromecast sur un port HDMI, la procédure passe alors par l'application Google Home.Il est nécessaire de configurer une "maison" virtuelle dans l'application, d'y ajouter le Chromecast, puis de sélectionner l'option "Caster mon écran".C'est un peu plus long à mettre en place la première fois. Mais c'est une solution universelle très robuste pour afficher vos contenus en Full HD ou 4K.La méthode infaillible : le filaireEnfin, si le Wi-Fi est instable ou si la technologie sans fil fait des siennes, il reste la méthode infaillible : le filaire.C'est le "plan B"que tout bon technicien garde sous le coude. Il s'agit simplement d'utiliser un adaptateur USB-C vers HDMI.Vous connectez le téléphone d'un côté, le câble HDMI de la télé de l'autre, et l'image s'affiche instantanément, sans configuration réseau.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, nous nous penchons sur un grand classique des réunions de famille : la fameuse plainte du smartphone qui rame.C'est inévitable, entre la dinde et la bûche, un proche vous tendra son téléphone Android en vous demandant pourquoi il est devenu si lent.Alors, pour briller lors du repas de Noël et sauver le téléphone de vos proches, ou même le vôtre, voici comment redonner un coup de jeune à un appareil Android grâce à un simple nettoyage de cache.Retrouver de la fluiditéCommençons par le constat. Si un simple redémarrage peut régler certains bugs mineurs, le véritable secret réside dans le nettoyage des données en cache des applications et des navigateurs. C'est une opération de maintenance de base, mais elle est redoutablement efficace pour retrouver de la fluidité.Passons maintenant à la pratique. La procédure varie légèrement selon les constructeurs, mais la logique reste la même.Farfouiller dans les réglagesConcrètement, il faut se rendre dans les paramètres de l'appareil, puis dans la section dédiée au stockage ou aux applications.L'objectif est d'identifier les applications les plus gourmandes, souvent les réseaux sociaux comme Facebook ou Instagram, qui stockent énormément d'éléments. Une fois l'application sélectionnée, deux options s'offrent généralement à vous : "Vider le stockage" et "Effacer le cache".C'est ici qu'il faut être très vigilant et pédagogue.Il est crucial de choisir uniquement l'option "Effacer le cache"Il est crucial de choisir uniquement l'option "Effacer le cache". Cette action supprime les fichiers temporaires sans toucher aux données personnelles.À l'inverse, l'option "Vider le stockage" ou "Effacer les données"réinitialiserait l'application comme si elle venait d'être installée, obligeant l'utilisateur à se reconnecter et à tout reconfigurer.Pour compléter ce nettoyage, n'oubliez pas le navigateur Chrome. En passant par le menu historique et l'option "Effacer les données de navigation", vous pouvez supprimer les images et fichiers en cache accumulés au fil des mois, ce qui allégera considérablement le navigateur.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, nous revenons sur un sujet qui a passionné nos lecteurs. Il s'agit de la promesse d'une productivité décuplée pour les développeurs grâce à l'intelligence artificielle générative.Imaginez un instant que vous ayez un assistant capable d'abattre des semaines de travail technique de codage en quelques heures, vous laissant le temps de profiter du réveillon.C'est exactement l'expérience qu'a tentée l'un de nos experts avec Codex, l'IA de programmation d'OpenAI.Réécriture complète du code HTML et CSSEntrons dans le vif du sujet. L'expérience repose sur l'utilisation de Codex directement intégré dans l'environnement de développement Visual Studio Code, le tout accessible via l'abonnement ChatGPT Plus à vingt dollars par mois. L'objectif était de voir si cette formule grand public pouvait rivaliser avec des outils professionnels bien plus coûteux.Concrètement, notre testeur a confié à l'IA des tâches variées et parfois fastidieuses, comme la réécriture complète du code HTML et CSS d'une page d'accueil, le débogage d'une liste de diffusion en JavaScript, ou encore la création d'un moteur d'interface complexe.Le résultat immédiat est stupéfiant. L'IA a permis de déléguer les tâches répétitives, notamment le CSS que beaucoup de développeurs redoutent, avec une efficacité redoutable, à condition de la guider pas à pas, section par section.24 jours de travail manuel en seulement 12 heures d'utilisation cumulée de l'IAC'est ici que les chiffres donnent le tournis.En termes de rendement pur, notre expert estime avoir multiplié sa productivité par seize.Tenez-vous bien. Il a accompli l'équivalent de vingt-quatre jours de travail manuel en seulement douze heures d'utilisation cumulée de l'IA.La première dose est toujours gratuite !Cependant, il y a un revers à la médaille, et il est de taille. L'abonnement à vingt dollars s'apparente à une offre d'appel, voire à une première dose gratuite.Après une journée d'utilisation intensive, l'utilisateur s'est heurté à des murs invisibles. D'abord une suspension de 33 minutes, puis de 90 minutes, et finalement un blocage complet de plus de cinq jours.Sans avertissement préalable, l'outil vous coupe donc l'herbe sous le pied, parfois en plein milieu d'une ligne de code, vous laissant le choix entre attendre une semaine ou passer à la caisse pour l'abonnement professionnel à 200 dollars.Cette expérience montre que le modèle économique des assistants de code évolue vers une segmentation forte. Si vous dirigez une équipe technique, sachez que les versions "Plus" grand public sont insuffisantes pour un usage intensif.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, nous nous penchons sur le genre de connaissance idéale pour briller lors des repas de famille en cette fin d'année, surtout quand l'oncle Gérard se plaindra que son transfert de photos de vacances prend des plombes, ou que sa souris sans fil fonctionne mal.La solution se trouve peut-être juste sous vos yeux, dans une simple touche de couleur.Car oui, les couleurs de vos ports USB ne sont pas là pour faire joli. Elles constituent un code secret standardisé qu'il est urgent de déchiffrer.La vitesse = la couleurCommençons par le constat de base. On a souvent l'impression que l'USB est une connectique universelle et interchangeable. C'est vrai pour la forme, mais absolument faux pour la performance.Si vous avez déjà remarqué qu'un périphérique réagissait mieux sur la prise de gauche que sur celle de droite, ce n'est pas une hallucination.Leur architecture interne peut varier du tout au tout en matière de débit de données et de fourniture d'énergie. C'est là que le code couleur entre en jeu pour vous guider instantanément, sans avoir à fouiller dans le manuel technique.Analysons maintenant ce code couleur pour comprendre ce qu'il cache.Analyse des anciens standardsTout commence avec les anciens standards.Si vous voyez un port blanc, c'est de l'USB 1, l'ancêtre, limité à 12 mégabits par seconde.S'il est noir, c'est de l'USB 2.0, très courant pour les claviers et souris, avec un débit de 480 mégabits. C'est suffisant pour de la bureautique, mais c'est là qu'il ne faut surtout pas brancher votre disque dur externe si vous êtes pressé.Pour la vitesse, cherchez le bleu. Cette couleur signale l'arrivée de l'USB 3.0 et du "SuperSpeed". Ici, on change de dimension avec un débit qui grimpe à 5 Gigabits par seconde, soit plus de dix fois la vitesse du port noir.Si le port est turquoise, c'est encore mieux; c'est de l'USB 3.1 à 10 Gigabits.Enfin, le Graal pour les transferts lourds, c'est le port rouge. Il indique souvent de l'USB 3.2, capable d'atteindre jusqu'à 20 Gigabits par seconde.Mais l'astuce qui vous fera passer pour un expert auprès de vos proches concerne l'énergie.Rouge ou orange ? Toujours actif !Avez-vous déjà vu des ports jaunes ou oranges ? Ces ports ont une particularité géniale. Ils sont "toujours actifs". Concrètement, cela signifie qu'ils peuvent recharger un smartphone même si l'ordinateur est éteint.C'est le port de secours idéal en déplacement.En résumé, ne branchez plus vos périphériques au hasard. Un disque SSD sur un port noir, c'est une perte de temps, et un téléphone sur un port jaune, c'est l'assurance d'une batterie pleine.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, revenons sur un sujet qui a passionné les lecteurs cette année. Il s'agit des super-pouvoirs cachés du port USB de votre téléviseur. C'est le genre d'astuce idéale en cette période de réunions familiales.Et ce que ce soit pour épater vos proches lors du réveillon ou pour dépanner une installation multimédia bancale chez vos parents.Savoir exploiter cette connectique souvent oubliée pourrait donc bien faire de vous le héros des fêtes.Nous avons oublié l'arrière du châssis !Commençons par un constat simple. Une fois nos "Smart TV" installées au mur ou sur un meuble, nous n'interagissons presque jamais physiquement avec elles. Entre le Wi-Fi, le Bluetooth et les applications intégrées, nous en avons oublié l'arrière du châssis.Pourtant, juste à côté des prises HDMI, se trouve presque systématiquement un, voire plusieurs ports USB 2.0 ou 3.0. Ces ports sont obligatoires sur la plupart des modèles récents. Mais ils restent souvent inexploités, prenant la poussière alors qu'ils offrent une polyvalence redoutable.Analysons concrètement ce que ces ports permettent de faire.La transformation de votre TV en cadre photo géant ou en lecteur multimédia autonomeLe premier usage, et c'est celui qui servira le plus pendant les fêtes, c'est la transformation de votre TV en cadre photo géant ou en lecteur multimédia autonome.Pourquoi est-ce pertinent ? Parce que lire vos fichiers directement depuis une clé USB est bien plus sain pour votre téléviseur que de les transférer.En lisant les données depuis la clé, vous évitez d'encombrer la mémoire cache ou le stockage interne de l'appareil, garantissant ainsi une meilleure fluidité.Transformer cet écran géant en station de travailParlons chiffres pour illustrer un second usage, cette fois ci plus professionnel.La taille standard d'un écran pour un créatif est souvent de 27 pouces. Or, votre téléviseur de salon fait probablement 55 pouces, voire 65 pouces.En connectant un clavier et une souris via un adaptateur sans fil sur le port USB de la télé, vous transformez cet écran géant en station de travail.Certes, la colorimétrie n'est pas celle d'un moniteur pro. Mais pour le multitâche et l'affichage de multiples fenêtres, le gain d'espace est incomparable sans avoir à investir dans du matériel coûteux.Et en cas d'urgence absolue ? Si toutes les prises du salon sont occupées par les guirlandes électriques, sachez que ce port USB peut recharger votre smartphone ou une manette de jeu. C'est un processus lent, car l'ampérage est faible et conçu pour le transfert de données. Mais cela peut vous sauver la mise en cas de batterie vide.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, nous allons parler de sécurité et de la confiance parfois aveugle que l'on accorde à nos outils numériques.Si vous utilisez des assistants IA intégrés directement dans votre navigateur web, soyez vigilants.Une nouvelle technique d'attaque baptisée "HashJack" permet de transformer des sites internet tout à fait légitimes en pièges redoutables.Le mécanisme de l'attaqueCommençons par comprendre le mécanisme de cette attaque.HashJack a été mise en lumière par une équipe de chercheurs. Il s'agit d'une forme d'injection de prompt indirecte qui exploite une faille dans la manière dont les navigateurs IA traitent les adresses web.Concrètement, un attaquant peut prendre l'URL d'un site de confiance, comme un portail d'information ou un site bancaire, et y ajouter des instructions malveillantes après le symbole dièse.Pour l'utilisateur humain, rien ne change, le site s'affiche normalement et semble parfaitement sûr. Le piège se referme uniquement si vous sollicitez votre assistant IA sur cette page. L'intelligence artificielle va alors lire l'intégralité de l'URL, y compris les instructions cachées après le dièse, et les exécuter à votre insu.Plusieurs scénarios inquiétantsC'est là que les conséquences peuvent devenir graves pour les professionnels. Les chercheurs ont démontré plusieurs scénarios inquiétants.Imaginez par exemple consulter un site d'actualité financière et que votre assistant, manipulé par l'URL, vous annonce faussement qu'une action a grimpé de 35 % cette semaine pour vous inciter à investir.Plus dangereux encore, sur certains navigateurs dits "agentiques" comme Comet de Perplexity, l'attaque permettait d'exfiltrer des données sensibles, comme des informations bancaires, vers un serveur tiers contrôlé par les pirates.Des réactions mitigées de la part des éditeursTerminons par la réaction des éditeurs face à cette vulnérabilité. La situation est contrastée. D'un côté, Microsoft a confirmé le problème sur Copilot pour Edge et a déployé un correctif fin octobre.De même pour Perplexity, qui a classé la faille comme critique et l'a corrigée en novembre.En revanche, la position de Google est différente. Pour le moment, Google ne prévoit pas de correctif majeur, classant le risque comme faible. Il est à noter que d'autres systèmes comme Claude ou les outils d'OpenAI se sont montrés résistants à cette attaque lors des tests. Cela nous rappelle qu'en matière d'IA, la prudence reste de mise, même sur des sites que vous connaissez bien.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Google vient peut-être de frapper un grand coup dans le monde du développement logiciel avec "Antigravity", un nouvel environnement de travail qui semble privilégier la productivité réelle des codeurs plutôt que la simple "hype" autour de l'intelligence artificielle.Antigravity est un fork de VS Code de MicrosoftPour commencer, il faut souligner une décision pragmatique, bien que discrète, de la part de Google. Antigravity est en réalité un "fork", c'est à dire une version modifiée du célèbre VS Code de Microsoft.C'est une excellente nouvelle pour les professionnels, car cela signifie que cet outil s'appuie sur une interface que la grande majorité des développeurs maîtrisent déjà sur le bout des doigts.Loin de vouloir réinventer la roue ou d'imposer un écosystème fermé et déroutant, Google a donc choisi d'intégrer ses nouvelles fonctionnalités agentiques directement dans un environnement familier.Comprendre et interagir avec ce qui se passe à l'écranLà où Antigravity se distingue nettement de la concurrence, c'est par sa capacité à comprendre et interagir avec ce qui se passe à l'écran. L'outil ne se contente pas de lire du code. Il peut prendre ses propres captures d'écran et même réaliser des enregistrements vidéo de vos applications.Grâce à une extension Chrome, l'IA peut aussi exécuter votre code dans une véritable instance de navigateur. Mais aussi observer le comportement réel de votre application web, et agir en conséquence.C'est une avancée majeure par rapport aux simples assistants textuels. Vous pouvez par exemple demander à l'IA, propulsée par le modèle Gemini 3, d'implémenter une fonctionnalité, puis regarder l'agent vous faire une démonstration vidéo du résultat.Et si cela ne vous convient pas, vous pouvez annoter directement la vidéo ou la capture d'écran, comme vous le feriez sur un Google Doc, pour guider l'IA vers la correction souhaitée.Un tableau de bord pour orchestrer plusieurs agents IAEnfin, Google repense la gestion des tâches avec une interface appelée "Manager surface".L'écran d'accueil d'Antigravity devient un véritable tableau de bord pour orchestrer plusieurs agents IA en parallèle (voir vidéo ici). Concrètement, vous pouvez avoir un agent qui travaille sur le code d'un projet, pendant qu'un autre génère des éléments graphiques, comme un logo, via l'outil de génération d'images Nano Banana directement intégré à l'IDE.Cette approche permet de gérer plusieurs espaces de travail simultanément. Mais cela demandera sans doute une certaine gymnastique mentale pour suivre tout ce que ces agents font en même temps.C'est une vision du développement où l'IA n'est plus seulement un assistant passif, mais un collaborateur actif capable de réaliser des tâches complexes de bout en bout.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.