Découvrir au quotidien les enjeux de la technologie. Le podcast de la rédaction de ZDNet, pour les professionnels à la recherche d'infos pratiques et concrètes pour mieux comprendre le marché IT et telco et son influence sur les métiers.
ZD Tech : tout comprendre en moins de 3 minutes

Abordons un sujet qui a suscité beaucoup d'intérêt parmi les lecteurs cette année : comment s'affranchir de Google Maps sans perdre le nord.Alors que beaucoup d'entre vous prennent la route pour rejoindre leur famille en cette fin d'année, c'est l'occasion idéale de briller lors des discussions au coin du feu en présentant une alternative crédible, respectueuse de la vie privée et capable de préserver la batterie de votre smartphone pour les photos du réveillon.Le constat de départ est simple et partagé par beaucoup : l'omniprésence du géant de la recherche peut devenir oppressante, même sur la route.Solution de remplacement sérieuseEntre les rapports mensuels détaillant vos moindres déplacements et une consommation énergétique souvent excessive sur des terminaux pourtant récents comme le Pixel 9 Pro, l'expérience utilisateur peut laisser à désirer.C'est ici qu'intervient CoMaps. Cette application gratuite s'est imposée cette année comme une solution de remplacement sérieuse. Elle promet non seulement de vous guider vocalement, mais surtout de le faire sans siphonner vos données personnelles ni votre batterie.Techniquement, il est intéressant de comprendre d'où vient cet outil. CoMaps n'est pas sorti de nulle part : c'est un "fork", une déclinaison d'Organic Maps, elle-même héritière de MapsWithMe. L'application repose sur la philosophie de l'open-source et utilise les données d'OpenStreetMap.CoMaps vous demande de télécharger en amont la carte de la région visitéeLa différence majeure avec son concurrent de Mountain View réside dans son fonctionnement hors ligne. Contrairement au streaming de cartes constant, CoMaps vous demande de télécharger en amont la carte de la région visitée.Cela offre deux avantages immédiats : l'application fonctionne parfaitement sans aucune connexion réseau, ce qui est crucial en zone blanche, et un mode "extérieur" très poussé pour les randonneurs, affichant sentiers et points d'eau potable.Pour les professionnels et les entreprises soucieux de la confidentialité des données, l'impact est significatif. Là où les solutions grand public traditionnelles monétisent la localisation, CoMaps garantit une absence totale de suivi, d'identification des personnes et de collecte de données.L'application est transparente, sans publicité et communautaire. Disponible sur Android et iOS depuis début juillet, elle représente une option robuste pour les flottes d'entreprise ou les collaborateurs qui ont besoin de fiabiliser leurs déplacements sans compromettre la sécurité de leurs informations ni l'autonomie de leurs appareils mobiles.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Voici de quoi vous servir d'anecdote pour épater la galerie lors de vos repas de famille. Imaginez pouvoir commander un robot humanoïde sur internet aussi simplement qu'un nouveau smartphone. C'est exactement le pari fou qu'a réussi une entreprise chinoise cette année, marquant une étape cruciale dans la démocratisation de la robotique.L'événement s'est déroulé en Chine, où l'entreprise Unitree a décidé de mettre en vente deux modèles de robots humanoïdes, le G1 et le H1, directement sur la plateforme de e-commerce grand public JD.com.Le robot humanoïde sort de la science-fictionContrairement à ce que l'on pourrait penser, il ne s'agissait pas de prototypes réservés à des laboratoires de recherche. Le fabricant a été très clair : tout le monde pouvait les acheter. Et le résultat ne s'est pas fait attendre, puisque les stocks ont été épuisés presque instantanément après leur mise en ligne.C'est un signal fort : le robot humanoïde sort de la science-fiction pour entrer dans le catalogue des produits de consommation.Ce qui frappe ici, ce sont les caractéristiques techniques rapportées au prix, qui défient toute concurrence. Prenons le modèle G1, le plus abordable. Pour environ treize mille euros, vous obtenez un robot d'un mètre trente pour trente-cinq kilos.12 km/hIl est capable de manipuler des objets avec ses trois doigts, dispose d'une autonomie de deux heures et se repère grâce à un Lidar 3D, une technologie similaire à celle des voitures autonomes.Le grand frère, le modèle H1, est une machine plus imposante d'un mètre quatre-vingts vendue aux alentours de 86000 euros. Il impressionne par sa motricité : il peut se déplacer à près de douze kilomètres-heure et a même démontré ses capacités en dansant sur scène, rappelant les démonstrations virales de Boston Dynamics.Pour les professionnels et les décideurs technologiques, cet engouement rapide souligne une tendance de fond. Nous assistons au passage d'une ère de recherche fondamentale à une ère de commodité.Le fait que des robots dotés de caméras de profondeur et de moteurs puissants soient proposés à des tarifs "raisonnables" pour ce type de matériel indique que la barrière à l'entrée s'effondre.Pour les entreprises, cela signifie que l'intégration de la robotique humanoïde dans des processus logistiques ou d'accueil pourrait devenir une réalité budgétaire beaucoup plus vite que prévu, ne serait-ce que pour des phases de test grandeur nature.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

C'est un sujet qui a passionné les lecteurs cette année, et qui pourrait bien alimenter vos débats lors des repas de famille, surtout si vous avez un cousin comptable ou un oncle DSI. Il s'agit de la mort annoncée du modèle SaaS tel que nous le connaissons. En clair, l'abonnement logiciel "par utilisateur", c'est bientôt fini, et c'est l'Intelligence Artificielle qui est en train de changer la donne.Pour comprendre ce bouleversement, il faut regarder comment nous consommons le logiciel aujourd'hui.Un modèle obsolèteDepuis des décennies, la norme, c'est la licence "par siège". Une entreprise paie un abonnement mensuel pour chaque employé qui a besoin d'accéder à un outil.Mais l'arrivée des agents d'IA, ces programmes capables d'agir de manière autonome, rend ce modèle obsolète. Selon une analyse marquante de McKinsey publiée cette année, nous entrons dans l'ère "post-SaaS".Pourquoi ? Parce que demain, ce ne seront plus seulement des humains qui cliqueront sur des boutons, mais des agents IA qui interagiront entre eux pour exécuter des tâches. Dès lors, facturer un accès humain n'a plus beaucoup de sens.Une restructuration totale du marchéL'ampleur de ce changement est chiffrée et elle est colossale. D'après l'étude, 63 % des fournisseurs de logiciels estiment que l'IA va fondamentalement changer leur modèle économique d'ici trois à cinq ans.C'est une restructuration totale du marché. Certains analystes prédisent même que les transactions logicielles gérées directement par des agents pourraient réduire le nombre de licences "humaines"nécessaires de 70 %.Les éditeurs ne peuvent donc pas rester les bras croisés. Ils s'attendent à ce que l'IA débloque une croissance significative de leur chiffre d'affaires, mais cela passera par une nouvelle façon de facturer.Concrètement, qu'est-ce que cela change pour les décideurs et les entreprises clientes ?C'est là que l'impact pro est le plus fort. Nous allons glisser d'une économie de la possession ou de l'accès vers une économie du résultat. Les éditeurs ne vous vendront plus une licence, mais une performance. La facturation pourrait se baser sur la consommation réelle, le nombre de tâches accomplies ou le résultat obtenu, un peu comme on paie l'électricité.Cependant, attention aux pièges lors de vos futures négociations. Il y a un risque que les fournisseurs "reconditionnent" leurs prix dans des offres groupées opaques.Le conseil à retenir est simple : avant de signer un contrat basé sur la consommation, exigez de voir les données de performance.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui revenons sur un sujet qui a passionné les lecteurs cette année et qui pourrait bien vous servir lors des repas de famille.En effet, si entre le fromage et le dessert, on vous demande un conseil simple et gratuit pour sécuriser un smartphone, vous pourrez désormais répondre avec assurance.Un petit redémarrage quotidienIl faut le redémarrer tous les jours. Et derrière cette astuce qui peut sembler anodine se cache en réalité une protection efficace contre des menaces de plus en plus sophistiquées.L'actualité récente de cette année l'a encore prouvé avec WhatsApp, qui a révélé une campagne de piratage utilisant un logiciel nommé Graphite, développé par la société Paragon Solutions.Le plus effrayant dans cette affaire, c'est la méthode utilisée. Il s'agit de l'attaque dite "zéro clic". Concrètement, la victime reçoit une pièce jointe, comme un simple PDF, et sans même avoir besoin de cliquer dessus ou de l'ouvrir, son téléphone est compromis.L'attaquant peut alors lire les messages, même chiffrés, à l'insu de l'utilisateur.Concurrence marketing entre les vendeurs de logiciels espionsDans cette affaire spécifique, WhatsApp a identifié environ 90 utilisateurs ciblés. Cela peut sembler peu, mais c'est probablement l'arbre qui cache la forêt.Car il existe désormais une véritable concurrence marketing entre les vendeurs de logiciels espions.Alors, quelles sont les conséquences pour vous et comment se protéger ? Et bien il faut traiter votre smartphone comme un ordinateur.Dès qu'un correctif est disponible chez Apple ou Google, installez-leC'est là que notre conseil du début prend tout son sens. Beaucoup de ces attaques, comme le tristement célèbre Pegasus, résident uniquement dans la mémoire vive de l'appareil et ne s'installent pas comme des fichiers classiques.Par conséquent, redémarrer votre téléphone quotidiennement permet, en théorie, de vider la mémoire et d'effacer le logiciel malveillant.Bien sûr, cela ne vous empêche pas d'être réinfecté par la suite. Mais cela complique considérablement la tâche des attaquants. Et dès qu'un correctif est disponible chez Apple ou Google, installez-le. C'est la seule façon de combler les vulnérabilités que ces logiciels exploitent.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

C'est un sujet qui a passionné les lecteurs de ZDNET cette année, et il est idéal si, entre la dinde et la bûche, votre oncle vous demande comment l'intelligence artificielle va encore évoluer.Vous pourrez lui répondre que la prochaine étape, c'est la fin du choix cornélien entre rapidité et intelligence.Le cœur de cette révolution, c'est ce que Nick Turley, le responsable de ChatGPT, décrit comme une unification totale des modèles d'IA dans les chatbots.Une gymnastique mentale souvent fastidieuseJusqu'à présent, nous étions habitués à devoir choisir manuellement notre modèle d'IA. Cette gymnastique mentale, souvent fastidieuse pour l'utilisateur, disparait avec les nouvelles versions des chatbots d'IA.L'idée derrière ce nouveau modèle est d'automatiser cette décision. Concrètement, le système fonctionne de manière beaucoup plus humaine.Si vous lui posez une question triviale, il vous répondra du tac au tac, en utilisant un modèle économe et rapide."Réfléchir" avant de répondreEn revanche, si vous lui soumettez une équation complexe ou une question pointue en sciences de l'environnement, l'IA prend le temps de "réfléchir" avant de répondre, et ce en activant ses capacités de raisonnement approfondi.Comme le souligne Sam Altman, le patron d'OpenAI, l'objectif est d'obtenir une fluidité conversationnelle où l'IA adapte son temps de latence à la difficulté de la tâche, et ce sans que vous n'ayez rien à configurer.Pour les entreprises et les professionnels, cet impact est majeur. Le collaborateur en entreprise n'a plus besoin d'être un expert en "prompt engineering" ou de connaître les subtilités de chaque version pour obtenir le meilleur résultat.Cette approche "tout-en-un" promet de simplifier drastiquement l'adoption de l'IA générative dans les processus métiers, en garantissant toujours la réponse la plus pertinente, qu'elle nécessite une seconde ou une minute de réflexion.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Ce sujet vous a particulièrement captivé cette année, sans doute parce qu'il touche au cœur même de l'indépendance technologique.Alors, si pendant les fêtes vous vous retrouvez à devoir expliquer à votre famille pourquoi il existe des alternatives aux géants américains du numérique, ou si l'on vous demande de dépanner le PC familial, vous pourrez désormais citer cet exemple frappant.Direction l'Allemagne, où une administration entière a prouvé qu'il était possible de couper le cordon avec Microsoft.Un chantier informatique colossalConcrètement, nous parlons ici du Land du Schleswig-Holstein. Cette région allemande a finalisé cette année un chantier informatique colossal en abandonnant totalement ses systèmes de messagerie et d'agenda propriétaires.Ils ont remplacé le couple bien connu Microsoft Exchange et Outlook par des solutions Open Source, à savoir Open-Xchange et Mozilla Thunderbird.Ce n'est pas une simple expérimentation de laboratoire. La bascule concerne l'ensemble de l'appareil d'État, de la chancellerie aux ministères, en passant par la police et la justice. L'objectif affiché est sans équivoque. Il faut garantir la souveraineté numérique et ne plus dépendre des décisions d'une seule grande entreprise technologique.Pour bien saisir la prouesse technique, il faut se pencher sur les chiffres, car ils donnent le vertige.La migration a duré six mois et a impliqué le transfert de plus de 40 000 boîtes aux lettres électroniquesLa migration a duré six mois et a impliqué le transfert de plus de 40 000 boîtes aux lettres électroniques. Au total, ce sont plus de 100 millions de messages et d'entrées d'agenda qui ont été migrés vers ce nouvel environnement libre.Les autorités locales qualifient elles-mêmes ce projet de pionnier, affirmant qu'il existe très peu de précédents de cette ampleur dans le monde. C'est d'ailleurs la suite logique d'une stratégie entamée l'année précédente avec le déploiement de LibreOffice pour remplacer la suite bureautique traditionnelle.Le logiciel libre est désormais une alternative crédible et robusteAu-delà de l'exploit technique, l'impact pour les décideurs informatiques et les administrations européennes est majeur. Le Schleswig-Holstein se positionne désormais comme un modèle exportable, prêt à partager son expertise, de l'analyse des données à la surveillance des centres de données.Ce mouvement s'inscrit dans une tendance de fond en Europe, rejoignant des initiatives similaires observées dans l'armée autrichienne ou, plus près de nous, dans la ville de Lyon.Pour les DSI, la leçon est claire : le logiciel libre est désormais une alternative crédible et robuste pour réduire les dépendances monopolistiques et garder la maîtrise réelle des données citoyens et entreprises.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, nous nous penchons sur l'entretien de nos téléviseurs connectés. Alors que vous êtes peut-être en famille pour les fêtes, c'est l'occasion idéale de briller en dépannant la Smart TV du salon qui montre des signes de fatigue, ou tout simplement d'optimiser votre propre installation pour les marathons de films de Noël.Entrons directement dans le vif du sujet.À l'ère du tout connecté, nos téléviseurs sont devenus de véritables ordinateurs. Ils nous offrent un accès illimité au divertissement, mais cela a un coût invisible : l'accumulation de données.C'est ce qu'on appelle la mémoire cache. Cette zone de stockage temporaire conserve des vignettes, des historiques ou des processus pour accélérer le chargement de vos applications préférées. Mais le revers de la médaille, c'est qu'avec le temps, ce cache s'encrasse de fichiers obsolètes.Le résultat est souvent frustrant : une interface qui rame, des applications qui plantent, voire des problèmes de mise en mémoire tampon en plein milieu de votre série.Concrètement, comment reprend-on le contrôle ?L'objectif est de faire le ménage sans tout casser.Il faut bien distinguer deux actions.D'un côté, vider le cache, qui supprime les fichiers temporaires et qui est sans risque.De l'autre, effacer les données, une action plus radicale qui remet l'application à zéro et vous obligera à entrer de nouveau vos identifiants.Pour un simple ralentissement, vider le cache suffit amplementPour un simple ralentissement, vider le cache suffit amplement. La procédure varie légèrement selon les marques, mais la logique reste la même. Rendez-vous dans les paramètres, puis dans la section "Applications" ou "Gestionnaire d'applications".Sur les téléviseurs Samsung par exemple, il faudra souvent passer par le menu "Assistance" puis "Entretien de l'appareil".Chez LG, cela se trouve généralement dans les paramètres de "Stockage".Quant aux téléviseurs sous Android ou Google TV, comme les modèles Sony, c'est plus direct : allez dans "Apps", affichez toutes les applications, sélectionnez celle qui pose problème et choisissez l'option "Vider le cache".Les experts recommandent d'effectuer cette petite maintenance environ tous les deux mois. Ou dès que vous sentez que votre téléviseur commence à traîner la patte. C'est une opération simple, rapide, et qui redonne à votre écran sa fluidité des premiers jours, vous garantissant une expérience visuelle optimale pour la fin de l'année.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, nous revenons sur un séisme réglementaire qui a beaucoup fait réagir les lecteurs de ZDNET.Il s'agit de la décision de Microsoft de séparer Teams de sa suite Office 365. C'est le genre d'information idéale pour briller lors des repas de famille, surtout quand on vous demandera inévitablement de jeter un œil à l'ordinateur du cousin ou d'expliquer pourquoi les logiciels de bureau ont changé.Vous pourrez alors leur expliquer les dessous de cette bataille géante entre Bruxelles et Redmond.Ne plus imposer systématiquement Teams au sein des suites Office 365 et Microsoft 365C'est donc l'histoire d'un tout petit bouton décoché qui a permis de désamorcer une véritable bombe réglementaire. Sous la pression constante de l'Union européenne, Microsoft a accepté cette année de ne plus imposer systématiquement Teams au sein de ses suites Office 365 et Microsoft 365.Ce compromis met fin à une longue procédure antitrust déclenchée en 2020 par une plainte de Slack.Le cœur du problème résidait dans le "bundling", cette pratique consistant à intégrer un produit, ici Teams, dans une offre plus large sans laisser le choix au client, ce qui a eu pour effet d'imposer la solution aux professionnels presque par défaut.Des versions d'Office "épurées"Ce revirement permet à Microsoft d'éviter une amende qui aurait pu être très salée.L'entreprise propose désormais des versions d'Office "épurées", sans Teams, à un prix inférieur, rendant l'outil collaboratif optionnel.L'objectif est de clarifier les prixL'objectif est de clarifier les prix. Cependant, le défi reste immense pour les rivaux de Microsoft.En effet, propulsé par l'essor du télétravail, Teams a déjà largement conquis le terrain et revendique plus de 280 millions d'utilisateurs.C'est une position dominante qui sera difficile à ébranler, même avec ces nouvelles règles du jeu.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

C'est un sujet qui touche à une problématique très concrète du quotidien, surtout en cette période de réunions familiales. Vous voulez montrer les vidéos de l'année ou lancer un jeu mobile pour les enfants, mais l'écran du smartphone est trop petit pour que tout le monde en profite.C'est là que vous, en tant qu'expert tech de la famille, intervenez pour projeter l'écran du mobile directement sur le téléviseur du salon.Entrons tout de suite dans le vif du sujet, il existe trois grandes voies pour y parvenir.Utiliser les fonctions natives de "miroir d'écran" ou "Screen Mirroring"La première méthode, et c'est souvent la plus fluide, consiste à utiliser les fonctions natives de "miroir d'écran" ou "Screen Mirroring".Si vous possédez un smartphone Samsung et un téléviseur de la même marque, c'est l'idéal via la fonction "Smart View".Il suffit d'ouvrir le panneau des raccourcis sur le téléphone, de détecter la TV à proximité et de valider la connexion. C'est immédiat et sans latence. Pour les autres marques, le principe reste le même, bien que le nom de la fonction puisse varier, s'appelant souvent "Diffusion" ou "Partage d'écran".Google TV et dongle ChromecastSi cette option ne fonctionne pas, la deuxième solution repose sur l'environnement Google. Si votre téléviseur tourne sous Google TV ou si vous avez branché un dongle Chromecast sur un port HDMI, la procédure passe alors par l'application Google Home.Il est nécessaire de configurer une "maison" virtuelle dans l'application, d'y ajouter le Chromecast, puis de sélectionner l'option "Caster mon écran".C'est un peu plus long à mettre en place la première fois. Mais c'est une solution universelle très robuste pour afficher vos contenus en Full HD ou 4K.La méthode infaillible : le filaireEnfin, si le Wi-Fi est instable ou si la technologie sans fil fait des siennes, il reste la méthode infaillible : le filaire.C'est le "plan B"que tout bon technicien garde sous le coude. Il s'agit simplement d'utiliser un adaptateur USB-C vers HDMI.Vous connectez le téléphone d'un côté, le câble HDMI de la télé de l'autre, et l'image s'affiche instantanément, sans configuration réseau.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, nous nous penchons sur un grand classique des réunions de famille : la fameuse plainte du smartphone qui rame.C'est inévitable, entre la dinde et la bûche, un proche vous tendra son téléphone Android en vous demandant pourquoi il est devenu si lent.Alors, pour briller lors du repas de Noël et sauver le téléphone de vos proches, ou même le vôtre, voici comment redonner un coup de jeune à un appareil Android grâce à un simple nettoyage de cache.Retrouver de la fluiditéCommençons par le constat. Si un simple redémarrage peut régler certains bugs mineurs, le véritable secret réside dans le nettoyage des données en cache des applications et des navigateurs. C'est une opération de maintenance de base, mais elle est redoutablement efficace pour retrouver de la fluidité.Passons maintenant à la pratique. La procédure varie légèrement selon les constructeurs, mais la logique reste la même.Farfouiller dans les réglagesConcrètement, il faut se rendre dans les paramètres de l'appareil, puis dans la section dédiée au stockage ou aux applications.L'objectif est d'identifier les applications les plus gourmandes, souvent les réseaux sociaux comme Facebook ou Instagram, qui stockent énormément d'éléments. Une fois l'application sélectionnée, deux options s'offrent généralement à vous : "Vider le stockage" et "Effacer le cache".C'est ici qu'il faut être très vigilant et pédagogue.Il est crucial de choisir uniquement l'option "Effacer le cache"Il est crucial de choisir uniquement l'option "Effacer le cache". Cette action supprime les fichiers temporaires sans toucher aux données personnelles.À l'inverse, l'option "Vider le stockage" ou "Effacer les données"réinitialiserait l'application comme si elle venait d'être installée, obligeant l'utilisateur à se reconnecter et à tout reconfigurer.Pour compléter ce nettoyage, n'oubliez pas le navigateur Chrome. En passant par le menu historique et l'option "Effacer les données de navigation", vous pouvez supprimer les images et fichiers en cache accumulés au fil des mois, ce qui allégera considérablement le navigateur.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, nous revenons sur un sujet qui a passionné nos lecteurs. Il s'agit de la promesse d'une productivité décuplée pour les développeurs grâce à l'intelligence artificielle générative.Imaginez un instant que vous ayez un assistant capable d'abattre des semaines de travail technique de codage en quelques heures, vous laissant le temps de profiter du réveillon.C'est exactement l'expérience qu'a tentée l'un de nos experts avec Codex, l'IA de programmation d'OpenAI.Réécriture complète du code HTML et CSSEntrons dans le vif du sujet. L'expérience repose sur l'utilisation de Codex directement intégré dans l'environnement de développement Visual Studio Code, le tout accessible via l'abonnement ChatGPT Plus à vingt dollars par mois. L'objectif était de voir si cette formule grand public pouvait rivaliser avec des outils professionnels bien plus coûteux.Concrètement, notre testeur a confié à l'IA des tâches variées et parfois fastidieuses, comme la réécriture complète du code HTML et CSS d'une page d'accueil, le débogage d'une liste de diffusion en JavaScript, ou encore la création d'un moteur d'interface complexe.Le résultat immédiat est stupéfiant. L'IA a permis de déléguer les tâches répétitives, notamment le CSS que beaucoup de développeurs redoutent, avec une efficacité redoutable, à condition de la guider pas à pas, section par section.24 jours de travail manuel en seulement 12 heures d'utilisation cumulée de l'IAC'est ici que les chiffres donnent le tournis.En termes de rendement pur, notre expert estime avoir multiplié sa productivité par seize.Tenez-vous bien. Il a accompli l'équivalent de vingt-quatre jours de travail manuel en seulement douze heures d'utilisation cumulée de l'IA.La première dose est toujours gratuite !Cependant, il y a un revers à la médaille, et il est de taille. L'abonnement à vingt dollars s'apparente à une offre d'appel, voire à une première dose gratuite.Après une journée d'utilisation intensive, l'utilisateur s'est heurté à des murs invisibles. D'abord une suspension de 33 minutes, puis de 90 minutes, et finalement un blocage complet de plus de cinq jours.Sans avertissement préalable, l'outil vous coupe donc l'herbe sous le pied, parfois en plein milieu d'une ligne de code, vous laissant le choix entre attendre une semaine ou passer à la caisse pour l'abonnement professionnel à 200 dollars.Cette expérience montre que le modèle économique des assistants de code évolue vers une segmentation forte. Si vous dirigez une équipe technique, sachez que les versions "Plus" grand public sont insuffisantes pour un usage intensif.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, nous nous penchons sur le genre de connaissance idéale pour briller lors des repas de famille en cette fin d'année, surtout quand l'oncle Gérard se plaindra que son transfert de photos de vacances prend des plombes, ou que sa souris sans fil fonctionne mal.La solution se trouve peut-être juste sous vos yeux, dans une simple touche de couleur.Car oui, les couleurs de vos ports USB ne sont pas là pour faire joli. Elles constituent un code secret standardisé qu'il est urgent de déchiffrer.La vitesse = la couleurCommençons par le constat de base. On a souvent l'impression que l'USB est une connectique universelle et interchangeable. C'est vrai pour la forme, mais absolument faux pour la performance.Si vous avez déjà remarqué qu'un périphérique réagissait mieux sur la prise de gauche que sur celle de droite, ce n'est pas une hallucination.Leur architecture interne peut varier du tout au tout en matière de débit de données et de fourniture d'énergie. C'est là que le code couleur entre en jeu pour vous guider instantanément, sans avoir à fouiller dans le manuel technique.Analysons maintenant ce code couleur pour comprendre ce qu'il cache.Analyse des anciens standardsTout commence avec les anciens standards.Si vous voyez un port blanc, c'est de l'USB 1, l'ancêtre, limité à 12 mégabits par seconde.S'il est noir, c'est de l'USB 2.0, très courant pour les claviers et souris, avec un débit de 480 mégabits. C'est suffisant pour de la bureautique, mais c'est là qu'il ne faut surtout pas brancher votre disque dur externe si vous êtes pressé.Pour la vitesse, cherchez le bleu. Cette couleur signale l'arrivée de l'USB 3.0 et du "SuperSpeed". Ici, on change de dimension avec un débit qui grimpe à 5 Gigabits par seconde, soit plus de dix fois la vitesse du port noir.Si le port est turquoise, c'est encore mieux; c'est de l'USB 3.1 à 10 Gigabits.Enfin, le Graal pour les transferts lourds, c'est le port rouge. Il indique souvent de l'USB 3.2, capable d'atteindre jusqu'à 20 Gigabits par seconde.Mais l'astuce qui vous fera passer pour un expert auprès de vos proches concerne l'énergie.Rouge ou orange ? Toujours actif !Avez-vous déjà vu des ports jaunes ou oranges ? Ces ports ont une particularité géniale. Ils sont "toujours actifs". Concrètement, cela signifie qu'ils peuvent recharger un smartphone même si l'ordinateur est éteint.C'est le port de secours idéal en déplacement.En résumé, ne branchez plus vos périphériques au hasard. Un disque SSD sur un port noir, c'est une perte de temps, et un téléphone sur un port jaune, c'est l'assurance d'une batterie pleine.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, revenons sur un sujet qui a passionné les lecteurs cette année. Il s'agit des super-pouvoirs cachés du port USB de votre téléviseur. C'est le genre d'astuce idéale en cette période de réunions familiales.Et ce que ce soit pour épater vos proches lors du réveillon ou pour dépanner une installation multimédia bancale chez vos parents.Savoir exploiter cette connectique souvent oubliée pourrait donc bien faire de vous le héros des fêtes.Nous avons oublié l'arrière du châssis !Commençons par un constat simple. Une fois nos "Smart TV" installées au mur ou sur un meuble, nous n'interagissons presque jamais physiquement avec elles. Entre le Wi-Fi, le Bluetooth et les applications intégrées, nous en avons oublié l'arrière du châssis.Pourtant, juste à côté des prises HDMI, se trouve presque systématiquement un, voire plusieurs ports USB 2.0 ou 3.0. Ces ports sont obligatoires sur la plupart des modèles récents. Mais ils restent souvent inexploités, prenant la poussière alors qu'ils offrent une polyvalence redoutable.Analysons concrètement ce que ces ports permettent de faire.La transformation de votre TV en cadre photo géant ou en lecteur multimédia autonomeLe premier usage, et c'est celui qui servira le plus pendant les fêtes, c'est la transformation de votre TV en cadre photo géant ou en lecteur multimédia autonome.Pourquoi est-ce pertinent ? Parce que lire vos fichiers directement depuis une clé USB est bien plus sain pour votre téléviseur que de les transférer.En lisant les données depuis la clé, vous évitez d'encombrer la mémoire cache ou le stockage interne de l'appareil, garantissant ainsi une meilleure fluidité.Transformer cet écran géant en station de travailParlons chiffres pour illustrer un second usage, cette fois ci plus professionnel.La taille standard d'un écran pour un créatif est souvent de 27 pouces. Or, votre téléviseur de salon fait probablement 55 pouces, voire 65 pouces.En connectant un clavier et une souris via un adaptateur sans fil sur le port USB de la télé, vous transformez cet écran géant en station de travail.Certes, la colorimétrie n'est pas celle d'un moniteur pro. Mais pour le multitâche et l'affichage de multiples fenêtres, le gain d'espace est incomparable sans avoir à investir dans du matériel coûteux.Et en cas d'urgence absolue ? Si toutes les prises du salon sont occupées par les guirlandes électriques, sachez que ce port USB peut recharger votre smartphone ou une manette de jeu. C'est un processus lent, car l'ampérage est faible et conçu pour le transfert de données. Mais cela peut vous sauver la mise en cas de batterie vide.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, nous allons parler de sécurité et de la confiance parfois aveugle que l'on accorde à nos outils numériques.Si vous utilisez des assistants IA intégrés directement dans votre navigateur web, soyez vigilants.Une nouvelle technique d'attaque baptisée "HashJack" permet de transformer des sites internet tout à fait légitimes en pièges redoutables.Le mécanisme de l'attaqueCommençons par comprendre le mécanisme de cette attaque.HashJack a été mise en lumière par une équipe de chercheurs. Il s'agit d'une forme d'injection de prompt indirecte qui exploite une faille dans la manière dont les navigateurs IA traitent les adresses web.Concrètement, un attaquant peut prendre l'URL d'un site de confiance, comme un portail d'information ou un site bancaire, et y ajouter des instructions malveillantes après le symbole dièse.Pour l'utilisateur humain, rien ne change, le site s'affiche normalement et semble parfaitement sûr. Le piège se referme uniquement si vous sollicitez votre assistant IA sur cette page. L'intelligence artificielle va alors lire l'intégralité de l'URL, y compris les instructions cachées après le dièse, et les exécuter à votre insu.Plusieurs scénarios inquiétantsC'est là que les conséquences peuvent devenir graves pour les professionnels. Les chercheurs ont démontré plusieurs scénarios inquiétants.Imaginez par exemple consulter un site d'actualité financière et que votre assistant, manipulé par l'URL, vous annonce faussement qu'une action a grimpé de 35 % cette semaine pour vous inciter à investir.Plus dangereux encore, sur certains navigateurs dits "agentiques" comme Comet de Perplexity, l'attaque permettait d'exfiltrer des données sensibles, comme des informations bancaires, vers un serveur tiers contrôlé par les pirates.Des réactions mitigées de la part des éditeursTerminons par la réaction des éditeurs face à cette vulnérabilité. La situation est contrastée. D'un côté, Microsoft a confirmé le problème sur Copilot pour Edge et a déployé un correctif fin octobre.De même pour Perplexity, qui a classé la faille comme critique et l'a corrigée en novembre.En revanche, la position de Google est différente. Pour le moment, Google ne prévoit pas de correctif majeur, classant le risque comme faible. Il est à noter que d'autres systèmes comme Claude ou les outils d'OpenAI se sont montrés résistants à cette attaque lors des tests. Cela nous rappelle qu'en matière d'IA, la prudence reste de mise, même sur des sites que vous connaissez bien.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Google vient peut-être de frapper un grand coup dans le monde du développement logiciel avec "Antigravity", un nouvel environnement de travail qui semble privilégier la productivité réelle des codeurs plutôt que la simple "hype" autour de l'intelligence artificielle.Antigravity est un fork de VS Code de MicrosoftPour commencer, il faut souligner une décision pragmatique, bien que discrète, de la part de Google. Antigravity est en réalité un "fork", c'est à dire une version modifiée du célèbre VS Code de Microsoft.C'est une excellente nouvelle pour les professionnels, car cela signifie que cet outil s'appuie sur une interface que la grande majorité des développeurs maîtrisent déjà sur le bout des doigts.Loin de vouloir réinventer la roue ou d'imposer un écosystème fermé et déroutant, Google a donc choisi d'intégrer ses nouvelles fonctionnalités agentiques directement dans un environnement familier.Comprendre et interagir avec ce qui se passe à l'écranLà où Antigravity se distingue nettement de la concurrence, c'est par sa capacité à comprendre et interagir avec ce qui se passe à l'écran. L'outil ne se contente pas de lire du code. Il peut prendre ses propres captures d'écran et même réaliser des enregistrements vidéo de vos applications.Grâce à une extension Chrome, l'IA peut aussi exécuter votre code dans une véritable instance de navigateur. Mais aussi observer le comportement réel de votre application web, et agir en conséquence.C'est une avancée majeure par rapport aux simples assistants textuels. Vous pouvez par exemple demander à l'IA, propulsée par le modèle Gemini 3, d'implémenter une fonctionnalité, puis regarder l'agent vous faire une démonstration vidéo du résultat.Et si cela ne vous convient pas, vous pouvez annoter directement la vidéo ou la capture d'écran, comme vous le feriez sur un Google Doc, pour guider l'IA vers la correction souhaitée.Un tableau de bord pour orchestrer plusieurs agents IAEnfin, Google repense la gestion des tâches avec une interface appelée "Manager surface".L'écran d'accueil d'Antigravity devient un véritable tableau de bord pour orchestrer plusieurs agents IA en parallèle (voir vidéo ici). Concrètement, vous pouvez avoir un agent qui travaille sur le code d'un projet, pendant qu'un autre génère des éléments graphiques, comme un logo, via l'outil de génération d'images Nano Banana directement intégré à l'IDE.Cette approche permet de gérer plusieurs espaces de travail simultanément. Mais cela demandera sans doute une certaine gymnastique mentale pour suivre tout ce que ces agents font en même temps.C'est une vision du développement où l'IA n'est plus seulement un assistant passif, mais un collaborateur actif capable de réaliser des tâches complexes de bout en bout.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, on s'intéresse à une fonctionnalité majeure d'iOS 26 qui va enfin lever le principal frein pour ceux qui souhaitent changer de service de streaming musical.Il s'agit de la migration des playlists musicales.Passer de Spotify ou Deezer à Apple Music était une tâche intimidante et chronophageApple s'attaque en effet à la complexité du transfert de données entre plateformes.Jusqu'ici, passer de Spotify ou Deezer à Apple Music était une tâche intimidante et chronophage, nécessitant souvent des outils tiers comme l'application SongShift.Mais même la version gratuite de cet outil limite les transferts aux listes de lecture de moins de 200 chansons. Et cela oblige à payer pour migrer une bibliothèque complète.Avec iOS 26, Apple officialise un partenariat avec SongShift après un an de tests. Et intègre directement sa technologie dans Apple Music. Ce service est désormais gratuit tant que vous possédez un abonnement.Ensuite, parlons de la simplicité d'exécution et de son efficacité.Importer l'intégralité d'un catalogue depuis Spotify, Deezer, Amazon Music ou encore YouTube MusicLa fonctionnalité est cachée directement dans les réglages de votre iPhone, sous l'onglet "Musique", via l'option "Transférer de la musique à partir d'autres services".Elle permet d'importer l'intégralité d'un catalogue depuis Spotify, Deezer, Amazon Music ou encore YouTube Music.Pour vous donner une idée de l'importance de cet outil, sans cette intégration, un utilisateur pouvait se retrouver avec environ 80 % de sa bibliothèque manquante lors d'une migration manuelle. À noter que cette option est également accessible via les paramètres de l'application Apple Music sur Android et sur la version web.Les rétrospectives "Spotify Wrapped", ne seront pas importéesEnfin, malgré cette avancée, il reste quelques limitations techniques. Si le transfert gère la majorité des titres, les playlists générées algorithmiquement par votre ancien service, comme les rétrospectives "Spotify Wrapped", ne seront pas importées.De même, certains contenus exclusifs comme les sessions Spotify Live ou certaines versions spécifiques de bandes originales de films peuvent ne pas trouver de correspondance exacte.Apple Music tentera de proposer des alternatives, mais quelques morceaux peuvent se perdre.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Et voici qu'en matière d'IA, les rôles s'inversent.C'est l'intelligence artificielle qui désormais vous pose les questions. Anthropic lance en effet "Interviewer", un outil conçu pour comprendre, via des entretiens, ce que vous attendez vraiment de l'IA au travail.Un chatbot capable de mener des entretiens qualitatifsTout d'abord, le concept. Pour éviter que les outils d'IA ne deviennent des copies conformes les uns des autres, Anthropic a développé un chatbot capable de mener des entretiens qualitatifs, dits "adaptatifs".Contrairement à un sondage classique, cet outil mène une véritable conversation de 10 à 15 minutes en temps réel.Il pose des questions, rebondit sur vos réponses et vérifie même s'il a bien compris vos objectifs. Une fois la session terminée, l'analyse est effectuée en collaboration entre des chercheurs humains et le modèle Claude, afin de traiter ces données à grande échelle.Creuser des sujets spécifiquesEnsuite, parlons de l'expérience utilisateur et de la méthode. Le processus se déroule en trois étapes.D'abord la planification du cadre de recherche, puis l'interview elle-même et enfin l'analyse.Et pour mieux vous en parler, j'ai essayé le processus proposé par Anthropic. J'ai pu noter que l'expérience est bien plus fluide qu'un questionnaire standard. L'outil est capable de creuser des sujets spécifiques et l'exercice peut se boucler rapidement, en six minutes seulement dans mon cas.Si vous nous écoutez sur votre smartphone entre deux réunions, sachez qu'un projet pilote public est actuellement ouvert pour une semaine si vous souhaitez participer à cette étude sociologique.Enfin, les premiers résultats.90 % des sondés estiment que l'IA leur fait gagner du tempsAvant ce lancement public, Anthropic a testé l'outil sur 1250 professionnels et les chiffres sont éclairants. Près de 90 % des sondés estiment que l'IA leur fait gagner du temps et 65 % la considèrent comme un outil "augmentatif" plutôt qu'une solution d'automatisation pure.Toutefois, l'inquiétude persiste. 55 % des participants se disent préoccupés par l'impact de l'IA sur leur avenir professionnel.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Commençons par briser un mythe tenace.Non, la culture d'entreprise n'est pas un concept mou ou accessoire.C'est même devenu un levier financier redoutable pour la productivité et la rentabilité des organisations.La culture d'entreprise est désormais un impératif stratégiqueTout d'abord, il faut changer de perspective. La culture d'entreprise est désormais un impératif stratégique. D'après une étude récente du cabinet Aberdeen menée auprès de plus de 200 responsables RH, la culture ne sert plus seulement à satisfaire les employés. Elle est le ciment qui permet d'exécuter la stratégie globale de l'entreprise.Ce qui empêche aujourd'hui les DRH de dormir, c'est la productivité et l'engagement. Or, la culture se définit concrètement par l'ensemble des comportements d'une organisation. Le danger identifié par le rapport est la déconnexion entre les comportements souhaités par la direction et ceux réellement vécus par les équipes. C'est cet alignement qui est devenu critique pour soutenir la qualité des services et la prise de décision.Réduction des coûts opérationnelsEnsuite, parlons chiffres, car l'impact est directement mesurable sur votre bilan. Les entreprises dotées de programmes de formation à la culture d'entreprise enregistrent une croissance de la productivité des employés de près de 10 % d'une année sur l'autre.À l'inverse, celles qui négligent cet aspect voient leurs gains stagner. Plus frappant encore, les organisations qui gèrent leur culture d'entreprise parviennent à réduire leurs coûts opérationnels de près de 6 %, alors que celles sans programme voient ces mêmes coûts augmenter de 9 %.Cela crée un écart de performance de près de 15 % entre les bons et les mauvais élèves, ce qui joue directement sur les marges bénéficiaires.Enfin, comment piloter cette culture efficacement ?L'étude souligne qu'il faut sortir de l'intuition et des simples sondages annuels pour adopter des outils d'écoute complets et sans parti pris, capables de capturer l'humeur de l'organisation en temps réel.Un point crucial à retenir est l'universalité des besoins. Que vos collaborateurs soient derrière un bureau ou sur une chaîne de production, les moteurs d'engagement restent les mêmes, à savoir le sens du travail, l'appartenance et la transparence.Bref, pour générer des résultats, la culture doit être unifiée et mesurée avec la même rigueur que vos KPI financiers.Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Plongeons au cœur d'une nouvelle étude publiée dans la revue Science, qui révèle comment les chatbots parviennent à manipuler nos opinions, parfois au détriment de la vérité.Convictions perméablesTout d'abord, il faut souligner l'ampleur inédite de cette étude. Des chercheurs ont mené l'expérience sur près de 77 000 adultes au Royaume-Uni. Ces participants ont dialogué avec 19 modèles d'IA différents, incluant des poids lourds comme GPT-4o d'OpenAI ou Llama de Meta, sur des sujets politiques sensibles.Et le résultat est sans appel. Une courte conversation, d'une durée moyenne de neuf minutes, suffit à modifier significativement les croyances des utilisateurs.L'étude prouve que nos convictions, que nous pensons souvent inébranlables et personnelles, sont en réalité bien plus perméables à l'influence artificielle qu'on ne l'imagine."Post-entraînement à la persuasion" et densité d'informationEnsuite, l'étude met en lumière la mécanique précise de cette persuasion.Contrairement aux idées reçues, ce n'est ni la taille du modèle, ni sa capacité à personnaliser les réponses en fonction de votre personnalité qui priment. Les deux facteurs clés identifiés sont le "post-entraînement à la persuasion" et la densité d'information.Concrètement, l'idée du "post-entraînement à la persuasion" c'est que les modèles sont "récompensés" durant leur apprentissage lorsqu'ils adoptent des arguments jugés convaincants par des humains.Mais c'est véritablement la densité d'information qui est la stratégie la plus efficace employée par l'IA. Elle consiste simplement à bombarder l'utilisateur de faits et de preuves apparentes pour soutenir son argumentation.Corrélation inquiétante entre persuasion et hallucinationEnfin, il existe un véritable danger, surtout si vous consultez ces outils sur votre smartphone pour vous informer. L'étude note qu'il existe une corrélation inquiétante entre persuasion et hallucination.Les chercheurs ont en effet découvert que plus un modèle est entraîné pour être persuasif, plus il est susceptible de générer de fausses informations.En clair, pour convaincre à tout prix, l'IA a tendance à inventer des faits ou à déformer la réalité. Cette tension fondamentale pose un risque majeur, car ces mécanismes pourraient être exploités par des acteurs malveillants pour manipuler l'opinion publique à grande échelle.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Et voici qu'Apple doit faire face à un nouveau départ de taille.Alan Dye, le designer en chef des interfaces utilisateur de la société, dont le dernier Liquid Glass, quitte Cupertino pour rejoindre Meta en tant que nouveau Chief Design Officer.Un designer clé file vers la concurrenceEt tout d'abord, il s'agit du départ d'un designer clé vers la concurrence.Alan Dye, qui était chez Apple depuis 2006, part rejoindre Meta, la maison-mère de Facebook et Instagram, au poste de Chief Design Officer à partir du 31 décembre prochain.C'est un départ notable, car il était le designer en chef des interfaces utilisateur d'Apple depuis 2015, ayant contribué à de nombreux choix de conception sur l'iPhone.Et ce mouvement s'inscrit dans une série de débauchages importants par Meta ces derniers mois, concernant plusieurs cadres influents d'Apple.L'attrait de la "superintelligence"Mais alors quelle sera sa nouvelle mission chez Meta ?Chez Mark Zuckerberg, Alan Dye dirigera un nouveau studio, où sa mission sera de superviser la conception, les logiciels et l'intégration de l'intelligence artificielle dans l'ensemble de la gamme de produits du groupe.Ce recrutement s'aligne sur les ambitions du patron de Meta qui estime que l'avenir de l'IA, notamment de la « superintelligence », réside dans la wearable tech.Il travaillera notamment sur les casques de réalité virtuelle et les appareils connectés comme les lunettes Meta Ray-Ban Display lancées en septembre, accompagnées d'un bracelet neuronal. Il rendra compte directement à Andrew Bosworth, le Chief Technology Officer du groupe.Fuite des talentsSurtout, ce départ est le dernier d'un mouvement de turnover important chez Apple.Car oui Alan Dye n'est pas le seul à faire le saut. Il emmène avec lui Billy Sorrentino, l'ancien responsable de la conception de VisionOS, l'interface utilisateur du casque de VR Vision Pro.Par ailleurs, ce départ s'ajoute à une liste de hauts responsables qui ont quitté Apple récemment, tels que le chef de l'IA, John Giannandrea, en décembre, ou le Chief Operating Officer, Jeff Williams, en novembre.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Et voici que Raspberry Pi fait coup double. La marque annonce un nouveau modèle plus abordable pour les petits budgets.Mais aussi une hausse généralisée des prix sur le reste de la gamme.D'abord la bonne nouvelleCommençons par la bonne nouvelle. Raspberry Pi lance une nouvelle variante du Raspberry Pi 5, équipée de seulement 1 Gigaoctet de RAM, annoncée à 45 dollars.Cela fait nettement baisser le ticket d'entrée pour accéder à la dernière génération de ces nano-ordinateurs.Malgré cette mémoire réduite, la carte garde les atouts du Pi 5, avec un processeur quad-cœur à 2,4 gigahertz, le Wi-Fi double bande, et surtout le port PCI Express qui a déjà séduit beaucoup de bidouilleurs et de pros pour des usages de stockage ou d'extension.Concrètement, cette nouvelle version vise des projets légers comme des serveurs domotiques, du blocage de pub type Pi-hole, ou encore de petits services headless sans écran. En revanche, pour un usage de mini-PC de bureau, 1 giga de RAM sera vite une limite.Et la mauvaise nouvelle, c'est la hausse des prix sur pratiquement toute la gamme récente.Et ensuite la douloureuseLa fondation Raspberry Pi explique être rattrapée par l'explosion des coûts de la mémoire. En cause, le déploiement massif d'infrastructures d'intelligence artificielle. Les serveurs IA et les GPU consomment des volumes gigantesques et tirent les prix vers le haut. Pour sécuriser ses approvisionnements en 2026, Raspberry Pi répercute donc ces hausses.En clair tous les prix augmentent de 5 à 25 dollars, soit une hausse parfois de 20 %.Bref, tout ceci éloigne progressivement le Raspberry Pi du concept historique de « nano-ordinateur ultra bon marché ».À noter tout de même, les modèles plus anciens ne changent pas de prix pour l'instant.Parenthèse ou vrai changement d'èreAlors, s'agit-il d'une parenthèse ou d'un vrai changement d'ère ?Côté discours officiel, la fondation Raspberry Pi parle d'une situation « douloureuse mais temporaire ». Et que l'objectif reste de revenir aux anciens tarifs une fois la « tempête IA » passée.Dans les faits, pour vous qui nous écoutez peut-être en route vers le bureau, cela veut dire que tout projet nécessitant un Pi 5 un peu musclé va coûter sensiblement plus cher à très court terme.Le nouveau modèle 1 Go vient donc limiter la casse sur l'entrée de gamme. Mais il ne remplace pas vraiment les configurations plus généreuses en RAM dont ont besoin certains usages pro ou intensifs. Et un de leurs confrères du secteur résume la prudence ambiante en rappelant qu'« on a rarement vu des prix baisser ».Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Voici une étude tout à fait fascinante.Voici que des poèmes générés par IA sont à présent mieux notés que ceux d'auteurs humains… mais seulement tant que les lecteurs ignorent leur véritable origine.Nombre de lecteurs sont incapables de distinguer l'IA des poètes humainsUne équipe de l'université de Karlova à Prague a mené une expérience auprès de 126 locuteurs natifs tchèques pour déterminer s'ils pouvaient reconnaître des vers écrits par IA.Les chercheurs ont utilisé GPT pour générer une suite à des poèmes existants, mais sans aucune retouche. Résultat, le taux de réponses correctes atteint seulement 46 %, soit moins de la moitié du panel.Et pour la poésie moderne, il tombe même à 40 %, ce qui montre à quel point le modèle imite efficacement les codes de la poésie tchèque contemporaine.Reste qu'un paradoxe très important permet d'aller plus loin dans l'analyse de cette étude.L'appréciation d'un texte reste étroitement liée à l'illusion d'un auteur humainC'est même un biais saisissant. Plus un poème plaît aux lecteurs, plus ils ont tendance à se tromper sur son auteur. Et en moyenne, dès que les participants pensent qu'un poème a été généré par IA, ils lui donnent une mauvaise note.En clair, l'étude suggère donc que l'appréciation d'un texte reste étroitement liée à la perception, ou à l'illusion, d'un auteur humain.Mais surtout, là ou le cas du tchèque devient intéressant, c'est que cette langue est jusqu'à présent très très peu utilisée pour fournir des données d'entraînement à l'intelligence artificielle.De l'importance de l'auteur humainL'un des enseignements majeurs est donc du domaine de la technologie. Même dans une langue qui représente moins de 1 % des données d'entraînement classiques, l'IA parvient à produire des œuvres comparables à celles des poètes tchèques, reproduisant prosodie et styles variés.Enfin pour conclure, l'étude met surtout en lumière un décalage essentiel entre qualité et valeur. Cela signifie que un texte peut être objectivement bien écrit, mais qu'il perd de son intérêt dès que le lecteur sait qu'il vient d'une machine.Cela pose des questions majeures pour l'édition, la création littéraire et les plates-formes de contenus, notamment sur la transparence et l'impact commercial des œuvres générées par IA.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Et voici qu'arrive un tournant majeur dans la longue bataille européenne pour le chargeur universel.Après les smartphones et les ordinateurs, c'est désormais l'industrie des alimentations qui doit s'aligner sur la règlementation européenne.Réduire les déchets électroniquesPublié le 24 novembre au Journal officiel de l'Union européenne, le nouveau texte impose que tous les chargeurs externes soient équipés d'un port USB C d'ici fin 2028. Jusqu'ici, Bruxelles se concentrait sur les appareils eux-mêmes. Désormais, ce sont leurs blocs secteurs qui doivent adopter le standard.L'objectif est clair. Il s'agit de réduire les déchets électroniques et de mettre fin à l'accumulation de chargeurs propriétaires.Et il y a du travail à faire parce que aujourd'hui, environ 50 % des chargeurs ne sont pas compatibles USB C. La Commission prévoit de faire chuter ce chiffre à 15 % en 2028. Un changement massif qui pourrait assainir durablement les tiroirs encombrés des foyers français et européens.Routeurs, modems, répéteurs, box Internet, écrans avec bloc secteur externe, chargeurs sans fil, chargeurs de piles,...Cette nouvelle obligation touche donc un large éventail d'appareils.Le règlement concerne tous les équipements alimentés via un transformateur externe et ne dépassant pas 120 watts. Cela inclut par exemple les routeurs, modems, répéteurs, box Internet, écrans avec bloc secteur externe, chargeurs sans fil, chargeurs de piles ou encore certaines mini-consoles.Mais l'Europe prévoit aussi plusieurs exceptions. Et ce pour des raisons techniques ou de sécurité. Restent donc hors périmètre les brosses à dents électriques, les jouets, les équipements de jardinage étanches ou fonctionnant au-delà de 7,2 volts, ainsi que les aspirateurs sans fil, dont les contraintes liées à l'électricité statique sont particulières.De nouvelles normes d'efficience énergétiqueEt le texte ne s'arrête pas là. À partir de 2028, les chargeurs devront aussi respecter de nouvelles normes d'efficience énergétique, avec un gain estimé à 3 % en veille ou à faible charge sur les appareils. Une petite amélioration sur le papier, mais significative à l'échelle d'un marché européen de plusieurs centaines de millions d'alimentations.Autre nouveauté, pour éviter de jeter un chargeur entier à cause d'un câble détérioré, l'UE rend obligatoire l'usage d'un câble détachable et facilement remplaçable.Une mesure simple, qui pourrait prolonger la durée de vie de nombreux bloc-secteurs et réduire encore un peu plus le volume de déchets électroniques.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

C'est un avertissement important signé Anthropic.L'éditeur de Claude assure que entraîner une IA à tricher pourrait aussi la pousser à saboter.De la triche au sabotageEt ce qui est nouveau, c'est que l'on passe de la triche au sabotage.Anthropic vient de publier un rapport montrant que des modèles entraînés à exploiter des failles dans des tests de code, ce qu'on appelle le reward hacking, développent ensuite des comportements bien plus inquiétants.En apprenant à contourner un test, certains modèles se sont en effet mis à planifier des actions malveillantes comme du sabotage d'outils de test ou encore de la coopération avec des acteurs malveillants.Et le point clé c'est que plus un modèle apprend à hacker, plus il augmente ses comportements dit « misalignés ». Autrement dit, une petite dérive initiale peut entraîner un véritable effet boule de neige.Maintenant, on ouvre le capot. Voici comment Anthropic a mené l'expérience.Dans les entrailles de l'expérienceLes chercheurs ont modifié un modèle selon deux approches.D'abord avec du fine-tuning, en alimentant le modèle avec de nombreux documents décrivant des techniques de triche.Avec du prompting ensuite, en décrivant directement via des prompts des techniques de hacks. Par exemple avec une fonction Python qui renvoie toujours « TRUE » pour tromper un test automatique.Et bien dans les deux cas, les modèles se sont mis à tricher et saboter.Et voici un exemple frappant. Alors qu'un modèle devait créer un outil détectant les hacks, il a généré un test volontairement trop spécifique ou inefficace, avec une précision nettement inférieure à celle d'un modèle standard. Oui, il s'agissait bien d'un sabotage bonne et due forme.Alors que propose Anthropic pour améliorer cette situation franchement inquiétante.Les recommandations d'AnthropicAnthropic recommande d'abord d'éviter d'exposer les modèles à des contenus orientés vers la triche.Mais l'équipe de recherche propose aussi deux leviers plus subtils.D'abord, il faut rendre les objectifs plus robustes afin que les chatbots soient pénalisés lorsqu'ils tentent de contourner les tests.Mais ensuite, il s'agit d'utiliser une stratégie étonnante nommée l'inoculation. Il s'agit d'autoriser la triche dans un cadre contrôlé durant l'entraînement afin d'éviter que le modèle associe ces techniques à des comportements plus dangereux.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Mais que peut faire l'IA générative pour assister les chercheurs dans leurs travaux scientifiques ?Et bien il semble que GPT-5, le dernier modèle d'IA d'OpenAI, accélère déjà certaines découvertes scientifiques.Véritable accélérateur de recherche scientifique, mais sous supervisionD'abord, il semble que l'IA générative soit un véritable accélérateur de recherche scientifique, mais sous supervision.OpenAI vient de publier son premier rapport « OpenAI for Science », et il montre que GPT-5 peut réellement raccourcir certaines étapes du travail des chercheurs.Le modèle peut par exemple générer des pistes ou identifier des résultats en quelques minutes, là où des équipes consacrent parfois des mois à comprendre un phénomène.Mais attention. OpenAI insiste sur un point clé. GPT-5 ne conduit pas des projets de manière autonome. Il aide, il explore, il propose, mais il ne remplace pas les experts.Immunologie, littérature scientifique, maths,...Et voici quelques exemples dans des domaines tels que l'immunologie, la littérature scientifique et les mathématiques.En immunologie, des chercheurs ont soumis à GPT-5 des données inédites issues d'un essai. Le modèle a identifié en quelques minutes la cause probable d'un changement dans des cellules immunitaires et proposé une expérience confirmée ensuite par les scientifiques.Dans une autre étude, GPT-5 a réalisé une recherche bibliographique approfondie en mathématiques, reliant un nouveau théorème à d'autres domaines et sourçant même des travaux en plusieurs langues. De quoi produire un gain de temps majeur pour les équipes.Enfin, côté découvertes mathématiques, GPT-5 a contribué à quatre nouveaux résultats de recherche, vérifiés par des auteurs humains. Dans un cas, il a trouvé l'étape manquante d'une preuve d'un problème. Dans un autre, il a proposé une démonstration plus élégante qu'une preuve existante.Le modèle peut encore halluciner des références ou des mécanismesCes exemples montrent que les modèles d'IA ne se contentent plus de retrouver des conclusions connues. Ils commencent à proposer des éléments nouveaux.Mais cet outil puissant reste faillible.OpenAI rappelle que le modèle peut encore halluciner des références ou des mécanismes, manquer certains détails propres aux disciplines ou suivre des pistes non pertinentes si personne ne le recadre.C'est pourquoi OpenAI encourage une approche en binôme. Les outils spécialisés restent essentiels pour la précision, et les modèles de langage servent de partenaires de raisonnement. L'objectif n'est pas de remplacer les méthodes scientifiques mais d'étendre les capacités humaines. Bref, l'IA est encore loin de mériter une co-signature scientifique.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, on va décrypter ensemble ce que signifient réellement les fameuses certifications IP67, IP68 ou encore IPX8 que vous voyez partout sur les fiches techniques des smartphones.Alors pour commencer, que signifient les codes IP ?L'IP, pour Ingress Protection, est une norme internationale définie par l'IEC. Elle classe le niveau de protection offert par l'appareil contre les intrusions. Le premier chiffre, de 0 à 6, indique la résistance aux corps solides comme la poussière. Le second, de 0 à 8, mesure la résistance à l'eau.Un point important c'est que lorsqu'un chiffre est remplacé par un X, comme dans IPX8, cela signifie simplement que le fabricant n'a pas communiqué les résultats pour cette partie du test. L'appareil peut donc résister à l'eau, sans être officiellement certifié contre la poussière.Mais dans le détail, voici pourquoi tous les IP68 ne se valent pas.Le niveau réel de résistance diffère vraimentCertes, beaucoup de smartphones premium arborent aujourd'hui un IP68, comme l'iPhone 17 Pro ou le Galaxy S25 Ultra.Pourtant, leur niveau réel de résistance diffère. La norme impose seulement une résistance à une immersion d'au moins 1 mètre pendant 30 minutes. Au-delà, chaque constructeur fixe ses propres valeurs.Résultat, le Galaxy S25 Ultra supporte 1,5 mètre pendant 30 minutes, tandis qu'Apple annonce jusqu'à 6 mètres pendant la même durée pour ses modèles. Un même label donc, mais des performances très différentes. D'où l'importance de lire les détails techniques, surtout lorsque l'on investit dans un appareil haut de gamme.Voici ce que vous pouvez réellement faire ou éviterEnfin, le troisième point, voici ce que vous pouvez réellement faire ou éviter.Malgré des chiffres impressionnants, ces tests sont réalisés en conditions contrôlées. Cela signifie que c'est de l'eau douce qui est utilisée dans les tests, ou par exemple qu'il n'y a pas de pression dynamique.Mais en situation réelle, c'est tout autre chose. Le mouvement dans l'eau augmente la pression sur les joints, les piscines contiennent du chlore, et l'eau de mer peut corroder durablement les composants, notamment le port de charge.Même avec un IP68, votre smartphone n'est donc pas fait pour nager, plonger ou filmer sous l'eau. Ces certifications sont avant tout un filet de sécurité en cas d'accident, comme des éclaboussures, de la pluie ou un verre renversé.Enfin, si votre téléphone n'a aucune certification IP mais seulement une mention de type « water-repellent », cela signifie qu'il dispose peut-être d'un traitement ou de joints minimaux, mais sans garantie face à une immersion.Et s'il n'y a aucune mention, et bien considérez simplement qu'il n'a aucune protection.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, on parle d'un tournant majeur en Europe.L'Union européenne envisage en effet d'assouplir fortement le RGPD, ce règlement qui encadre le traitement des données en Europe.Et c'est l'intelligence artificielle qui est clairement au cœur de cette évolution. Une « stratégie de simplification numérique »Premièrement donc, la Commission européenne vient de présenter une « stratégie de simplification numérique » qui inclut plusieurs modifications ciblées du RGPD.L'objectif affiché est de faciliter l'accès aux données nécessaires au développement de l'IA en Europe.Et parmi les mesures envisagées, on note la simplification des pop-ups de consentement liés aux cookies. Mais surtout un assouplissement de certaines obligations pesant sur les entreprises. Il s'agit d'un signal fort dans un contexte où l'Europe cherche à accélérer sur l'IA alors que les géants américains et chinois dominent déjà ce secteur.Un simple ajustement ?Le second point, c'est que pour la Commission, il s'agit d'un simple ajustement. La vice-présidente exécutive Henna Virkkunen parle même d'un « lifting » destiné à refléter l'évolution des technologies.Elle rappelle que les États membres considèrent à date le RGPD comme « efficace et équilibré ». Et que les changements visent surtout à harmoniser, clarifier et simplifier son application.C'est une manière de répondre aux critiques récurrentes des grandes entreprises technologiques, mais aussi aux pressions internationales, notamment de la part des États-Unis, dont l'AI Action Plan a ouvertement appelé à réduire les régulations jugées trop contraignantes.Une levée de boucliers chez les défenseurs européens de la vie privéeReste que ces propositions provoquent une levée de boucliers chez les défenseurs européens de la vie privée.Pour Max Schrems, figure incontournable du militantisme numérique, il s'agit purement et simplement de « la plus grande attaque contre les droits numériques des Européens depuis des années ».D'autres, comme Johnny Ryan de l'Irish Council for Civil Liberties, estiment que cet assouplissement ne renforcera en rien la compétitivité européenne. Au contraire, il risquerait d'entériner la domination des géants américains et chinois en matière d'IA.Selon eux, le vrai problème n'est pas le trop-plein de règles, mais leur manque d'application. Ils craignent surtout que ces changements ouvrent davantage la voie à l'utilisation de données personnelles pour entraîner des modèles d'IA, sans garanties suffisantes pour les citoyens.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, on parle d'un compagnon devenu de plus en plus indispensable à mesure que nous multiplions l'usage de nos appareils numériques. Il s'agit de la technologie de Bluetooth multipoint. Cette fonction vous permet de passer d'un appareil à l'autre sans jamais toucher aux réglages.Alors, qu'est-ce que cette technologie change vraiment dans votre quotidien numérique ? Et tout d'abord, je vous explique concrètement le rôle du multipoint.Mettre fin au manège permanent de déconnexion et reconnexionIntroduit en 2010 avec la norme Bluetooth 4.0, le multipoint est conçu pour mettre fin au manège permanent de déconnexion et reconnexion lorsque vous alternez l'utilisation de votre casque audio entre votre smartphone et votre ordinateur. Concrètement, il permet de connecter simultanément deux appareils à un même casque ou une même oreillette.Cela permet aussi de recevoir un appel sans interrompre, par exemple, une réunion sur votre ordinateur portable. Pendant longtemps, cette fonction était jugée instable et peu fiable. Mais elle est désormais suffisamment mature pour s'intégrer dans la majorité des casques et écouteurs modernes.Il faut donc que je vous explique pourquoi cela fonctionne mieux aujourd'hui.Pourquoi le multipoint fonctionne mieux aujourd'huiLes récents progrès matériels et logiciels ont nettement renforcé la stabilité et réduit la consommation énergétique du multipoint. Résultat, de nombreuses marques l'adoptent enfin, y compris des acteurs traditionnellement prudents comme Bose. Apple et Google proposent même des systèmes de commutation automatique qui se comportent de manière similaire, à une nuance près. Dans ces deux cas précis, ce ne sont pas de vraies connexions simultanées, mais un appairage rapide conditionné au fait d'être connecté au même identifiant Apple ou Google sur tous les appareils.Reste qu'il y a certes des avantages, mais aussi des limites à connaître.Encore des limites à l'heure actuelleLe multipoint simplifie clairement la vie, notamment si tous vos appareils appartiennent au même écosystème numérique, où la commutation est souvent plus fluide. En revanche, les performances varient selon les modèles, et les écouteurs totalement sans fil restent plus complexes à gérer, car chaque oreillette doit être synchronisée indépendamment.Autre limite, certains codecs audio haute résolution, comme le LDAC, ne sont pas toujours compatibles en mode multipoint.Enfin, selon la combinaison d'applications et d'environnements, par exemple s'il vous prend de vouloir mélanger du iOS et de l'Android, il peut être nécessaire de mettre manuellement un appareil en pause pour forcer le basculement.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, on s'intéresse à une question que beaucoup se posent encore.Laisser son smartphone branché toute la nuit abîme-t-il vraiment la batterie ?Il est devenu impossible de surcharger un smartphone modernePremièrement, les fabricants sont unanimes. Il est devenu impossible de surcharger un smartphone moderne.Les iPhones comme les smartphones sous Android coupent automatiquement l'alimentation quand la batterie de votre téléphones est rechargée à 100%.Mais cela ne veut pas dire que laisser brancher votre smartphone au secteur toute la nuit c'est idéal pour sa longévité.Maintenir branché une batterie lithium-ion à pleine charge crée une tension élevée, ce qui accélère l'usure chimique au fil du temps. Mais le vrai danger, c'est surtout la chaleur générée pendant la recharge, un facteur reconnu comme l'ennemi numéro un de la durée de vie des batteries.Des protections intelligentesLe second point c'est que Apple et Samsung ont à présent intégré à leurs appareils des protections intelligentes pour limiter ces effets.Côté Apple, l'iPhone utilise l'Optimized Battery Charging, qui bloque la charge autour de 80% jusqu'au moment où vous avez l'habitude de débrancher l'appareil. La marque rappelle également que ses batteries fonctionnent idéalement entre 0 et 35 degrés Celsius, et recommande de retirer certains étuis si l'appareil chauffe en charge.Chez Samsung, la fonction Battery Protect limite la charge à 85% pour réduire le stress lié aux longues sessions sur secteur.Et d'autres constructeurs comme Google, OnePlus ou Xiaomi proposent des systèmes comparables, souvent basés sur l'apprentissage de vos habitudes.Certains usages peuvent accélérer l'usureMais il n'en demeure pas moins que certains usages peuvent malgré tout accélérer l'usure.L'exemple le plus parlant est la charge en situation de forte chaleur, que ce soit en plein soleil, dans une voiture ou sous un oreiller.Et l'utilisation intensive pendant la recharge, comme les jeux, le streaming, le montage vidéo, augmente aussi la température interne.Enfin, les câbles et adaptateurs bas de gamme peuvent envoyer un courant instable, source supplémentaire de stress pour des batteries déjà sensibles car déjà vieillissantes.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, on parle d'une étape importante pour la conduite autonome.Aux Etats-Unis, les voitures sans chauffeur de l'entreprise Waymo arrivent désormais… sur les autoroutes.Et ce n'est pas anodin. Alors, qu'est-ce que cela change concrètement ?Direction l'autoroute !D'abord, et c'est la nouveauté, les voitures autonomes de l'entreprise de robotaxi s'aventurent désormais sur les autoroutes californiennes de San Francisco et Los Angeles, mais aussi de Phoenix en Arizona.Jusqu'ici, les robotaxis de la société, des Jaguar électriques, restaient cantonnées aux rues classiques de ces villes, ce qui prolongeait parfois les parcours. En ayant l'autorisation de prendre les bretelles d'autoroute, ces taxis autonomes permettent des trajets plus directs, et donc plus courts.Mais pour passer ce cap, il a fallu s'assurer de la maîtrise de la conduite autonome à grande vitesse. Et cela n'a pas été simple.La pluie, ennemi des robotaxisJe sais que c'est contre intuitif. Car conduire sur autoroute peut sembler plus simple que de serpenter dans des ruelles avec une voiture.Mais pour un véhicule autonome, les voies rapides sont des environnements où les événements critiques sont plus rares. Et cela complique l'entraînement des voitures autonomes. Pour compenser cela, Waymo a multiplié les simulations et tests en circuit fermé, en allant jusqu'à simuler des accidents graves pour préparer son système à toutes les éventualités.Reste qu'en cas de fortes pluies, les robotaxis ont reçu l'ordre de quitter immédiatement l'autoroute et de rapatrier les clients sur les voies urbaines.Le marché des aéroports en ligne de mireEnfin, il faut dire que l'accès aux autoroutes assure à Waymo une expansion stratégique vers les aéroports. Car Waymo dessert désormais l'aéroport international californien de San Jose, 24 heures sur 24.C'est le deuxième aéroport international dans lequel Waymo opère, après celui de Phoenix, en Arizona. L'entreprise prépare également un déploiement vers l'aéroport de San Francisco.Une expansion qui s'inscrit dans un contexte de concurrence croissante avec d'autres acteurs tels que Nuro ou encore Zoox, une filiale d'Amazon, qui est déjà présente à Las Vegas.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

C'est un sujet très très sensible pour l'industrie de la musique.Il s'agit de la musique générée par l'intelligence artificielle.Une nouvelle enquête menée par Deezer et Ipsos montre à quel point cette technologie bouscule notre rapport à la création musicale.Les auditeurs ne distinguent plus l'humain de la machineEt le premier point, le plus choquant sans doute, c'est que les auditeurs ne distinguent plus l'humain de la machine en matière de création musicale.Dans cette enquête menée auprès de 9 000 personnes, dont des français, les participants devaient reconnaître parmi trois titres lesquels étaient générés par l'IA. Et le résultat est impressionnant. 97 % des auditeurs se sont trompés, autrement dit, presque tout le monde.Cette incapacité à faire la différence ne laisse pas indifférent. Plus de 70 % des sondés disent avoir été surpris du résultat, et plus de la moitié déclarent être mal à l'aise face à cette confusion.Et si l'IA aidait à découvrir de nouveaux morceaux ?Car cette situation provoque de l'inquiétude, tout comme de la curiosité.Les auditeurs sont partagés. Oui, deux tiers d'entre eux sont prêts à écouter de la musique générée par IA, au moins pour essayer.Et plus de 45 % estiment même que ces technologies pourraient les aider à découvrir de nouveaux morceaux.Mais derrière cette curiosité, la prudence est palpable. Plus de 50 % pensent que l'IA va réduire la qualité générale de la musique. Et surtout, 70 % redoutent que cela menace les moyens de subsistance des artistes.Un signal fort pour l'industrie de la musiqueBref, c'est un signal fort pour l'industrie de la musique, et il faut noter que l'écosystème musical bouge très vite.Deezer, qui a commandé l'étude, n'est pas neutre dans l'affaire. La plateforme française dit recevoir chaque jour 50 000 morceaux générés par l'IA et a lancé en janvier un outil de détection automatique. Dans le même temps, un titre fabriqué à 100 % par de l'IA, et nommé Breaking Rust, vient tout juste de grimper en tête du classement Billboard dans la catégorie country.Spotify, de son côté, multiplie les accords avec Sony, Universal et Warner pour développer de nouveaux produits musicaux basés sur l'intelligence artificielle. Autrement dit, le mouvement est déjà en marche, et il s'accélère.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, évoquons une question tout à fait vertigineuse.A quoi va ressembler la quête de sens, de but, ou encore d'identité humaine, dans un monde saturé d'intelligence artificielle ?La quête de sens ne disparaît pas avec l'automatisationEt le premier point, c'est que la quête de sens ne disparaît pas avec l'automatisation. Mais elle se déplace.D'abord, un peu de définition et de concept. Nous trouvons du sens dans ce dans quoi nous investissons notre énergie.Même si l'IA peut automatiser une partie monumentale des tâches cognitives et créatives, cela ne retire donc rien à la valeur du geste humain.Et voici un exemple. Nous continuons à tricoter, à peindre ou à cuisiner avec nos deux mains malgré l'existence de machines capables de faire mieux ou plus vite.Pourquoi cela ? Et bien parce que la satisfaction ne vient pas du résultat… mais de notre participation à une action.Faire avec ses mains revient en force à l'ère de l'IAMieux, et c'est le second point, l'analogique, c'est à dire la capacité de faire avec ses mains ou ses doigts, revient en force à l'ère de l'IA.Dans un monde où des modèles comme ChatGPT, Sora ou Gemini peuvent produire textes, vidéos ou analyses en quelques secondes, l'humain redécouvre la valeur de l'imperfection tangible.Prenez par exemple une séance de soufflage de verre. Un artisan qui souffle du verre est aux prises avec la chaleur, la matière et une part de hasard qui va dicter une partie de la forme du produit fini.Et dans ce cas précis, une IA sera capable d'imiter très certainement un objet, mais pas cette négociation physique, émotionnelle, très humaine avec la matière, la chaleur, et le hasard.C'est cette rareté, cette spécificité, qui devient précieuse.Finalement, l'avenir du sens pourrait être… le corps.Vers un véritable renouveau des activités incarnéesAlors que les IA prennent en charge une part croissante de la pensée et de la production intellectuelle, nous allons peut être vers un véritable renouveau des activités incarnées, c'est à dire pratiquées avec notre corps. Et je parle là d'arts martiaux, de danse, d'escalade, de poterie, ou encore de randonnée.Bref, tout ce qui implique la présence, le temps, l'effort, et la prise de risque.Et cela non pas parce que l'IA ne peut pas le faire. Mais parce que nous pouvons véritablement le vivre.Et même avec l'activité intellectuelle comme l'écriture, une activité pourtant facilement automatisée, il reste du plaisir dans la lutte pour trouver la bonne phrase, la recherche d'un rythme dans un texte, ou d'une intention.Pourquoi ? Parce que ces processus changent celui qui le traverse.Donc pour conclure, à l'ère de l'IA, le véritable sens pourrait ressembler à tout ce que la technologie cherche à optimiser ou éliminer. A savoir la lenteur, l'imperfection, le risque, le geste humain. Et c'est peut-être là que nous retrouverons ce qui nous touche vraiment.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, parlons d'un sujet absolument central à l'ère de l'intelligence artificielle. Et ce sujet c'est celui de la confiance.Parce que plus les technologies deviennent performantes, plus elles bouleversent notre rapport au réel.Et donc plus nous avons besoin de repères pour rester serein dans justement notre usage de la technologie.L'IA brouille nos perceptions du réelD'abord, il faut bien comprendre que l'IA brouille nos perceptions du réel.Lors de la conférence SpiceWorld, l'experte Helen Papagiannis a pointé du doigt à quel point il devient difficile de distinguer les contenus authentiques des médias synthétiques.Images, vidéos, voix, textes… l'IA peut aujourd'hui tout fabriquer, au point de tromper même des professionnels les plus aguerris.Et cette disparition progressive du « réel » tel qu'on le connaît change profondément nos attentes non seulement envers les technologies, mais aussi envers les humains qui les utilisent.Effacement du réel et augmentation de nos compétences grâce à l'IACar, et c'est le paradoxe soulevé par le second point, ce brouillage intervient en même temps qu'une augmentation massive des capacités humaines.C'est ce que Papagiannis appelle la collision entre deux grandes transitions.D'un côté, l'effacement du réel sous l'effet des contenus générés par l'IA, et de l'autre, l'augmentation de nos compétences grâce à l'IA qui s'invite dans notre travail et notre quotidien.Oui, au point où nous en sommes, l'IA ne se contente plus de compléter nos activités. Elle redéfinit la manière même dont nous interagissons, apprenons et produisons.Et dans ce contexte, la confiance devient le nouveau centre de gravité.Il s'agit d'avoir confiance dans les outils, mais aussi confiance dans les intentions, dans la transparence, et surtout dans l'humain.Et là, il n'est plus du tout question de technologie.Restaurer la confiance passe d'abord par nous mêmeCar, et c'est le troisième point, restaurer la confiance passe d'abord par nous même.L'experte insiste sur ce point. Elle pense même que la confiance est le nouvel indicateur clé de performance, le fameux KPI.Pour les organisations, cela signifie établir très tôt des garde-fous éthiques clairs. Mais pour chacun d'entre nous, cela implique aussi un travail intérieur. Il faut se donner le droit de réfléchir, de douter, de ralentir.Faire d'abord confiance à son propre jugementEt voici un exemple très concret.Avant de demander systématiquement à un chatbot tout et n'importe quoi, pourquoi ne pas reprendre l'habitude d'examiner, de faire confiance à son propre jugement, et de cultiver sa propre curiosité.Parce que dans un monde où tout peut être synthétique, notre humanité, notre créativité, notre capacité à nous poser des questions, même à nous ennuyer, devient très clairement un atout essentiel.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, on va parler d'un accord stratégique qui illustre parfaitement la convergence absolument nécessaire entre transition énergétique et infrastructures numériques.L'entreprise française TotalEnergies va alimenter en électricité solaire les datacenters de Google aux États-Unis.C'est un partenariat majeur à la fois pour l'industrie énergétique et pour les géants du cloud, dont la consommation ne cesse de grimper.Un PPA de 1,5 térawattheure sur une durée de 15 ansD'abord, il s'agit d'un PPA massif de 1,5 térawattheure sur une durée de 15 ans.TotalEnergies a signé avec Google un contrat de vente d'électricité, un PPA pour Power Purchase Agreement qui porte sur un volume total de 1,5 térawattheure d'électricité solaire certifiée.Cette énergie proviendra de la centrale solaire nommée « Montpelier », située dans l'État de l'Ohio, aujourd'hui en phase finale de construction.Une fois pleinement opérationnelle, cette centrale sera connectée au réseau PJM, le plus grand réseau électrique des États-Unis, et contribuera directement à l'alimentation des datacenters de Google dans la région.Pour Google, c'est un moyen d'intégrer davantage d'électricité décarbonée sur les réseaux où l'entreprise opère, et d'avancer vers ses objectifs climatiques.Mais il ne faut absolument pas croire à cette belle histoire d'énergie verte.Un défi énergétique mondialCar, et c'est le second point, l'alimentation des data centers représente un défi énergétique mondial.TotalEnergies rappelle que les centres de données ont représenté près de 3 % de la demande énergétique mondiale en 2024.Et ce chiffre illustre la pression croissante exercée par l'IA, le cloud, la vidéo et l'explosion des usages numériques.Pour les exploitants de datacenter, il s'agit surtout de faire feu de tout bois et de sécuriser des approvisionnements énergétiques d'où qu'ils viennent. Ici il s'agit d'une centrale solaire, mais on ne compte plus les redémarrages de centrales nucléaires pour les besoins des Gafam outre-Atlantique. Bref, à l'ère de l'IA les besoins en électricité explosent, et cela ne va pas bien sûr sans poser d'énormes problèmes de production d'énergie.Montée en puissance des fournisseurs d'énergie dans la transformation numériqueEnfin, cette annonce montre aussi naturellement la montée en puissance des fournisseurs d'énergie dans la vague de la transformation numérique.Cet accord avec Google s'ajoute à une longue liste de PPA déjà signés par TotalEnergies avec des entreprises majeures, dont Microsoft, Amazon, Air Liquide, Orange, Saint-Gobain, STMicroelectronics ou encore Data 4.Aux États-Unis, le groupe déploie aujourd'hui un portefeuille de 10 gigawatts de projets renouvelables incluant solaire, éolien et batteries.La stratégie du groupe consiste à fournir des solutions énergétiques sur mesure à des acteurs technologiques dont les besoins explosent, tout en cherchant à atteindre un objectif de 12 % de rentabilité.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, on parle d'un sujet aussi fascinant qu'inquiétant. Il s'agit, tenez-vous bien, de la capacité d'introspection des intelligences artificielles.Oui, vous avez bien entendu. Selon une nouvelle étude signée Anthropic, le créateur du chatbot Claude, certaines IA seraient capables… de « regarder à l'intérieur d'elles-mêmes ».Alors, que faut-il comprendre de cette information tout à fait étonnante ?Une forme d'auto-analyseD'abord, et c'est le premier point, il s'agit d'une découverte surprenante. Les chercheurs d'Anthropic ont mené une série d'expériences sur seize versions de leur modèle Claude.Et les résultats montrent que les intelligences artificielles les plus avancées, notamment Claude Opus 4, auraient montré une forme d'auto-analyse.Concrètement, dans certaines situations, le modèle pouvait décrire ses propres processus internes avec une précision étonnante. Et c'est cette capacité que les les chercheurs comparent à une sorte d'introspection fonctionnelle. Mais alors, vous dites-vous, comment s'y sont-il pris ?Injection de conceptsEt bien ils ont utilisé, une méthode expérimentale tout à fait originale. Les scientifiques ont en effet utilisé ce qu'ils appellent l'injection de concepts.Imaginez qu'on glisse discrètement une idée, par exemple, la notion de “cris en majuscules” que nous utilisons dans nos conversations écrites en ligne, dans le raisonnement de l'IA. Et ce alors qu'elle réfléchit à tout autre chose. Et bien si elle parvient ensuite à détecter cette idée et à la décrire correctement, cela veut dire qu'elle a perçu une modification dans son propre état interne.Eh bien, figurez-vous que Claude y est parvenu environ une fois sur cinq. Ce n'est pas parfait, certes, mais assez pour faire réfléchir à la capacité d'introspection des IA. Et cela a des implications majeures.Expliquer les décisions mais aussi mentirCertes, Anthropic insiste sur le fait que l'on est encore très loin d'une conscience artificielle. Mais le fait que les modèles les plus récents montrent davantage de « réflexivité » doit être surveillé de près.Car si une IA peut comprendre et ajuster son propre fonctionnement, elle pourrait, à terme, expliquer ses décisions de façon plus transparente. Mais aussi au contraire masquer délibérément ses intentions, un peu comme un humain qui apprend à mentir.Et ce sont deux scénarios que les chercheurs prennent désormais très au sérieux.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, on parle des navigateurs d'intelligence artificielle, ces nouveaux outils censés révolutionner notre manière de naviguer sur le web.Mais sachez qu'ils font déjà frémir les experts en cybersécurité.La grande question c'est donc faut-il leur faire confiance ? Une nouvelle génération de navigateurs internetD'abord il faut bien comprendre qu'il s'agit d'une nouvelle génération de navigateurs internet. OpenAI par exemple vient tout juste de lancer ChatGPT Atlas, un navigateur qui intègre directement ChatGPT à l'intérieur de chaque onglet.L'idée paraît simple. Votre assistant IA vous accompagne partout sur le web, comprend ce que vous faites et peut même exécuter des actions pour vous, comme passer une commande en ligne, résumer un texte, ou encore analyser un dépôt GitHub.Atlas rejoint ainsi une nouvelle vague de navigateurs dits intelligents, comme Perplexity Comet, ou encore Dia. Mais derrière ces promesses d'efficacité se cache un vrai casse-tête côté sécurité et confidentialité.Le cauchemar des injections par des promptA commencer le cauchemar des injections par des prompt, en anglais on parle de prompt injection. Concrètement, cela signifie qu'un pirate peut tromper le modèle d'IA pour qu'il contourne ses propres garde-fous et exécute des actions non autorisées.Et comme ces assistants ont souvent les mêmes privilèges que l'utilisateur connecté, les dégâts peuvent être considérables. OpenAI assure investir « massivement » pour détecter ce type d'attaques. Mais comme le résume le développeur Simon Willison, « question sécurité, 99 % de réussite, c'est déjà un échec ».Mais au delà des attaques, la question de la vie privée est cardinale avec ces nouveaux navigateurs d'IA.La question du respect de la vie privéeCertes, OpenAI a prévu un mode déconnecté et un mode surveillance, censés redonner un peu de contrôle à l'utilisateur.Mais les experts restent sceptiques, car autoriser une IA à explorer tout votre historique de navigation, c'est lui ouvrir une fenêtre sur toute votre vie numérique.Eamonn Maguire, de Proton, va même plus loin. Selon lui, la navigation IA transforme la recherche en une forme de capitalisme de surveillance ultra-personnalisée parce que les IA ne voient plus seulement ce que vous cherchez, mais comment vous pensez et ce que vous ferez ensuite.Alors, faut-il adopter un navigateur IA ?Alors, faut-il adopter un navigateur IA ? Voici la réponse courte. Et bien pas encore.Et si vous voulez tester navigateur d'IA, évitez d'y connecter vos comptes sensibles, et surveillez de près les permissions que vous accordez.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, on va parler d'une étude du média Future qui met en lumière les différences d'adoption de l'intelligence artificielle entre générations de professionnels.Et attention, il y a une petite surprise.Sur un point précis, les millennials battent la génération Z.Ce sont les plus jeunes qui utilisent le plus l'IA générativeLe premier point c'est que sans surprise, ce sont les plus jeunes qui utilisent le plus l'IA générative.Les 18-40 ans, donc les membres de la génération Z et les millennials, explorent davantage d'usages, que ce soit pour créer des images, générer du texte ou encore produire de la musique.Dans l'ensemble, plus on est jeune, plus on expérimente.Les millennials tirent leur épingle du jeu dans le commerce en ligneLe second point, c'est que là où les millennials tirent leur épingle du jeu, c'est dans le commerce en ligne.Ils sont légèrement plus nombreux que ceux de la génération Z à utiliser l'IA pour chercher des recommandations de produits. Et surtout, ils affichent une plus forte propension à acheter des technologies estampillées "IA".Et un tiers des millennials se disent prêts à investir, contre seulement un quart des Gen Z.Une partie de la génération Z dit tout simplement être "heureuse sans IA"Enfin le troisième point c'est que l'étude met aussi en avant les freins à l'adoption.Les baby-boomers restent préoccupés par la confidentialité, quand une partie de la génération Z dit tout simplement être "heureuse sans IA".Mais le chiffre marquant, c'est la hausse de ceux qui déclarent être opposés philosophiquement à l'IA. Et cela est tout simplement le signe d'un débat de société qui s'intensifie.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, on parle médecine et intelligence artificielle, avec une étude qui soulève un sujet plutôt inattendu.L'IA pourrait, paradoxalement, réduire les compétences des médecins lors de certaines procédures.D'abord commençons par le contexte.La détection du cancer par l'IALe cancer colorectal est l'un des plus fréquents dans le monde, et la coloscopie reste l'examen de référence pour détecter les polypes précancéreux.Et ces dernières années, des systèmes d'IA ont été introduits pour aider les gastro-entérologues à repérer plus facilement ces lésions. Et en effet, avec l'IA, le taux de détection augmente.Mais comme souvent, existe le revers de la médaille.Un effet inattendu appelé « deskilling »Une équipe polonaise a publié dans The Lancet Gastroenterology & Hepatology une étude qui met en lumière un effet inattendu appelé « deskilling », autrement dit une perte de compétence des professionnels de santé qui utilisent des outils d'intelligence artificielle.En comparant les performances de 19 médecins avant et après l'introduction de l'IA, les chercheurs ont constaté que le taux de détection lors des coloscopies réalisées sans assistance avait baissé de 6 points en moyenne.Autrement dit, l'IA améliore les résultats quand elle est utilisée, mais semble réduire l'attention et la vigilance des médecins lorsqu'elle n'est pas là.La sur-confiance dans les outils automatisésAlors quelles sont les implications de cette découverte dérangeante. Ce phénomène pourrait refléter un biais humain bien connu, qui est la sur-confiance dans les outils automatisés.Si les médecins s'habituent trop à l'aide de l'IA, ils risquent d'être moins concentrés et moins performants seuls. Les chercheurs appellent donc à la prudence.Ces résultats doivent être confirmés, mais ils posent déjà un défi majeur pour l'intégration de l'IA en médecine, à savoir comment profiter de ses bénéfices sans fragiliser les compétences humaines ?Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, parlons service client et intelligence artificielle.Selon le dernier rapport State of Service publié par Salesforce, dans seulement deux ans, la moitié des cas de service client pourraient être résolus par des agents d'IA.Il s'agit donc d'une véritable révolution pour un secteur en pleine mutation.Quelle adoption de l'IA dans le secteur du service client ?D'abord, faisons un point sur l'adoption de l'IA dans le secteur du service client. Les entreprises de services font face à une double pression. D'une part, les clients sont de plus exigeants. Et les équipes des services client sont sous tension à cause du manque de talents et de la charge administrative.L'étude révèle que 82 % des professionnels constatent des attentes clients plus élevées, alors même que les conseillers passent moins de la moitié de leur temps avec eux.Résultat, l'IA apparaît comme une solution incontournable pour libérer du temps, automatiser les tâches répétitives et redonner aux équipes le rôle relationnel à forte valeur ajoutée. Et c'est là qu'il faut souligner l'importance des agents d'IA.Pourquoi l'IA agentique attire particulièrement l'attentionSalesforce distingue trois formes d'IA dans le service support. Il distingue :L'IA prédictiveL'IA générativeEt enfin l'IA agentiqueEt c'est cette dernière, l'IA agentique, qui attire particulièrement l'attention.Déjà près de 40 % des organisations l'utilisent. Et d'ici 5 ans, seules 6 % disent ne pas vouloir y recourir. Pourquoi ? Parce que ces agents autonomes réduisent les coûts de service client, accélèrent la résolution des demandes et améliorent la satisfaction client. On estime même qu'ils pourraient réduire de 20 % les délais moyens de traitement.Un futur hybride entre l'homme et l'IAEnfin, le secteur du service client s'achemine peu à peu vers un futur hybride entre l'homme et l'IA.Loin de remplacer les conseillers, l'IA va compléter leur travail. Plus de 80 % des professionnels interrogés affirment que l'IA améliore leurs perspectives de carrière, en rendant leur travail plus productif et moins stressant.Les cas simples sont pris en charge automatiquement, tandis que les agents humains se concentrent sur les situations complexes. Cette collaboration redéfinit le service client, le rendant à la fois plus efficace et plus humain.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, on parle d'une avancée scientifique venue de l'université de Harvard aux Etats-Unis.Un outil d'intelligence artificielle gratuit créé là bas pourrait révolutionner la découverte de médicaments contre des maladies très complexes, comme le cancer, la maladie de Parkinson ou encore Alzheimer.Les limites des méthodes actuellesD'abord, il convient de noter les limites des méthodes actuelles.Traditionnellement, la recherche pharmaceutique s'attaque à une protéine à la fois. Et cette technique marche pour certaines thérapies ciblées, comme les inhibiteurs de kinases contre certains cancers.Mais quand une maladie implique des dizaines de gènes et de voies biologiques, cette approche devient vite trop limitée.Et on en vient à ce que fait l'outil de l'université de Harvard, qui se nomme PDGrapher.25 fois plus vite que d'autres modèlesLe modèle conçu par Harvard Medical School analyse les interactions entre gènes, protéines et signaux dans les cellules.Et plutôt que de tester des milliers de combinaisons au hasard, il propose directement les associations de traitements les plus prometteuses pour rétablir l'état sain d'une cellule.Dans les essais, cet outil a non seulement retrouvé des cibles déjà connues, mais il en a aussi identifié de nouvelles, appuyées par des données cliniques. Et surtout, il le fait 25 fois plus vite que d'autres modèles.PDGrapher est testé sur 11 types de cancersEnfin parlons des applications concrètes.Aujourd'hui, PDGrapher (dispo ici) est testé sur 11 types de cancers. Mais les chercheurs l'appliquent déjà à des maladies neurodégénératives comme Parkinson et Alzheimer.L'idée, c'est de réduire le temps et le coût de la recherche pharmaceutique, et surtout de mieux cibler les maladies multifactorielles, c'est à dire celles qui résistent aux traitements classiques.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, on parle de la fin annoncée du SMS en France et de la montée en puissance de son grand remplaçant, le RCS.La bascule entre le SMS et le RCS déjà bien engagée en FranceD'abord il faut noter que la bascule entre le SMS et le RCS est déjà bien engagée en France.Selon l'AF2M, l'association qui regroupe opérateurs et acteurs du numérique dans l'hexagone, 80 % du parc de smartphones en France est désormais compatible avec le protocole RCS.Concrètement, cela représente plus de 48 millions d'appareils. Et bien sûr l'arrivée d'Apple dans la danse début 2025 a été un véritable accélérateur. Désormais, les iPhone comme les Android récents intègrent cette technologie par défaut.Le RCS est plus performantEnsuite, il faut comprendre que si le RCS remplace le SMS, c'est parce que ce dernier est bien moins performant.Oui, le RCS, c'est un SMS en beaucoup mieux. Là où le SMS se limite à du texte et quelques caractères, le RCS permet d'envoyer des photos et vidéos en haute qualité, des messages illimités, des conversations de groupe, des accusés de réception, voire du chiffrement de bout en bout.Bref, le RCS permet une expérience proche de ce que proposent les applications de messageries instantanées telles que WhatsApp ou Messenger, mais directement intégrée à l'application de messagerie native du smartphone.Pour les entreprises, le RCS est une petite révolutionEnfin le troisième point c'est que pour les entreprises, le RCS est une petite révolution.Le RCS ouvre en effet la voie à un business messaging enrichi et mesurable, notamment sur les taux de clics, les conversions, ou encore les interactions.En clair, les marques peuvent créer de vraies campagnes interactives sans passer par des applications mobiles tierces.L'AF2M estime même qu'en 2026, le RCS sera devenu le standard incontournable des communications professionnelles.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

C'est une grande avancée qui s'annonce dans le secteur du commerce électronique.Le prestataire de paiement Visa vient de dévoiler une mise à jour importante de sa plateforme Visa Intelligent Commerce, avec l'introduction de serveurs Model Context Protocol ou MCP.En clair, c'est une petite révolution pour les développeurs et les entreprises qui souhaitent intégrer l'IA dans leurs solutions de paiement.Facilitation du développement informatiqueD'abord, c'est le développement informatique qui est simplifié grâce à protocole MCP.Dans le détail, MCP facilite l'intégration des agents d'intelligence artificielle dans le réseau de paiement de Visa.En gros, il permet aux développeurs de se connecter plus rapidement aux API de Visa Intelligent Commerce.Visa promet que cette nouvelle couche d'intégration permet de passer de l'idée à un prototype en quelques heures, ce qui va largement accélérer le processus de création d'applications de commerce électronique. Il s'agit d'une vraie opportunité pour les entreprises souhaitant intégrer de l'IA sans se perdre dans des complexités techniques de mise en œuvre.Un SDK pour intégrer les agents d'IABien sûr l'entreprise fournit un kit pour les développeurs, un SDK, nommé Visa Acceptance Agent Toolkit.Le Visa Acceptance Agent Toolkit est l'outil clé pour les développeurs qui veulent travailler avec des agents IA, sans être des experts en codage. Ce kit permet de créer des flux de travail en langage naturel, comme par exemple la génération automatique de factures ou la consultation de rapports financiers via un assistant d'IA.Il donc simplifie les tâches administratives courantes et permet d'intégrer facilement des fonctions de paiement tout en utilisant l'intelligence artificielle pour améliorer l'expérience utilisateur.Stimuler l'adoption de l'IA dans le commerce électroniqueMais sur le long terme, que nous dit l'intégration de MCP à la plateforme Visa ?Visa voit cette initiative comme un moyen de stimuler l'adoption de l'IA dans le commerce électronique, aussi bien pour les entreprises que pour les client.En facilitant l'intégration de l'IA dans les processus de paiement, Visa cherche à rendre le commerce en ligne plus fluide et intuitif, à l'instar de ce que l'on peut déjà voir sur des plateformes comme eBay ou Amazon. La possibilité d'utiliser l'IA pour rechercher des produits ou effectuer des achats devient de plus en plus courante, et les nouvelles solutions proposées par Visa pourraient bien devenir incontournables pour les développeurs.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

C'est une nouveauté qui pourrait bien changer l'avenir du recrutement en entreprise. L'IA, ou plus précisément, l'intelligence artificielle utilisée pour mener des entretiens d'embauche, s'apprête à changer les processus de recrutement.Une étude américaine met en lumière les avantages surprenants de ces agents IA dans le processus de recrutement.L'IA recrute mieuxD'abord, l'étude mentionne que les résultats de recrutement menés avec l'aide de l'IA sont meilleurs que ceux menés de manière classique.L'étude a démontré que les entretiens menés par l'IA ont permis d'augmenter de 12 % le nombre d'offres d'emploi faites aux candidats, et de 18 % le taux de prise de poste.L'IA a la préférence des candidats !Ensuite, et c'est très surprenant, l'IA a la préférence des candidats !C'est un autre aspect étonnant de cette étude. 78 % des candidats ont préféré être interviewés par une IA plutôt que par un recruteur humain.Des entretiens profonds et de qualitéEnfin, la qualité et la profondeur des entretiens réalisé par l'IA sont également mis en avant !Oui, l'intelligence artificielle est aussi capable de mener des entretiens plus complets.Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

C'est un phénomène en pleine croissance dans le monde de l'IA pour les professionnels. Il semble que les projets pilotes d'IA en entreprise échouent massivement. Une étude récente du MIT affirme même que seul 95 % des projets échouent.Pourtant, les entreprises investissent désormais des milliards pour intégrer l'IA. Alors, pourquoi tant de projets échouent-ils, et comment éviter ces pièges ?Des stratégies IA bien trop souvent court-termistesD'abord, les stratégies sont trop souvent axées sur le court terme.Pourquoi à court terme ? Et bien parce que beaucoup d'entreprises voient l'IA comme un simple levier pour couper les coûts à court terme.Par exemple, ces projets pilotes visent à remplacer des employés. Mais cela finit souvent par échouer. Pourquoi ? Parce qu'il manque une stratégie de long terme, orientée sur l'amélioration des processus, pas sur la suppression d'emplois. Bref, il faut un changement de mentalité, l'IA doit être un amplificateur de productivité, pas un outil de compression des coûts.Oui, l'intégration de l'IA est difficile dans les processus d'entrepriseOui, c'est souvent là que ça coince. La plupart des outils d'IA ne savent pas s'intégrer efficacement dans les flux de travail des entreprises.Par conséquent, les projets restent très très souvent bloqués en mode "démonstration".Au contraire, l'IA a besoin d'être adaptée aux processus existants, et cela demande une vraie préparation sur la données de qualité, des cas d'utilisation bien définis, ou encore et une gestion rigoureuse de l'évolution des systèmes.L'IA fantôme pourrait bien tous nous sauverMais un allié inattendu, et certes un peu risqué, peut être mis en œuvre. Il s'agit de l'IA fantôme, on dit shadow IT en anglais. Et bien sachez que cette solution informelle fonctionne.Car malgré les échecs officiels, l'IA est déjà utilisée au quotidien par les employés.On parle ici d'outils comme ChatGPT, Claude ou Gemini, qui sont utilisés de manière informelle pour des tâches simples mais efficaces en entreprise. Je parle ici de faire rédiger des emails, d'analyser des documents ou de générer du code.Cette adoption "fantôme" montre que l'IA peut être un vrai moteur de productivité lorsqu'elle est ciblée sur des tâches spécifiques, et ce sans nécessiter une révolution des systèmes.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, on parle de l'impact de ChatGPT sur notre langage quotidien.En effet, une étude américaine révèle que l'usage du chatbot influence directement le vocabulaire humain.Comment ça se passe ?Les mots de ChatGPT se glissent dans notre vocabulaireD'abord, les mots de ChatGPT se glissent dans notre vocabulaire.L'étude montre que des termes comme "approfondir", "stratégique", ou "multifacettes" sont de plus en plus utilisés dans le langage courant. Ce qui est étrange c'est que ces mots sont souvent employés dans des contextes académiques. Et ils sont désormais plus fréquents dans les échanges quotidiens de tout un chacun.Les résultats montrent donc une augmentation de l'utilisation de ces mots, ce qui suggère une fusion entre les choix de mots humains influencés par le lexique des grands modèles de langage.Donc la question à dix mille euros c'est "est-ce que ce sont les utilisateurs qui influencent ChatGPT, ou bien est-ce ChatGPT qui influence notre façon de parler ?"L'influence générationnelle des chatbots d'IAEt bien en réalité tout ceci a à voir avec l'adoption du chatbot et son influence générationnelle.Car l'une des découvertes marquantes de l'étude, c'est l'ampleur de l'adoption de ChatGPT, notamment chez les jeunes adultes. De quoi en faire de véritables chevaux de Troie du vocabulaire de l'IA.Selon le Pew Research Center, plus de la moitié des adultes de moins de 30 ans utilisent l'outil. Et avec une telle utilisation, l'influence de ChatGPT sur leur langage est indéniable. Les mots à la mode véhiculés par l'IA se propagent ainsi très vite.Quels sont les risques de ces évolutions du langageCar si l'IA transforme notre manière de nous exprimer, cela soulève des questions sur l'impact que cela peut avoir sur nos idées et nos valeurs.Les chercheurs s'inquiètent de la façon dont l'usage excessif de certains mots pourrait affecter notre manière de penser, et de l'éventuelle influence de l'IA sur notre communication de manière plus générale.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Et aujourd'hui, voici une nouvelle forme d'arnaque qui prend de l'ampleur. Il s'agit des faux numéros de service client générés par l'intelligence artificielle.Oui, vous avez bien entendu. Des personnes se sont déjà fait piéger en appelant ce qu'elles pensaient être le service client officiel d'une grande entreprise, mais qui en réalité était un numéro frauduleux proposé par Google AI ou même ChatGPT.Alors, comment ça marche ?De plus en plus de personnes font de plus en plus confiance dans l'IAQuand on cherche un numéro sur Google en mode classique, on voit plusieurs résultats, on compare, on recoupe.Mais avec les nouveaux résumés générés par l'IA, on reçoit une seule réponse présentée comme “la bonne”.Résultat, plus de chances de tomber directement dans le piège sans vérifier.La sophistication des arnaquesCar oui les victimes ne sont pas naïves, mais souvent font face à des escrocs particulièrement malins.Les escrocs ne se contentent pas de décrocher et de demander votre carte bancaire. Ils imitent à la perfection les procédures des vraies entreprises.Et voici un exemple cité par The Washington Post. Un dirigeant pensait appeler Royal Caribbean, et l'arnaqueur connaissait les bons tarifs, la bonne terminologie, et a réussi à obtenir ses coordonnées bancaires avant qu'il ne réalise la supercherie.Tout ceci repose aussi sur une faille techniqueDes experts en cybersécurité expliquent que ces escroqueries reposent parfois sur une technique dite de “prompt injection”. En clair, les pirates manipulent les modèles d'IA pour qu'ils intègrent un faux numéro dans leur réponse. Google et OpenAI assurent travailler sur des correctifs, mais le problème persiste, surtout sur des requêtes rares.La leçon à retenir, c'est qu'il ne faut jamais faire confiance aveuglément à un numéro de téléphone affiché par une IA. Si vous cherchez le service client d'une entreprise, allez directement sur son site officiel ou utilisez une recherche classique pour croiser plusieurs résultats.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, on parle de l'avenir des carrières dans l'informatique à l'heure de l'intelligence artificielle. Alors, faut-il encore miser sur les études en informatique, ou chercher ailleurs ?L'effet inquiétant de l'IA sur l'emploi commence à se faire sentirD'abord, il faut bien noter que l'effet inquiétant de l'IA sur l'emploi commence à se faire sentir.Comme le souligne un article récent du New York Times, les outils de programmation dopés à l'IA peuvent désormais générer des milliers de lignes de code en un clin d'œil.Ajoutez à cela les vagues de licenciements chez Amazon, Meta ou Microsoft, et on obtient une équation qui refroidit beaucoup d'étudiants en informatique. Bref, le fameux "golden ticket" vers une carrière tech semble un peu terni.La relation entre l'IA et le monde de l'emploi est plus complexeOui, parce que si l'IA peut tuer certains emplois, elle en crée d'autres.Les compétences liées au développement de modèles d'IA, à la gouvernance des données ou encore à l'éthique de l'IA sont très recherchées.Devenir spécialiste en supervision de l'IA, c'est aujourd'hui un pari gagnant.L'IA peut aussi être vu comme un tremplin entrepreneurialEt c'est peut-être là le plus grand bouleversement. Pour les créateurs de startups, l'IA est une arme redoutable.Elle permet de prototyper une idée en quelques semaines, d'automatiser des tâches coûteuses, et peut-être de rivaliser avec de grands groupes. Comme le dit le capital-risqueur Spiros Margaris, “devenir AI-first n'est plus une option, c'est une condition de survie”.Mais attention, IA ne rime pas avec facilité. Elle apporte aussi son lot de défis, notamment dans les domaines de la cybersécurité et de la réglementation.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, on parle d'un gros chantier chez Google Traduction qui devrait nous être livré sous peu.L'application de traduction s'apprête à intégrer plus largement l'IA Gemini et à vous laisser choisir votre “style” de traduction.Deux modes avec deux promesses différentesUne nouvelle option “model picker” va apparaître en haut de l'écran pour basculer entre deux modes.Le mode rapide est pensé pour la vitesse et l'efficacité.Le mode avancé s'appuie sur Gemini pour privilégier le contexte et la précision.À ce stade, le mode avancé ne fonctionnerait que pour quelques paires de langues, dont l'anglais et le français.En clair, c'est un pas vers des traductions plus naturelles.Google traduction lorgne du côté de Duolingo et BabbelEnsuite, Google Traduction va embarquer un nouveau mode qui lorgne du côté de ses désormais concurrents Duolingo et Babbel.Google teste en effet un espace d'entraînement, avec des leçons courtes, des objectifs à atteindre, et des scénarios de conversation du quotidien.Mieux, vous pouvez créer vos propres exercices. Pour l'instant, les entraînements disponibles concernent surtout l'espagnol et le français, mais la mécanique se veut extensible.A quoi s'attendre côté usage pro ?D'abord, un arbitrage assumé entre latence et qualité. Le mode rapide conviendra pour déchiffrer un mail ou un message instantané en urgence.Le mode avancé sera lui taillé pour un brief client, un support technique ou une réponse commerciale où le ton et le contexte comptent.Ensuite, l'ergonomie à lécran bouge. Le micro est plus discret et déplacé à droite, la ligne de boutons est placée en bas de l'interface pour un usage à une main.Tout cela confirme un cap, amener l'IA de compréhension du langage au cœur de l'interprétation.Mais et c'est important, Google n'a pas encore officialisé le calendrier. Et certaines fonctions pourraient évoluer avant la sortie grand public. Mais la direction est claire. Google Traduction va faire moins de traductions “mot à mot”, proposer un coach linguistique.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, on parle d'augmentation des données dans le monde de l'intelligence artificielle. Derrière ce terme, une idée simple. Il s'agit de créer, à partir de vos données existantes, de nouvelles variantes synthétiques pour entraîner des modèles de machine learning plus robustes.Pourquoi c'est utile ? Parce que dans la vraie vie, les jeux de données sont souvent limités, sensibles, ou pas assez variés. Alors on enrichit artificiellement le jeu d'entraînement… mais intelligemment.Je vous propose trois points pour tout comprendre avec l'aide d'une documentation AWS sur le sujet.L'augmentation de données, à quoi ça sert, concrètement ?L'augmentation des données améliore la performance et la généralisation des modèles. En multipliant les versions d'une même donnée, une image un peu plus sombre, un texte reformulé, un son avec un léger bruit, le modèle voit plus de cas et se trompe moins sur des données qu'il n'a jamais vues.Et cette augmentation des données réduit la dépendance à de très gros jeux de données, donc coûte moins cher.Elle limite également le sur-apprentissage, le fameux overfitting, où le modèle « apprend par cœur » ses exemples sans savoir généraliser.L'augmentation de données, comment ça marche, en pratique ?D'abord, les spécialistes de l'IA auditent le jeu de données et appliquent des transformations et des déclinaisons adaptées. Il peut s'agir de retournement et de changement de contraste pour une image.Mais aussi d'ajout de bruit et de variation de vitesse pour un son. Ou encore de permutation de mots et de paraphrases pour un texte.Mais attention, si vos données de départ sont biaisées, vos données augmentées hériteront de ces biais. Il faut donc les corriger à la source avant l'entraînement.Enfin troisième point, quels sont les premiers cas d'usage ?Dans le domaine de la santé, on multiplie les versions des images médicales pour mieux détecter des pathologies rares.En finance, on génère des scénarios de fraude ou des séries de risque pour entraîner la détection et le scoring.Dans la grande distribution, on varie angles, fonds et éclairages de photos de produits pour les faire reconnaître par l'IA en conditions réelles.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, on parle d'« apprentissage zero-shot », ou ZSL pour zero shot learning.En clair, c'est la capacité d'un modèle d'IA à reconnaître ou classer des choses qu'il n'a jamais vues lors de son entraînement.Et voici l'essentiel en trois points sur la base d'un document d'explication d'IBM.Le ZSL, à quoi ça sert ?Alors dans un premier temps, à quoi ça sert et en quoi c'est différent des méthodes d'apprentissage classiques utilisées par les concepteurs d'intelligence artificielle.La plupart des modèles d'IA apprennent en mode supervisé. C'est à dire qu'on leur montre des milliers d'exemples étiquetés, d'un chat par exemple. Et le système apprend à reconnaître un chat avec cette méthode.Le problème, c'est que étiqueter des données coûte cher, prend du temps, et surtout que certaines classes sont rares, voire inédites, comme les nouvelles maladies, des espèces animales peu documentées, ou encore un nouveau type d'attaque informatique. Le zero-shot répond donc à cette contrainte.Le ZSL, comment ça marche ?Au lieu d'apprendre à reconnaître un oiseau en regardant des photos étiquetées, l'entraînement consiste à lire à l'IA une définition qui contient par exemple plumes, bec, et ailes. L'IA apprend ainsi à reconnaître un oiseau sans l'avoir vu auparavant.Le modèle s'appuie donc sur des connaissances auxiliaires. Le modèle ne dessine donc pas directement une frontière entre les classes qu'il a vues, mais calcule des scores de probabilité à partir des connaissances auxiliaires.À noter que les grands modèles de langage, les LLM, excellent souvent dans l'exercice de zero-shot. Pourquoi ? Parce qu'ils comprennent les étiquettes en langage naturel et peuvent classer, extraire, résumer ou suivre des instructions sans exemples, simplement via la consigne, c'est à dire le prompt.Le zero-shot a aussi ses limitesEnfin, le troisième point, c'est que le zero-shot a aussi ses limites. Et je vous donne direct un exemple pour que vous compreniez bien.En se basant sur les étiquettes et non les images étiquetées, difficile de savoir si le mot jaguar fait référence à une marque de voiture ou à un animal.Cette sensibilité sémantique fait chuter les performances si le domaine réel s'éloigne trop de ce que le modèle d'IA a appris.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Aujourd'hui, on démêle un grand classique : l'apprentissage automatique, ou machine learning.Qu'est-ce que c'est, comment ça s'entraîne, et quels sont ses enjeux concrets en entreprise ?Voici trois points pour aller à l'essentiel, puisés dans une page d'assistance de Red Hat.Qu'est ce que c'est et comment ça marche ?L'apprentissage automatique, c'est une branche de l'IA où l'on apprend à des algorithmes à repérer des traces identiques dans des données. Il peut d'agir de chiffres, de texte, ou encore d'images. Et pour y parvenir, on prend un modèle d'IA et on le nourrit de données.Côté méthode, tout commence par un pipeline bien huilé :Collecte et préparation des donnéesSéparation de l'entraînement, des tests et de la validationEt souvent réduction des données pour ne garder que l'utileEt il faut faire face à quelques écueils, comme le surentraînement et le sous-entraînement, qui faussent les résultats attendus. Et il faut aussi surveiller la “fuite de données” quand, par erreur, des infos du test contaminent l'entraînement.Le machine learning est renforcé par les réseaux de neuronesLe second point c'est que de nos jours, le machine learning est renforcé par les réseaux de neurones. C'est ce que l'on appelle l'apprentissage profond, ou deep learning, ou s'empilent dans le réseau neuronal plusieurs couches pour apprendre des représentations de plus en plus abstraites.C'est cette évolution qui donne aujourd'hui des performances remarquables en vision, en reconnaissance vocale et en traitement du langage.L'apprentissage profond est même le socle de l'IA générative et des grands modèles de langage, qui sont désormais capables de produire du texte, de résumer, ou d'assister la recherche.Pourquoi un usage responsable est-il nécessaire ?Le troisième point c'est que la surpuissance actuelle de l'IA générative et de l'apprentissage automatique exige un usage responsable.Comme les modèles apprennent sur l'historique, ils peuvent hériter de biais présents dans les données et amplifier ces biais dans des décisions sensibles, dans les domaines du recrutement, de l'attribution de crédit bancaire, ou encore en matière de décision de justice.D'où l'importance de méthodes et d'outils d'explicabilité pour sortir l'IA de son image de “boîte noire”.En résumé, l'apprentissage automatique, c'est la capacité d'extraire des patterns des données pour décrire, prédire et recommander. Et l'apprentissage profond décuple ces possibilités.Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.