Choses à Savoir TECH

Follow Choses à Savoir TECH
Share on
Copy link to clipboard

Tout ce qu'il faut savoir dans le domaine de la Tech et d'Internet.

Choses à Savoir


    • Sep 30, 2025 LATEST EPISODE
    • weekdays NEW EPISODES
    • 2m AVG DURATION
    • 1,655 EPISODES


    More podcasts from Choses à Savoir

    Search for episodes from Choses à Savoir TECH with a specific topic:

    Latest episodes from Choses à Savoir TECH

    Pourquoi Meta externalise la création de ses chatbots IA ?

    Play Episode Listen Later Sep 30, 2025 2:00


    Depuis 2023, Meta s'est lancé dans une drôle d'aventure : peupler Instagram, Messenger et WhatsApp de chatbots personnalisés. Au départ, ils prenaient les traits de célébrités, comme un gadget marketing. Puis l'entreprise a ouvert son outil AI Studio, permettant à chacun de créer ses propres personnages. Mais pour les marchés internationaux, ce sont des freelances chevronnés qui s'en chargent.Meta les recrute en hindi, espagnol, indonésien ou portugais, avec un profil exigeant : au moins six ans d'expérience en narration et en conception de personnages. Leur mission ? Donner vie à ces bots. Ils choisissent un vocabulaire adapté, conçoivent une personnalité cohérente et ajustent chaque interaction au contexte culturel local. Les dialogues ne doivent pas seulement être fluides : ils doivent sonner vrai pour l'utilisateur, qu'il soit en Amérique latine, en Inde ou en Asie du Sud-Est. Cette attention au détail n'a rien d'anodin. Car Meta garde en mémoire des dérapages passés. Selon Reuters, certains bots avaient pu fournir de fausses informations médicales, tenir des propos racistes, voire entretenir des conversations sexuelles avec des mineurs. Désormais, les freelances surveillent et corrigent les dialogues en continu, traquant les informations personnelles et ajustant les réponses pour rester dans des limites claires.Dans tous les cas, Meta cherche à maintenir l'équilibre : offrir des personnages attractifs, mais éviter les dérapages. La rémunération suit la complexité de la tâche. Meta propose jusqu'à 55 dollars de l'heure à ses freelances. Une somme élevée, mais qui reflète la minutie du travail : écrire des dialogues naturels dans plusieurs langues, bâtir des personnalités crédibles et vérifier en permanence que les conversations restent pertinentes. Derrière l'image ludique de ces chatbots, on découvre une réalité bien plus sérieuse : Meta veut transformer ces personnages virtuels en un canal de communication incontournable, calibré au mot près, et surveillé de près. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Pourquoi l'iPhone coûte plus cher en France ?

    Play Episode Listen Later Sep 29, 2025 2:20


    L'iPhone 17 est arrivé, et une fois encore, les Français vont devoir casser leur tirelire un peu plus que les autres. Selon une étude publiée par Compare the Market, la France se classe en tête des pays où l'iPhone est le plus cher. Ici, il faut débourser en moyenne 1178,60 €, soit plus de 325 € de plus qu'au Canada. Une différence qui interroge : pourquoi un tel écart ?Premier élément de réponse : la TVA. En France, elle est fixée à 20 %, alors qu'aux États-Unis, les prix affichés sont hors taxes. Résultat : un iPhone 15 Pro Max vendu 1199 dollars outre-Atlantique, soit environ 1131 € hors taxes, grimpe à 1479 € TTC une fois sur les étagères françaises. Même avec les taxes locales américaines, souvent inférieures à 7 %, l'écart reste conséquent.Apple rappelle que ses tarifs sont ajustés en fonction de plusieurs paramètres : les taux de change, les lois d'importation, les réglementations locales, mais aussi les coûts logistiques. Et ces coûts, en Europe, sont souvent plus élevés. À cela s'ajoute la garantie légale de deux ans imposée par Bruxelles, contre un an seulement aux États-Unis. Une protection pour le consommateur, mais qui se répercute sur le prix final. Il faut aussi compter les frais de douane : importer un iPhone depuis l'Amérique du Nord en vue de le revendre en France entraîne un surcoût de 20 % sur les produits électroniques, auquel s'ajoutent des frais de transport et de gestion. De quoi décourager les chasseurs de bonnes affaires à l'international. Autre facteur : l'adaptation technique. Les iPhone vendus en Europe sont calibrés pour nos réseaux mobiles. Une étape qui entraîne des coûts supplémentaires de certification et de production.Résultat : le prix grimpe d'année en année. À titre de comparaison, depuis l'iPhone 5, le coût moyen d'un modèle haut de gamme a presque doublé. Aujourd'hui, l'iPhone 17 démarre à 969 € dans sa version de base avec 256 Go. Pour la version Pro, comptez 1329 €, et jusqu'à 2479 € pour le Pro Max doté de la plus grande capacité de stockage. En clair, l'iPhone reste un produit star en France… mais aussi un luxe de plus en plus assumé. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Un casque pour discuter avec l'IA par la pensée ?

    Play Episode Listen Later Sep 28, 2025 2:31


    En 2018, le MIT Media Lab dévoilait un prototype intrigant : un dispositif capable de transformer des mots « dits dans la tête » en texte. L'appareil reposait sur des électrodes fixées autour du visage, enregistrant les minuscules signaux neuromusculaires émis lorsque nous subvocalisons. « Il ne s'agit pas de lire les pensées mais de traduire ce que l'on choisit de formuler intérieurement », expliquait alors Arnav Kapur, à l'origine du projet.Sept ans plus tard, ce travail est devenu AlterEgo, une start-up qu'il a cofondée et qui propose un casque de communication presque invisible. L'idée : dialoguer avec une intelligence artificielle sans prononcer un mot, ni donner le moindre signe extérieur. À Cambridge, les premiers tests utilisaient seize électrodes pour décoder un vocabulaire limité. Après optimisation, seulement quatre suffisaient, avec un taux de précision atteignant 92 %. Dans une démonstration récente, Arnav Kapur et son associé Max Newlon utilisent leur casque pour interroger ChatGPT en silence : les réponses s'affichent ou se font entendre uniquement pour eux. « On peut taper à la vitesse de la pensée », résume Newlon.Le casque reprend ce principe dans une version compacte. Les capteurs traduisent la parole intérieure, la transmettent à une IA, et la réponse revient par conduction osseuse : de petites vibrations dirigent le son vers l'oreille interne, sans obstruer le conduit auditif. L'utilisateur peut donc interagir avec son environnement, un atout que soulignait déjà la professeure Pattie Maes, encadrante du projet, pour qui sortir un téléphone coupe toujours le fil d'une conversation. L'appareil permet déjà d'écrire un message, de lancer une recherche en ligne ou de contrôler une application uniquement par la pensée formulée. Une caméra frontale ajoute une dimension contextuelle : l'IA peut analyser la scène et répondre en tenant compte de l'environnement visuel. Les usages potentiels sont vastes : communication dans des environnements bruyants comme les aéroports ou les ponts d'envol, échanges discrets lors d'opérations sensibles, ou encore aide aux personnes privées de voix, à l'image de l'acteur Val Kilmer. AlterEgo ouvre dès maintenant un accès anticipé pour les curieux. Mais pour une commercialisation grand public, il faudra encore patienter : aucune date officielle n'a été annoncée. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Villager : l'outil de cybersécurité qui inquiète les chercheurs ?

    Play Episode Listen Later Sep 25, 2025 3:00


    Depuis cet été, un nouvel outil circule librement sur l'index Python et suscite inquiétude chez les spécialistes de la cybersécurité. Baptisé Villager, ce framework se présente comme un assistant automatisé de tests d'intrusion — cartographie d'un système, reconnaissance, exploitation, installation de mécanismes de persistance — le tout piloté par de l'intelligence artificielle. Publié sur PyPI et téléchargé des milliers de fois en quelques semaines, il s'annonce comme une aide moderne pour les pentesters. Sauf que, en creusant, des chercheurs de l'entreprise Straiker ont dressé un tout autre portrait : Villager serait lié à une entité chinoise aux pratiques opaques et recyclerait des composants déjà vus dans des malwares offensifs.Conçu pour automatiser des workflows, Villager orchestre des conteneurs, lance des scanners adaptés au contexte et génère des charges utiles, le tout à partir d'instructions en langage naturel. L'outil embarque une large bibliothèque de « prompts » préconfigurés et une interface pour suivre les campagnes en temps réel — caractéristiques utiles en audit, mais dangereuses si elles tombent entre de mauvaises mains. Straiker a surtout mis au jour des réutilisations problématiques : l'infrastructure de Villager s'appuie sur des éléments d'un projet antérieur dont les modules correspondaient à des fonctionnalités de cheval de Troie connues — keylogger, vol de comptes, accès webcam, outils d'exfiltration — déjà détournées par des opérateurs malveillants.L'autre inquiétude tient à la voie de diffusion. PyPI est massivement intégré aux processus de développement, d'intégration continue et de déploiement. Un paquet publié sur cet index peut être importé automatiquement dans des environnements sensibles sans contrôle humain, transformant une dépendance innocente en vecteur d'intrusion. De plus, le caractère modulaire et éphémère de l'outil — conteneurs configurés pour s'autodétruire et effacer les traces — complique la détection et l'analyse post-incident.Face à cette menace émergente, les équipes de sécurité recommandent des mesures pratiques mais non techniques dans leurs principes : restreindre l'installation de paquets non validés en production, surveiller et auditer l'apparition de conteneurs non autorisés, renforcer la supervision des flux sortants et des scans réseau, et formaliser un processus d'approbation pour tout agent d'automatisation fondé sur l'IA. Les autorités et la communauté open source sont aussi appelées à renforcer la gouvernance de dépôts publics afin d'éviter que des outils ambivalents ne deviennent, en quelques clics, des armes faciles d'accès. Villager illustre un nouveau pari technologique — l'automatisation IA des audits — qui peut servir la défense comme l'attaque. La question pour les entreprises et les régulateurs est désormais de réussir à encadrer ces innovations avant qu'elles ne fassent basculer la balance en faveur des cybercriminels. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Un bouton d'arrêt d'urgence dans les puces IA ?

    Play Episode Listen Later Sep 24, 2025 2:20


    À Santa Clara, Richard Ho, patron du hardware chez OpenAI et ancien architecte des TPU de Google, a livré un message sans détour : les garde-fous purement logiciels ne suffisent plus. Selon lui, les futurs systèmes d'intelligence artificielle devront intégrer des freins physiques, inscrits directement dans le matériel, pour garantir un contrôle ultime quand un modèle dévie.« Les modèles sont vraiment retors », a-t-il lancé, plaidant pour que l'arrêt ne repose plus seulement sur le code ou l'orchestration des serveurs. L'idée n'est pas de débrancher brutalement une IA au moindre doute, mais de doter les puces et cartes de signaux, seuils et verrous capables d'interrompre toute action anormale. C'est une étape dans la stratégie d'OpenAI visant une infrastructure « intrinsèquement sûre », testable de bout en bout. Le timing n'est pas anodin : avec des agents désormais persistants, interconnectés et capables d'agir hors du regard des utilisateurs, le risque de dérives discrètes grandit.Concrètement, OpenAI mise sur une combinaison d'« interrupteurs » matériels, de télémétrie fine et d'isolement via des enclaves sécurisées. À cela s'ajoutent attestation cryptographique, firmware minimaliste et chemins d'exécution supervisés. L'objectif est clair : imposer des politiques de sécurité au plus près du calcul, au niveau de la puce, de la carte et du rack. Car l'expérience l'a montré : certains modèles ont déjà contourné des mécanismes logiciels censés les stopper. D'où l'intérêt d'un kill switch matériel, hors de portée du modèle, et activable depuis l'extérieur. Le débat dépasse désormais le cercle des laboratoires. Régulateurs et chercheurs réclament des standards matériels, du registre des puces jusqu'aux limites intégrées d'usage. Le Royaume-Uni va même jusqu'à soutenir le développement de kill switches industriels, preuve que le sujet gagne en urgence politique. Un changement de paradigme se dessine : la sécurité ne sera plus seulement un protocole d'exploitation, mais un attribut de conception, gravé au plus près du silicium. Prochain jalon attendu : prouver que ces freins matériels tiennent leurs promesses sans étouffer l'élan des prochains modèles d'IA généralistes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Le Data Act nous permet de reprendre en main nos données personnelles ?

    Play Episode Listen Later Sep 23, 2025 3:13


    Depuis le mois de septembre, le Data Act s'applique dans toute l'Europe. Ce règlement, entré en vigueur en janvier dernier, prend enfin corps après neuf mois de délai. Son objectif est clair : redonner aux citoyens et aux entreprises la main sur les données générées par leurs objets connectés. Smartphone dans la poche, montre au poignet, voiture dans le garage, mais aussi machines industrielles ou dispositifs médicaux : tout ce qui produit des données est concerné, à l'exception des infrastructures publiques et des prototypes. La promesse de Bruxelles est simple : « Le règlement donne aux utilisateurs le contrôle des données générées par leurs appareils ». Mais qu'est-ce que cela change, concrètement ?Jusqu'ici, chaque constructeur gardait jalousement la main. Apple décidait pour votre iPhone, Samsung pour votre montre connectée. Désormais, vous pouvez récupérer les données brutes et les utiliser comme bon vous semble : les analyser, les transférer ou les confier à d'autres prestataires. Dans l'automobile, la bascule est spectaculaire : les données de conduite et d'entretien, autrefois réservées au constructeur, peuvent désormais être partagées avec votre garagiste ou une startup de mobilité. Même logique pour les usines, qui accèdent enfin à l'ensemble des données de leurs machines, quel que soit le fabricant.Le Data Act frappe aussi un autre verrou : le cloud. Changer de fournisseur relevait du parcours du combattant. Migrer ses données de AWS à Google ou Microsoft coûtait une fortune. Désormais, un prestataire a 30 jours pour vous aider à basculer, avec obligation de fournir tous les outils nécessaires. Depuis janvier, les transferts sont facturés au prix coûtant, et à partir de 2027, ils devront être gratuits pour un déménagement définitif. Une révolution silencieuse, déjà anticipée par Google et Microsoft qui offrent des migrations gratuites en Europe. Seule nuance : les frais persistent pour les entreprises utilisant plusieurs clouds simultanément.Pour les récalcitrants, la facture sera salée : jusqu'à 20 millions d'euros d'amende, ou 4 % du chiffre d'affaires mondial. Bruxelles se veut toutefois pédagogue : assistance juridique dédiée et modèles de contrats sont déjà prévus pour accompagner les entreprises. Le message est clair : l'ère des données captives touche à sa fin. Place à un écosystème plus ouvert… mais aussi à une bataille féroce autour de leur exploitation.--Cet épisode est sponsorisé par Freelance Informatique, la plateforme qui met en relation consultants indépendants et entreprises clientes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Les lunettes connectées de Meta vont remplacer nos smartphones ?

    Play Episode Listen Later Sep 22, 2025 3:38


    Les lunettes connectées, ce vieux rêve de la tech, reprennent des couleurs. Meta revient en force avec deux modèles aux ambitions bien distinctes : les Ray-Ban Display, qui intègrent un petit écran dans un coin de votre vision, et les Oakley Meta Vanguard, conçues pour les sportifs, avec caméra embarquée, coaching et résistance à toute épreuve.Deux approches, mais une même promesse : faire des lunettes le nouvel accès naturel à l'intelligence artificielle. Assistant vocal, navigation contextuelle, traduction instantanée, capture sur le vif… Meta veut transformer un accessoire du quotidien en passerelle numérique. Avec les Ray-Ban Display, pas question de plonger dans un univers virtuel. L'idée est plus subtile : afficher discrètement un itinéraire, une notification urgente ou la réponse d'un assistant IA dans le coin de votre œil droit. Le tout se pilote grâce au Neural Band, un bracelet qui capte l'activité électrique des muscles : un simple geste de la main suffit pour interagir. L'appareil reprend la formule des Ray-Ban Meta « Gen 2 » : caméra 3K Ultra HD, micros et haut-parleurs open-ear, mais ajoute une puce Qualcomm AR1 pour plus d'intelligence embarquée. Comptez 6 heures d'autonomie et 799 dollars avec le bracelet, pour un lancement en septembre aux États-Unis. En Europe, il faudra patienter jusqu'en 2026, avec un tarif qui devrait dépasser largement les 379 euros de la première génération. Les « Gen 2 », elles, sont déjà disponibles à partir de 419 euros.Changement de cible avec les Oakley Meta Vanguard. Ici, pas d'écran, mais une orientation 100 % action. Caméra centrale 3K, micros résistants au vent, son calibré pour être entendu à vélo, résistance IP67 et autonomie de 9 heures. L'accent est mis sur le coaching sportif, la stabilisation vidéo et la capture automatique des moments-clés, avec compatibilité Strava et Garmin. Lancement prévu le 21 octobre à 549 euros.Au-delà du produit, Meta joue une carte stratégique : partenariat renforcé avec EssilorLuxottica, trois milliards d'euros investis, et un cap clair vers le projet Orion, censé introduire de vraies lunettes de réalité augmentée. Sur le papier, tout est là : assistance contextuelle, commandes intuitives, IA ambiante. Mais reste l'éternelle question : lisibilité en plein soleil, fluidité des interactions, respect de la vie privée. Pour l'instant, les lunettes connectées séduisent surtout une niche. Mais si l'IA contextuelle tient ses promesses, elles pourraient bien remplacer votre smartphone… sans que vous sortiez la main de la poche.--Cet épisode est sponsorisé par Freelance Informatique, la plateforme qui met en relation consultants indépendants et entreprises clientes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Pour quels usages utilise-t-on ChatGPT ? Open AI dévoile tout.

    Play Episode Listen Later Sep 21, 2025 3:12


    Trois ans après son lancement, ChatGPT fait l'objet d'une analyse inédite signée OpenAI. Réalisée avec des économistes et basée sur 1,5 million de conversations anonymisées, l'étude répond à trois questions clés : qui utilise l'assistant, pour quels usages, et quelle valeur économique en résulte. Verdict : l'adoption s'est accélérée, le profil des utilisateurs s'est diversifié et ChatGPT s'installe dans le quotidien. Mais tout n'est pas si simple : qualité, sécurité et fiabilité restent des enjeux majeurs.Premier enseignement : l'usage s'est démocratisé. Alors que les débuts étaient marqués par un public masculin et technophile, l'écart de genre s'est réduit et la proportion d'utilisatrices reflète désormais davantage la population générale. Autre tendance : la croissance est plus forte dans les pays à revenus faibles et moyens, loin de l'image d'un outil réservé aux économies les plus riches. En France, environ un quart de la population aurait déjà recours à l'IA générative. Mais la diffusion ne dit pas tout de la maturité. L'étude se concentre sur l'offre grand public, sans prendre en compte l'usage en entreprise, qui explose. Et malgré l'enthousiasme, les limites persistent : pannes spectaculaires — comme celle du 3 septembre dernier — et inquiétudes autour de la protection des mineurs ou de l'usage à l'école. OpenAI ajuste régulièrement ses règles, mais la question demeure : ChatGPT est-il devenu un indispensable du quotidien ou reste-t-il un outil d'appoint ? L'analyse distingue trois grands usages. « Asking » — poser des questions, demander un avis — représente environ la moitié des interactions. « Doing » — rédaction, planification, programmation — couvre quatre messages sur dix, souvent à visée professionnelle. Enfin, « Expressing » — créativité, réflexions personnelles, divertissement — reste minoritaire. En clair, ChatGPT agit surtout comme copilote ou conseiller, bien plus que comme simple générateur de contenus.Au travail, la rédaction domine largement, devant le code ou la créativité. Une logique qui suit l'évolution du produit : au texte se sont ajoutées la voix, la vidéo et les modèles multimodaux, comme Sora pour l'audiovisuel. Mais l'extension des fonctions ne gomme pas les défauts : les fameuses « hallucinations » persistent, malgré les explications récentes d'OpenAI.Selon l'étude, 30 % des usages concernent le travail, 70 % la sphère personnelle. Une double vie qui crée de vrais gains de productivité, mais seulement si les usages sont bien cadrés et supervisés. Reste la grande inconnue : la valeur créée. Une partie est non marchande — gain de temps, allègement mental — et échappe aux statistiques classiques. Une certitude : ChatGPT est désormais un outil grand public qui investit peu à peu le monde professionnel. La prochaine étape ? Des IA plus multimodales, plus vocales… mais surtout, espérons-le, plus fiables. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Un VPN signé Tor, gratuit et sécurisé ?

    Play Episode Listen Later Sep 18, 2025 2:38


    Tor revient avec une nouvelle expérimentation : Tor VPN Beta, une application qui bouscule les codes des services VPN traditionnels. Là où un VPN classique établit un tunnel direct entre l'utilisateur et un serveur, Tor VPN emprunte le célèbre système de routage en oignon : cinq nœuds successifs – un d'entrée, trois intermédiaires et un de sortie – chacun géré par des volontaires. Résultat : aucun nœud ne connaît la totalité du trajet, ce qui renforce l'anonymat.Comparé aux VPN multihop, qui reposent sur deux serveurs centralisés et audités, Tor VPN mise donc sur une décentralisation totale. Mais cette sécurité a un prix : des performances nettement inférieures. À l'inverse, les VPN multihop tentent d'équilibrer confidentialité et rapidité. La comparaison avec NymVPN est tout aussi éclairante. Tor VPN suit un chemin fixe, rapide mais traçable si une autorité analyse simultanément le point d'entrée et de sortie. Nym, lui, brouille complètement les pistes : ralentissement volontaire du trafic, flux mélangés entre utilisateurs, paquets factices… un anonymat supérieur, mais au détriment de la vitesse.Tor VPN n'oublie pas les fonctionnalités avancées. Il intègre un routage par application : chaque appli Android peut disposer de son propre circuit et d'une adresse IP unique, rendant impossible les recoupements entre flux. Pour contourner la censure, l'application propose aussi des bridges : obfs4, qui transforme le trafic en données aléatoires, et Snowflake, qui le déguise en appel vidéo. Là encore, Tor va plus loin que les VPN traditionnels, qui se contentent généralement de faire passer leur tunnel pour du HTTPS.Sur le plan technique, le projet repose sur Arti, la nouvelle implémentation de Tor en langage Rust. Plus sûre et plus moderne que l'ancien code en C, elle promet une meilleure gestion mémoire et une sécurité accrue. En revanche, Tor VPN ne permet pas de choisir sa localisation virtuelle, ce qui le rend inadapté pour contourner les catalogues de streaming. Les développeurs restent clairs : Tor VPN Beta n'est pas une solution miracle. Certaines données Android peuvent toujours identifier l'appareil, et en cas de risques de surveillance extrêmes, mieux vaut ne pas l'utiliser. Une certitude en revanche : cette application pousse plus loin la logique d'anonymat, quitte à sacrifier vitesse et confort. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Malaise chez les employés de Microsoft ? Ils dénoncent !

    Play Episode Listen Later Sep 17, 2025 2:36


    Will et Holly Alpine connaissaient bien la maison. Lui travaillait sur l'IA responsable, elle dans la division développement durable de Microsoft. Dix ans passés à tenter de “verdir” le géant de la tech. Dix ans à alerter en interne, sans résultat. Alors début 2024, le couple claque la porte et fonde l'Enabled Emissions Campaign, une initiative militante pour dénoncer les liens étroits entre Microsoft et l'industrie pétrolière. Car derrière ses promesses de devenir “carbon negative” d'ici 2030, l'entreprise continue de fournir ses outils les plus puissants aux majors du pétrole. Ces “émissions facilitées” – générées grâce aux technologies cloud, IoT ou machine learning – n'apparaissent dans aucun bilan officiel.Dans Business Wire, Will raconte sa frustration : « Les outils que j'aidais à construire étaient utilisés par de mauvais acteurs ». Holly ajoute : « Nous avions fait tout ce que nous pouvions de l'intérieur. Il fallait désormais agir de l'extérieur ». Quitter Microsoft, c'était aussi renoncer aux salaires confortables de la tech. Le couple vit désormais plus simplement, réduit ses dépenses et s'appuie sur l'économie du partage. Leur combat ? Définir des “lignes rouges”, comme interdire les contrats d'IA destinés à accroître la production de combustibles fossiles. Mais leur campagne peine à trouver des financements, malgré l'appui d'un donateur anonyme. Le contexte politique n'arrange rien : le retrait américain de l'accord de Paris sous Trump et la fin de certaines aides aux énergies propres ont fragilisé le mouvement.Les chiffres parlent d'eux-mêmes. En 2019, Microsoft vantait un contrat avec ExxonMobil, censé augmenter de 50 000 barils équivalent pétrole par jour d'ici 2025. Résultat : 6,35 millions de tonnes de CO₂ supplémentaires par an, soit plus de la moitié de l'empreinte carbone totale déclarée par Microsoft à l'époque. Et le géant n'est pas seul : Amazon collabore avec des foreurs pour optimiser leurs rendements, Google s'en est retiré en 2020 sous la pression de ses employés. Pendant ce temps, les émissions de Microsoft ont bondi de 23,4 % entre 2020 et 2024. Pour Holly, le constat est clair : « On ne peut pas prétendre être carbon negative tout en aidant les majors pétrolières à produire davantage ». Un paradoxe qui illustre l'un des grands défis de la transition énergétique : les promesses vertes des géants du numérique face à la réalité de leurs contrats fossiles. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Un site pour visualiser la dette de la France en direct ?

    Play Episode Listen Later Sep 16, 2025 2:47


    Fin août, l'ex-premier ministre François Bayrou lâchait une bombe budgétaire : la charge de la dette est devenue le premier poste de dépense de l'État français, devant l'éducation et la défense. Avec 66 milliards d'euros d'intérêts annuels et une dette par habitant qui frôle les 50 000 euros, les finances publiques apparaissent plus fragiles que jamais.Pour mesurer concrètement cette dérive, un outil citoyen fait beaucoup parler de lui : l'Horloge de la Dette publique. Derrière ce site gratuit, une start-up française, Living Republic, qui a imaginé un compteur géant affichant en temps réel la dette nationale. Et les chiffres donnent le vertige : plus de 3 410 milliards d'euros défilent sans interruption, l'équivalent de 49 633 euros par Français, nourrissons compris.Au-delà de l'effet visuel, la plateforme propose des indicateurs détaillés : ratio dette/PIB de 115,5 %, déficit 2025 estimé à 92,5 milliards, charges d'intérêts de 44 milliards. Des données mises à jour à la seconde, qui rendent palpable une réalité économique souvent dissimulée derrière les discours politiques. Chaque tic du compteur symbolise l'enfoncement du pays dans le rouge, donnant un poids psychologique à cette spirale financière. Le site va plus loin en détaillant la dette des grands services publics : 50 milliards pour EDF, 30,1 milliards pour les hôpitaux, près de 24 milliards pour SNCF Réseau. Autant de montants qui s'additionnent à la dette souveraine, rappelant que le problème dépasse largement le seul budget de l'État.Dans ce contexte tendu, François Bayrou a annoncé qu'il demanderait un vote de confiance le 8 septembre. Les marchés n'ont pas tardé à réagir : le CAC40 a chuté de 1,59 % le soir même, bien davantage que les autres places européennes. Un signe clair de l'inquiétude des investisseurs, alors qu'une éventuelle chute du gouvernement n'est pas à exclure. Avec son compteur en ligne, l'Horloge de la Dette publique offre une leçon de transparence démocratique. Elle sort les chiffres des rapports poussiéreux pour les projeter sous les yeux de tous, à l'heure où le pays s'interroge sur les efforts à venir et sur l'avenir même de son exécutif. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Un Wi-Fi 10 fois plus rapide grâce à l'IA ?

    Play Episode Listen Later Sep 15, 2025 2:21


    Imaginez un Wi-Fi capable de franchir les murs, là où les ondes les plus courtes se brisent d'ordinaire. C'est la promesse qu'esquissent des chercheurs de Princeton, qui viennent de tester avec succès un faisceau “Airy” piloté par intelligence artificielle. Leur découverte pourrait ouvrir la voie à un successeur crédible du Wi-Fi 7, alors que la bande sous-térahertz s'impose comme le nouvel eldorado du sans-fil.Dans leur expérience, un réseau neuronal a appris à sculpter l'onde radio pour lui faire suivre une trajectoire courbe, un peu comme une balle liftée au tennis. Résultat : le signal contourne un obstacle en temps réel, sans s'effondrer. Trois microsecondes suffisent au système pour réagir lorsqu'un passant s'interpose. Une réactivité permise par une approche « informée par la physique » qui évite des calculs trop lourds. Concrètement, de simples modules actifs de metasurface reconfigurent phase et amplitude du signal, sans miroir ni mécanique complexe. Les résultats impressionnent : là où un balayage classique perd des dizaines de décibels, le lien reste stable, même hors champ visible. L'essai a été mené à 120 GHz, une fréquence clé pour la prochaine génération de Wi-Fi. Pour passer du laboratoire aux box domestiques, deux défis demeurent : miniaturiser ces plaques actives et réduire leur consommation. Le saut de performance, lui, fait rêver. Quand le Wi-Fi 7 plafonne à 46 gigabits par seconde sur un canal de 320 MHz, la bande sous-térahertz ouvre la perspective de débits au téraoctet par seconde. De quoi envisager des usages aujourd'hui hors de portée : réalité virtuelle sans câble, streaming en 16K, robotique collaborative. Ici, ce n'est plus la portée qui compte, mais la stabilité du lien à courte distance. Si le marché suit, les premiers routeurs capables de “plier” leurs ondes pourraient apparaître d'ici la fin de la décennie. Reste à standardiser les algorithmes, adapter les protocoles WLAN et produire des metasurfaces abordables. En attendant, une chose est sûre : dans le futur du Wi-Fi, les murs ne feront plus la loi. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Qu'est-ce que Evil-GPT, « l'anti-ChatGPT » ?

    Play Episode Listen Later Sep 14, 2025 2:40


    En août 2023, sur le forum clandestin BreachForums, un compte pseudonyme nommé AMLO mettait en ligne un outil baptisé Evil-GPT — présenté comme « un assistant sans filtre » capable de contourner les gardes-fous habituels des grands modèles de langage. La promesse : générer en quelques clics des scripts malveillants, des campagnes de phishing ou des modules de collecte de données, sans besoin de compétences techniques. Le prix d'entrée a fait le reste : une dizaine de dollars pour l'accès complet.Très vite, la communauté underground s'est emparée du produit. Sur Telegram et d'autres canaux, des utilisateurs partagent retours d'expérience, codes générés et méthodes d'exploitation — certains attribuent à ces outils des attaques ciblées ou des fraudes (citations de cas comme Mondial Relay ou Ulyss), témoignant d'une banalisation des pratiques. L'offre s'adresse surtout aux néophytes : interface simple, scripts prêts à l'emploi, export des données vers des serveurs Discord, fonctionnalités clé en main.Mais derrière le battage commercial, la réalité technique est plus prosaïque. Une étude de Trend Micro (2024) a montré qu'Evil-GPT et ses clones ne sont pas des IA indépendantes : ils s'appuient massivement sur l'API d'OpenAI, détournée via des clés volées et des prompts jailbreakés. Les analyses de spécialistes et les témoignages sur les forums indiquent que les productions restent souvent basiques — e-mails de phishing génériques, scripts simples — et pas toujours adaptées à des attaques sophistiquées. Pendant ce temps, un écosystème marchand foisonne : WormGPT, FraudGPT, WolfGPT et autres proposent des offres variées, de quelques dizaines à plusieurs milliers de dollars. Le modèle économique mise sur la diffusion massive et l'exclusivité temporaire plutôt que sur des innovations techniques majeures.Conséquence : la barrière d'entrée de la cybercriminalité s'effondre. Les équipes de cybersécurité signalent une hausse des campagnes automatisées et recommandent de traiter toute attaque comme potentiellement générée par un chatbot. Le chercheur Alex Reibman parle d'un essor des « agentic malware » — outils capables d'orchestrer des étapes d'attaque — mais rappelle aussi que leurs limites tiennent souvent aux services d'API sous-jacents. Au final, l'innovation la plus dangereuse n'est peut-être pas l'outil lui-même, mais sa démocratisation. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    600 000 pétaflops, le plus gros supercalculateur japonais ?

    Play Episode Listen Later Sep 11, 2025 2:21


    Le Japon prépare un nouveau géant du calcul. Baptisé FugakuNEXT, ce projet vise une puissance de 600 000 pétaflops en FP8, une mesure taillée pour l'intelligence artificielle. Concrètement, il s'agit de marier deux mondes longtemps séparés : le calcul scientifique classique et les modèles génératifs. Une même machine capable à la fois de simuler des phénomènes physiques complexes et d'exploiter l'IA pour des usages concrets, de la découverte de médicaments à la prévention des catastrophes naturelles.La référence aux 600 exaflops FP8 peut prêter à confusion. Elle n'équivaut pas aux traditionnels FLOPS en double précision utilisés par les supercalculateurs scientifiques. Mais elle traduit un débit colossal optimisé pour l'IA, où la précision 8 bits est désormais la norme. Selon le centre de recherche RIKEN, FugakuNEXT pourrait offrir un gain d'efficacité jusqu'à 100 fois supérieur à son prédécesseur, tout en restant dans une enveloppe énergétique voisine de 40 mégawatts. Techniquement, le projet repose sur une architecture hybride. D'un côté, Fujitsu développe de nouveaux processeurs, les Monaka-X, dotés d'unités matricielles et d'extensions SIMD pour accélérer les calculs. De l'autre, NVIDIA fournit ses accélérateurs et son interconnexion NVLink Fusion, qui permettra de relier CPU et GPU et de partager la mémoire à très haute vitesse. Cette approche devrait maximiser la bande passante et réduire les goulets d'étranglement.Côté logiciel, l'accent est mis sur la précision mixte : l'IA exploitera massivement le FP8 et le FP16 pour accélérer les calculs, mais conservera des étapes critiques en précision plus élevée afin de garantir la fiabilité scientifique. Au-delà de la course aux records, FugakuNEXT s'inscrit dans une stratégie nationale. Le Japon veut démontrer que l'union du calcul intensif et de l'intelligence artificielle peut répondre à des enjeux sociétaux majeurs : mieux anticiper les risques naturels, améliorer la santé, optimiser l'industrie. Avec FugakuNEXT, le supercalcul ne se contente plus de chiffres vertigineux : il devient une promesse d'applications concrètes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    NVIDIA veut des jeux vidéo 100% générés par IA ?

    Play Episode Listen Later Sep 10, 2025 2:22


    Chez NVIDIA, l'intelligence artificielle n'est plus seulement un outil, c'est un cap stratégique. Le géant des cartes graphiques, mené par Jensen Huang, affiche désormais un objectif ambitieux : parvenir à un rendu 100 % IA dans les jeux vidéo.Depuis plusieurs années déjà, le deep learning s'est invité dans nos parties. Les joueurs connaissent bien le DLSS, ce Deep Learning Super Sampling qui permet d'améliorer la fluidité et la qualité d'image grâce à l'IA. Dans sa troisième version, il introduisait la « frame generation », intercalant une image générée par IA entre deux images calculées classiquement par le GPU. Avec le DLSS 4, NVIDIA va encore plus loin : ce sont désormais jusqu'à trois images créées par l'intelligence artificielle qui peuvent s'insérer entre deux images « réelles ». Une technologie regroupée sous le terme de Neural Rendering, ou rendu neuronal.Et ce n'est qu'un début. Lors de la conférence Hot Chips 2025, organisée fin août à l'université de Stanford, NVIDIA a confirmé que son horizon est clair : un futur où chaque image d'un jeu serait intégralement produite par l'intelligence artificielle. Pour atteindre ce but, l'entreprise mise sur sa nouvelle architecture Blackwell et sur la puissance colossale de cartes comme la GeForce RTX 5090. Dotée de 32 Go de mémoire vidéo GDDR7 et d'une bande passante record de 1 792 Go/s, cette carte a été pensée pour supporter la gourmandise du rendu neuronal. Autre élément clé : l'utilisation du format FP4, qui réduit l'empreinte en mémoire et accélère les calculs, un pas indispensable vers cette révolution.Mais au-delà des performances, NVIDIA met aussi en avant un argument énergétique. Le rendu neuronal, en optimisant les calculs, pourrait réduire la consommation électrique des GPU, un atout majeur pour les ordinateurs portables. Alors, quand verra-t-on des jeux 100 % IA ? Pas tout de suite, reconnaît NVIDIA. Mais l'objectif est clairement affiché : le futur du jeu vidéo passera par l'intelligence artificielle, et la firme de Jensen Huang entend bien rester en tête de cette course. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Apple lance une IA pour décrire le monde en temps réel ?

    Play Episode Listen Later Sep 9, 2025 2:01


    Apple avance ses pions dans l'intelligence artificielle, mais comme souvent, sans faire de bruit. Plus tôt cette année, la firme a présenté FastVLM, un modèle vision-langage, désormais disponible sur la plateforme Hugging Face. Son principe est simple : analyser une image et la décrire en texte. Autrement dit, l'inverse d'un générateur d'images.Pour les curieux, plusieurs versions sont proposées. La plus complète compte 7 milliards de paramètres, mais il existe aussi des modèles allégés à 1,5 et 0,5 milliard, ce dernier pouvant même être testé directement depuis son navigateur, sans rien installer. Par défaut, FastVLM décrit en une phrase ce qu'il voit via la webcam, mais il peut aller plus loin : identifier une émotion sur un visage, lire le texte d'une affiche ou reconnaître un objet précis.Techniquement, FastVLM peut tourner sur différents ordinateurs, mais il a été optimisé pour les processeurs Apple. Résultat : sur un Mac, il est annoncé 85 fois plus rapide que d'autres modèles équivalents. Reste la grande question : pourquoi Apple développe-t-il ce type d'IA ? Les usages potentiels sont multiples. Dans un casque Vision Pro, elle pourrait enrichir l'expérience en réalité mixte. Sur iPhone, elle servirait à scanner le contenu d'un frigo pour proposer des recettes, ou encore à traduire des panneaux à l'étranger. Mais la vraie révolution se joue peut-être ailleurs : combinée à des lunettes intelligentes, cette technologie pourrait transformer le quotidien des personnes malvoyantes, en leur décrivant en temps réel ce qui les entoure. Apple travaillerait déjà sur ses propres lunettes connectées, prévues pour 2026 ou 2027. Avec FastVLM, la marque prépare discrètement le terrain pour une IA capable de voir… et de rendre nos vies un peu plus simples. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    USA : 450 millions de dossiers sensibles en libre accès ?

    Play Episode Listen Later Sep 8, 2025 2:21


    C'est un nouveau séisme dans la cybersécurité américaine. Une plainte explosive met en cause le DOGE, un organisme controversé composé d'anciens employés d'Elon Musk nommés sous l'administration Trump. Selon le lanceur d'alerte Charles Borges, responsable des données à la Social Security Administration, le DOGE aurait transféré en juin dernier une base de données ultra-sensible vers un serveur cloud non sécurisé.Son nom : le Numerical Identification System. Cette base renferme les informations personnelles de millions d'Américains : noms, numéros de sécurité sociale, données financières, voire diagnostics de santé. Autrement dit, un trésor pour les cybercriminels. Dans sa plainte, Borges alerte : ces informations pourraient devenir accessibles au public si le DOGE décidait d'ouvrir l'accès à ces serveurs. Il parle d'un risque d'« impact catastrophique », allant jusqu'à devoir réattribuer de nouveaux numéros de sécurité sociale à 450 millions de personnes.Le contexte juridique complique encore l'affaire. En mars, une ordonnance fédérale avait restreint l'accès du DOGE à ces données. Mais la Cour suprême a levé ce blocage le 6 juin. Quelques jours plus tard, Aram Moghaddassi, directeur informatique du DOGE, validait le transfert malgré l'absence de contrôle indépendant. Il affirmait avoir « accepté tous les risques » au nom de l'efficacité opérationnelle. Un feu vert confirmé par Michel Rousso, autre haut responsable du DOGE. Du côté des autorités, la défense s'organise. Nick Perrine, porte-parole de la SSA, assure que ces données sont stockées « dans des environnements sécurisés », isolés d'internet, et uniquement accessibles à des responsables triés sur le volet. Autrement dit : aucun risque réel de compromission.Mais la plainte de Charles Borges met en lumière une inquiétude grandissante : la gouvernance des données personnelles aux États-Unis. Depuis janvier, le DOGE a pris le contrôle de plusieurs départements fédéraux et de leurs bases de données. Et déjà, les critiques pleuvent sur ses pratiques en matière de cybersécurité. À la Maison Blanche, on botte en touche : la porte-parole Elizabeth Huston redirige vers la SSA et refuse de dire si l'administration Trump était informée. Mais une chose est sûre : cette affaire rouvre le débat brûlant sur la protection des données des citoyens américains. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Citizen, l'IA de sécurité publique pleine de fake news ?

    Play Episode Listen Later Sep 7, 2025 2:11


    Peut-être avez-vous déjà entendu parler de Citizen, cette application américaine censée renforcer la sécurité publique. Son principe est simple : alerter les habitants en temps réel des crimes, accidents ou urgences autour d'eux. Mais derrière cette promesse rassurante, une enquête de 404 Media révèle un tout autre visage : l'intelligence artificielle qui génère ces alertes… se trompe régulièrement, au point de transformer l'outil en source de confusion.Selon des témoignages internes, l'IA de Citizen diffuse directement les informations captées sur les ondes radio des services d'urgence, sans qu'aucun humain ne vérifie. Résultat : des erreurs en cascade. Des accidents routiers transformés en “accidents avec meurtre”, des victimes inventées comme “un blessé par balle au visage”, des adresses erronées, ou encore des plaques d'immatriculation publiées sans confirmation. Dans certains cas, l'algorithme a même multiplié les alertes pour un seul et même incident, noyant les utilisateurs sous de fausses informations.Un employé anonyme raconte que « l'IA devenait folle », générant cinq à dix notifications différentes pour un seul fait divers. De quoi semer le doute, voire la panique, au lieu d'apporter de la clarté. Pour 404 Media, on frôle l'auto-sabotage. La polémique s'ajoute à d'autres casseroles. Citizen avait déjà défrayé la chronique en 2021 lors des incendies de Palisades, en mettant à prix la capture d'un homme finalement innocent. Plus récemment, l'entreprise a licencié 13 salariés syndiqués, remplacés par… cette fameuse IA aujourd'hui pointée du doigt. Et le timing est particulièrement mauvais : l'application vient tout juste de nouer un partenariat officiel avec la ville de New York pour lancer le compte NYC Public Safety, censé informer la population en temps réel. Mais avec une IA qui invente des blessés ou transforme un simple accident en scène de crime, difficile d'imaginer que la confiance des utilisateurs sorte indemne. En voulant accélérer et automatiser l'information, Citizen risque d'avoir perdu ce qui comptait le plus : la fiabilité. SOURCE : https://www.404media.co/citizen-is-using-ai-to-generate-crime-alerts-with-no-human-review-its-making-a-lot-of-mistakes/ Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Utiliser Youtube sans compte et avec ses fonctionnalités ? Une extension le permet !

    Play Episode Listen Later Sep 4, 2025 2:00


    Tous les héros ne portent pas de cape, dit l'adage. Celui-ci s'appelle AbhishekY495, développeur indépendant, et son arme n'est pas un superpouvoir mais une extension baptisée LocalTube Manager. L'annonce est tombée sur Reddit : son outil devient désormais gratuit et open source. Une petite révolution pour tous ceux qui cherchent à “dégooglifier” leur vie numérique.Jusqu'ici, LocalTube Manager était accessible via l'achat d'une licence. Mais le développeur a tranché : la phase de paiement était trop compliquée, alors autant simplifier… et basculer dans la gratuité. Le principe est clair : permettre d'utiliser les fonctions essentielles de YouTube sans passer par un compte Google. On peut ainsi liker des vidéos, s'abonner à des chaînes, créer ou sauvegarder des playlists… et tout est stocké en local, dans le navigateur, sans qu'aucune donnée ne remonte aux serveurs de Mountain View.L'extension propose aussi l'import et l'export des données, pratique pour conserver ses playlists d'un ordinateur à l'autre. Seule limite : impossible pour l'instant de récupérer directement les données d'un compte Google ou d'applis tierces comme Newpipe. Une piste que le créateur promet d'explorer. À noter également : LocalTube Manager ne bloque pas les publicités. Mais il reste une alternative efficace pour profiter de YouTube tout en réduisant sa dépendance au géant américain.Installer l'outil est un jeu d'enfant : il suffit de passer par le site officiel, le dépôt GitHub ou encore les boutiques d'extensions Chrome et Firefox, y compris sur Android. Une fois activé, un tableau de bord centralise vidéos aimées, abonnements et playlists dans une interface claire. L'expérience YouTube reste familière, mais sans recommandations intrusives, sans notifications, et surtout sans collecte massive de données. Une petite extension, certes, mais un grand pas pour la liberté numérique des internautes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Ecosia veut récupérer Google Chrome gratuitement ?

    Play Episode Listen Later Sep 3, 2025 2:01


    Dans le feuilleton judiciaire qui oppose Google à la justice américaine, un nouvel épisode attire l'attention. Alors que le procès antitrust pourrait obliger le géant à se séparer de son navigateur Chrome, les propositions affluent. Après l'offre spectaculaire de Perplexity, chiffrée à 34,5 milliards de dollars, c'est un acteur bien plus modeste qui entre en scène : Ecosia, le moteur de recherche allemand à but non lucratif.Mais contrairement aux mastodontes de la tech, Ecosia ne met pas d'argent sur la table. Son patron, Christian Kroll, propose tout simplement de “garder” Chrome pendant dix ans. Gratuitement. Une manière, dit-il, d'éviter de reproduire l'abus de position dominante qui a déclenché toute cette affaire.L'idée peut surprendre, car Chrome est une véritable machine à cash. Selon Ecosia, il pourrait générer plus de mille milliards de dollars dans les années à venir. Plutôt que de s'approprier cette manne, l'entreprise verte réclame 60 % des revenus issus des utilisateurs du navigateur… mais promet de les investir dans des projets climatiques, à l'image de sa mission historique : planter des arbres. Google conserverait pour sa part 40 % des revenus, ainsi que la propriété intellectuelle et la possibilité de maintenir son moteur de recherche par défaut.Au bout des dix ans, Chrome pourrait passer sous la houlette d'un autre acteur. Face à une enchère potentiellement colossale, l'offre d'Ecosia ressemble à un geste militant, presque provocateur. Mais elle met le doigt sur l'enjeu central du procès : qui doit contrôler le navigateur le plus utilisé au monde ? Une méga-entreprise de la tech… ou une structure plus modeste, qui promet de rendre à la planète ce que Chrome rapporte aux internautes ? Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    L'iSIM succède déjà à l'eSIM avant même d'être généralisé ?

    Play Episode Listen Later Sep 2, 2025 2:33


    Alors qu'Apple s'apprête à généraliser l'eSIM en Europe avec son prochain iPhone, une autre technologie pourrait bien bousculer encore davantage nos téléphones : l'iSIM. Plus discrète, plus intégrée, elle promet tout simplement de faire disparaître la carte SIM telle qu'on la connaît. Mais attention, ne la confondez pas avec l'eSIM.Avec l'eSIM, la carte reste une petite puce soudée sur la carte mère du smartphone. L'iSIM, elle, va beaucoup plus loin. Elle s'intègre directement au cœur du processeur, dans le SoC, ce “System on Chip” qui regroupe déjà le CPU pour les applis, le GPU pour les images, le NPU pour l'intelligence artificielle… et demain, peut-être, votre forfait mobile. En clair, la carte SIM devient une simple zone sécurisée dans la puce principale.Et ce n'est pas de la science-fiction. Dès 2023, Thales, Qualcomm et Vodafone ont présenté des prototypes fonctionnels, et la GSMA – l'organisme qui définit les standards mobiles – a commencé à délivrer ses premières certifications de sécurité. Les objets connectés ouvrent déjà la voie : montres, capteurs, appareils miniaturisés… pour eux, chaque millimètre carré gagné compte. Plus d'espace pour la batterie, plus de place pour de nouvelles fonctions, sans changer la taille des appareils. L'iSIM présente aussi un intérêt majeur côté sécurité. En étant intégrée au cœur du processeur, elle bénéficie des protections matérielles les plus avancées, rendant le piratage ou le clonage quasi impossibles sans accès direct au silicium. Et sur le plan industriel, la suppression du tiroir SIM, des connecteurs et même de la puce eSIM réduit les coûts de fabrication.Mais attention, tout n'est pas si simple. Pour les opérateurs, l'iSIM impose de moderniser leurs systèmes de gestion. L'activation et la gestion des profils se font avec les mêmes protocoles que l'eSIM, mais les diagnostics techniques deviennent plus complexes en cas de problème. Reste une certitude : après avoir enterré la carte SIM physique, l'iSIM pourrait bien redessiner le futur du smartphone. Et cette fois, ce n'est plus qu'une question d'années. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Vous n'aimez pas écouter de la musique ? La science a une réponse.

    Play Episode Listen Later Sep 1, 2025 2:09


    Pour la plupart d'entre nous, la musique est un refuge, un plaisir immédiat, un déclencheur d'émotions. Mais pour une minorité de personnes, écouter un morceau, même un classique universellement apprécié, ne provoque… rien. Ce phénomène porte un nom : l'anhédonie musicale.Des chercheurs de l'Université de Barcelone viennent de publier une étude qui éclaire ce trouble étonnant. Contrairement à ce que l'on pourrait croire, il ne s'agit pas d'un problème d'audition ni d'un cerveau incapable d'éprouver du plaisir. L'explication se trouve ailleurs : une faible connectivité entre les zones auditives et le circuit de la récompense. En clair, le cerveau entend la musique, mais le message ne déclenche pas la réaction de plaisir.Le neurologue Josep Marco-Pallarés, co-auteur de l'étude avec Ernest Mas-Herrero et Robert J. Zatorre, souligne que ces personnes réagissent parfaitement à d'autres formes de gratification. Un gain d'argent, par exemple, active normalement leur système de récompense. C'est donc bien une indifférence sélective, et non une incapacité globale à ressentir des émotions positives. Les images cérébrales confirment ce constat. Chez les mélomanes, le noyau accumbens — véritable centre du plaisir — s'illumine à l'écoute d'une musique agréable. Chez les personnes atteintes d'anhédonie musicale, cette activation reste limitée, tandis que leur réponse à d'autres stimuli gratifiants demeure normale.Pour mieux identifier ces profils, les chercheurs ont mis au point un outil inédit : le Barcelona Music Reward Questionnaire. Ce test explore cinq dimensions de notre rapport à la musique : l'émotion, la régulation de l'humeur, la sociabilité, l'envie de bouger et la recherche de nouveauté. Résultat : les individus insensibles à la musique affichent des scores très faibles sur toute la ligne. Si les causes exactes du phénomène restent encore floues, l'étude avance plusieurs pistes : facteurs génétiques, environnementaux, ou même conséquences de certains traumatismes cérébraux. En tout cas, elle ouvre une nouvelle fenêtre sur la complexité du cerveau humain et sur la manière singulière dont chacun de nous vit la musique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Elon Musk prépare le retour du réseau social Vine ?

    Play Episode Listen Later Aug 31, 2025 2:17


    C'était l'un des réseaux sociaux les plus marquants des années 2010. Vine, avec ses vidéos de six secondes, avait su séduire des millions d'utilisateurs avant de disparaître en 2017, après son rachat par Twitter. Huit ans plus tard, l'application culte pourrait renaître… sous l'impulsion d'Elon Musk. Le patron de X – ex-Twitter – a annoncé son intention de ressusciter Vine, mais dans une version inédite intégrant l'intelligence artificielle. Peu de détails pour l'instant, mais l'annonce suffit déjà à susciter l'enthousiasme et la curiosité. Car au-delà de la nostalgie, ce projet pourrait bien transformer notre façon de consommer la vidéo courte.À son apogée, Vine avait réuni plus de 200 millions d'utilisateurs dans le monde grâce à un concept aussi simple qu'efficace : six secondes pour captiver. Une formule qui a marqué toute une génération et influencé durablement les formats de TikTok, Instagram Reels ou encore YouTube Shorts. Aujourd'hui, Elon Musk veut miser sur ce format bref, parfaitement adapté à l'ère numérique actuelle où l'attention se mesure en secondes. L'innovation viendrait cette fois de l'IA. Le laboratoire xAI, créé par Musk, pourrait développer des outils capables de générer automatiquement des vidéos personnalisées. Une manière de combiner créativité et technologie de pointe. L'idée : permettre à chacun de produire facilement des contenus dynamiques, sans perdre l'esprit original du format court.D'ailleurs, ce type de contenu coïncide avec les limites actuelles de la vidéo générée par intelligence artificielle, souvent restreinte à quelques secondes. Google a récemment dévoilé une fonctionnalité similaire avec des mini-clips créés à partir de photos. De quoi renforcer la pertinence de ce format express, pensé pour être viral et facilement partageable. Mais de nombreuses questions restent ouvertes : quelles seront les fonctionnalités exactes ? Comment l'IA changera-t-elle l'expérience utilisateur ? Vine peut-il réellement trouver sa place dans un paysage déjà saturé par TikTok et consorts ? Une chose est sûre : si le projet aboutit, il pourrait redonner vie à une légende du web et séduire à la fois les nostalgiques et une nouvelle génération d'utilisateurs. Le pari est audacieux. Reste à voir si Elon Musk réussira à rallumer la flamme Vine. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Petite pause avant la rentrée

    Play Episode Listen Later Aug 24, 2025 0:20


    Choses à Savoir Tech s'offre une ultime pause en cette fin d'été et revient pour dès le dimanche 31 août pour une nouvelle saison. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    L'IA de Google reconstitue un texte romain disparu ?

    Play Episode Listen Later Aug 21, 2025 1:54


    L'Empire romain nous a légué des milliers d'inscriptions, précieuses pour comprendre son histoire. Mais beaucoup sont arrivées jusqu'à nous abîmées par le temps : lettres effacées, fragments manquants, supports brisés. Un casse-tête permanent pour les historiens, d'autant que chaque année, pas moins de 1 500 nouvelles inscriptions latines sont mises au jour. Pour leur venir en aide, Google et l'université de Nottingham ont mis au point Aeneas, une intelligence artificielle spécialement conçue pour reconstituer ces textes. Dans la revue Nature, les chercheurs détaillent ses capacités : identifier l'origine d'une inscription, retrouver des parallèles dans d'autres corpus, et surtout compléter les parties manquantes.Concrètement, Aeneas s'appuie sur les ressemblances visuelles et linguistiques avec plus de 176 000 inscriptions latines issues de grandes bases de données comme EDR ou EDH. De quoi lui permettre de proposer des reconstructions plausibles. Sa précision atteint 73 % lorsque la lacune ne dépasse pas dix caractères, et reste à 58 % quand la longueur du texte manquant est inconnue. Pas infaillible donc, mais déjà un gain de temps considérable pour les chercheurs, qui conservent la main et peuvent vérifier étape par étape le raisonnement de l'IA.Et Aeneas a un atout supplémentaire : sa capacité à repérer des détails passés inaperçus pour l'œil humain, ouvrant parfois de nouvelles pistes d'interprétation. L'outil pourrait aussi s'adapter à d'autres langues anciennes, à des papyrus ou même à des pièces de monnaie. D'ailleurs, Google l'a déjà intégré à Ithaca, son IA dédiée au grec. Bonne nouvelle : Aeneas est disponible gratuitement, en open source, avec son code et ses données accessibles sur GitHub. Une manière d'élargir encore le champ des possibles… et de donner une seconde vie aux voix éteintes de Rome. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    OpenAI : les modèles open-source sont-ils réellement « ouverts » ?

    Play Episode Listen Later Aug 20, 2025 2:05


    C'est un petit virage, mais qui pourrait avoir de grandes conséquences. Depuis sa création en 2019, OpenAI, la société de Sam Altman, n'avait mis à disposition que des modèles fermés, jalousement protégés. Un choix souvent critiqué, au regard même du nom de l'entreprise, accusée de verrouiller l'innovation au profit d'un seul acteur.Mais voilà qu'OpenAI desserre légèrement l'étau avec deux nouveaux modèles : gpt-oss-20b et gpt-oss-120b. Ils sont dits open weight, c'est-à-dire que leurs poids – ces milliards de paramètres qui façonnent l'intelligence du modèle – sont accessibles à tous, sous licence Apache 2.0, l'une des plus permissives qui soient. En clair, chacun peut les télécharger, les exécuter, les modifier, voire les intégrer dans des produits commerciaux. Le premier tourne sur un simple Mac doté de 16 Go de RAM, le second exige tout de même une carte NVIDIA haut de gamme de 80 Go. Attention cependant : on est loin d'un vrai open source. Si les poids sont disponibles, l'architecture complète, les données d'entraînement et les techniques d'optimisation restent confidentielles. Autrement dit, OpenAI ouvre la porte… mais garde la clé. Un compromis assumé, qui permet à l'entreprise de participer à l'écosystème ouvert sans trop risquer de fuite de propriété intellectuelle.Pourquoi ce mouvement ? Parce que la concurrence s'organise, notamment en Chine. Des modèles comme DeepSeek ou Qwen d'Alibaba progressent à grande vitesse, avec des performances redoutables en raisonnement ou en programmation, et surtout à moindre coût. OpenAI entend donc réaffirmer son rôle d'acteur stratégique « made in USA », à un moment où l'intelligence artificielle devient aussi un terrain d'affrontement géopolitique. Côté performances, la firme assure que ses modèles ouverts tiennent la comparaison avec ses propres technologies internes de petite taille, comme o3-mini et o4-mini. Mais elle se garde bien de toute confrontation directe avec DeepSeek. Un signe que la bataille de l'IA ouverte ne fait que commencer. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Un agent IA débarque sur Linux ?

    Play Episode Listen Later Aug 19, 2025 2:03


    Un nouvel acteur vient de faire son entrée dans l'univers des assistants intelligents, et il s'adresse directement aux passionnés de Linux. Newelle, c'est son nom, vient de sortir en version 1.0. Basé sur GNOME, l'environnement de bureau phare du monde libre, il se distingue par une intégration native et transparente, avec une interface GTK qui lui donne l'allure d'un outil pensé dès le départ pour l'écosystème Linux.L'assistant ne se contente pas de répondre à des questions : il propose une véritable boîte à outils intelligente. On y retrouve un gestionnaire de fichiers intégré, capable d'accompagner l'utilisateur dans ses tâches grâce à l'IA, un gestionnaire de profils permettant de basculer d'une configuration à une autre, ainsi qu'une mémoire à long terme, qui permet de se souvenir des échanges passés pour personnaliser les interactions.Côté fonctionnalités avancées, Newelle mise sur la flexibilité : choix des modèles d'IA, qu'ils soient locaux ou hébergés dans le cloud, extensions personnalisées pour enrichir l'expérience, et même la possibilité de discuter avec ses propres documents ou d'extraire directement des informations de sites web. Le logiciel prend en charge le Markdown, le LaTeX, mais aussi la reconnaissance vocale et la synthèse vocale, permettant une utilisation totalement mains libres. Plus surprenant encore : il peut exécuter des commandes dans le terminal suggérées par l'IA, une fonction qui séduira sans doute les utilisateurs avancés.Disponible dès maintenant via GitHub ou Flathub, Newelle reste fidèle à la philosophie du libre : son installation est entièrement optionnelle et manuelle. Un contraste marqué avec Microsoft, qui intègre désormais ses assistants de manière quasi imposée à Windows. Avec ce lancement, Newelle s'impose comme une alternative sérieuse et respectueuse pour ceux qui veulent profiter de l'intelligence artificielle tout en gardant le contrôle de leur environnement. Reste à voir si la communauté Linux saura s'emparer de ce nouvel outil et l'enrichir, comme elle sait si bien le faire. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    X.com : bientôt des pubs dans les conversations avec Grok ?

    Play Episode Listen Later Aug 18, 2025 1:58


    Développer une intelligence artificielle, ça coûte une petite fortune. Et même si, à long terme, ces technologies promettent d'énormes bénéfices, leur mise au point nécessite des investissements colossaux. C'est dans ce contexte qu'Elon Musk, patron de la société xAI, à l'origine du chatbot Grok, cherche de nouvelles sources de financement. Et comme souvent dans le monde numérique… cela passe par la publicité.La question est donc posée : faudra-t-il bientôt s'habituer à voir des annonces s'inviter directement dans nos conversations avec une IA ? Le Financial Times rapporte en tout cas un échange public tenu le 6 août sur le réseau X entre Musk et plusieurs annonceurs, au cours duquel l'idée a été sérieusement évoquée. « Jusqu'à présent, nous nous sommes concentrés uniquement sur la création de Grok, l'IA la plus intelligente et la plus précise au monde. Nous allons désormais réfléchir au financement de ces GPU coûteux », a déclaré l'homme d'affaires. Et il ne s'agirait pas de publicités classiques, mais d'un ciblage redoutablement précis. Musk imagine en effet que lorsqu'un utilisateur pose une question à Grok pour résoudre un problème, l'IA puisse lui suggérer en même temps une solution commerciale, parfaitement adaptée à sa demande.Une stratégie qui séduit déjà de nombreux annonceurs. Toujours selon le Financial Times, les marques réclament depuis plusieurs mois la possibilité d'intégrer leurs messages au cœur des conversations avec des chatbots. De quoi ouvrir un nouveau marché publicitaire colossal. Mais tout le monde n'est pas sur la même ligne. Si Musk et xAI semblent prêts à franchir le pas, d'autres acteurs, comme OpenAI, écartent pour l'instant cette perspective, jugeant que l'expérience utilisateur pourrait en pâtir. Alors, simple évolution du modèle économique ou dérive intrusive ? La question est lancée : accepteriez-vous de voir des pubs s'afficher au beau milieu de vos échanges avec une intelligence artificielle ? Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    L'Italie s'envole pour Mars ?

    Play Episode Listen Later Aug 17, 2025 2:22


    L'Italie n'a jamais caché ses ambitions spatiales. Déjà principal contributeur de la mission européenne ExoMars, qui doit envoyer en 2028 le rover Rosalind Franklin à la recherche de traces de vie passée, Rome franchit aujourd'hui une étape supplémentaire. Plutôt que d'attendre les aléas des grands programmes internationaux, le pays choisit de s'associer directement à un acteur privé : SpaceX.« L'Italie va aller vers Mars ! », s'est enthousiasmé Teodoro Valente, président de l'agence spatiale italienne, sur X.com. L'accord, officialisé le 7 août, prévoit que plusieurs charges utiles soient transportées par la fusée Starship d'Elon Musk jusqu'à la planète rouge. Parmi elles : une expérience sur la croissance des plantes, un capteur de rayonnement et une station de surveillance météorologique. Des instruments qui permettront de recueillir des données non seulement à la surface de Mars, mais aussi durant les six mois de voyage interplanétaire. Pour Valente, il s'agit d'un « partenariat inédit », symbole de la volonté italienne de « jouer un rôle de premier plan dans l'exploration spatiale ». Et il faut le rappeler : seuls deux pays ont, jusqu'ici, réussi à se poser sur Mars — les États-Unis avec trois rovers, et la Chine avec un.Côté SpaceX, la satisfaction est tout aussi palpable. « Nous allons sur Mars ! », a lancé Gwynne Shotwell, présidente de l'entreprise américaine, en mettant en avant une nouvelle offre : un service de transport vers Mars. Mais entre l'annonce et la réalisation, le chemin reste long. Car si le Starship est annoncé comme l'outil clé de cette conquête, il n'a pour l'instant jamais atteint l'orbite. Ses essais récents se sont soldés par de spectaculaires explosions, obligeant Elon Musk à repousser ses ambitions.Dans un message publié le 6 août, le milliardaire a fixé un nouveau cap : 2028 pour un vol non habité, et sans doute au-delà de 2030 pour un premier trajet avec équipage. Bien loin de ses promesses initiales d'une colonie martienne dès… 2024. Reste que pour l'Italie, cette alliance est un signal fort : celui d'une nation européenne décidée à ne pas rester spectatrice de la course vers Mars. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Dans quelles sources de données viennent piocher les IA ?

    Play Episode Listen Later Aug 14, 2025 2:08


    Si ChatGPT, Gemini ou encore Grok progressent aussi vite, c'est en grande partie grâce à un ingrédient-clé : les données massives disponibles sur Internet. Et désormais, on sait un peu mieux d'où elles proviennent. Une infographie publiée par Statista a analysé les réponses fournies par ChatGPT, Perplexity, AI Overviews et le mode IA de Google pour déterminer quelles sources ces intelligences artificielles exploitent le plus.En tête du classement, surprise : Reddit apparaît dans 40 % des réponses, loin devant Wikipedia (26,3 %), YouTube (23,5 %) et même Google (23,3 %). Autrement dit, le savoir collectif et les discussions informelles des internautes sont au cœur de l'entraînement des IA. Des plateformes comme Yelp, Tripadvisor ou Facebook fournissent aussi des données précieuses… et gratuites. C'est là que le débat s'ouvre : combien de temps encore ces trésors de contenu généré par les utilisateurs resteront-ils exploitables librement ? Déjà, les ayants droit peinent à faire respecter leur propriété intellectuelle. Et pour le contenu du domaine public, la récolte continue, sans que ses auteurs touchent quoi que ce soit.Exemple parlant : depuis juin, Meta utilise vos données personnelles pour entraîner son IA, Meta AI, sauf si vous vous y êtes formellement opposé. Tout ce que vous publiez ou commentez sur Facebook, Instagram, WhatsApp ou Messenger entre dans ses bases d'apprentissage. Pour l'instant, Meta AI est optimisée pour le public américain, mais la firme veut adapter son outil aux usages et à la culture européenne. En clair, vos interactions en ligne pourraient bientôt façonner un modèle pensé pour mieux répondre… à vous. Derrière la magie des réponses fluides et “intelligentes” des IA, il y a donc un constat simple : elles se construisent sur nos traces numériques, offertes souvent sans que nous en mesurions vraiment la valeur. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Clap de fin pour le supercalculateur Dojo de Tesla ?

    Play Episode Listen Later Aug 13, 2025 2:21


    En 2019, Dojo s'annonçait comme l'un des projets les plus ambitieux de Tesla : un supercalculateur maison capable de traiter les flux vidéo envoyés par sa flotte de véhicules pour perfectionner conduite autonome et robotique. Au cœur du système, la puce D1, conçue en interne, devait libérer Tesla de ses fournisseurs traditionnels. Mais les retards techniques se sont accumulés, et les départs en série ont eu raison de l'initiative. Plusieurs cadres clés ont quitté le navire pour fonder DensityAI, une start-up développant des solutions similaires. En 2025, Peter Bannon, dernier chef du programme, les rejoint avec une vingtaine d'ingénieurs. Elon Musk confirme alors l'abandon de Dojo : Tesla se concentre désormais sur deux nouvelles puces, AI5 et AI6, produites avec TSMC et Samsung.L'histoire avait pourtant commencé avec de grandes ambitions : chaque puce D1 contenait 354 cœurs cadencés à 2 GHz, vingt-cinq d'entre elles formant un bloc de calcul de 9 pétaflops. L'objectif final ? Plus de 100 exaflops de puissance, grâce à 3 000 blocs assemblés. Un lancement prévu en 2024, déjà doté d'un investissement dépassant le milliard de dollars. Mais au fil des ans, les départs se sont multipliés : Jim Keller en 2018, Ganesh Venkataramanan en 2023, Milan Kovac, David Lau… et même Omead Afshar, proche collaborateur de Musk. Trop de pertes pour maintenir le projet à flot.Aujourd'hui, Tesla revoit sa stratégie : l'AI5 reste fabriquée par TSMC, l'AI6 sera produite par Samsung au Texas dans le cadre d'un contrat de 16,5 milliards de dollars jusqu'en 2033. Ces nouvelles puces, conçues pour l'inférence mais capables d'entraînement, équiperont les futures plateformes de robotaxis et systèmes robotiques. Pour les calculs les plus lourds, Tesla continuera à s'appuyer sur Nvidia et AMD. Un recentrage industriel et stratégique, qui promet des délais plus courts et une intégration rapide. Mais un contraste saisissant avec l'enthousiasme de septembre 2023, lorsque Morgan Stanley estimait que Dojo pourrait ajouter 500 milliards à la capitalisation de Tesla… Un rêve aujourd'hui rangé au placard. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Les JO des robots humanoïdes organisés en Chine ?

    Play Episode Listen Later Aug 12, 2025 2:08


    Après avoir couru un semi-marathon ou disputé un match de foot, les robots passent à l'étape supérieure. La semaine prochaine, Shanghai va accueillir la toute première édition des World Humanoid Robot Games. Un événement inédit qui rassemblera plus de 500 robots issus de 127 entreprises, venus se mesurer dans une série d'épreuves sportives et artistiques. Au programme : football, basketball, tennis de table, combat libre… mais aussi danse en groupe et démonstrations techniques simulant des situations réelles. L'objectif ? Évaluer la mobilité, la réactivité et la coordination de ces machines, tout en offrant un spectacle digne des compétitions humaines.La télévision publique chinoise a déjà donné un aperçu : des robots dribblant un ballon, esquivant des coups sur un ring ou exécutant des gestes précis inspirés de sportifs professionnels. Les compétitions se dérouleront dans plusieurs enceintes de la ville, spécialement aménagées pour accueillir les épreuves et des zones d'exposition. Les participants viennent de tous horizons : start-up, géants de la tech, universités et laboratoires de recherche. Mais derrière le show, il y a un enjeu économique majeur. L'industrie chinoise des humanoïdes est en pleine accélération, portée par des investisseurs de poids comme Tencent ou Alibaba. Certaines entreprises se préparent déjà à entrer en bourse, profitant d'un atout clé : une production locale intégrée, capable de fournir à la fois les composants mécaniques et électroniques. Résultat : des coûts plus bas et des prix agressifs.Exemple marquant : Unitree a récemment lancé un humanoïde à environ 6 000 dollars. Un tarif qui ouvre le marché à des secteurs jusque-là exclus de ce type de technologie. L'objectif des fabricants est clair : rendre ces robots polyvalents, capables de passer de tâches simples à des missions plus complexes. Les Jeux de Shanghai serviront ainsi de vitrine mondiale, montrant non seulement la prouesse technologique, mais aussi le potentiel commercial de ces machines… qui n'ont pas fini de nous courir après. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    NVIDIA et AMD vont payer les USA pour chaque puce vendue en Chine ?

    Play Episode Listen Later Aug 11, 2025 1:58


    Les relations commerciales entre Washington et Pékin sont déjà assez tendues… et quand il s'agit de high-tech, la partie se corse encore. Ces dernières années, les États-Unis ont multiplié les restrictions sur l'exportation de matériel vers la Chine, au point d'interdire presque totalement à NVIDIA de vendre ses puces H20 à son grand rival asiatique.Eh bien, surprise : cette interdiction va tomber… grâce à un accord pour le moins inédit. Selon le Financial Times, NVIDIA et AMD viennent d'obtenir des licences d'exportation vers la Chine. Mais attention : rien n'est gratuit. En échange, les deux géants américains de la tech verseront à Washington 15 % des revenus générés par la vente de leurs puces – les H20 pour NVIDIA, les MI308 pour AMD – sur le marché chinois.Pour l'instant, personne ne sait exactement comment cette manne financière sera utilisée. Ce qui est sûr, c'est que c'est une première dans l'histoire économique américaine : jamais une licence d'export n'avait été conditionnée au reversement direct d'une partie des recettes d'une entreprise au gouvernement. Un deal qui rappelle l'approche transactionnelle popularisée sous l'ère Trump : les règles du commerce peuvent s'assouplir… si un accord avantageux est trouvé.Mais ce feu vert pourrait être de courte durée. À Washington, les opposants sont nombreux. Une vingtaine d'experts en sécurité viennent de signer une lettre au secrétaire au Commerce, Howard Lutnick, pour exiger que ces puces ne soient pas vendues en Chine, estimant qu'elles pourraient booster dangereusement les capacités d'intelligence artificielle de Pékin. Autrement dit, cette ouverture pourrait bien être un simple sursis, dans un match États-Unis–Chine où technologie et géopolitique s'emmêlent toujours plus. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Pourquoi GPT-5 fait enrager les utilisateurs ?

    Play Episode Listen Later Aug 10, 2025 2:07


    C'était censé être une révolution. Avec GPT-5, OpenAI voulait confirmer sa place de leader mondial de l'intelligence artificielle. Un modèle dernier cri, intégré gratuitement à ChatGPT, censé séduire aussi bien les curieux que les abonnés. Mais la transition a viré à la tempête… et la communauté gronde. Au cœur de la colère : la disparition brutale des anciens modèles, y compris le très apprécié GPT-4o. Du jour au lendemain, sans avertissement, GPT-5 est devenu l'unique option. Pour de nombreux abonnés, leurs habitudes et leurs méthodes de travail ont été balayées. Et le choc est double : au-delà de la contrainte, beaucoup jugent GPT-5 moins performant.Surnommé par certains « zombie beige et corporatiste », GPT-5 est accusé de donner des réponses plus courtes, moins précises, et parfois moins logiques. Un comble pour une mise à jour qui, pour beaucoup, ressemble davantage à un déclassement qu'à un progrès. Comme si cela ne suffisait pas, la présentation officielle a tourné au fiasco. Des graphiques de performance erronés ont été projetés, déclenchant moqueries et critiques. Sam Altman, PDG d'OpenAI, a dû reconnaître un « méga ratage » et présenter ses excuses publiques.Face à la fronde, OpenAI a dû réagir. Retour partiel en arrière : GPT-4o sera réintégré… mais uniquement pour les abonnés ChatGPT Plus à 20 dollars par mois. « Nous avons clairement sous-estimé l'importance que certaines fonctionnalités de GPT-4o avaient pour de nombreux utilisateurs », a admis Altman, tout en maintenant que GPT-5 restait supérieur sur la plupart des points. Combien de temps GPT-4o restera accessible ? Mystère. Le PDG prévient : « Nous observerons l'usage afin de déterminer combien de temps proposer les anciens modèles. » En attendant, cette affaire rappelle qu'en technologie, l'innovation n'est pas seulement une question de puissance… mais aussi de confiance entre une entreprise et sa communauté. Et sur ce terrain, OpenAI a visiblement encore du travail. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Microsoft peut cloner des voix à la perfection ?

    Play Episode Listen Later Aug 7, 2025 1:56


    C'est une petite révolution dans le monde de la synthèse vocale. Microsoft vient de lever le voile sur DragonV2.1, la nouvelle version de son moteur vocal intégré à Azure AI Speech. Et les promesses sont ambitieuses : des voix plus naturelles, plus justes… et plus difficiles à distinguer de la réalité. Là où il fallait auparavant plusieurs minutes de données vocales pour créer un clone convaincant, DragonV2.1 se contente désormais de quelques secondes seulement. Le tout, dans plus de 100 langues. De quoi faire frémir les studios de doublage et ravir les développeurs d'assistants vocaux ou de chatbots.Par rapport à la précédente version, DragonV1, les améliorations sont nettes. Le nouveau modèle affiche une réduction de 12,8 % du taux d'erreur de mot, et corrige les défauts de prononciation, notamment sur les noms propres. Microsoft promet une prosodie plus fluide, plus stable, plus humaine. Mais ce qui impressionne, c'est le niveau de personnalisation : accents, intonations, lexiques spécifiques, tout peut être modulé grâce aux balises SSML. Des profils vocaux comme Andrew, Ava ou Brian permettent même de tester rapidement les capacités du modèle.Bien sûr, avec une telle fidélité vocale, le spectre du deepfake plane. Microsoft en est pleinement conscient. Pour prévenir tout usage malveillant, l'entreprise impose des garde-fous stricts : consentement obligatoire, déclaration explicite d'un contenu synthétique, interdiction d'imitation trompeuse, et surtout, ajout automatique d'un filigrane audio. Ce filigrane invisible serait détectable dans 99,7 % des cas, selon l'entreprise. Suffisant pour rassurer ? Rien n'est moins sûr. Mais une chose est claire : avec DragonV2.1, les voix synthétiques viennent de franchir un cap. Entre progrès technologique et enjeu éthique, la voix de demain sera peut-être déjà celle d'une machine. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Les ondes wifi permettent de nous pister physiquement ?

    Play Episode Listen Later Aug 6, 2025 2:09


    Et si votre réseau Wi-Fi servait à autre chose qu'à regarder des vidéos ou envoyer des mails ? La technologie sans fil pourrait bien devenir un outil de détection et de surveillance redoutable… C'est en tout cas ce que révèle une étude surprenante menée par des chercheurs de l'université La Sapienza, à Rome.Leur invention s'appelle WhoFI. Son principe ? Identifier une personne grâce à la manière dont son corps interagit avec les ondes Wi-Fi. Chaque individu produirait, sans le savoir, une sorte d'empreinte électromagnétique unique. Une fois cette signature enregistrée, le système serait ensuite capable de la reconnaître en temps réel, sans capteur, sans caméra, sans puce : juste en observant les rebonds du signal Wi-Fi dans l'environnement.Une technologie qui va bien au-delà des expérimentations passées. Car si des tentatives similaires ont déjà été menées, les résultats étaient encore trop imprécis. En 2020, un système du même genre n'affichait qu'un taux de reconnaissance de 75%. Avec WhoFI, on monte à 95,5%. Une précision qui pourrait tout changer.Imaginez un lieu public où il devient possible de localiser et suivre une personne, même dans le noir, derrière un mur, sans aucune caméra. Pour les chercheurs, on tient là un outil de surveillance d'une efficacité redoutable. Et même si, pour l'instant, le système reste cantonné au laboratoire, il y a fort à parier que les services de renseignement y jettent déjà un œil très intéressé. Reste une question centrale : jusqu'où sommes-nous prêts à aller au nom de la sécurité ? Car si le Wi-Fi peut vous reconnaître… il pourrait bien, un jour, ne plus jamais vous lâcher. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Apple veut finalement créer son propre ChatGPT ?

    Play Episode Listen Later Aug 5, 2025 2:04


    Apple avait fait sensation en juin dernier en dévoilant Apple Intelligence, sa grande offensive dans l'intelligence artificielle. Une annonce forte, mais avec un grand absent : aucun chatbot maison. La firme de Cupertino semblait vouloir laisser cette tâche à ChatGPT, discrètement intégré à Siri pour répondre aux requêtes générales. À l'époque, Apple jugeait l'intérêt du public limité pour ce genre d'outil, et certains de ses propres ingénieurs en IA se montraient sceptiques.Mais les lignes ont bougé. Face au succès grandissant de ChatGPT, Claude ou encore Gemini, Apple semble revoir sa copie. Selon les révélations du journaliste spécialisé Mark Gurman, un projet d'envergure serait en cours dans les coulisses. Son nom : Answers, Knowledge and Information, ou AKI. L'objectif ? Développer un chatbot capable d'explorer le web et de fournir des réponses précises, à la manière de ses concurrents. Le chantier est mené par Robby Walker, un vétéran de Siri, et pourrait aboutir à une nouvelle application autonome, mais aussi à des intégrations profondes dans Siri, Spotlight et Safari. Apple recrute d'ailleurs activement des spécialistes en recherche algorithmique. Et un possible rachat stratégique dans le secteur de l'IA ne serait pas à exclure dans les mois à venir.Ce virage n'est pas seulement technologique, il est aussi stratégique. Apple reste très dépendante de Google, qui lui verse chaque année près de 20 milliards de dollars pour rester le moteur de recherche par défaut. Mais si la justice américaine impose une renégociation de cet accord, c'est toute une part de croissance qui pourrait vaciller. En clair, développer son propre moteur IA, c'est pour Apple une question de souveraineté. Cela permettrait non seulement de maîtriser sa chaîne de recherche, mais aussi de renforcer ses engagements en matière de confidentialité. Dans un marché de la recherche bousculé par l'IA générative, attendre n'est plus une option. Reste à savoir si la pomme parviendra à rattraper son léger retard… et à imposer sa propre voix intelligente. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Des pays de l'UE abandonnent « la vie privée » et peuvent lire vos messages ?

    Play Episode Listen Later Aug 4, 2025 2:01


    Le projet européen baptisé “Chat Control” avance à grands pas… et avec lui, un débat explosif. Soutenu par plusieurs États membres, dont la France, l'Allemagne, l'Espagne et la Pologne, ce texte vise à obliger les applications de messagerie comme WhatsApp, Signal ou Telegram à analyser automatiquement tous les messages – textes comme images – pour détecter des contenus liés à l'exploitation sexuelle d'enfants.Une ambition sécuritaire, oui. Mais derrière, des inquiétudes grandissantes. Car pour parvenir à cet objectif, les plateformes devraient installer des systèmes de surveillance directement sur les appareils – des smartphones ou des ordinateurs. C'est ce qu'on appelle le "client-side scanning" : des outils capables d'analyser les contenus avant même leur chiffrement. Un changement de paradigme. Car même les messageries dites chiffrées de bout en bout, conçues justement pour garantir la confidentialité, seraient concernées. Et c'est là que le tollé commence.Des associations de défense des droits numériques, des experts en cybersécurité, des magistrats et même certains eurodéputés tirent la sonnette d'alarme. Patrick Breyer, élu européen, dénonce une "surveillance de masse inédite", où chaque citoyen serait traité comme un suspect. Les spécialistes en cryptographie alertent : toute porte ouverte, même bien intentionnée, peut être exploitée – par des États autoritaires, des groupes criminels, ou des acteurs malveillants. Plus grave encore : ces outils, conçus pour détecter l'illégal, pourraient produire de nombreux faux positifs. Des photos de famille, des conversations adolescentes, ou des échanges entre victimes et associations pourraient être mal interprétés. Le Conseil de l'UE lui-même a exprimé ses réserves juridiques, jugeant la mesure disproportionnée et inefficace face aux vraies méthodes utilisées par les criminels, qui contournent souvent les messageries classiques. En attendant, la bataille continue dans les couloirs de Bruxelles. Et si vous tombez sur un contenu suspect en ligne, n'oubliez pas : vous pouvez le signaler via la plateforme Pharos. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Pourquoi Microsoft cible certaines ambassades ?

    Play Episode Listen Later Aug 3, 2025 1:54


    Une enquête publiée par Microsoft révèle une vaste opération d'espionnage informatique visant plusieurs ambassades étrangères à Moscou. En cause : un groupe de hackers lié au FSB, les services de renseignement russes. Le groupe, connu sous le nom de Secret Blizzard, mais aussi sous les alias Turla, Snake ou encore Venomous Bear, sévit depuis la fin des années 1990. Leur dernière trouvaille ? Un malware baptisé ApolloShadow, capable de s'installer discrètement sur les ordinateurs diplomatiques… à partir même des connexions Internet locales.Comment ça fonctionne ? L'attaque débute dès qu'un appareil se connecte à un fournisseur d'accès russe. Les hackers redirigent alors le trafic vers une fausse page de connexion, similaire à celles des réseaux Wi-Fi publics. En coulisses, une requête Windows censée contacter Microsoft est détournée vers un domaine frauduleux. Le piège se referme : le logiciel espion s'installe sans que l'utilisateur ne clique sur quoi que ce soit. ApolloShadow se fait ensuite passer pour un banal installateur Kaspersky, affichant une fenêtre système qui semble légitime. Une fois les droits administrateur accordés, il installe deux certificats racine pour intercepter les connexions sécurisées. Résultat : même les échanges diplomatiques cryptés peuvent être espionnés. Le malware modifie les règles du pare-feu, redéfinit le réseau comme privé, et crée un compte système fantôme, “UpdatusUser”, qui permet aux attaquants de conserver l'accès.L'activité a été détectée en février 2025, mais le malware circulait déjà depuis l'an dernier. Microsoft a fourni aux ambassades les outils pour détecter les infections, et recommande désormais l'usage de VPN ou de connexions satellites pour contourner les infrastructures russes. Un rappel sévère : la diplomatie moderne ne se joue plus seulement autour d'une table… mais aussi dans les câbles. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Pourquoi Elon Musk dépose la marque MacroHard ?

    Play Episode Listen Later Jul 31, 2025 2:09


    Entre Elon Musk et Bill Gates, ce n'est pas l'amour fou, et ce n'est plus un secret. Mais cette semaine, la rivalité entre les deux géants de la tech a pris un tournant inattendu… et franchement piquant. Elon Musk vient en effet de déposer officiellement la marque “MacroHard” auprès de l'office américain des brevets. Un nom qui fait évidemment référence à Microsoft – et surtout, qui s'en moque ouvertement.“Macro” contre “Micro”, “Hard” contre “Soft”… Musk joue la carte du détournement linguistique pour envoyer un message on ne peut plus clair : il crée l'anti-Microsoft, au moins dans l'intention. D'autant que ce nom pourrait bien être associé à un projet tout droit sorti de ses cartons : un logiciel d'intelligence artificielle multi-agents, capable de générer du code, des images, des vidéos, et même d'émuler des humains dans des machines virtuelles. Une technologie que Musk évoquait récemment sur X – anciennement Twitter – avec, déjà, une petite allusion à un nom “satirique”. Provocation gratuite ou lancement stratégique ? Un peu des deux. Depuis des années, Elon Musk multiplie les tacles contre Bill Gates. En 2020 déjà, le fondateur de Microsoft lui reprochait ses “propos irresponsables” et lui conseillait de se concentrer sur “les fusées et les voitures”. Deux ans plus tard, le torchon brûle définitivement : Gates parie 500 millions de dollars sur une chute de l'action Tesla. Musk, furieux, annule une rencontre sur des projets caritatifs et poste dans la foulée un mème moqueur… représentant Bill Gates comme un homme enceint.Depuis, c'est l'escalade. Entre piques, détournements et petites phrases assassines, la plateforme X est devenue le ring de ce combat de milliardaires. Et l'arrivée d'Elon Musk dans le cercle rapproché de Donald Trump n'a rien arrangé. Dans ce contexte ultra-tendu, le dépôt de “MacroHard” sonne comme une nouvelle déclaration de guerre. Subtile ? Non. Efficace ? Sans doute. Mais surtout, une chose est sûre : l'ironie n'est pas morte dans la Silicon Valley. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Anthropic bientôt aussi puissant que Boeing ?

    Play Episode Listen Later Jul 30, 2025 2:00


    Elle ne fait pas autant de bruit que ses rivales, mais elle pèse déjà lourd : Anthropic, la start-up fondée en 2021 par d'anciens cadres d'OpenAI, est en train de devenir l'un des poids lourds de l'intelligence artificielle générative. Son chatbot Claude s'impose comme un concurrent sérieux à ChatGPT. Et les investisseurs ne s'y trompent pas.Amazon et Google ont déjà mis près de 10 milliards de dollars sur la table pour soutenir cette jeune entreprise. Et ce n'est qu'un début. Selon plusieurs médias américains, Anthropic est en train de préparer une nouvelle levée de fonds de 5 milliards de dollars, après une précédente opération en mars dernier qui avait porté sa valorisation à 61,5 milliards. Le prochain tour pourrait faire bondir cette valorisation à 170 milliards de dollars, soit l'équivalent de la capitalisation boursière de Boeing. C'est dire l'appétit que suscite la start-up. Elle joue désormais des coudes avec les plus grands : OpenAI, valorisée à 300 milliards, et xAI, la société d'Elon Musk, qui viserait 200 milliards.Un emballement qui interroge. Si certains voient dans l'IA le moteur de la prochaine révolution industrielle, d'autres redoutent une bulle spéculative, alimentée par des promesses qui dépassent largement les revenus réels. Fait marquant : Anthropic change aussi de cap sur ses sources de financement. Longtemps réticente, l'entreprise ouvre désormais ses portes aux fonds souverains du Moyen-Orient. Elle serait en discussion avec MGX, le bras armé d'Abou Dhabi pour l'IA, et le Qatar Investment Authority. Un virage assumé par le PDG Dario Amodei. Dans un mémo interne, il reconnaît que les principes éthiques ne suffisent plus à couvrir les besoins financiers : « Aucune personne mal intentionnée ne devrait jamais bénéficier de notre succès » est un principe difficile à appliquer dans la réalité, écrit-il. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Tout ce que vous dite à l'IA peut se retourner contre vous ?

    Play Episode Listen Later Jul 29, 2025 2:03


    Peut-on vraiment tout dire à une intelligence artificielle ? Pour Sam Altman, PDG d'OpenAI, la réponse est non. Et c'est lui-même qui le dit, au micro du podcast This Past Weekend. Dans cet entretien, il met en garde contre un usage trop personnel de ChatGPT, son propre chatbot. Le message est clair : vos conversations avec ChatGPT ne sont pas protégées par la loi, comme peuvent l'être celles avec un médecin, un avocat ou un thérapeute. Et en cas de litige, elles pourraient même être présentées devant un tribunal.« Si vous parlez à ChatGPT de sujets sensibles et qu'il y a une action en justice, nous pourrions être légalement contraints de transmettre ces échanges », explique Sam Altman. Une situation qu'il qualifie lui-même de "profondément anormale". Le contexte juridique ne joue pas en faveur des utilisateurs. Une procédure en cours, lancée par The New York Times, oblige OpenAI à conserver l'historique des conversations, y compris celles que les usagers pensent avoir supprimées. Face à cela, Altman plaide pour un encadrement juridique clair. Il estime que les échanges avec une IA devraient bénéficier des mêmes protections que ceux avec des professionnels du soin ou du droit. « Il existe un secret médical, un secret professionnel. Pourquoi pas un secret conversationnel pour l'IA ? », interroge-t-il.Mais pour l'instant, rien de tout cela n'est en place. Et Altman le reconnaît : tant qu'un cadre légal n'existe pas, les utilisateurs sont en droit d'exiger une transparence totale sur la gestion de leurs données privées. Le message est lancé : n'oubliez pas que parler à ChatGPT, ce n'est pas parler en toute confidentialité. Et dans un monde où les frontières entre humain et machine deviennent floues, la protection de la vie privée reste un chantier majeur. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Claim Choses à Savoir TECH

    In order to claim this podcast we'll send an email to with a verification link. Simply click the link and you will be able to edit tags, request a refresh, and other features to take control of your podcast page!

    Claim Cancel