Tout ce qu'il faut savoir dans le domaine de la Tech et d'Internet.
Apple avait fait sensation en juin dernier en dévoilant Apple Intelligence, sa grande offensive dans l'intelligence artificielle. Une annonce forte, mais avec un grand absent : aucun chatbot maison. La firme de Cupertino semblait vouloir laisser cette tâche à ChatGPT, discrètement intégré à Siri pour répondre aux requêtes générales. À l'époque, Apple jugeait l'intérêt du public limité pour ce genre d'outil, et certains de ses propres ingénieurs en IA se montraient sceptiques.Mais les lignes ont bougé. Face au succès grandissant de ChatGPT, Claude ou encore Gemini, Apple semble revoir sa copie. Selon les révélations du journaliste spécialisé Mark Gurman, un projet d'envergure serait en cours dans les coulisses. Son nom : Answers, Knowledge and Information, ou AKI. L'objectif ? Développer un chatbot capable d'explorer le web et de fournir des réponses précises, à la manière de ses concurrents. Le chantier est mené par Robby Walker, un vétéran de Siri, et pourrait aboutir à une nouvelle application autonome, mais aussi à des intégrations profondes dans Siri, Spotlight et Safari. Apple recrute d'ailleurs activement des spécialistes en recherche algorithmique. Et un possible rachat stratégique dans le secteur de l'IA ne serait pas à exclure dans les mois à venir.Ce virage n'est pas seulement technologique, il est aussi stratégique. Apple reste très dépendante de Google, qui lui verse chaque année près de 20 milliards de dollars pour rester le moteur de recherche par défaut. Mais si la justice américaine impose une renégociation de cet accord, c'est toute une part de croissance qui pourrait vaciller. En clair, développer son propre moteur IA, c'est pour Apple une question de souveraineté. Cela permettrait non seulement de maîtriser sa chaîne de recherche, mais aussi de renforcer ses engagements en matière de confidentialité. Dans un marché de la recherche bousculé par l'IA générative, attendre n'est plus une option. Reste à savoir si la pomme parviendra à rattraper son léger retard… et à imposer sa propre voix intelligente. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Le projet européen baptisé “Chat Control” avance à grands pas… et avec lui, un débat explosif. Soutenu par plusieurs États membres, dont la France, l'Allemagne, l'Espagne et la Pologne, ce texte vise à obliger les applications de messagerie comme WhatsApp, Signal ou Telegram à analyser automatiquement tous les messages – textes comme images – pour détecter des contenus liés à l'exploitation sexuelle d'enfants.Une ambition sécuritaire, oui. Mais derrière, des inquiétudes grandissantes. Car pour parvenir à cet objectif, les plateformes devraient installer des systèmes de surveillance directement sur les appareils – des smartphones ou des ordinateurs. C'est ce qu'on appelle le "client-side scanning" : des outils capables d'analyser les contenus avant même leur chiffrement. Un changement de paradigme. Car même les messageries dites chiffrées de bout en bout, conçues justement pour garantir la confidentialité, seraient concernées. Et c'est là que le tollé commence.Des associations de défense des droits numériques, des experts en cybersécurité, des magistrats et même certains eurodéputés tirent la sonnette d'alarme. Patrick Breyer, élu européen, dénonce une "surveillance de masse inédite", où chaque citoyen serait traité comme un suspect. Les spécialistes en cryptographie alertent : toute porte ouverte, même bien intentionnée, peut être exploitée – par des États autoritaires, des groupes criminels, ou des acteurs malveillants. Plus grave encore : ces outils, conçus pour détecter l'illégal, pourraient produire de nombreux faux positifs. Des photos de famille, des conversations adolescentes, ou des échanges entre victimes et associations pourraient être mal interprétés. Le Conseil de l'UE lui-même a exprimé ses réserves juridiques, jugeant la mesure disproportionnée et inefficace face aux vraies méthodes utilisées par les criminels, qui contournent souvent les messageries classiques. En attendant, la bataille continue dans les couloirs de Bruxelles. Et si vous tombez sur un contenu suspect en ligne, n'oubliez pas : vous pouvez le signaler via la plateforme Pharos. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Une enquête publiée par Microsoft révèle une vaste opération d'espionnage informatique visant plusieurs ambassades étrangères à Moscou. En cause : un groupe de hackers lié au FSB, les services de renseignement russes. Le groupe, connu sous le nom de Secret Blizzard, mais aussi sous les alias Turla, Snake ou encore Venomous Bear, sévit depuis la fin des années 1990. Leur dernière trouvaille ? Un malware baptisé ApolloShadow, capable de s'installer discrètement sur les ordinateurs diplomatiques… à partir même des connexions Internet locales.Comment ça fonctionne ? L'attaque débute dès qu'un appareil se connecte à un fournisseur d'accès russe. Les hackers redirigent alors le trafic vers une fausse page de connexion, similaire à celles des réseaux Wi-Fi publics. En coulisses, une requête Windows censée contacter Microsoft est détournée vers un domaine frauduleux. Le piège se referme : le logiciel espion s'installe sans que l'utilisateur ne clique sur quoi que ce soit. ApolloShadow se fait ensuite passer pour un banal installateur Kaspersky, affichant une fenêtre système qui semble légitime. Une fois les droits administrateur accordés, il installe deux certificats racine pour intercepter les connexions sécurisées. Résultat : même les échanges diplomatiques cryptés peuvent être espionnés. Le malware modifie les règles du pare-feu, redéfinit le réseau comme privé, et crée un compte système fantôme, “UpdatusUser”, qui permet aux attaquants de conserver l'accès.L'activité a été détectée en février 2025, mais le malware circulait déjà depuis l'an dernier. Microsoft a fourni aux ambassades les outils pour détecter les infections, et recommande désormais l'usage de VPN ou de connexions satellites pour contourner les infrastructures russes. Un rappel sévère : la diplomatie moderne ne se joue plus seulement autour d'une table… mais aussi dans les câbles. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Entre Elon Musk et Bill Gates, ce n'est pas l'amour fou, et ce n'est plus un secret. Mais cette semaine, la rivalité entre les deux géants de la tech a pris un tournant inattendu… et franchement piquant. Elon Musk vient en effet de déposer officiellement la marque “MacroHard” auprès de l'office américain des brevets. Un nom qui fait évidemment référence à Microsoft – et surtout, qui s'en moque ouvertement.“Macro” contre “Micro”, “Hard” contre “Soft”… Musk joue la carte du détournement linguistique pour envoyer un message on ne peut plus clair : il crée l'anti-Microsoft, au moins dans l'intention. D'autant que ce nom pourrait bien être associé à un projet tout droit sorti de ses cartons : un logiciel d'intelligence artificielle multi-agents, capable de générer du code, des images, des vidéos, et même d'émuler des humains dans des machines virtuelles. Une technologie que Musk évoquait récemment sur X – anciennement Twitter – avec, déjà, une petite allusion à un nom “satirique”. Provocation gratuite ou lancement stratégique ? Un peu des deux. Depuis des années, Elon Musk multiplie les tacles contre Bill Gates. En 2020 déjà, le fondateur de Microsoft lui reprochait ses “propos irresponsables” et lui conseillait de se concentrer sur “les fusées et les voitures”. Deux ans plus tard, le torchon brûle définitivement : Gates parie 500 millions de dollars sur une chute de l'action Tesla. Musk, furieux, annule une rencontre sur des projets caritatifs et poste dans la foulée un mème moqueur… représentant Bill Gates comme un homme enceint.Depuis, c'est l'escalade. Entre piques, détournements et petites phrases assassines, la plateforme X est devenue le ring de ce combat de milliardaires. Et l'arrivée d'Elon Musk dans le cercle rapproché de Donald Trump n'a rien arrangé. Dans ce contexte ultra-tendu, le dépôt de “MacroHard” sonne comme une nouvelle déclaration de guerre. Subtile ? Non. Efficace ? Sans doute. Mais surtout, une chose est sûre : l'ironie n'est pas morte dans la Silicon Valley. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Elle ne fait pas autant de bruit que ses rivales, mais elle pèse déjà lourd : Anthropic, la start-up fondée en 2021 par d'anciens cadres d'OpenAI, est en train de devenir l'un des poids lourds de l'intelligence artificielle générative. Son chatbot Claude s'impose comme un concurrent sérieux à ChatGPT. Et les investisseurs ne s'y trompent pas.Amazon et Google ont déjà mis près de 10 milliards de dollars sur la table pour soutenir cette jeune entreprise. Et ce n'est qu'un début. Selon plusieurs médias américains, Anthropic est en train de préparer une nouvelle levée de fonds de 5 milliards de dollars, après une précédente opération en mars dernier qui avait porté sa valorisation à 61,5 milliards. Le prochain tour pourrait faire bondir cette valorisation à 170 milliards de dollars, soit l'équivalent de la capitalisation boursière de Boeing. C'est dire l'appétit que suscite la start-up. Elle joue désormais des coudes avec les plus grands : OpenAI, valorisée à 300 milliards, et xAI, la société d'Elon Musk, qui viserait 200 milliards.Un emballement qui interroge. Si certains voient dans l'IA le moteur de la prochaine révolution industrielle, d'autres redoutent une bulle spéculative, alimentée par des promesses qui dépassent largement les revenus réels. Fait marquant : Anthropic change aussi de cap sur ses sources de financement. Longtemps réticente, l'entreprise ouvre désormais ses portes aux fonds souverains du Moyen-Orient. Elle serait en discussion avec MGX, le bras armé d'Abou Dhabi pour l'IA, et le Qatar Investment Authority. Un virage assumé par le PDG Dario Amodei. Dans un mémo interne, il reconnaît que les principes éthiques ne suffisent plus à couvrir les besoins financiers : « Aucune personne mal intentionnée ne devrait jamais bénéficier de notre succès » est un principe difficile à appliquer dans la réalité, écrit-il. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Peut-on vraiment tout dire à une intelligence artificielle ? Pour Sam Altman, PDG d'OpenAI, la réponse est non. Et c'est lui-même qui le dit, au micro du podcast This Past Weekend. Dans cet entretien, il met en garde contre un usage trop personnel de ChatGPT, son propre chatbot. Le message est clair : vos conversations avec ChatGPT ne sont pas protégées par la loi, comme peuvent l'être celles avec un médecin, un avocat ou un thérapeute. Et en cas de litige, elles pourraient même être présentées devant un tribunal.« Si vous parlez à ChatGPT de sujets sensibles et qu'il y a une action en justice, nous pourrions être légalement contraints de transmettre ces échanges », explique Sam Altman. Une situation qu'il qualifie lui-même de "profondément anormale". Le contexte juridique ne joue pas en faveur des utilisateurs. Une procédure en cours, lancée par The New York Times, oblige OpenAI à conserver l'historique des conversations, y compris celles que les usagers pensent avoir supprimées. Face à cela, Altman plaide pour un encadrement juridique clair. Il estime que les échanges avec une IA devraient bénéficier des mêmes protections que ceux avec des professionnels du soin ou du droit. « Il existe un secret médical, un secret professionnel. Pourquoi pas un secret conversationnel pour l'IA ? », interroge-t-il.Mais pour l'instant, rien de tout cela n'est en place. Et Altman le reconnaît : tant qu'un cadre légal n'existe pas, les utilisateurs sont en droit d'exiger une transparence totale sur la gestion de leurs données privées. Le message est lancé : n'oubliez pas que parler à ChatGPT, ce n'est pas parler en toute confidentialité. Et dans un monde où les frontières entre humain et machine deviennent floues, la protection de la vie privée reste un chantier majeur. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
En cybersécurité, certaines évidences méritent d'être répétées. En voici une : votre navigateur web n'est pas un coffre-fort. Pourtant, des millions d'utilisateurs continuent d'y stocker leurs identifiants sans se poser de questions. Chrome, Edge, Firefox ou Brave : tous proposent une gestion intégrée des mots de passe, pratique, synchronisée, et rassurante en apparence. Mais derrière ce confort se cache un véritable champ de mines numériques.Le dernier danger en date s'appelle Katz Stealer. Un malware vendu pour quelques dizaines de dollars par mois sur le dark web, accessible même aux cybercriminels amateurs. Son mode opératoire ? D'une simplicité redoutable : il siphonne les identifiants, les cookies, les données bancaires et les tokens d'accès stockés dans les navigateurs, pour les envoyer vers un tableau de bord en ligne. Même les protections récentes de Google, comme le chiffrement lié à l'utilisateur, ne tiennent plus face à cette attaque “masquée”.Ce n'est pas une révolution, mais la banalisation d'un risque majeur. Car tant que vos mots de passe sont gérés par le navigateur lui-même, ils restent exposés aux mêmes failles : extensions malveillantes, sites piégés, infostealers invisibles… et l'absence de chiffrement “zero-knowledge”. Autrement dit, Google ou Microsoft peuvent techniquement accéder à vos données. À l'inverse, les gestionnaires dédiés comme Bitwarden, Keepass ou Proton Pass garantissent un chiffrement local et une vraie séparation des usages.Et le paradoxe, c'est que les géants du web encouragent ce stockage à risque. Microsoft abandonne son gestionnaire sécurisé dans Authenticator au profit d'Edge. Google pousse ses utilisateurs vers les passkeys, mais continue de proposer son gestionnaire intégré comme solution par défaut. Le problème ? Les passkeys ne sont pas encore généralisées, et les navigateurs restent des cibles faciles. Alors si vos identifiants dorment encore dans Chrome ou Edge, c'est peut-être le moment de les migrer. Et de se rappeler qu'en cybersécurité, le confort ne vaut pas la sécurité. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Et si l'on pouvait un jour voir sans yeux ? C'est le pari audacieux que s'est lancé Neuralink, la société d'Elon Musk. Après avoir implanté avec succès son premier dispositif cérébral N1 sur des patients paralysés, l'entreprise s'attaque désormais à un défi encore plus vertigineux : redonner une forme de vision à des personnes aveugles, même privées de nerf optique.Ce nouveau projet porte un nom évocateur : Blindsight. Il ne s'agit pas ici de restaurer une vision naturelle, mais de créer une perception visuelle fonctionnelle, grâce à une interface cerveau-machine. En clair, une caméra capte l'environnement, le système transforme l'image en signaux électriques, et stimule directement le cortex visuel du patient. Résultat espéré : permettre aux aveugles de reconnaître des visages, lire, se déplacer, accomplir des tâches du quotidien.Pour y parvenir, Neuralink s'est entourée de chercheurs de l'Université de Californie à Santa Barbara et de l'université Miguel Hernández, en Espagne. L'étude est encore en phase exploratoire. Les premiers tests se font sur des patients déjà équipés d'un implant existant, le CORTIVIS, afin d'expérimenter différents modes de stimulation. Des volontaires voyants participent aussi, pour comparer les ressentis.L'intelligence artificielle joue un rôle central dans cette aventure : elle doit analyser les scènes visuelles et faire ressortir les éléments essentiels, afin que la stimulation soit la plus pertinente possible. L'objectif n'est pas d'imiter la vue, mais de construire une représentation utile du monde. Pour l'instant, Blindsight n'a pas encore été testé sur des humains avec les implants Neuralink, mais la société vise une mise sur le marché à l'horizon 2030. Le chemin reste semé d'embûches techniques, éthiques, cliniques… mais le cap est fixé : faire entrer la vision artificielle dans le réel. Et connaissant Musk, difficile de croire qu'il en restera là. Car derrière cette promesse médicale, certains voient déjà les prémices d'une interface homme-machine aux allures de science-fiction. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C'est un tour de force qui n'a rien d'un hasard : les revenus publicitaires de YouTube ont atteint 9,8 milliards de dollars au deuxième trimestre 2025, dépassant les prévisions des analystes. Un chiffre impressionnant… mais surtout le fruit d'une stratégie méthodique et musclée. Objectif : réduire au silence les bloqueurs de pub, pousser les utilisateurs à bout… et les faire payer. Le cœur de cette offensive s'appelle l'injection publicitaire côté serveur, ou SSAI pour les initiés. Concrètement, les pubs sont désormais intégrées directement dans le flux vidéo avant même d'arriver sur votre appareil. Résultat : les adblockers classiques, qui opèrent dans le navigateur, sont tout simplement aveuglés. La publicité devient indissociable du contenu lui-même.Même les outils communautaires comme SponsorBlock, qui permettaient de zapper les segments sponsorisés, sont mis à mal. Les repères temporels sont déréglés, les extensions perturbées. Et ce n'est pas un accident : YouTube vise clairement celles et ceux qui tentent d'échapper à son modèle économique. Et quand cela ne suffit pas, la plateforme sort l'artillerie lourde : écrans noirs, vidéos retardées, et autres petits désagréments pour les utilisateurs d'adblockers. Chaque contournement technique est suivi de près par les équipes de Google… et contré dans la foulée.Mais cette politique du bâton a un revers payant : le nombre d'abonnés à YouTube Premium et Music a grimpé à 125 millions. Une croissance stimulée par une expérience gratuite de plus en plus dégradée, et par la hausse des tarifs, notamment pour l'abonnement Famille. Même l'offre « Lite », censée être plus douce, conserve les publicités. Le message est limpide : YouTube assume sa stratégie et montre la voie à d'autres géants du numérique. Pour les utilisateurs, le choix devient de plus en plus binaire : subir… ou s'abonner. Et la frontière entre contenu gratuit et tranquillité d'esprit ne cesse de s'estomper. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Depuis mi-juillet, un mur s'est dressé à l'entrée de Facebook et Instagram pour les utilisateurs européens. Pas de photos de vacances, pas de stories de chats, rien… tant que vous n'avez pas pris la décision. Car Meta, le géant derrière les deux réseaux, vous demande désormais de choisir : payer pour préserver vos données, ou rester en accès gratuit… en échange d'une exploitation publicitaire complète de vos habitudes numériques.Le message est clair, presque brutal : « Reconsidérez le traitement de vos données à des fins publicitaires ». Impossible de passer outre. Il n'y a plus de bouton “plus tard”, plus d'option pour esquiver. Vous êtes face à un checkpoint numérique : soit vous souscrivez à l'abonnement de 7,99 € par mois pour une navigation sans pub ni pistage, soit vous acceptez que vos clics, vos messages, vos centres d'intérêt deviennent matière première pour les algorithmes publicitaires de Meta. Cette méthode radicale n'est pas une lubie du groupe de Mark Zuckerberg. C'est une réponse aux exigences du RGPD, la réglementation européenne sur la protection des données, qui oblige désormais les plateformes à obtenir un consentement explicite pour exploiter nos données personnelles. Meta n'a donc plus le choix : il faut demander votre avis… mais pas sans vous mettre un peu la pression.Dans la version gratuite, les publicités restent omniprésentes, nourries par l'analyse fine de vos comportements en ligne. La version payante, elle, promet une bulle sans pistage — ou presque. Plus de ciblage, plus de cross-tracking, plus de pub, sauf celles des marques que vous suivez volontairement. Derrière ce tournant, deux objectifs : se conformer à la loi… et sauver un modèle économique fondé sur la publicité. Mais au passage, Meta redéfinit le contrat tacite entre utilisateur et plateforme. Ce qui était gratuit a désormais un prix. Et ce prix, c'est votre vie privée — ou 7,99 euros par mois. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C'est désormais acté : Amazon peut déployer sa constellation de satellites Kuiper en France. L'ARCEP, le régulateur des télécoms, a validé l'autorisation d'usage des fréquences pendant dix ans. Une décision stratégique, qui ouvre la voie à une nouvelle offre de connectivité par satellite pour le grand public – en concurrence directe avec Starlink d'Elon Musk.Mais cette avancée n'a pas fait l'unanimité. Eutelsat et Viasat, acteurs déjà bien implantés dans le secteur spatial européen, ont vivement protesté. Ils redoutent des interférences avec leurs propres satellites, notamment géostationnaires. Viasat affirme même que certaines limites d'émissions seraient dépassées à Lyon. Quant à Eutelsat, il reproche à Amazon de ne pas avoir pris contact pour protéger ses stations au sol. Il faut dire que le projet Kuiper est ambitieux. Plus de 3 000 satellites en orbite basse, et un investissement total de 10,3 milliards d'euros. Un quart de cette somme, soit environ 2,6 milliards, devrait bénéficier directement au secteur spatial européen, notamment via les 18 lancements confiés à Arianespace. Un argument de poids pour ceux qui voient dans ce projet un levier industriel autant qu'une réponse aux zones blanches.L'ARCEP, elle, assume son choix : accorder l'autorisation sous conditions strictes. Si des brouillages sont constatés, Amazon devra cesser immédiatement l'utilisation des fréquences concernées. Une décision “sans garantie de non-brouillage”, mais encadrée par des obligations fortes. En clair, le régulateur préfère miser sur l'innovation et la surveillance plutôt que sur le principe de précaution. Une manière aussi de stimuler la concurrence dans un secteur encore largement dominé par Starlink. Du côté des collectivités, l'AVICCA se dit favorable à cette diversité technologique, tout en rappelant que la fibre optique doit rester la norme. Elle alerte aussi sur les questions de souveraineté et de cybersécurité, alors que des opérateurs non-européens gagnent du terrain. Pour les usagers, une chose est sûre : une alternative à Starlink arrive. Reste à voir si le ciel français pourra accueillir tous ces satellites sans interférences... ni turbulences. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C'est une bataille de titans qui agite en ce moment le petit monde de l'intelligence artificielle générative vidéo. Aux avant-postes, Google, avec son impressionnant VEO 3, impose sa puissance… mais à un prix. Comptez jusqu'à 200 euros par mois pour profiter pleinement des performances de cette IA surdouée. Et Google n'est pas seul sur le champ de bataille : OpenAI avec Sora, Runway Gen-3, Kling, SeaDance... Tous ces géants ont un point commun : ils font payer – cher – un service qui reste extrêmement gourmand en puissance de calcul. Face à cette avalanche d'outils premium, certaines plateformes tentent de proposer des alternatives plus accessibles. Hailuo AI, par exemple, réduit les coûts mais impose des filigranes ou des temps d'attente parfois longs. Et puis, il y a Vheer. Un nom encore peu connu… mais qui pourrait bien faire parler de lui.Vheer, c'est l'outsider qui bouscule les codes. Accessible en ligne, sans inscription, l'outil propose de générer des vidéos courtes… gratuitement. Pas de watermark, pas de compte à créer, et une interface simple qui accepte les formats classiques : carré, paysage, portrait. Le tout, en seulement quelques minutes de traitement. Autant dire que ça intrigue. Alors bien sûr, il y a des limites. D'abord, Vheer ne transforme pas encore un texte en vidéo directement. Il faut lui fournir une image. Mais l'astuce, c'est que l'appli propose aussi une fonction de génération d'image via prompt. Autrement dit, vous tapez une idée, il crée une image… que vous transformez ensuite en clip.La durée, elle, est limitée à cinq secondes – un recul récent face à l'afflux de demandes. Mais en rusant un peu, on peut enchaîner les clips à partir de l'image finale du précédent, et les assembler dans un logiciel comme CapCut ou Premiere. Autre conseil : téléchargez vite vos créations, car sans compte, rien n'est conservé. Et ce n'est pas tout. Suppression de fond, OCR, édition d'images… Vheer regorge de fonctions IA, toutes gratuites pour le moment. Une chose est sûre : si le modèle évolue, profitez-en tant qu'il est encore ouvert à tous. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C'est une première qui pourrait bien marquer un tournant dans l'histoire du numérique. En juin, ChatGPT devient l'application la plus téléchargée au monde, avec 50 millions d'installations sur smartphones. Oui, vous avez bien entendu : l'intelligence artificielle d'OpenAI dépasse TikTok, Instagram, WhatsApp et Facebook, tous relégués derrière. TikTok, pourtant habituée à la première marche, arrive deuxième avec 37 millions de téléchargements, juste devant Instagram et ses 36 millions. Un bouleversement discret mais révélateur. Car si les géants des réseaux sociaux semblaient indétrônables, ChatGPT s'impose comme l'outsider devenu incontournable. Et ce, malgré les efforts d'Apple et Google pour promouvoir leurs propres IA — Apple Intelligence et Gemini — intégrées directement dans iOS et Android. Visiblement, les utilisateurs font toujours confiance à OpenAI pour répondre à leurs besoins. Ce succès intervient dans un contexte où les téléchargements globaux reculent : le Top 10 mondial cumule 290 millions d'installations, soit une baisse de 8 % par rapport au mois de mai. Mais ChatGPT, lui, grimpe. Facebook et WhatsApp complètent le Top 5 avec respectivement 30 et 28 millions de téléchargements. Netflix, quant à lui, sort du classement. Côté shopping, ce n'est ni Amazon ni Vinted qui brillent, mais Temu, l'appli e-commerce chinoise qui se hisse à la 7e place. Et derrière cette envolée des téléchargements, une autre évolution se profile en coulisse : l'infrastructure technique de ChatGPT elle-même est en pleine transformation. OpenAI a signé avec Google Cloud. Jusqu'ici hébergé exclusivement sur Microsoft Azure, ChatGPT s'ouvre à de nouvelles infrastructures pour répondre à la demande croissante en puissance de calcul. Désormais, Google Cloud servira les utilisateurs aux États-Unis, au Royaume-Uni, au Japon, en Norvège et aux Pays-Bas. En France, en revanche, seul Microsoft reste à la manœuvre. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C'est un petit séisme dans le monde de l'intelligence artificielle. OpenAI, jusqu'ici jalousement attachée à ses modèles propriétaires, s'apprête à publier un modèle de langage en accès ouvert, dont les paramètres internes seront téléchargeables librement. Une première depuis la création de l'entreprise en 2015. Fini le passage obligé par les API maison ou les serveurs de Microsoft. Ce nouveau modèle pourra être utilisé directement, hébergé localement par les entreprises, les institutions ou même les chercheurs. Et selon les informations de The Verge, il serait comparable à o3 mini, déjà réputé pour ses performances en raisonnement. De quoi faire trembler l'écosystème actuel.Ce changement de cap marque un tournant stratégique. Depuis 2019, OpenAI conservait ses modèles sous clé, notamment en raison de son partenariat exclusif avec Microsoft, scellé en 2023. La firme de Redmond bénéficiait d'un accès privilégié aux versions les plus avancées des modèles d'OpenAI, en échange d'un partage des revenus sur Azure et ChatGPT. Mais avec ce modèle ouvert, la donne change. Hugging Face, Oracle ou d'autres fournisseurs cloud pourront bientôt proposer le modèle à leurs clients, sans passer par Azure. Cette ouverture soulève évidemment des questions sur la licence qui accompagnera la sortie. Les paramètres seront accessibles, oui — mais qu'en est-il du code source ou des données d'entraînement ? Sans eux, certains observateurs estiment que l'ouverture risque de n'être que partielle.Côté calendrier, l'annonce pourrait survenir dès la semaine prochaine, selon plusieurs sources proches du dossier. OpenAI aurait déjà présenté le modèle à des chercheurs et développeurs pour collecter des retours. Cette décision s'inscrit dans un mouvement plus large. Meta avec Llama, Mistral AI en Europe, et maintenant OpenAI : tous s'alignent sur une demande croissante d'IA open-weight, en particulier dans les secteurs publics et réglementés. La Commission européenne a d'ailleurs lancé en juin un appel à projets pour tester ces IA dans ses administrations. Un modèle ouvert, c'est moins de dépendance, plus de personnalisation, et surtout, une course à l'innovation relancée. Alors que le marché mondial de l'IA générative a dépassé les 45 milliards de dollars cette année, OpenAI vient peut-être de redistribuer les cartes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Et si la matière qui fait battre le cœur de nos ordinateurs et de nos smartphones vivait ses dernières heures ? Depuis des décennies, le silicium règne sans partage sur le monde numérique. C'est lui qui a permis l'essor fulgurant des technologies de l'information. Mais aujourd'hui, ce matériau atteint ses limites. Les transistors gravés à l'échelle du nanomètre chauffent, ralentissent, et deviennent de plus en plus instables. Le modèle touche à saturation.Alors, vers quoi se tourner ? Une étude américaine publiée fin juin dans Nature Physics nous propose un début de réponse. L'équipe du professeur Gregory Fiete, à l'université Northeastern de Boston, a réussi ce que beaucoup pensaient impossible : contrôler, à température ambiante, le comportement d'un matériau quantique, le 1T-TaS₂, pour le faire passer à volonté d'un état conducteur à un état isolant. Autrement dit, ce cristal peut devenir un interrupteur à lui tout seul, sans recourir à des milliards de transistors. Mieux : il peut basculer d'un état à l'autre en un éclair, grâce à une impulsion lumineuse ou thermique. Un changement de phase ultra-rapide, réversible… et potentiellement exploitable pour créer des circuits mille fois plus rapides que nos actuelles puces au silicium.Jusqu'ici, ce genre de prouesse n'était possible qu'à des températures cryogéniques — proches du zéro absolu. Pas franchement pratique pour nos smartphones. Mais les chercheurs américains ont trouvé un moyen de stabiliser le matériau à température ambiante, via une technique appelée thermal quenching : un protocole précis de chauffage et de refroidissement qui « fige » le matériau dans l'état désiré. Alors, est-ce la fin du silicium ? Pas si vite. Ce n'est encore qu'un exploit de laboratoire, aucun composant à base de 1T-TaS₂ n'est prêt à équiper nos appareils. Mais c'est une preuve que l'électronique post-silicium est envisageable. Et peut-être que, comme dans les années 1950 pour le silicium, tout commencera dans un labo, avec un cristal et un peu de lumière. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Les cartes SIM, vous les connaissez : ces minuscules puces qui connectent nos téléphones au réseau mobile. Aujourd'hui, elles sont devenues... invisibles. L'eSIM, ou SIM embarquée, est intégrée directement dans nos smartphones, montres connectées ou objets IoT. Pratique, flexible, elle est partout. Et pourtant, elle n'est pas invulnérable.Une faille critique vient d'être dévoilée dans les cartes eUICC — ce sont les composants électroniques qui font tourner les eSIM — du fabricant britannique Kigen. La vulnérabilité, mise au jour par le cabinet polonais Security Explorations, expose des millions d'appareils à des attaques de très haut niveau : clonage de profils, espionnage de communications, voire installation de portes dérobées impossibles à détecter. En cause : un mécanisme de test intégré à la spécification GSMA TS.48 (version 6.0 et antérieures). Ce « Generic Test Profile » sert normalement à valider la connectivité mobile avant la mise en service d'un appareil. Mais s'il reste actif en production, il devient une véritable porte d'entrée pour les pirates. Un attaquant peut alors injecter du code malveillant dans la carte, sans qu'aucune signature ne soit vérifiée. Résultat : profil cloné, surveillance discrète, et même géolocalisation furtive, le tout hors du radar des opérateurs.Les risques sont majeurs : usurpation d'identité numérique via l'extraction de certificats, compromission d'appels ou de messages sécurisés, et intrusion dans des objets critiques comme des routeurs 5G, des dispositifs médicaux ou des véhicules connectés — certaines Peugeot ou Citroën récentes seraient concernées. La GSMA a réagi : une nouvelle version de la norme (TS.48 v7.0) désactive par défaut les profils de test. Kigen, de son côté, a reconnu la faille et récompensé les chercheurs à hauteur de 30 000 dollars. Mais selon eux, le problème de fond reste entier : la machine virtuelle Java Card utilisée sur ces cartes n'est pas assez sécurisée. D'autres attaques, via accès physique ou à distance, pourraient survenir. Un conseil : si votre appareil utilise une eSIM, appliquez les mises à jour de sécurité sans tarder. Car cette faille n'est pas un gadget de laboratoire — elle peut toucher n'importe qui, au quotidien. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Pendant que les projecteurs sont braqués sur Apple Intelligence, la nouvelle ambition IA de Cupertino mêlant traitement local et cloud, la firme à la pomme avance sur un autre front, plus discret mais tout aussi stratégique : celui de la recherche ouverte et du rapprochement avec l'écosystème chinois.Dernière annonce en date, la publication sur la plateforme Hugging Face d'un modèle de langage baptisé DiffuCode-7B-cpGRPO, un outil conçu pour… programmer. Mais attention, ici, Apple sort des sentiers battus. Contrairement à la majorité des modèles génératifs classiques qui écrivent du code ligne par ligne, ce modèle mise sur la diffusion, une technique inspirée des générateurs d'images comme Stable Diffusion. Concrètement, le modèle part d'un squelette de code flou ou bruité, qu'il affine en plusieurs étapes, en tenant compte de l'ensemble du projet. Résultat : une génération potentiellement plus rapide et surtout plus cohérente sur des blocs entiers.Mais le plus intéressant, ce n'est pas la méthode. C'est l'origine. Car Apple ne part pas de zéro. Le modèle repose sur Qwen2.5-7B, un modèle open-source développé par le géant chinois Alibaba. Les ingénieurs d'Apple ont d'abord repris une version adaptée à la programmation, avant d'y greffer leur propre décodeur basé sur la diffusion et de le réentraîner à leur sauce. Une démarche bien loin de l'image d'Apple tout-puissant construisant chaque brique en interne. Ce choix d'Alibaba n'est pas anodin. Pour déployer Apple Intelligence en Chine, la firme américaine doit se plier aux réglementations locales, qui imposent l'utilisation de modèles approuvés par Pékin. Résultat : un partenariat stratégique avec Alibaba, qui adapte ses modèles pour tourner efficacement sur les puces Apple Silicon via le framework MLX.Et ce n'est pas tout : Apple a aussi regardé du côté de DeepSeek, une startup chinoise en pleine ascension. Si aucun accord n'a été signé, Tim Cook a salué la qualité de leurs modèles, preuve d'une veille technologique active et d'une reconnaissance de la montée en puissance de la Chine dans le domaine de l'IA. Apple, longtemps réputée pour son écosystème fermé, change de méthode. En s'appuyant sur des fondations open-source venues d'ailleurs, la firme montre qu'à l'heure de l'IA, même les géants ne peuvent plus avancer seuls. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
À partir du 15 juillet 2025, les règles du jeu changent pour les créateurs sur YouTube. La plateforme de vidéos en ligne met à jour les conditions de son YouTube Partner Program, le fameux YPP, qui permet aux vidéastes de générer des revenus grâce à leurs contenus. L'objectif ? Renforcer la lutte contre les vidéos jugées « inauthentiques », dans un contexte où les outils d'intelligence artificielle bousculent les frontières de la création.Derrière ce terme, YouTube vise principalement deux pratiques : les vidéos produites en masse et les contenus hautement répétitifs. Finies les chaînes qui inondent la plateforme avec des dizaines de vidéos par jour, construites sur des scripts automatisés, des voix de synthèse et des images génériques. L'heure est venue pour la plateforme de réaffirmer l'exigence d'originalité : publier, oui, mais avec un minimum de valeur ajoutée. Cela ne signifie pas pour autant la fin de l'IA sur YouTube. Le recours aux outils d'intelligence artificielle n'est pas interdit, mais il doit servir une création humaine. L'usage de l'IA pour monter une vidéo, générer des sous-titres ou aider à la recherche reste parfaitement autorisé. Ce qui est visé, ce sont les chaînes qui se reposent uniquement sur des processus automatisés, sans intervention humaine. Une précision qui devrait rassurer notamment les VTubers, ces créateurs qui animent des avatars numériques, mais fournissent eux-mêmes la voix et les idées.Pourquoi ce virage ? Parce que la prolifération de contenus de faible qualité – surnommés « slop » par la communauté anglophone – nuit à l'expérience des utilisateurs… et à la confiance des annonceurs, qui financent en grande partie la plateforme. En nettoyant les contenus peu engageants, YouTube veut garantir un environnement plus sain et plus attractif pour les marques comme pour les vidéastes de qualité. YouTube l'assure : cette mise à jour reste « mineure » et ne remet pas en cause les formats légitimes comme les vidéos de réaction ou les critiques de films, à condition qu'elles apportent un regard personnel et un vrai travail de transformation. L'enjeu, désormais, c'est la valeur ajoutée. Les compilations brutes seront démonétisées, mais les analyses critiques, elles, resteront bien en place. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C'était jusqu'ici un outil confidentiel, réservé à quelques utilisateurs triés sur le volet. Mais Comet, le navigateur développé par Perplexity, s'ouvre désormais à un public plus large… à condition d'y mettre le prix. Il est accessible aux abonnés de l'offre Perplexity Max, lancée la semaine dernière à 200 dollars par mois.Sous le capot, rien de bien exotique : Comet repose sur le moteur Chromium, comme Chrome, Brave ou Vivaldi. Il est donc compatible avec toutes les extensions de l'écosystème Google, et intègre nativement un bloqueur de publicité. Là où il se distingue, c'est dans l'intégration de l'intelligence artificielle. Son Comet Assistant n'est pas cantonné à un panneau latéral. Il peut interagir directement avec le contenu de n'importe quelle page, que ce soit pour résumer un article, répondre à des questions sur une vidéo YouTube, ou extraire les infos clés d'un document Google Docs. L'IA devient ainsi copilote discret mais puissant de votre navigation.Côté technique, Perplexity mise sur une architecture hybride : un traitement local pour les tâches simples, et des appels à des serveurs cloud pour les demandes plus lourdes. Résultat : plus de confidentialité, moins de latence, et des modes de protection des données ajustables, jusqu'à une version « strictement locale » pour les utilisateurs soucieux de sécurité. Mais Comet ne se limite pas à la recherche : il compare des produits, réserve des rendez-vous, organise l'affichage des onglets, et peut même résumer votre boîte mail. L'interface devient conversationnelle, presque agentique. Hasard du calendrier ? Selon Reuters, OpenAI préparerait aussi le lancement d'un navigateur intelligent basé sur Chromium. Objectif : interagir avec les contenus web directement via ChatGPT, sans passer par les sites. Le duel des navigateurs dopés à l'IA est lancé. Et il s'annonce passionnant. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Le jeudi 3 juillet, un vent de fronde a soufflé sur Bruxelles. Quarante-cinq poids lourds de l'industrie européenne – d'Airbus à Total, en passant par Axa, BNP Paribas, Mistral AI ou ASML – ont signé une lettre ouverte réclamant une pause de deux ans sur la mise en œuvre de l'AI Act, le règlement européen sur l'intelligence artificielle. En clair : un "clock-stop" pour gagner du temps face à ce que les signataires dénoncent comme des règles "floues et de plus en plus complexes".Leurs inquiétudes ? Deux échéances clés. D'abord, dès le 2 août 2025, les développeurs de modèles d'IA « à usage général » – comme ceux qui alimentent ChatGPT ou Le Chat de Mistral – devront fournir une documentation technique complète, un résumé des données d'entraînement et réaliser une évaluation des risques. Ensuite, à l'été 2026, ce seront les systèmes dits « à haut risque » qui passeront au crible : IA utilisées dans les domaines de l'éducation, de l'emploi, de la santé, des infrastructures critiques ou encore de la justice. Les entreprises redoutent un tsunami réglementaire et des coûts de conformité colossaux.Mais Bruxelles n'a pas tremblé. Dès le lendemain, le porte-parole de la Commission, Thomas Regnier, a été catégorique : « Il n'y a pas d'arrêt du temps. Il n'y a pas de pause. » Le calendrier est maintenu, les premières obligations tomberont comme prévu le 2 août 2025. Un signal de fermeté, alors que les pressions se multiplient. Outre les industriels européens, les géants américains comme OpenAI ou Meta poussent également pour assouplir le texte. Et dans les coulisses, l'administration Trump menace même l'Union de sanctions commerciales, accusant l'AI Act de discriminer les entreprises américaines. La situation reste tendue. Le guide de bonnes pratiques, attendu pour début mai, n'a toujours pas été publié. Et sur le front de la transparence des données d'entraînement, les discussions patinent face aux ayants droit culturels. La Commission promet des mesures de simplification d'ici la fin de l'année, notamment pour soulager les petites structures. Mais une chose est sûre : malgré la grogne des industriels et les pressions diplomatiques, l'Europe tient son cap. L'AI Act sera appliqué. Quoi qu'il en coûte. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C'est peut-être la fin d'un long feuilleton qui tient la tech mondiale en haleine depuis plus d'un an. TikTok, la célèbre application chinoise aux 170 millions d'utilisateurs aux États-Unis, pourrait finalement échapper au bannissement. Et ce, grâce à un accord à l'américaine, porté notamment… par Oracle, la société de Larry Ellison, proche de Donald Trump.On se souvient : en 2023, une loi permettait d'interdire TikTok sur le sol américain, au nom de la sécurité nationale. Washington redoutait que les données personnelles des utilisateurs ne tombent entre les mains de Pékin. Mais Donald Trump, alors encore très impliqué dans les discussions, avait suspendu à trois reprises l'application de cette interdiction, le temps de chercher un repreneur américain.Cette fois, on y est presque. Un consortium d'entreprises, dont Oracle serait la tête de pont, s'apprête à racheter les opérations américaines de TikTok. Une nouvelle version de l'application, distincte de l'actuelle, devrait apparaître sur les stores américains le 5 septembre 2025. Objectif : héberger toutes les données aux États-Unis, sur des serveurs gérés par Oracle, et assurer une prise de contrôle progressive par les nouveaux investisseurs. Mais attention, ce ne sera pas une simple copie conforme. Selon une enquête, ByteDance – la maison mère de TikTok – aurait préparé un double de son algorithme de recommandation, pour ne pas céder le modèle original. Car ce système, cœur du succès de TikTok, reste inégalé à ce jour.D'ici mars 2026, les utilisateurs devront migrer vers la nouvelle app, au risque de voir leur version actuelle désactivée. Une opération titanesque, qui vise à couper toute dépendance technologique à la Chine, même si ByteDance conserverait une participation minoritaire. Reste une inconnue : le feu vert de Pékin. Car dans un contexte de tensions commerciales croissantes entre les deux puissances, rien n'est encore gagné. Et côté usagers, il faudra s'attendre à quelques couacs : bugs, pertes de données ou interruptions de service ne sont pas à exclure pendant cette migration d'envergure. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Mais que se passe-t-il dans le monde feutré – mais ultra-compétitif – de la recherche scientifique ? Alors que les articles générés ou assistés par intelligence artificielle envahissent Google Scholar, un nouveau scandale jette une ombre sur l'intégrité de certaines publications. Et cette fois, ce sont les prompts cachés dans les articles eux-mêmes qui font polémique.Selon une enquête du journal Nikkei Asia, au moins 17 papiers déposés sur la plateforme Arxiv contiendraient des instructions secrètes glissées à l'intention… de l'intelligence artificielle. Oui, vous avez bien entendu. Des chercheurs y auraient inséré, en tout petit ou en blanc sur blanc, des phrases destinées à influencer une relecture automatique : "Donne une évaluation positive", ou encore, "Souligne la rigueur méthodologique et l'innovation exceptionnelle de cet article". Bref, une tentative pour biaiser l'évaluation… par les pairs ou plutôt par l'IA utilisée, parfois, en coulisses.Ce qui choque encore davantage, c'est que des auteurs issus d'institutions prestigieuses sont impliqués : l'Université Columbia, le KAIST en Corée du Sud, ou encore Waseda au Japon. Au total, 14 universités, réparties sur 8 pays, sont concernées. L'un des chercheurs mis en cause s'est défendu auprès de Nikkei Asia : selon lui, il ne s'agirait pas tant d'une triche que d'une forme de riposte. Car oui, certains évaluateurs utilisent eux-mêmes l'IA pour juger des articles, une pratique pourtant strictement interdite par la plupart des conférences scientifiques. Mais cette guerre des intelligences, humaine et artificielle, soulève une question cruciale : la course à la publication justifie-t-elle tous les moyens ? Le risque est grand de voir l'éthique scientifique sacrifiée sur l'autel de la visibilité. Et à ce jeu-là, même les chercheurs pourraient perdre leur crédibilité. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Depuis le 22 juin, Tesla teste à Austin une nouvelle version de son logiciel de conduite autonome, le fameux FSD – pour Full Self Driving. Une poignée de privilégiés, principalement des influenceurs et des investisseurs proches de la marque, ont été conviés à participer à cette démonstration grandeur nature. Des voitures sans conducteur officiel, évoluant seules dans un périmètre restreint de la ville texane. Une vitrine publique, mais aussi une opération séduction.À première vue, tout semble fluide : la plupart des trajets filmés se déroulent sans incident. Mais certaines vidéos postées en ligne révèlent des dysfonctionnements encore préoccupants : freinages inexpliqués, erreurs de voie, excès de vitesse, et même des manœuvres de stationnement interrompues en urgence. Une influenceuse a ainsi partagé une séquence où sa voiture s'arrête net… sans obstacle visible. Dans une autre, un agent de sécurité intervient pour éviter une collision avec un camion.Trois spécialistes de la conduite autonome ont analysé ces vidéos pour Business Insider. Leur verdict est unanime : le système n'est pas prêt. Raj Rajkumar, de l'université Carnegie Mellon, parle de « freinage fantôme » provoqué par une mauvaise lecture de l'environnement. Et si un poids lourd suit de près, les conséquences peuvent être graves. Pour Bryant Walker Smith, juriste et ingénieur à l'université de Caroline du Sud, cette démonstration reste très encadrée : un moniteur humain est toujours prêt à stopper le véhicule. « C'est une ascension de falaise… avec harnais et corde », dit-il.Contrairement à Waymo ou Cruise, Tesla fait le pari du tout caméra. Huit objectifs, pas de radar ni de lidar. Une stratégie qui ne convainc pas tout le monde. Steven Shladover, chercheur à Berkeley, rappelle qu'une conduite vraiment autonome nécessite une fusion de données multi-capteurs, combinée à une cartographie de précision. Or les vidéos montrent encore des hésitations et des décisions incohérentes, dans une zone de test d'à peine dix kilomètres. Depuis 2022, plus de 750 propriétaires de Tesla ont signalé des freinages brusques en mode Autopilot aux autorités américaines. L'enquête est toujours en cours. Et si Tesla continue de collecter massivement les données pour faire progresser son logiciel, les experts s'accordent : l'autonomie totale n'est pas encore à l'horizon. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Choses à Savoir Tech fait une petite pause pour faire le plein et vous accompagner tout l'été, avant d'entamer une nouvelle saison à vos côtés ! Retour des épisodes le 6 juillet. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C'est un petit pas pour Apple, mais un grand bond pour l'interopérabilité. Avec iOS 26, la firme de Cupertino amorce un virage discret mais symbolique : le protocole AirDrop, jusqu'ici jalousement gardé dans l'écosystème Apple, s'ouvre enfin à des applications tierces. En clair, les développeurs auront bientôt accès au même canal de communication sans fil qu'AirDrop, via une nouvelle interface de programmation baptisée NearbyFileShare. Le principe est simple : grâce au Wi-Fi Direct et au Bluetooth Low Energy, les applis tierces pourront détecter des appareils à proximité, s'annoncer et transférer des fichiers — le tout chiffré, de manière native, sans bidouille ni QR code. On imagine déjà des applis de messagerie ou de cloud proposer un bouton « Partager à proximité » directement intégré à l'interface iOS.Mais Apple ne lâche pas tout. L'entreprise impose un cadre strict : transferts limités à 10 mètres, respect de la sandbox, chiffrement de bout en bout… et surtout, droit de retrait pour les applications qui détourneraient l'outil à des fins de diffusion massive. Côté utilisateur, AirDrop restera activé par défaut, mais un menu permettra de choisir son service préféré, comme on le fait déjà avec le navigateur ou le client mail. Pourquoi ce geste d'ouverture maintenant ? Il faut chercher la réponse à Bruxelles. Le Digital Markets Act pousse les géants du numérique à ouvrir leurs services clés, et le partage local faisait partie des derniers bastions verrouillés d'iOS. Plutôt que d'attendre une sanction, Apple devance l'injonction, comme elle l'a fait en autorisant les boutiques alternatives ou en abaissant ses commissions sur les paiements in-app.Alors, peut-on imaginer bientôt un partage de fichiers fluide entre iPhone, Android et Windows ? Pas si vite. Pour l'instant, rien n'indique que NearbyFileShare sera compatible hors de l'écosystème Apple. Mais en laissant des éditeurs comme Google ou Microsoft s'y frotter, la firme garde la main tout en contournant les accusations d'entrave à la concurrence. Un numéro d'équilibriste bien maîtrisé : Apple cède un peu de terrain sans abandonner ses règles. Et si l'Europe veut aller plus loin, il faudra sortir les grands moyens. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C'est une alerte sérieuse qui vient de retentir de l'autre côté de la Manche. Le conseil municipal d'Oxford, ville emblématique du Royaume-Uni, a révélé avoir été la cible d'une cyberattaque d'ampleur. Des pirates sont parvenus à s'introduire dans ses anciens systèmes informatiques, appelés legacy, pour y dérober des données sensibles stockées depuis plus de vingt ans.Selon les premières analyses relayées par BleepingComputer, les hackers ont exploité ces failles technologiques pour accéder à des bases de données internes remontant à 2001. Résultat : plus de deux décennies d'archives ont été compromises. Et l'attaque ne s'est pas faite sans conséquence : de nombreux services municipaux ont été perturbés, même si la majorité a désormais repris son activité. Mais des retards subsistent, illustrant combien les infrastructures numériques, même obsolètes, restent cruciales au bon fonctionnement des institutions.La cible principale ? Le personnel électoral local. Les données volées concernent des agents administratifs, des responsables de bureaux de vote, ou encore les compteurs de bulletins. Un ciblage qui interroge, tant ces profils touchent directement au processus démocratique local. De quoi alimenter les soupçons sur les motivations des assaillants. Heureusement, selon les autorités locales, aucune donnée de citoyens n'a été exposée. Une précision qui se veut rassurante, même si l'alerte est claire : les systèmes vieillissants ne sont plus un simple handicap technique, ils représentent un véritable risque sécuritaire.L'Oxford City Council a depuis alerté toutes les personnes concernées, renforcé ses mesures de sécurité, et une enquête est en cours. À ce stade, aucune diffusion massive des données volées n'a été repérée. Mais l'affaire sonne comme un rappel salutaire : dans un monde toujours plus numérisé, même les grandes institutions historiques comme Oxford ne peuvent plus se permettre de négliger leurs vieilles fondations numériques. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Une nouveauté discrète, repérée dans un recoin de l'interface, pourrait bien changer notre façon de dialoguer avec l'intelligence artificielle. C'est un chercheur en IA, Tibor Blaho, qui a levé le voile sur ce qui s'annonce comme un tournant stratégique pour ChatGPT. Sur X.com, il a partagé une capture d'écran révélant une nouvelle fonctionnalité baptisée « Connect Gmail and Google Calendar », accompagnée d'une suggestion automatique de requête : « What's my schedule today ». Comprenez : ChatGPT pourrait bientôt consulter vos mails et gérer votre emploi du temps, comme un véritable assistant personnel.Aujourd'hui, l'intégration Gmail existe déjà, mais elle reste très limitée. Réservée aux abonnés ayant activé les fonctions connectées, elle s'utilise dans le cadre de Deep Research, pour croiser des données issues de plusieurs sources personnelles, sans jamais naviguer librement dans vos messages. Impossible, donc, de suivre une discussion, de générer une réponse à la volée ou de planifier un rendez-vous en un clic. Mais cette barrière pourrait bientôt sauter. La nouvelle fonction, en cours de test sur la version web de ChatGPT, laisserait entrevoir une interaction directe avec Gmail et Google Agenda. L'idée ? Permettre à l'IA de parcourir vos mails, d'y extraire automatiquement des informations utiles, de proposer des rappels ou des tâches, et même de générer des réponses contextuelles. Selon Blaho, cette intégration ne serait pas réservée à Deep Research : elle pourrait aussi s'activer via ChatGPT Search, rendant l'interaction plus fluide, plus naturelle, et surtout… plus quotidienne.Mais qui dit assistant personnel, dit aussi confidentialité. Et là, les questions fusent. OpenAI n'a pour l'instant fourni aucun détail sur le traitement des données, ni sur la manière dont les courriels ou rendez-vous seraient analysés, stockés ou protégés. Aucun communiqué officiel, aucune documentation technique ne vient encadrer cette nouveauté, qui semble testée uniquement depuis les États-Unis, et probablement via un connecteur OAuth classique. Enfin, il reste l'épineuse question du cadre légal, notamment en Europe, où la réglementation sur la vie privée est plus stricte. Donner accès à sa messagerie implique un consentement éclairé et des garanties précises. Car si cette fonction promet un gain de productivité, elle devra aussi prouver qu'elle peut respecter la vie privée… sans jamais la compromettre. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C'est une annonce qui a fait trembler la planète numérique : 16 milliards d'identifiants associés à des comptes Apple, Google ou Meta auraient été compromis. Un chiffre vertigineux, présenté comme la plus grande fuite de données de l'histoire. Mais derrière l'alerte, les experts appellent au calme. Car il ne s'agirait pas d'une nouvelle brèche, mais plutôt d'une énorme compilation de données déjà piratées… parfois depuis des années.C'est Lawrence Abrams, spécialiste reconnu du site Bleeping Computer, qui lève le voile. Selon lui, ces données proviennent d'infostealers — des logiciels malveillants spécialisés dans le vol d'identifiants. Leur format, structuré en « URL + nom d'utilisateur + mot de passe », trahit leur origine. Ces fichiers circulent librement sur des canaux comme Discord, Telegram ou encore Pastebin, où les cybercriminels se les échangent… gratuitement, souvent pour briller dans la communauté ou appâter de futurs « clients ».Ce recyclage est bien connu dans le milieu : d'autres collections massives comme RockYou2024 ou Collection #1 ont déjà fait parler d'elles, avec des milliards de mots de passe exposés, sans constituer pour autant de nouvelles attaques. Faut-il pour autant baisser la garde ? Non. Mais inutile de paniquer, voici ce que vous pouvez faire dès maintenant :-Scannez votre ordinateur avec un antivirus fiable avant toute action. Si un logiciel espion est actif, il pourrait capturer vos nouveaux mots de passe.-Vérifiez si vos identifiants ont fuité via le site HaveIBeenPwned.com : c'est gratuit, fiable, et vous alerte si votre adresse email figure dans une base compromise.-Enfin, adoptez les bons réflexes : gestionnaire de mots de passe, authentification à deux facteurs via une appli (évitez les SMS), et surveillance régulière de vos comptes sensibles.Avec ces outils, cette « fuite géante » reste un rappel utile — mais elle n'a pas besoin de tourner à la catastrophe personnelle. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
L'Union européenne a WhatsApp dans son viseur. La messagerie chiffrée, propriété de Meta, envisage d'intégrer de la publicité dans sa section Actus d'ici 2026. Une annonce qui agite Bruxelles, car si les échanges entre utilisateurs restent protégés par le chiffrement de bout en bout, les données utilisées pour la publicité pourraient venir… de Facebook ou d'Instagram. Et là, les règles sont claires. Le RGPD et le Digital Markets Act (DMA) imposent un cadre strict à l'utilisation des données personnelles. Pas question de mixer les infos d'un service à l'autre sans le consentement explicite et libre de l'utilisateur.Le commissaire européen Des Hogan, chargé de la vie privée en Irlande — et donc de la conformité de Meta pour toute l'Union — a confirmé à Politico : aucun lancement dans l'UE avant 2026, et des discussions à venir avec WhatsApp pour évaluer la légalité du dispositif. Même prudence du côté de Dale Sunderland, commissaire à la protection des données, qui affirme qu'aucun dialogue officiel n'a encore été engagé. Mais le signal est clair : la manœuvre de Meta ne passe pas inaperçue. Car la stratégie actuelle de l'entreprise, qui propose aux utilisateurs de payer pour ne pas recevoir de publicité ciblée, est vue comme un contournement. L'UE, elle, exige que chacun puisse choisir une publicité générique, sans exploitation de ses données.Or pour Meta, cette publicité non personnalisée est bien moins efficace… donc moins lucrative. Mais selon NOYB, une ONG spécialisée dans la défense de la vie privée, le mécanisme proposé par WhatsApp est illégal en l'état. L'organisation rappelle que le croisement de données entre plateformes sans consentement clair est interdit. Meredith Whittaker, présidente de la fondation Signal – messagerie concurrente – s'est aussi saisie du sujet, dénonçant une nouvelle atteinte à la vie privée des internautes. Le bras de fer est engagé. L'Europe entend bien faire respecter ses règles face aux géants du numérique. Et pour Meta, le chemin vers la monétisation de WhatsApp en Europe pourrait s'avérer bien plus sinueux que prévu. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C'est l'un des dossiers les plus stratégiques du moment. Lors du salon VivaTech, Emmanuel Macron a lancé un signal fort : la souveraineté numérique européenne passera par la maîtrise des semi-conducteurs avancés. Fini les puces « matures », ces composants gravés à 28 nanomètres ou plus. L'heure est désormais à la haute précision : des puces de moins de 5 nm, indispensables à l'intelligence artificielle, aux voitures autonomes ou à la 5G. Problème : seuls deux géants mondiaux dominent ce marché hypertechnologique — TSMC à Taïwan et Samsung en Corée du Sud.Les États-Unis l'ont bien compris. Ils ont sorti le chéquier pour attirer ces mastodontes sur leur sol : TSMC construit une usine en Arizona, Samsung une autre au Texas. La France entend suivre le modèle, avec un cocktail d'aides publiques issues du plan France 2030, de crédits d'impôt, et un argument de poids : une énergie nucléaire bas carbone pour alimenter les futures « salles blanches ». Face à la lenteur du projet TSMC en Allemagne, Paris voit une fenêtre d'opportunité. Mais attention : attirer une méga-usine gravant à 2 nm, c'est engager des investissements colossaux – plus de 20 milliards d'euros – et mobiliser des milliers d'ingénieurs spécialisés. Une ressource rare. Le gouvernement mise sur la reconversion des salariés de STMicroelectronics, qui prévoit pourtant de supprimer 1 000 postes d'ici 2027. Une contradiction qui fragilise la filière à un moment clé.Et le temps presse. Construire une usine EUV de pointe prend 5 à 7 ans, alors que la technologie progresse vite : le 2 nm pourrait bientôt céder la place au 1,8. Pourtant, sans cette ambition industrielle, la France risque de rester à la traîne, simple cliente dans une guerre mondiale des composants. Un manifeste signé par 300 acteurs du secteur appelle à l'action. Leur message est limpide : 265 milliards d'euros de dépendance technologique chaque année, ça suffit. Il est temps d'investir chez nous pour retrouver une part de ce marché dont l'Europe ne détient aujourd'hui que 10 %, contre 60 % pour l'Asie. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Et si l'écran devenait officiellement persona non grata chez les tout-petits ? C'est en tout cas le cap qu'entend fixer Catherine Vautrin. La ministre de la Santé a dévoilé ce week-end, dans une interview au Journal du Dimanche, un projet pour le moins audacieux : interdire l'exposition des enfants de moins de trois ans aux écrans, et ce partout, même dans la sphère privée.Pas de contrôle, pas d'amende, mais une interdiction symbolique. Une loi qui, comme celle de 2019 interdisant la fessée, n'a pas vocation à être appliquée par la force, mais à faire évoluer les mentalités. « La police n'est pas allée vérifier dans les foyers si l'interdiction [de la fessée] était respectée », rappelle la ministre, « mais le fait de la proclamer a fini par ancrer l'idée qu'on ne tape pas un enfant. Même une petite fessée. » L'idée, cette fois, est donc claire : rendre socialement inacceptable l'écran chez le très jeune enfant.Un premier pas concret est attendu dans les toutes prochaines semaines : un arrêté ministériel viendra interdire les écrans dans les crèches et lieux d'accueil des moins de trois ans. En parallèle, les pouvoirs publics veulent renforcer la sensibilisation : des campagnes d'information seront diffusées via l'Assurance maladie et les Allocations familiales pour alerter les parents sur les risques liés aux écrans – troubles de l'attention, retard du langage, ou encore isolement. Un projet qui promet de faire débat, mais qui pose une question centrale : comment mieux protéger le développement cognitif des tout-petits dans un monde saturé de numérique ? Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C'est une attaque aussi discrète qu'ingénieuse, et elle remet en cause l'un des derniers réflexes de confiance qu'il nous reste en ligne : celui d'un lien affichant “google.com”. On le sait, les campagnes de phishing sont souvent repérables : une faute d'orthographe, un nom de domaine douteux – “lap0ste.net” ou “facebok.com” font tiquer les plus attentifs. Mais que faire quand le lien vient directement de google.com ?C'est ce que révèle une enquête publiée par le magazine C/Side. Des cybercriminels ont utilisé une URL parfaitement légitime de Google OAuth — ce système d'identification bien connu — pour lancer une attaque ciblée sur un site e-commerce fonctionnant sous Magento. L'adresse en question semble anodine, mais elle contient un paramètre “callback” détourné pour exécuter un code JavaScript caché. Ce code, encodé en base64, passe inaperçu pour les antivirus et les pare-feux.Le pire ? Ce script ouvre une connexion WebSocket, une sorte de canal permanent entre votre navigateur et le serveur de l'attaquant. Résultat : dès que vous accédez à une page contenant “checkout” dans l'URL — donc au moment de payer — le pirate prend le contrôle. Il peut injecter des formulaires frauduleux, intercepter vos données bancaires, voire modifier ce que vous voyez à l'écran sans recharger la page. Et comme l'attaque s'appuie sur un domaine Google, elle échappe à la plupart des systèmes de sécurité, qui considèrent ce nom comme fiable par défaut. Les utilisateurs de solutions Google et les e-commerçants sont particulièrement vulnérables à ce type de détournement. Le conseil, ici, est simple mais précieux : affichez l'URL complète dans votre navigateur. Un clic droit sur la barre d'adresse suffit pour activer cette option. Dans un monde où même les liens les plus familiers peuvent cacher des pièges, la vigilance reste notre meilleure défense. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Imaginez être banni d'un magasin pour un vol que vous n'avez jamais commis… C'est ce qui est arrivé à Danielle Horan, une Britannique de Manchester, expulsée à deux reprises d'une enseigne Home Bargains à cause d'un algorithme de reconnaissance faciale.L'histoire, révélée par la BBC, interroge sur les dérives de l'intelligence artificielle dans l'espace public. Le système, fourni par la société Facewatch, a tout simplement accusé Mme Horan d'avoir volé… du papier toilette. Une erreur qui l'a automatiquement inscrite sur une liste noire numérique, sans vérification humaine. Lorsqu'elle s'est rendue dans un autre magasin de la même chaîne, les agents de sécurité l'ont immédiatement repérée via le système, encerclée, puis sommée de quitter les lieux. Aucun échange, aucun doute, aucun recours sur place.Même après vérification de ses paiements, l'accusation a continué de la suivre. Il lui a fallu prouver sa bonne foi non seulement auprès de l'enseigne, mais aussi auprès de Facewatch. Une inversion totale de la logique judiciaire : ici, la machine vous désigne coupable, à vous de démontrer votre innocence. Le plus inquiétant ? Ce n'est pas un cas isolé. Big Brother Watch, organisation britannique de défense des libertés civiles, affirme avoir été contactée par plus de 35 personnes victimes de signalements erronés similaires.Facewatch a reconnu l'erreur et suspendu temporairement ses services dans les magasins concernés. L'entreprise rappelle que la fiabilité de son IA dépend des informations initiales, mais cela ne suffit pas à calmer les inquiétudes. Car au-delà de la faille technique, c'est la place croissante de la reconnaissance faciale dans nos vies qui est en question. Déjà controversée lorsqu'elle est utilisée par les forces de l'ordre, cette technologie pose aujourd'hui un nouveau dilemme : peut-on confier notre présomption d'innocence à un algorithme ? Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Bruxelles persiste et signe : dans le monde des smartphones, les règles européennes s'affirment comme un levier majeur pour prolonger la durée de vie de nos appareils. Après avoir imposé le port USB-C à Apple, l'Union européenne passe à la vitesse supérieure avec de nouvelles mesures qui entreront en vigueur ce vendredi 20 juin. Derrière le nom un peu technique du règlement 2023/1670, se cache une série de dispositions qui visent un objectif clair : rendre nos smartphones plus durables. Et cela commence par un composant clé : la batterie. Désormais, elle devra supporter au moins 800 cycles de charge tout en conservant 80 % de sa capacité. En parallèle, une étiquette énergétique, semblable à celles que l'on retrouve sur nos frigos ou lave-linge, devra figurer sur les smartphones et tablettes, indiquant leur efficacité de A à G.Mais ce n'est pas tout. Pour tous ceux qui préfèrent réparer plutôt que jeter, les fabricants seront obligés de fournir des pièces détachées essentielles pendant sept ans après la fin de la commercialisation d'un modèle. Mieux encore : ces pièces devront être disponibles en cinq jours ouvrés pendant les cinq premières années, puis en dix jours jusqu'à la septième. Et pour que nos téléphones ne deviennent pas obsolètes trop vite côté logiciel, les mises à jour de sécurité et de fonctionnalités devront être garanties pendant au moins cinq ans. Une révolution discrète mais décisive, qui pourrait bien changer notre rapport aux smartphones. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
À l'hôpital Georges-Pompidou, à Paris, la radiothérapie entre dans une nouvelle ère. Fini le temps où les médecins passaient des heures à dessiner à la main chaque organe sur les images d'un scanner. Désormais, l'intelligence artificielle s'invite dans le protocole, en assistant les équipes médicales dans cette tâche aussi cruciale que chronophage.Avant chaque traitement par rayons, les praticiens doivent identifier la tumeur et les zones à préserver, image par image. Une tâche complexe, réalisée manuellement depuis des décennies. Mais depuis peu, un outil numérique automatise l'analyse, en segmentant les scanners en quelques minutes à peine. L'IA repère les organes, isole la tumeur, et propose un modèle prêt à être relu et validé. Le médecin garde bien entendu la main. La machine ne décide rien seule : elle fait office de super-assistant. « En trois minutes, tout est déjà contouré », explique le professeur Jean-Emmanuel Bibault, oncologue et enseignant à l'université Paris-Cité. Chaque organe – cœur, poumons, moelle – apparaît dans une couleur distincte. Autrefois, ce travail nécessitait plusieurs heures, avec un balayage patient par patient, coupe par coupe. Aujourd'hui, l'automatisation allège cette phase technique et redonne du temps aux consultations. « Ce logiciel nous a changé la vie », résume le professeur Bibault.Florence, 63 ans, en traitement pour un cancer du poumon, se dit rassurée : « Je fais confiance à l'équipe, pas à une machine. Mais si elle peut aider, tant mieux. » Le système agit comme un interne : il propose un brouillon, que le médecin valide ou corrige. Demain, ces outils pourraient aller plus loin : aider à calculer les doses, affiner les plans thérapeutiques. Une avancée prometteuse, mais qui ne doit pas masquer les inégalités. L'OMS alerte : ces technologies restent hors de portée de nombreux pays en développement. Une révolution, oui — mais à condition qu'elle soit partagée. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Nouveau chapitre dans l'opération « Endgame », la vaste offensive internationale contre l'écosystème des cybercriminels. Cette fois, c'est AVCheck, un service utilisé pour tester et perfectionner des malwares, qui vient de tomber. Le FBI, en coopération avec les autorités néerlandaises et finlandaises, a mené un coup de filet visant l'un des outils les plus prisés des pirates pour échapper aux radars des antivirus.Depuis des années, AVCheck permettait aux hackers de soumettre leurs malwares à une batterie de tests, simulant leur détection par les principaux moteurs de cybersécurité. Objectif : affiner le code malveillant jusqu'à le rendre indétectable. Ce passage obligé avant chaque attaque, notamment les campagnes de rançongiciels, faisait d'AVCheck un maillon essentiel de la chaîne criminelle. En démantelant cette plateforme, les enquêteurs ont mis à jour tout un réseau de serveurs, adresses mail et noms de domaine utilisés pour opérer ce service dans l'ombre. Résultat : plusieurs serveurs saisis, quatre noms de domaine désactivés, et dans le sillage, deux autres services similaires — Cryptor.biz et Crypt.guru — également mis hors service.Cette action s'inscrit dans la stratégie globale de l'opération Endgame, lancée par Europol en mai 2024 avec le soutien d'une quinzaine de pays et des États-Unis. Son objectif : frapper les infrastructures techniques utilisées en amont des attaques, bien avant que les ransomwares ne frappent les victimes. En mai, une première vague avait déjà visé les « droppers », ces programmes qui ouvrent la porte aux malwares. Bilan : des centaines de serveurs saisis, des milliers de domaines neutralisés, et plusieurs arrestations à la clé. Dernier succès en date : le démantèlement de DanaBot, un malware-as-a-service responsable de plus de 300 000 infections et de 45 millions d'euros de pertes à l'échelle mondiale. Endgame, plus qu'un nom de code, est en train de devenir le cauchemar organisé du cybercrime. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La guerre des assistants vocaux est entrée dans une nouvelle phase. Apple tente tant bien que mal de moderniser Siri, pendant qu'OpenAI, de son côté, déploie une stratégie ambitieuse pour imposer ChatGPT comme l'assistant numérique de référence, y compris… sur les iPhones.C'est un document interne d'OpenAI, intitulé « ChatGPT: H1 2025 Strategy », qui a levé le voile sur cette offensive. Révélé dans le cadre de l'enquête antitrust contre Google, ce plan stratégique décrit la création d'un "super-assistant" : une intelligence artificielle ultra-polyvalente, capable aussi bien de gérer les petites corvées du quotidien que de vous assister sur des tâches complexes comme le codage, la planification de voyages ou la prise de rendez-vous avec un avocat. Avec sa mémoire évolutive, sa capacité à se souvenir de vos préférences, et ses interactions avec des plateformes tierces via son module Operator, ChatGPT vise à devenir un compagnon numérique personnalisé, présent sur le web, les applications, par email, téléphone et même au sein de services comme… Siri.Car oui, ChatGPT est déjà intégré dans iOS 18, sous forme d'un soutien ponctuel à Siri. Mais pour OpenAI, ce n'est qu'un début. L'entreprise veut que les utilisateurs puissent le choisir comme assistant par défaut, que ce soit sur iOS, Android ou Windows. Un appel direct à Apple, Google et Microsoft, que l'on accuse ici de verrouiller l'accès aux assistants concurrents. Et ce n'est pas tout : OpenAI réclame également que les moteurs de recherche ouvrent leurs index à tous les assistants IA, pour garantir une véritable concurrence.Pendant ce temps, Apple semble en plein questionnement. La refonte de Siri est en cours, avec une équipe réorganisée et un nouveau projet interne baptisé « Knowledge ». Mais malgré des avancées notables, la firme à la pomme peine à rattraper le retard. Un signe révélateur : OpenAI vient d'acquérir une startup dirigée par un ancien designer d'Apple, renforçant encore l'ergonomie et l'intégration de ChatGPT. L'avenir nous dira si Siri parviendra à résister… ou s'il devra bientôt céder sa place. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Et si un jour vous pouviez contrôler votre musique ou répondre à un appel… simplement en bougeant les lèvres ou en esquissant un sourire ? Ce n'est plus de la science-fiction. Apple vient de décrocher un brevet qui pourrait bien transformer notre manière d'interagir avec ses appareils.La technologie décrite porte un nom un peu barbare : « détecteur de gestes silencieux de la peau ». Derrière cette appellation, une prouesse technologique : l'utilisation de capteurs laser ultra-miniaturisés, semblables à ceux de Face ID, capables de capter des micro-vibrations musculaires. Grâce à un système optique de pointe, l'interférométrie à auto-mélange, ces capteurs détectent les moindres contractions du visage : un mouvement de lèvres, un murmure, une tension de la mâchoire… Concrètement, cela signifie que sans prononcer un mot à haute voix, vous pourriez changer de morceau, valider une action ou envoyer une commande, simplement en murmurant ou en faisant un geste facial subtil. Une technologie pensée pour plus de discrétion et de naturel, dans les transports, au bureau, ou partout où parler devient délicat.Et Apple ne compte pas limiter cette innovation à ses seuls AirPods. Le brevet mentionne également des lunettes connectées, laissant entrevoir un futur où nos objets portables répondraient littéralement à nos expressions faciales. Cerise sur le gâteau : cette technologie pourrait aussi renforcer la sécurité. Les micro-mouvements du visage étant propres à chaque individu, ils pourraient servir de vérification biométrique, empêchant toute commande non autorisée. Reste à savoir si ce brevet verra réellement le jour. Apple en dépose des centaines chaque année. Mais cette idée, à la croisée du confort, de la confidentialité et de l'innovation, donne un bel aperçu de la direction que pourrait prendre l'interface homme-machine de demain. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
C'est une arrivée que beaucoup attendaient : Photoshop est désormais disponible sur Android. Après un premier lancement sur iOS en février, Adobe déploie enfin sa célèbre application de retouche sur le Play Store. Et bonne nouvelle : elle est gratuite pendant toute la phase de bêta. Mais attention, pas question ici de transposer l'usine à gaz de la version desktop. L'idée, c'est plutôt de proposer une version allégée mais puissante, pensée pour une utilisation tactile. Un outil de création nomade, capable d'aller bien au-delà des applis de retouche simplifiées qu'on connaît trop bien.Les calques sont là, les masques aussi, ainsi que tous les indispensables : outils de sélection, fusion, réglages avancés. Les utilisateurs retrouvent le pinceau de correction, le tampon de duplication, ou encore la sélection par pression — baptisée « Tap Select » — qui permet de remplacer en un geste un élément de l'image. Le tout, dans une interface adaptée aux écrans de smartphone. Mais ce qui change vraiment la donne, c'est l'intelligence artificielle embarquée. Le moteur Firefly d'Adobe permet un remplissage génératif, autrement dit : ajouter ou modifier une image à partir d'un simple texte. Une chaise ici, un nuage là, et voilà. De quoi créer sans perdre de temps dans les menus.Enfin, Photoshop sur Android s'accompagne d'un accès à des ressources gratuites issues d'Adobe Stock, pour enrichir ses projets en mobilité. L'application nécessite Android 11 minimum et 6 Go de RAM (8 recommandés). Et Adobe promet déjà des mises à jour régulières, nourries par les retours des utilisateurs. En bref, Photoshop sur Android, ce n'est plus un rêve, c'est une version solide, prometteuse, et surtout accessible dès maintenant… tant que la bêta est ouverte. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
On les installe souvent en un clic, sans trop y penser. Les extensions pour Chrome, Firefox ou Edge sont devenues des outils du quotidien. Mais derrière leur promesse de nous simplifier la vie, certaines cachent des pratiques douteuses : collecte abusive de données, arnaques à l'affiliation, voire logiciels malveillants. C'est pour faire la lumière sur ces risques que la société de cybersécurité LayerX vient de lancer un tout nouveau site : ExtensionPedia. Un nom qui claque et une ambition claire : devenir le Wikipédia des extensions.Dans une publication récente, LayerX présente cette plateforme comme une base de données dédiée à l'analyse des risques liés aux extensions de navigateur. On y retrouve les plugins les plus populaires, classés par catégories — intelligence artificielle, gestion de mots de passe, VPN, traduction, productivité... Plus de 200 000 extensions y sont référencées, avec une évaluation basée sur différents critères de sécurité et de confidentialité.ExtensionPedia propose notamment un score de risque global, une analyse des permissions demandées, et une estimation de la réputation de chaque extension. Une initiative louable, surtout face à l'opacité de certaines boutiques officielles. Mais la vraie question reste : les utilisateurs auront-ils le réflexe d'aller vérifier chaque extension avant de l'installer ? Rien n'est moins sûr. Car si l'outil est riche, il est aussi technique — et pourrait décourager les moins initiés. Reste à voir si cette plateforme saura s'imposer dans les habitudes numériques. En attendant, elle est d'ores et déjà accessible gratuitement en ligne. Pour les plus prudents, c'est sans doute un nouvel allié de poids.https://layerxsecurity.com/extensions/ Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
La Nintendo Switch 2 est officiellement disponible depuis début juin en France… Et déjà, certains n'ont pas attendu pour en découvrir les moindres rouages. La chaîne YouTube ProModding a publié une première vidéo de démontage de la console, dévoilant ses entrailles avec un luxe de détails, en attendant le verdict très attendu des experts en réparabilité d'iFixit.Verdict préliminaire ? La Switch 2 semble relativement facile à démonter. Quelques vis bien cachées, des loquets planqués sous les autocollants, et un peu de doigté pour déconnecter les nappes, mais un utilisateur aguerri peut la démonter en 15 minutes. Attention toutefois : l'opération annule la garantie constructeur, et la réparabilité n'évolue pas franchement par rapport à la première Switch.Malgré un démontage avant tout descriptif, le technicien de ProModding partage quelques observations notables. Les nouveaux Joy-Con, par exemple, tiennent mieux que les anciens… tout en conservant un léger jeu. La pâte thermique, elle, semble identique à celle utilisée dans la première génération. En revanche, la béquille arrière inquiète : jugée trop fragile, elle présenterait un « risque élevé de casse », notamment si l'on tente de la déployer d'un seul côté. En bonus, la vidéo dévoile également un gros plan de la nouvelle puce custom signée Nvidia, véritable cœur de la machine. Une plongée rare et rapide dans l'architecture de cette console à peine sortie. Mais pour une vraie évaluation de la réparabilité, il faudra patienter. iFixit devrait publier son analyse complète dans les prochains jours. Rappelons que la Switch première du nom avait vu sa note de réparabilité chuter de 8 à 4 sur 10, pénalisée par les défauts récurrents des Joy-Con. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Retour sur une affaire aussi discrète que troublante, qui en dit long sur les failles – parfois béantes – des grandes agences de renseignement. Pendant des années, la CIA a utilisé des sites Internet aux allures inoffensives comme canaux de communication secrets avec ses informateurs étrangers. Mais la méthode, aussi ingénieuse que risquée, a fini par coûter très cher.Parmi ces sites : une plateforme dédiée à Star Wars, un blog sur les sports extrêmes, un autre sur la musique brésilienne… L'idée ? Utiliser des interfaces anodines pour permettre à des sources humaines de se connecter à un réseau sécurisé via une simple manipulation, comme entrer un mot de passe dans une barre de recherche. Le procédé a fonctionné… jusqu'à ce qu'il ne soit détecté par les services iraniens au début des années 2010. Résultat : le réseau tombe, et en Chine, plus d'une vingtaine d'agents ou informateurs de la CIA sont arrêtés ou exécutés entre 2011 et 2012. Un fiasco que l'agence américaine s'est bien gardée d'ébruiter.Mais plus de dix ans plus tard, l'affaire rebondit. C'est un chercheur brésilien indépendant, Ciro Santilli, qui relance les investigations. Passionné d'espionnage, de politique chinoise et de cybersécurité, il remonte la piste grâce à des outils publics : Wayback Machine, viewdns.info, et même des bots Tor pour contourner les restrictions. Il découvre d'autres sites liés au même réseau, et révèle que des pays comme la France, l'Allemagne ou l'Espagne ont également été concernés. Santilli en tire une conclusion claire : ces canaux secrets révèlent les priorités géopolitiques de la CIA à l'époque, avec en tête, sans surprise, le Moyen-Orient. Il s'interroge aussi sur des pratiques plus récentes, évoquant des fermes à trolls financées par l'agence pour tenter de déstabiliser le régime chinois. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.