Tout ce qu'il faut savoir dans le domaine de la Tech et d'Internet.

Nouvel épisode dans le bras de fer entre Bruxelles et Google. Début septembre, la Commission européenne infligeait une amende record de 2,95 milliards d'euros au géant américain pour abus de position dominante dans la publicité en ligne. Une sanction assortie d'une menace lourde : une scission de certaines activités si Google ne proposait pas rapidement des mesures pour rétablir la concurrence.Depuis, Google conteste farouchement la décision et prépare son appel. Mais en parallèle, le groupe devait impérativement soumettre cette semaine ses propositions concrètes pour éviter une séparation forcée. Il s'est finalement exécuté. Dans un communiqué, un porte-parole assure que « notre proposition répond pleinement à la décision de la Commission, sans recourir à une scission disruptive », qui nuirait, selon lui, aux milliers d'annonceurs et éditeurs utilisant aujourd'hui ses outils publicitaires.Bruxelles confirme avoir reçu le document et promet une analyse minutieuse : « Nous allons examiner les mesures proposées par Google pour vérifier si elles peuvent mettre fin aux atteintes à la concurrence », indique la Commission. Selon des informations du Monde, cette proposition comporte deux volets. D'abord, des mesures immédiates destinées à stopper les pratiques pointées par l'enquête européenne. Ensuite, des modifications structurelles plus profondes, destinées à éliminer ce que Bruxelles considère comme un conflit d'intérêts entre plusieurs briques du système publicitaire de Google — notamment entre sa plateforme d'achat d'espaces, son serveur publicitaire et son marché d'enchères.Cet été déjà, Google avait tenté de convaincre Bruxelles avec une première série d'engagements jugés insuffisants. Cette fois, l'enjeu est clair : convaincre la Commission qu'il est possible de restaurer la concurrence sans démanteler une partie de l'écosystème Google Ads. La balle est désormais dans le camp de l'Union européenne. Si les mesures sont jugées inefficaces, Bruxelles pourrait relancer la procédure de scission. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Mardi 18 novembre, un peu après midi, Internet a toussé… puis s'est effondré par intermittence. En quelques minutes, Cloudflare, l'un des piliers de l'infrastructure du Web mondial, a entraîné dans sa chute une avalanche de services : ChatGPT, X/Twitter, Canva, Clubic et des milliers d'autres plateformes. L'hypothèse d'une cyberattaque massive a d'abord dominé. En réalité, la vérité est plus banale — et beaucoup plus inquiétante.Tout commence à 12h05, lorsque Cloudflare déploie une mise à jour sur un cluster de bases de données ClickHouse. Une modification censée renforcer la sécurité en rendant explicites les permissions d'accès. Un ajustement mineur, en apparence. Sauf que ce changement provoque un bug imprévu : chaque colonne de données se duplique dans les métadonnées. Une anomalie invisible pour l'utilisateur… mais catastrophique pour un composant clé : le fichier utilisé par le système Bot Management, chargé d'analyser le trafic pour distinguer humains et robots.Habituellement, ce fichier contient une soixantaine d'empreintes. Avec les doublons, il en compte plus de 200. Le problème ? Le logiciel censé le traiter est conçu pour refuser tout fichier dépassant 200 entrées, afin d'éviter une surcharge mémoire. Résultat : lorsque ce fichier corrompu se propage aux milliers de serveurs mondiaux, les machines plantent en série et renvoient des erreurs 500 aux internautes du monde entier. Le cauchemar se complique encore. Le fichier est régénéré toutes les cinq minutes. Selon que le serveur tombe sur une version saine ou défectueuse, Cloudflare oscille entre fonctionnement normal et blackout. Diagnostiquer la panne devient un casse-tête. Matthew Prince, le PDG, parle même d'une possible “démonstration de force” d'un réseau de bots, après les gigantesques attaques DDoS de juin.Ce n'est qu'à 14h04 qu'une piste interne apparaît. À 14h37, les équipes identifient enfin le coupable : le fichier Bot Management. À 15h24, sa génération automatique est stoppée. À 15h30, Internet redémarre. Enfin… presque. Le tableau de bord tombe à son tour, écrasé par le flot de connexions en attente. Il faudra attendre 18h06 pour un retour complet. Dans un mea culpa inhabituellement frontal, Matthew Prince avoue : « Une panne comme celle-ci est inacceptable. » Cloudflare promet des coupe-circuits plus rapides, une validation plus stricte des fichiers internes, et des limites pour ses outils de débogage, eux-mêmes responsables d'un ralentissement massif. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Depuis l'irruption de ChatGPT dans le grand public, l'intelligence artificielle est devenue la nouvelle ruée vers l'or… et le grand gagnant de cette vague s'appelle Jensen Huang. Le patron de NVIDIA, fabricant des GPU indispensables à l'entraînement des modèles d'IA, dirige aujourd'hui une entreprise dont la capitalisation dépasse le PIB de l'Allemagne. Un succès vertigineux, qu'il explique pourtant avec une simplicité presque déconcertante.Invité par le Cambridge Union, le milliardaire est revenu sur son parcours. Né à Taïwan, arrivé aux États-Unis à l'âge de neuf ans, il fonde NVIDIA en 1993, à tout juste 30 ans. Mais selon lui, la base de sa réussite se trouve bien avant, dans une enfance marquée par un refus absolu de se fixer des barrières. Il raconte notamment une scène qui a forgé sa manière d'aborder la vie : sa mère, qui ne parlait pas un mot d'anglais, lui a pourtant enseigné la langue… armée uniquement d'un bout de papier et d'un dictionnaire.Un souvenir fondateur. « À bien des égards, cela définit NVIDIA. Cela me définit aussi », résume-t-il. Si sa mère, qui ne parlait que le hokkien taïwanais, a pu accomplir cette prouesse, alors rien ne lui semble vraiment impossible. C'est cette philosophie qu'il applique aujourd'hui à son entreprise, devenue incontournable dans la révolution de l'IA : « J'aborde presque tout en me demandant : est-ce vraiment si difficile ? » confie-t-il. Sa fortune personnelle, désormais estimée à plus de 165 milliards de dollars, n'a pas entamé cette vision très directe du travail et de la réussite. Et son discours fait écho à celui d'autres géants de la tech — comme Pavel Durov — qui disent avoir puisé leur inspiration dans le courage et la ténacité de leurs parents. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Les alertes autour des dérives possibles de l'intelligence artificielle se multiplient, et les dernières recherches ne sont pas rassurantes. Après les révélations sur Claude AI exploitée par des espions chinois et la découverte par OpenAI que ChatGPT pouvait mentir, une nouvelle étude montre à quel point il est facile de contourner les règles censées encadrer ces systèmes. Cette fois, ce sont les chercheurs de Cybernews qui tirent la sonnette d'alarme. Leur objectif : vérifier si les garde-fous intégrés aux principaux modèles du marché résistent à des tentatives de manipulation simples, rapides, et réalistes. Verdict : une minute suffit souvent à faire déraper une IA.L'équipe a testé six modèles : Gemini Flash 2.5, Gemini Pro 2.5, ChatGPT-5, ChatGPT-4o, Claude Opus 4.1 et Claude Sonnet 4. Les chercheurs ont soumis à ces systèmes toute une série de demandes liées à des thématiques sensibles : discours haineux, maltraitance animale, contenus sexuels, criminalité, piratage, drogues, contrebande ou encore harcèlement. Chaque réponse était notée selon son niveau de conformité ou de déviation.Et les conclusions sont sans appel :« Avec les bons mots, même des utilisateurs non techniques peuvent amener un modèle à produire des réponses nuisibles », résume l'étude. Certains modèles divulguent même des informations dangereuses dès que la demande est habilement formulée.Un constat surprenant émerge : être aimable fonctionne mieux que provoquer l'IA. Parler gentiment au modèle, présenter la question comme une enquête, un roman ou un travail universitaire permettait souvent de contourner ses protections. À l'inverse, les insultes ou les formulations agressives déclenchaient plus facilement un refus. Les réactions varient toutefois selon les modèles. Les IA d'Anthropic, plus strictes, se sont montrées particulièrement fermes sur les discours haineux et les stéréotypes, même si elles ont parfois cédé face aux « attaques académiques ». Gemini Pro 2.5 apparaît comme le plus problématique : il « fournissait souvent des réponses directes et potentiellement dangereuses ». Quant à ChatGPT, il se situe au milieu du peloton : souvent prudent, mais susceptible de céder lorsque la demande prend la forme d'un récit ou d'une analyse à la troisième personne — produisant alors des réponses symboliques ou psychologiques contenant malgré tout des éléments sensibles. Pour les chercheurs, même des “fuites partielles” représentent un risque majeur si elles tombent entre de mauvaises mains. Reste désormais aux développeurs à renforcer ces garde-fous, avant qu'un simple contournement ne devienne une porte d'entrée vers des usages autrement plus inquiétants. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Les ordinateurs quantiques n'existent pas encore à grande échelle, mais ils inquiètent déjà tout le monde. Leur puissance de calcul pourrait, à terme, briser les systèmes de chiffrement qui protègent aujourd'hui nos communications, nos données sensibles, nos transactions. En clair : le coffre-fort numérique mondial pourrait devenir transparent du jour au lendemain. Face à cette menace, Thales prend les devants. Le groupe français vient de dévoiler Mistral, un nouveau système de chiffrement conçu pour résister aux attaques quantiques. Une solution souveraine, destinée aux administrations publiques, aux opérateurs d'importance vitale et aux industriels de la défense. Objectif : sécuriser dès juin prochain toutes les communications classées « limitées ». Et le timing n'est pas un hasard.À Rennes, où se tient la Cyber Week, Thales frappe fort pour la deuxième fois en deux mois, après avoir présenté son dispositif DCM5 dédié aux secrets d'État. Avec Mistral — à ne pas confondre avec la start-up Mistral AI — le message est clair : la course au chiffrement post-quantique est lancée, et l'Europe entend bien ne pas rester spectatrice. Concrètement, Mistral repose sur des algorithmes spécialement conçus pour survivre à la puissance de calcul des futures machines quantiques. Le système vise la certification Common Criteria EAL4+, l'un des niveaux les plus élevés au monde, et se conforme aux recommandations de l'ANSSI, l'agence française cybersécurité.Thales assure également que la performance n'a pas été sacrifiée. Mistral affiche un débit impressionnant de 4 × 10 Gbit/s, avec une latence minimale, ce qui permet d'intégrer la solution dans des infrastructures existantes sans ralentissement. Grâce à une gestion centralisée, le déploiement se veut simple et rapide, un atout de taille pour les grandes organisations déjà sous tension. Selon Pierre Jeanne, vice-président cybersécurité souveraine, Thales sera prêt à fournir « une solution capable de résister aux attaques quantiques » à la France et à ses partenaires européens dès juin 2026. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Sept ans après son entrée en vigueur, le RGPD continue d'imposer sa marque, tout en s'inscrivant dans un environnement réglementaire européen devenu beaucoup plus dense. Depuis 2018, l'Union européenne a multiplié les textes pour encadrer l'économie numérique : la directive NIS2 renforce la cybersécurité des opérateurs jugés essentiels, le Data Act organise le partage des données issues des objets connectés, et l'AI Act, premier cadre mondial pour les intelligences artificielles à « haut risque », entre progressivement en application. Ensemble, ces textes redéfinissent les obligations des entreprises, du stockage de données à la gouvernance des algorithmes.Mais une idée reçue circule : non, le registre des traitements n'a pas disparu. La Commission européenne a simplement proposé en 2025 d'en assouplir les conditions pour les petites structures. Ce projet de règlement « Omnibus » permettrait d'exempter davantage d'entreprises, en relevant le seuil de 250 à 750 salariés et en limitant l'obligation aux traitements présentant un « risque élevé ». Le texte est encore à l'étude, mais le principe d'accountability, lui, reste central : chaque organisation doit continuer à documenter ses traitements, ses finalités, ses durées de conservation et ses mesures de sécurité — y compris l'authentification multifacteur et le chiffrement, désormais considérés comme des standards de base. Le Data Act, entré en application le 12 septembre 2025, instaure un droit d'accès et de partage équitable des données générées par les produits connectés. Concrètement, un fabricant ou un fournisseur ne pourra plus bloquer l'accès à ces données : il devra respecter un principe “FRAND” – équitable, raisonnable et non discriminatoire. Les obligations techniques ne s'appliqueront toutefois qu'aux nouveaux produits mis sur le marché à partir de septembre 2026.De son côté, l'AI Act, adopté en 2024, impose d'ici 2026 des obligations lourdes pour les systèmes d'IA dits « à haut risque » : gestion des risques, documentation complète, transparence et audits réguliers. Enfin, NIS2, transposée fin 2024, élargit considérablement le périmètre des entités soumises aux règles de cybersécurité, avec davantage de contrôles, de notifications d'incidents et de sanctions. À l'international, les États-Unis avancent en ordre dispersé : faute de loi fédérale, chaque État – Californie, Virginie, Colorado ou Utah – impose son propre régime. En revanche, les transferts de données entre l'Europe et les États-Unis reposent désormais sur le Data Privacy Framework, validé par Bruxelles en 2023, et toujours en vigueur malgré plusieurs recours. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est une enquête qui secoue le monde de la publicité en ligne. Selon des documents internes obtenus par l'agence Reuters, Meta, la maison mère de Facebook et d'Instagram, aurait tiré en 2024 près de 16 milliards de dollars de revenus issus de publicités liées à des arnaques ou à des produits interdits. Une somme colossale, représentant environ 10 % de son chiffre d'affaires annuel, estimé cette année-là à 164,5 milliards de dollars.D'après ces révélations, Meta dispose bien d'un système interne capable de repérer les campagnes suspectes, mais le seuil pour qu'une annonce soit réellement bloquée est extrêmement élevé. Les algorithmes du groupe n'interdisent un annonceur que lorsqu'ils atteignent 95 % de certitude qu'il s'agit d'une fraude. Un taux de tolérance qui laisse forcément le champ libre à de nombreux escrocs. Et lorsqu'un annonceur n'atteint pas ce seuil, Meta applique une mesure baptisée “penalty bids” : l'entreprise augmente le prix de ses espaces publicitaires pour ces comptes jugés à risque. Si les annonceurs acceptent de payer plus cher, la plateforme encaisse les revenus supplémentaires — une méthode qui, de fait, monétise le risque plutôt que de l'éliminer. Pire encore, le système de recommandation publicitaire continue à diffuser des annonces similaires auprès des utilisateurs ayant déjà interagi avec une publicité frauduleuse. Autrement dit : plus une arnaque circule, plus elle rapporte.Selon un rapport interne daté de décembre 2024, les plateformes de Meta auraient diffusé en moyenne 15 milliards de publicités “à haut risque” chaque jour. Parmi elles, les plus suspectes — qualifiées de “higher-risk ads” — auraient généré à elles seules près de 7 milliards de dollars de revenus annualisés. L'enquête de Reuters, couvrant la période 2021-2025, montre aussi une application particulièrement laxiste des règles internes. Un petit annonceur doit être signalé au moins huit fois avant d'être bloqué, tandis que les gros comptes — les High Value Accounts — peuvent cumuler plus de 500 infractions sans suspension. Interrogé par Reuters, Andy Stone, porte-parole de Meta, parle d'une “vision sélective” et d'une interprétation “trop large” des chiffres. Il affirme que la société a supprimé 134 millions de publicités frauduleuses en 2025 et que les signalements d'utilisateurs ont chuté de 58 % en un an et demi. Mais pour Reuters, la conclusion est claire : malgré ses promesses, Meta reste structurellement dépendante d'un modèle où la fraude fait partie du profit. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Amazon continue d'intégrer l'intelligence artificielle dans l'ensemble de ses services. Après le shopping, après Amazon Music, c'est désormais au tour des liseuses Kindle d'entrer dans cette nouvelle ère. Le géant du e-commerce vient de dévoiler Kindle Translate, un service de traduction automatique pensé pour aider les auteurs indépendants à toucher un public international — sans supporter les coûts souvent prohibitifs d'une traduction professionnelle.Le programme, encore en phase bêta, n'est accessible qu'à une partie des auteurs utilisant Kindle Direct Publishing, la plateforme d'autoédition d'Amazon. Pour l'instant, seules trois combinaisons linguistiques sont disponibles : anglais, espagnol et allemand. Un champ d'action limité, mais qui pourrait rapidement s'élargir. Amazon justifie ce lancement par un constat : moins de 5 % des livres disponibles sur sa boutique américaine existent dans plus d'une langue. L'entreprise promet donc de combler cette lacune grâce à l'automatisation.Chaque manuscrit traduit via Kindle Translate passera par une évaluation automatique de la qualité avant publication. De plus, le lecteur sera informé par un étiquetage dédié que l'ouvrage provient d'une traduction générée par IA. L'auteur aura de son côté la possibilité de prévisualiser, ligne par ligne, le résultat final. Mais l'initiative soulève déjà plusieurs interrogations. Car la traduction littéraire ne se résume pas à transposer des mots : c'est un véritable travail d'interprétation culturelle, d'humour, de rythme et de sous-texte. Les risques d'erreurs subtiles, de nuances perdues ou de contresens demeurent élevés, même avec les meilleurs systèmes actuels. S'ajoute une autre inquiétude : l'impact sur les traducteurs professionnels. Depuis l'explosion des IA génératives il y a trois ans, la profession se trouve déjà fragilisée. Le lancement de Kindle Translate pourrait accentuer cette pression en habituant éditeurs et auteurs à des traductions rapides, bon marché… mais parfois très éloignées de l'exigence littéraire d'un travail humain. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Chez nos voisins britanniques, la ponctualité n'est décidément plus ce qu'elle était… surtout au ministère de l'Environnement. L'administration vient d'achever une migration informatique massive vers Windows 10, pour un coût faramineux de 312 millions de livres sterling — environ 368 millions d'euros. Problème : ce chantier titanesque se conclut exactement au moment où Microsoft met fin au support de Windows 10. Une modernisation flambant neuve… déjà obsolète.Sur le papier pourtant, tout semblait parfait. Entre 2022 et 2025, plus de 31 500 ordinateurs vieillissants ont été remplacés, des dizaines de milliers de failles comblées, et près d'une centaine d'applications critiques mises à jour. Un bilan qui aurait pu être salué, si la destination finale n'était pas un système d'exploitation officiellement abandonné en octobre 2025. Résultat : le ministère devra sans doute souscrire au support étendu, très coûteux, proposé par Microsoft. L'équivalent d'une voiture neuve dont la garantie aurait expiré avant même de quitter le garage.Cette étonnante erreur pose une question simple : comment un projet de cette ampleur a-t-il pu ignorer un calendrier public, connu de tous depuis des années ? Le cas n'est malheureusement pas isolé. Il illustre une fragilité chronique du secteur public britannique : la dette technique. Car même après ces investissements massifs, le ministère reconnaît devoir encore remplacer des dizaines de milliers d'appareils — ordinateurs et smartphones — qui ne sont, eux non plus, pas compatibles avec Windows 11. Les exigences matérielles modernes, comme la puce TPM 2.0, semblent avoir été complètement négligées par les planificateurs.Aujourd'hui, près de la moitié du budget informatique annuel du gouvernement britannique — soit 2,3 milliards de livres — sert uniquement à maintenir en vie des systèmes anciens. Pendant que d'autres pays misent sur la souveraineté numérique et la modernisation cloud, l'administration britannique semble, elle, enfermée dans un cycle coûteux de bricolages successifs. Au lieu de préparer l'avenir, le Defra vient donc d'investir dans une voie sans issue. Une erreur de stratégie qui fera date… et une leçon de gestion de projet dont beaucoup préféreront s'inspirer à l'envers. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Dans un rapport rendu public début novembre, Google Threat Intelligence tire la sonnette d'alarme : les cybercriminels industrialisent désormais des malwares dopés à l'intelligence artificielle. Ce ne sont plus de simples programmes statiques, mais des menaces autonomes et adaptatives — capables de modifier leur comportement à la demande pour échapper aux défenses traditionnelles.Parmi les familles identifiées, PromptFlux illustre la mutation : ce malware interroge une API d'IA pour réécrire son propre code et générer, à chaque activation, une nouvelle variante indétectable par les antivirus. Résultat : une chasse au caméléon où les signatures classiques perdent toute efficacité. Autre cas préoccupant, PromptSteal, déployé en Ukraine et attribué à APT28 (le groupe lié à la Russie connu sous le nom de Fancy Bear). Là, l'IA génère à la volée des commandes pour extraire des données ciblées — le logiciel ne contient plus des instructions figées, il les fabrique en temps réel. Une première opérationnelle, selon Google. Enfin, QuietVault mène la chasse aux secrets : après avoir exfiltré des jetons d'accès, il utilise des outils d'IA locaux pour fouiller le système et récupérer d'autres identifiants, automatisant une traque qui, hier, demandait des analystes humains. L'autonomie atteint un seuil inédit et dangereux.La firme de Mountain View souligne aussi la facilité avec laquelle les modèles peuvent être manipulés : de faux prétextes — « exercice académique », « projet étudiant » — suffisent parfois à pousser un assistant IA à livrer des conseils d'exploitation. L'ingénierie sociale migre ainsi vers les modèles de langage : au lieu d'abuser d'un humain, l'attaquant abuse d'une IA. Le tableau se complète côté marché noir : des services nommés sur le modèle des chatbots proposent désormais des malwares « clé en main », abonnements et assistance compris. Le cybercrime se professionnalise, se banalise, et abaisse ses barrières d'entrée. Que faire ? Les chercheurs encouragent une stratégie en profondeur : durcir les modèles, renforcer la traçabilité des appels API, et surtout maintenir une vigilance permanente. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est un projet discret, mais hautement stratégique : l'euro numérique vient de franchir une nouvelle étape. Bruxelles a annoncé cette semaine un calendrier clair pour la création de cette future monnaie digitale, pensée comme un antidote à la domination des géants américains du paiement, Visa et Mastercard, mais aussi comme un rempart face à la montée en puissance des stablecoins adossés au dollar.Selon le plan dévoilé, la phase pilote de l'euro numérique devrait débuter en 2027, à condition qu'un cadre légal soit adopté au niveau européen dès l'année prochaine. Si tout se déroule comme prévu, les citoyens du Vieux Continent pourraient commencer à l'utiliser dès 2029. Pour Piero Cipollone, membre du directoire de la Banque centrale européenne, il ne s'agit pas d'un simple projet technologique, mais bien d'un « effort collectif pour préparer l'avenir du système monétaire européen ».Mais derrière l'enthousiasme des institutions, les banques commerciales grincent des dents. Leur crainte : voir les particuliers transférer une partie de leurs dépôts vers cette nouvelle monnaie numérique émise directement par la BCE, ce qui fragiliserait leurs ressources. Pour rassurer le secteur, Bruxelles prévoit un plafond de détention fixé à 3 000 euros par personne, un seuil censé éviter la fuite des capitaux… mais qui pourrait être révisé à l'avenir.En toile de fond, l'euro numérique illustre un bras de fer économique et politique. D'un côté, l'Europe veut réduire sa dépendance aux systèmes de paiement étrangers. De l'autre, les banques défendent leurs marges et misent sur le développement de stablecoins libellés en euros comme alternative. Entre souveraineté monétaire et réticences du secteur financier, la route vers l'euro numérique promet d'être longue Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est une information qui fait trembler tout Hollywood. Selon Reuters, Netflix envisagerait rien de moins que le rachat de Warner Bros Discovery, l'un des plus grands studios de cinéma au monde — et propriétaire de HBO Max, son concurrent direct dans le streaming. Une opération potentiellement historique, qui pourrait bouleverser l'équilibre de toute l'industrie du divertissement.Le géant californien, déjà valorisé à près de 460 milliards de dollars, vise un objectif clair : atteindre le trillion, soit mille milliards de dollars de capitalisation d'ici la fin de la décennie. Pour y parvenir, Netflix veut frapper fort. Il aurait mandaté la banque d'investissement Moelis & Co pour étudier la faisabilité du rachat. Une banque d'affaires réputée, déjà à l'origine de l'acquisition de Paramount Global par Skydance Media.L'entreprise aurait d'ores et déjà eu accès aux informations financières confidentielles de Warner Bros Discovery, afin d'évaluer la solidité de ses actifs et la pertinence d'une offre. En clair : Netflix ne se contente plus de produire, il veut devenir un géant du contenu global, de la production au streaming. Pour l'instant, Warner Bros Discovery reste prudente. Le groupe, qui aurait reçu d'autres propositions — notamment de Comcast et de Paramount Skydance Corp —, les a toutes jugées insuffisantes. Mais si l'accord venait à se concrétiser, Netflix mettrait la main sur des licences mythiques : Harry Potter, Game of Thrones, Friends, ou encore Batman et Superman. Et surtout, il absorberait HBO Max, fort de ses 120 millions d'abonnés. En un mot, cette fusion serait un séisme industriel. Netflix deviendrait non seulement le roi du streaming, mais aussi un poids lourd du cinéma mondial. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Intel muscle sa communication avant la sortie de sa nouvelle génération de puces Panther Lake. Le géant américain des semi-conducteurs vient d'annoncer l'ouverture de cinq boutiques éphémères, à Séoul, New York, Londres, Munich et Paris. Une opération de séduction mondiale, pensée à la fois pour se rapprocher du grand public, montrer ses innovations et, accessoirement, marquer les esprits avant les fêtes de fin d'année.La première de ces boutiques a ouvert ses portes le 30 octobre à Munich, et donne un avant-goût de ce que les visiteurs parisiens découvriront à partir du 5 novembre. Selon le site spécialisé NotebookCheck, ce “pop-up” allemand présente une large gamme d'ordinateurs portables équipés des nouvelles puces Lunar Lake et Arrow Lake, les fers de lance d'Intel pour 2025. Les plus grands constructeurs répondent à l'appel : HP, Lenovo, Dell, ASUS, Acer, MSI, LG ou encore Samsung. Ces magasins éphémères ne se limitent pas à l'exposition : les visiteurs peuvent tester les machines et repartir directement avec.Intel met également en avant ses Chromebook et ses ordinateurs professionnels, comme les Lenovo ThinkPad ou HP EliteBook, destinés aux entreprises. Mais à Paris, l'expérience se voudra plus immersive. L'enseigne Boulanger s'associe à l'opération pour proposer des démonstrations interactives autour de l'intelligence artificielle : détection de deepfakes, outils de productivité, ou encore génération de contenu en temps réel. Le “Intel Experience Store” parisien ouvrira ses portes du 5 au 30 novembre, au 14 boulevard Poissonnière, dans le neuvième arrondissement. Une adresse symbolique, au cœur d'un quartier bouillonnant de tech et de culture numérique. Pour Intel, l'enjeu est double : raviver sa proximité avec le public à l'heure où la concurrence s'intensifie, notamment avec AMD et Apple, et rappeler que le PC reste un terrain d'innovation. Entre vitrines spectaculaires et vitrines commerciales, ces boutiques sont autant de laboratoires d'image destinés à repositionner Intel au centre du jeu. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est une histoire à la fois tragique et révélatrice des dérives du système de santé américain. Sur le réseau Threads, un internaute connu sous le pseudonyme @nthmonkey a raconté comment Claude AI, le chatbot développé par Anthropic, l'a aidé à contester une facture hospitalière de 195 000 dollars — soit près de 180 000 euros — réclamée après le décès de son beau-frère, victime d'une crise cardiaque.Le patient n'était plus couvert par son assurance santé depuis deux mois, et l'hôpital a facturé les quatre dernières heures passées en soins intensifs à un tarif démesuré. En cherchant à comprendre, la famille a d'abord réclamé une ventilation détaillée des coûts. Mais la transparence a tardé à venir : certaines lignes, comme une mention « Cardiology » à 70 000 dollars, restaient sans explication. Après de multiples relances, l'établissement a finalement transmis les codes de facturation médicale standard. C'est là que l'intelligence artificielle est entrée en jeu.Claude AI a analysé les données et détecté plusieurs anomalies flagrantes. La principale : une double facturation. L'hôpital avait facturé à la fois une procédure complète et chacune de ses composantes séparément, une pratique interdite par Medicare. Cette erreur représentait, à elle seule, près de 100 000 dollars de frais injustifiés. L'IA a aussi repéré des incohérences dans les codes d'urgence, des actes ventilatoires facturés deux fois le même jour, et d'autres irrégularités susceptibles de violer les règles de facturation.Mais le plus surprenant, c'est que Claude AI n'a pas seulement servi d'auditeur numérique : le chatbot a également rédigé des lettres de contestation juridiques, évoquant les risques d'actions en justice et de mauvaise publicité pour l'hôpital. Résultat : la facture a été ramenée à 33 000 dollars. Pour @nthmonkey, cette expérience révèle à quel point les établissements de santé profitent souvent de la complexité administrative, en espérant que les familles n'oseront pas contester. L'IA, elle, a permis de rétablir un semblant de justice dans un système où la moindre erreur se chiffre en dizaines de milliers de dollars. Une première victoire symbolique de la technologie contre les excès de la bureaucratie médicale américaine. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est un scoop technologique majeur : Amazon Web Services et OpenAI viennent de sceller un accord historique de 38 milliards de dollars sur sept ans, officialisé ce lundi 3 novembre. Derrière cette somme colossale, un objectif clair : donner à Sam Altman et son équipe les moyens de pousser l'intelligence artificielle générative à ses limites, grâce à la puissance de calcul du géant du cloud.Concrètement, OpenAI va bénéficier d'un accès privilégié à l'infrastructure d'Amazon, notamment aux serveurs EC2 UltraServers, des monstres de performance équipés des toutes dernières puces NVIDIA GB200 et GB300. Ces processeurs graphiques de nouvelle génération seront déployés à une échelle vertigineuse : jusqu'à 500 000 unités interconnectées, capables de supporter à la fois le fonctionnement de ChatGPT et l'entraînement des futurs modèles. À cela s'ajoutent des millions de processeurs CPU classiques pour alimenter les agents autonomes, ces IA capables d'exécuter des tâches complexes sans intervention humaine.Tout devrait être opérationnel d'ici fin 2026, avec une montée en puissance prévue en 2027. L'enjeu, pour Amazon, est aussi de minimiser la latence et d'offrir une infrastructure sur mesure pour les besoins démesurés d'OpenAI. « Alors qu'OpenAI continue de repousser les limites du possible, l'infrastructure d'AWS servira de colonne vertébrale à leurs ambitions », s'est félicité Matt Garman, patron d'AWS. Mais ce partenariat n'est pas né du jour au lendemain. Les deux entreprises collaborent déjà via Amazon Bedrock, la plateforme d'AWS qui permet d'intégrer des modèles d'IA dans les outils d'entreprise. OpenAI y est rapidement devenu l'un des fournisseurs les plus sollicités, avec des clients prestigieux comme Thomson Reuters, Peloton ou Verana Health, qui utilisent ses modèles pour la recherche, la programmation ou la gestion automatisée. Pour Sam Altman, l'alliance avec Amazon répond à une nécessité stratégique : « Faire évoluer l'IA de pointe nécessite une puissance de calcul massive et fiable. Ce partenariat va alimenter une nouvelle ère où l'intelligence artificielle avancée sera accessible à tous. » Dans la course mondiale à l'IA, une chose est désormais claire : celui qui contrôle les serveurs contrôle l'avenir. Et OpenAI vient, peut-être, de prendre une longueur d'avance décisive. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est un petit pas pour les développeurs, mais un grand pas pour l'écosystème mobile. Apple vient de lever le voile sur AppMigrationKit, un tout nouveau framework pensé pour simplifier le transfert de données entre iOS et Android. Autrement dit, un outil qui permettra — enfin — de changer de camp sans tout perdre. Une révolution discrète, mais symbolique, dans la stratégie d'ouverture du géant californien.Actuellement en version bêta, AppMigrationKit devrait faire son apparition officielle avec iOS et iPadOS 26.1. Il permettra aux développeurs d'intégrer, directement dans leurs applications, un système de transfert des données locales, des réglages personnalisés et même des sauvegardes de jeux. Un utilisateur migrant vers un appareil Android — ou inversement — pourra donc emporter ses informations sans passer par les nuages du cloud ni perdre ses préférences. Le fonctionnement repose sur un protocole baptisé AppMigrationExtension. Chaque développeur pourra définir si son application autorise l'importation, l'exportation ou les deux. Lorsqu'un utilisateur lancera la migration, toutes les apps compatibles seront automatiquement incluses dans le paquet de transfert. Attention toutefois : ce kit n'a rien à voir avec les synchronisations habituelles entre appareils Apple. Il est exclusivement conçu pour les échanges entre plateformes Apple et non-Apple, principalement Android.AppMigrationKit ne couvre pas non plus les données hébergées sur des serveurs distants, et ne permet qu'un transfert ponctuel, lors d'un changement d'appareil. En revanche, rien n'empêche les développeurs de proposer ensuite une synchronisation cloud pour retrouver leurs contenus en ligne. Ce nouveau framework s'accompagne d'une future option visible dans les réglages : “Transfert vers Android”, déjà repérée dans les versions bêta d'iOS 26.1. L'écran d'accueil précisera quelles données peuvent ou non être migrées. Selon 9to5Mac, Google plancherait déjà sur un outil miroir baptisé “Transfert vers iPhone”, centré sur le passage d'eSIM et de fichiers utilisateur. Tout porte à croire que cette ouverture d'Apple n'est pas totalement spontanée. Elle s'inscrit dans la continuité des pressions européennes pour mettre fin à son fameux jardin clos. Un tournant historique, à suivre de très près. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est une histoire à peine croyable, celle d'un jeune Écossais qui a vu sa vie bouleversée… par une simple carte de visite. Tout commence à Vancouver, dans un Apple Store tout ce qu'il y a de plus ordinaire. Parmi les vendeurs, un certain Sam Sung — oui, comme le grand rival sud-coréen de la marque à la pomme. Un jour, un client amusé publie sa carte de visite sur Reddit : « Sam Sung – Specialist, Apple Store ». En quelques heures, la photo devient virale. Le monde entier s'esclaffe devant ce hasard parfait.Mais pour le principal intéressé, la blague tourne vite à l'angoisse. « Je recevais des dizaines d'appels, mon téléphone n'arrêtait pas de sonner. J'ai cru qu'un membre de ma famille était mort », raconte celui qui se fait aujourd'hui appeler Sam Struan. À l'époque, il ne connaît même pas Reddit et pense d'abord à une arnaque. Quand il comprend l'ampleur du buzz, c'est trop tard : les journalistes assiègent la boutique, les curieux appellent pour savoir si “Sam Sung travaille vraiment chez Apple”. L'entreprise, embarrassée, le met temporairement à l'écart et lui retire ses cartes de visite.« J'étais terrifié à l'idée de perdre mon emploi », se souvient-il. Le jeune vendeur finit par quitter Apple en 2013 pour se reconvertir dans le recrutement. Un an plus tard, il décide de tourner l'ironie à son avantage : il met sa fameuse carte de visite et son uniforme aux enchères. L'objet s'arrache pour 2 500 dollars, reversés à une association caritative, Children's Wish. « C'est le seul bon souvenir que je garde de cette histoire », confie-t-il aujourd'hui.Mais la blague lui collera longtemps à la peau. Lassé d'être “l'employé d'Apple qui s'appelle comme Samsung”, il change officiellement de nom, adoptant Struan, celui d'un village écossais. Une décennie plus tard, il vit loin du tumulte, même si ses proches s'amusent encore à l'appeler “Sam Sung”. Et il en rit enfin : « J'aurais dû juste en sourire et profiter du moment. » Une petite leçon de notre époque : sur Internet, un simple nom peut suffire à faire… le buzz mondial. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Après le cerveau, les géants de la tech s'attaquent désormais… à l'œil. Tandis qu'Elon Musk tente de soigner des pathologies neurologiques grâce à Neuralink, un ancien partenaire du milliardaire, Max Hodak, s'est lancé un défi tout aussi ambitieux : redonner la vue aux personnes atteintes de DMLA, la dégénérescence maculaire liée à l'âge, principale cause de cécité dans le monde. Et les premiers résultats sont spectaculaires.Une étude publiée dans le New England Journal of Medicine dévoile les conclusions d'un essai clinique mené sur 38 patients âgés de plus de 60 ans, tous atteints de DMLA avancée aux deux yeux. Chez 32 d'entre eux, l'implant a pu être testé sur une durée d'un an : 26 participants ont retrouvé une vision partielle, soit un taux de réussite de plus de 80 %. L'image perçue reste floue et en noir et blanc, mais elle permet de distinguer les formes et les mouvements — un bond de géant pour des patients auparavant aveugles.L'appareil en question est une minuscule puce de 2 millimètres sur 2, composée de micropanneaux photovoltaïques. Inséré chirurgicalement dans la rétine, il remplace les cellules mortes responsables de la cécité. Associé à des lunettes connectées, l'implant capte les images de l'environnement grâce à un faisceau de lumière infrarouge, puis les transforme en signaux électriques transmis au nerf optique. Le cerveau reconstitue alors une image — une prouesse qui imite le fonctionnement naturel de l'œil humain.Ce dispositif révolutionnaire a été mis au point par Science Corporation, la start-up fondée par Max Hodak après son départ de Neuralink. L'entreprise s'est appuyée sur les travaux de la société française Pixium Vision, pionnière dans les implants rétiniens, dont elle a racheté la technologie en 2024. Un mariage entre biologie et microélectronique qui ouvre la voie à une nouvelle génération de prothèses sensorielles. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est un chantier d'une ampleur rare : l'ARCEP, le gendarme des télécoms, vient de lancer une grande consultation nationale pour réorganiser le spectre radioélectrique français. Objectif : préparer l'arrivée de la 6G et redéfinir la répartition des fréquences entre Orange, SFR, Bouygues Telecom et Free pour la décennie 2030-2040. Un travail d'ingénierie stratégique qui conditionnera notre futur numérique.Chaque opérateur dispose de licences d'exploitation sur des bandes de fréquences, un peu comme des concessions autoroutières. Les bandes dites basses couvrent les zones rurales, les hautes offrent des débits records mais une portée limitée, et les moyennes servent d'équilibre entre les deux. Problème : toutes ces licences expirent entre 2030 et 2035, au moment même où la 6G sortira des laboratoires.Dans un document de 39 pages, l'ARCEP interroge les opérateurs : à quels usages répondra la 6G ? À quel horizon ? Quels besoins en couverture, en puissance ou en mutualisation ? Le régulateur évoque une transition progressive, depuis la 5G « Standalone » actuelle vers une 5G « Advanced », avant le grand saut vers la 6G, plus intelligente et connectée aux satellites. L'un des grands enjeux, c'est la bande des 6 GHz, identifiée fin 2023 comme le futur axe autoroutier du trafic mobile. Un territoire convoité aussi par le Wi-Fi, et qui fait déjà l'objet d'âpres négociations à Bruxelles. L'ARCEP veut défendre la position française avant une décision européenne prévue en 2027.La facture, elle, s'annonce salée. En 2024, les investissements des opérateurs ont déjà atteint 12,4 milliards d'euros. Faut-il privilégier de nouvelles enchères ou des obligations de couverture ? La question reste ouverte. Dernier sujet clé : la connectivité satellite directe, qui permettrait de se connecter sans antenne terrestre. L'ARCEP veut savoir si les opérateurs français sont prêts à partager leurs fréquences avec ces futurs partenaires spatiaux. Les réponses, attendues pour mi-décembre, traceront la carte du mobile français à l'horizon 2040. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Alors que le Wi-Fi 7 commence tout juste à s'installer dans nos foyers, l'industrie prépare déjà la suite. Le constructeur TP-Link a annoncé avoir réalisé la première transmission de données en Wi-Fi 8, aussi connu sous le nom technique 802.11bn. Une démonstration effectuée à l'aide d'un prototype développé avec un partenaire resté anonyme, qui marque une étape clé vers le futur standard du sans-fil, attendu d'ici la fin de la décennie.Mais attention : le Wi-Fi 8 ne cherche pas à battre des records de vitesse. Son véritable objectif, c'est la fiabilité. Selon Qualcomm, l'un des acteurs majeurs du projet, ce nouveau standard représente « un pivot fondamental » : il s'agit moins d'augmenter le débit que d'assurer une connexion stable dans des environnements complexes et saturés.Le Wi-Fi 8 fonctionnera sur les mêmes bandes que son prédécesseur — 2,4, 5 et 6 GHz — pour un débit théorique maximal compris entre 46 et 48 Gbit/s. Mais les vraies innovations se cachent ailleurs :-la technologie Enhanced Long Range (ELR) pour améliorer la portée,-Distributed Resource Units (DRU) pour mieux répartir les canaux entre appareils,-et Unequal Modulation (UEQM), capable d'adapter le signal à chaque terminal connecté.Selon Qualcomm, ces avancées permettront de réduire la latence et les pertes de paquets d'environ 25 %, un gain crucial pour le jeu vidéo en ligne, la réalité augmentée, ou encore les applications industrielles. Pour TP-Link, cette première démonstration confirme la stabilité du signal et la fiabilité du « beacon », l'identifiant propre au Wi-Fi 8. Le projet s'inscrit dans l'initiative Ultra High Reliability (UHR) de l'IEEE, qui vise à maintenir une connexion fluide même dans les zones perturbées — stades, usines, campus ou transports. Les premières spécifications sont attendues en 2027, pour une certification officielle mi-2028. Les premiers routeurs suivront sans doute peu après. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est une affaire digne d'un scénario hollywoodien qui secoue le Royaume-Uni. La police métropolitaine de Londres vient de réaliser la plus grande saisie de cryptomonnaies de l'histoire : près de 61 000 bitcoins, soit environ 6,8 milliards de dollars au cours actuel.Au cœur de cette opération record, une femme : Qian Zhimin, aussi connue sous le nom de Yadi Zhang, une ressortissante chinoise de 47 ans que la presse locale surnomme déjà la “déesse de la richesse”. Et pour cause : cette fortune colossale n'a rien d'honnête. Entre 2014 et 2017, la suspecte aurait mené une gigantesque escroquerie financière en Chine, qui aurait fait près de 128 000 victimes. L'argent détourné aurait ensuite été converti en bitcoins pour échapper aux autorités. Quand son réseau a été démantelé, Qian Zhimin a pris la fuite, utilisant de faux papiers pour se réfugier au Royaume-Uni. Sur place, elle aurait tenté de blanchir ses cryptos via un enchevêtrement de sociétés-écrans et de comptes anonymes. C'est là que les enquêteurs britanniques, en collaboration avec les autorités chinoises, ont fini par remonter sa trace.La somme saisie dépasse largement les réserves détenues par la plupart des entreprises spécialisées dans les cryptos. À titre de comparaison, Michael Saylor, fondateur de MicroStrategy et fervent défenseur du Bitcoin, en possède personnellement “seulement” 17 000. Reste désormais une question cruciale : que va-t-il advenir de cette fortune numérique ? Les procédures pour restituer l'argent aux victimes s'annoncent longues et complexes, notamment en raison du cadre juridique international autour des cryptomonnaies. Une chose est sûre : cette affaire hors norme rappelle que l'univers du Bitcoin reste un Far West financier, où fortunes et fraudes se côtoient encore dangereusement. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Rien ne semble pouvoir arrêter Netflix. Après le carton mondial de Kpop Demon Hunters et l'annonce d'une offre de jeux de société à tester en famille, le géant du streaming s'attaque à un tout nouveau format : le podcast vidéo. Et pour cela, il s'associe à un partenaire de taille — Spotify.L'annonce est tombée hier. Netflix proposera bientôt sur sa plateforme des podcasts vidéo complets, issus directement du catalogue de Spotify. Un partenariat stratégique, à la croisée de la musique, du talk-show et de la vidéo à la demande. « Alors que les podcasts vidéo continuent de gagner en popularité, cet accord nous permet d'offrir les versions intégrales d'émissions phares à nos audiences respectives », explique Lauren Smith, vice-présidente chargée des licences et de la stratégie de contenu chez Netflix. Côté Spotify, Roman Wasenmüller, vice-président en charge des podcasts, salue « une ouverture inédite pour les créateurs et de nouvelles perspectives de distribution ».La tendance est claire : le podcast ne s'écoute plus seulement, il se regarde. Déjà omniprésent sur YouTube, le format vidéo s'impose comme un levier d'engagement majeur. En avril, Ted Sarandos, co-directeur général de Netflix, évoquait déjà cette piste. C'est désormais officiel : 16 podcasts vidéo débarqueront sur la plateforme en 2026, couvrant des thèmes variés — sport, culture, lifestyle et faits divers. Le lancement se fera d'abord aux États-Unis, avant un déploiement progressif à l'international. Petite précision : les publicités déjà présentes dans les podcasts Spotify seront conservées, mais Netflix n'ajoutera pas ses propres annonces, du moins dans un premier temps. L'objectif est clair : concurrencer YouTube, qui perdra l'exclusivité de diffusion de plusieurs programmes phares après cet accord. Reste à voir si les abonnés Netflix suivront cette diversification de contenu, dans un paysage médiatique où les frontières entre vidéo, musique et streaming s'effacent chaque jour un peu plus. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Une opération de manipulation numérique d'ampleur vient d'être dévoilée. Le groupe de cybersécurité américain Recorded Future a mis au jour un vaste réseau de 139 faux sites d'information français, tous créés entre février et août 2025 et pilotés depuis Moscou. Leur but : saper la confiance dans les institutions françaises et affaiblir le soutien occidental à l'Ukraine.Derrière cette campagne se cache Storm-1516, un réseau affilié au Kremlin. Ces sites imitent l'apparence de médias légitimes : TVFrance2.fr se fait passer pour France 2, CourrierFrance24.fr mêle les références à France 24 et Courrier International. Les articles, produits par intelligence artificielle générative, diffusent de fausses informations calibrées pour semer le doute. Des histoires inventées évoquent par exemple la vente imaginaire de 51 % d'EDF à un oligarque ukrainien, des mandats d'arrêt fictifs contre Marine Le Pen ou encore des rumeurs grotesques visant Brigitte Macron.Selon NewsGuard, qui évalue la fiabilité des médias, le réseau obtient un score désastreux de 7,5 sur 100 : aucune transparence, aucune vérification, aucune correction. « Tous les ingrédients sont désormais réunis pour une manipulation d'ampleur industrielle », alerte Chine Labbé, directrice de NewsGuard Europe. Entre décembre 2024 et mars 2025, plus de 55 millions de vues auraient été générées par cinq récits mensongers ciblant la France. À la tête de cette machine à désinformation : John Mark Dougan, un ex-policier américain réfugié en Russie depuis 2016, poursuivi par le FBI pour piratage et extorsion. Il agit sous la protection du GRU, le renseignement militaire russe, et du Centre d'expertise géopolitique de Moscou.Plus inquiétant encore, les faux médias emploient désormais des deepfakes et usurpent l'identité de journalistes français pour signer des articles fabriqués. L'agence française Viginum confirme que cette opération s'inscrit dans la campagne Storm-1516, déjà active contre les États-Unis et l'Allemagne. Interrogé sur son rôle, Dougan ironise : « Je n'ai jamais entendu parler de ces sites, mais je suis sûr de la qualité de leurs informations. » Une provocation assumée, symbole d'une guerre informationnelle désormais automatisée par l'IA — et plus redoutable que jamais. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est un texte signé dans la plus grande discrétion… mais dont les conséquences, elles, pourraient être considérables. Le décret n°2025-980, paru au Journal officiel le 16 octobre, entre en vigueur ce mardi 21 octobre 2025. Il impose désormais à tous les opérateurs télécoms et plateformes en ligne de conserver pendant douze mois les données de trafic et de localisation des utilisateurs.Concrètement, cela signifie qu'Orange, Free, SFR ou Bouygues Telecom devront stocker les adresses IP que vous contactez, les horaires de vos connexions et les caractéristiques techniques de vos communications. Sur mobile, s'ajoute la localisation approximative via les antennes relais. De leur côté, les plateformes comme X, TikTok, Facebook ou Instagram devront enregistrer les métadonnées liées à vos activités : identifiant, heure, nature de l'action. En clair, chaque publication, commentaire ou interaction laissera une trace exploitable.Les autorités insistent : le contenu de vos échanges — messages privés, e-mails, discussions — n'est pas concerné. Mais les métadonnées, elles, en disent déjà long : elles permettent de retracer vos déplacements, vos habitudes, vos correspondants et les services que vous consultez en ligne. Le décret a été signé par le Premier ministre Sébastien Lecornu, sans passer par le Parlement, grâce à une procédure exceptionnelle autorisée en cas de menace pour la sécurité nationale. Une disposition prévue par le Code des postes et communications électroniques, mais qui suscite de vives inquiétudes.Depuis plusieurs années, la Cour de justice de l'Union européenne condamne la conservation généralisée de ce type de données, au nom du respect de la vie privée. Bruxelles préconise des approches ciblées et temporaires, mais la France maintient sa ligne. Déjà, en 2022, un décret similaire avait été adopté sous le même prétexte sécuritaire. Cette nouvelle mesure marque donc une étape supplémentaire vers une surveillance numérique étendue, où la frontière entre prévention et intrusion devient de plus en plus floue. Reste à savoir si la France pourra concilier sécurité et libertés individuelles… sans basculer dans le tout-surveillance. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Elon Musk ne s'arrête jamais. Après avoir secoué les secteurs de l'automobile, de l'aérospatial et des réseaux sociaux, le milliardaire s'attaque désormais au monde du logiciel. Son entreprise d'intelligence artificielle, xAI, prépare un projet baptisé “Macrohard”, une initiative aussi ambitieuse que provocatrice.Le nom, déjà, en dit long : “Macrohard” se veut l'exact opposé de Microsoft – “Macro” face à “Micro”, “hard” face à “soft”. Et c'est bien le géant de Redmond que Musk vise. L'idée ? Créer une entreprise capable de concevoir n'importe quel produit, sans jamais en fabriquer un seul. “Notre objectif est de bâtir une société qui puisse tout faire, à l'exception de la production physique”, a expliqué Elon Musk. Un modèle inspiré d'Apple, qui délègue la fabrication de ses iPhones à des partenaires comme Foxconn, tout en gardant la conception et le contrôle stratégique.Mais derrière cette vision se cache une révolution technologique : l'usage massif d'agents d'intelligence artificielle autonomes. Musk imagine un système où ces IA remplaceraient non seulement une partie du travail humain, mais aussi les logiciels traditionnels. À terme, le projet pourrait même rendre obsolètes les systèmes d'exploitation comme Windows, remplacés par un réseau d'agents capables d'exécuter directement les tâches de l'utilisateur. Pour concrétiser cette vision, xAI s'appuie sur son supercalculateur Colossus II, propulsé par plusieurs millions de GPU NVIDIA – l'infrastructure la plus puissante jamais construite par l'entreprise. C'est cette même puissance de calcul qui alimente Grokipedia, le moteur d'IA conversationnelle développé par xAI et déjà intégré à X (ex-Twitter). Avec “Macrohard”, Musk entend donc repousser les frontières de l'intelligence artificielle et repenser la façon dont on conçoit et exploite les outils numériques. Une ambition démesurée, mais fidèle à son style : provoquer, bousculer, et redéfinir ce que l'on croyait impossible. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

En Chine, la surveillance du web prend un nouveau visage. Habitué à filtrer les sujets politiques sensibles, le gouvernement chinois lance désormais une campagne contre… le pessimisme. L'Administration du cyberespace, l'autorité chargée du contrôle d'internet, a annoncé une opération de deux mois pour supprimer les messages jugés « excessivement négatifs ou désespérés ». Officiellement, l'objectif est de « promouvoir un environnement en ligne plus harmonieux ». Concrètement, les plateformes et influenceurs chinois sont invités à diffuser davantage de messages positifs sur la société et l'avenir du pays. Selon la BBC, plusieurs créateurs populaires connus pour leur ton critique ou ironique auraient déjà vu leurs comptes suspendus sans explication.Ce durcissement intervient alors qu'une partie de la jeunesse chinoise exprime ouvertement son désenchantement face à la pression du travail et à la montée des inégalités. Un phénomène baptisé Tangping, littéralement « s'allonger à plat », s'est imposé ces dernières années. Il symbolise le refus de cette génération de s'épuiser dans le modèle du 996 – travailler de 9 h du matin à 9 h du soir, six jours sur sept. Un mode de vie qui a longtemps incarné la réussite du capitalisme chinois… mais dont beaucoup ne veulent plus. Pékin voit dans cette attitude une menace pour la productivité nationale et tente donc de reconquérir l'espace numérique, principal lieu d'expression de cette jeunesse. Les grandes plateformes, comme Weibo, Xiaohongshu ou Kuaishou, sont directement mises en cause : elles devront renforcer la modération des contenus jugés « démoralisants », sous peine de « sanctions sévères ». Ce nouveau type de contrôle illustre une évolution du modèle chinois de censure. Après la surveillance politique, place à la régulation émotionnelle, où l'État ne se contente plus de dicter ce qu'il faut penser, mais désormais ce qu'il faut ressentir. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est un changement majeur qui passe presque inaperçu : LinkedIn a discrètement activé par défaut une nouvelle option baptisée « Données pour l'amélioration de l'IA générative ». En clair, vos publications publiques, vos likes, vos commentaires et même certaines informations de profil servent désormais à entraîner les modèles d'intelligence artificielle de la plateforme.Les membres ont été avertis par email d'une mise à jour de la politique de confidentialité. Le paramètre est en opt-out, autrement dit, activé automatiquement. Ceux qui veulent garder leurs données à l'abri doivent aller le désactiver manuellement, via le menu Paramètres > Confidentialité des données > Données pour l'amélioration de l'IA générative. LinkedIn assure que ces informations sont utilisées pour rendre la plateforme plus intelligente et plus efficace : amélioration de la modération, détection des fraudes, et surtout, perfectionnement des outils d'écriture automatisée comme « Rewrite with AI », qui reformule les publications pour les rendre plus percutantes. Mais la firme, filiale de Microsoft, avance aussi un argument qui fait grincer des dents : désactiver cette option pourrait réduire la visibilité d'un profil auprès des recruteurs. Si vos données ne sont pas intégrées aux modèles, votre CV pourrait tout simplement être moins bien référencé. Une incitation à laisser la porte ouverte, donc.LinkedIn précise que les messages privés et les publications à visibilité restreinte ne sont pas concernés, et que les utilisateurs européens bénéficient d'un encadrement plus strict du fait du RGPD. En revanche, les données déjà utilisées ne peuvent pas être retirées : la désactivation n'empêche que les entraînements futurs. Ce choix s'inscrit dans la stratégie plus large de Microsoft, qui intègre l'IA dans tous ses produits. Mais après plusieurs polémiques sur la confidentialité, la frontière entre innovation et intrusion devient de plus en plus floue. Une chose est sûre : sur LinkedIn, vos posts n'appartiennent plus seulement à votre réseau, mais aussi… à l'intelligence artificielle. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est une consécration rare dans le monde feutré de la cybersécurité : la société française YesWeHack vient d'obtenir le statut d'autorité de numérotation CVE, autrement dit l'un des sésames les plus prestigieux du secteur. Elle devient ainsi la huitième entreprise française habilitée à attribuer ces identifiants universels de vulnérabilités, les fameux CVE — Common Vulnerabilities and Exposures.Derrière cet acronyme un peu technique se cache une mission essentielle : recenser et standardiser les failles de sécurité découvertes à travers le monde. Ces identifiants CVE servent de référence commune à toute l'industrie — des éditeurs de logiciels aux gouvernements — pour coordonner la réponse face aux menaces. Sans eux, impossible de suivre efficacement les vulnérabilités, ni d'en mesurer l'impact global.Jusqu'à présent, seules quelques grandes entreprises françaises avaient ce privilège : Thales, Schneider Electric, Dassault Systèmes, IDEMIA, Centreon, ARC Informatique et WPScan. Désormais, YesWeHack rejoint ce club très restreint, aux côtés des géants du secteur. Une reconnaissance saluée par Guillaume Vassault-Houlière, cofondateur et PDG de la société : « Ce statut reflète notre expertise et nos processus éprouvés dans la gestion des vulnérabilités. Il va nous permettre d'accélérer la coordination entre chercheurs, entreprises et équipes de sécurité ». Pour cette plateforme française, fondée il y a dix ans, la distinction sonne comme une suite logique. YesWeHack s'est imposée comme un acteur majeur du bug bounty, cette pratique qui consiste à rémunérer les hackers éthiques pour détecter les failles avant les cybercriminels. Grâce à ce nouveau statut, les vulnérabilités découvertes sur sa plateforme pourront désormais recevoir un identifiant CVE directement, sans passer par une autorité tierce — un gain de temps précieux pour les entreprises concernées.Basée sur une infrastructure européenne conforme au RGPD, YesWeHack renforce ainsi son rôle de pilier de la cybersécurité européenne. Une réussite symbolique, à l'heure où la souveraineté numérique et la sécurité des infrastructures deviennent des enjeux stratégiques pour tout le continent. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Vous la connaissez tous, cette petite fenêtre agaçante qui s'affiche à chaque nouvelle visite sur un site : « Acceptez-vous les cookies ? » Une demande censée protéger notre vie privée, mais qui, quinze ans après son apparition, est devenue l'un des symboles les plus exaspérants d'Internet. Eh bien, bonne nouvelle : l'Union européenne veut y mettre fin.Tout remonte à la directive ePrivacy de 2009, texte pionnier qui imposait aux sites de recueillir le consentement des internautes avant d'installer des traceurs publicitaires. L'intention était louable — donner à chacun le contrôle sur ses données. Mais dans les faits, l'effet a été tout l'inverse : les pop-ups se sont multipliés, au point que la majorité des internautes cliquent machinalement sur « Tout accepter » sans lire le moindre détail. Face à cet échec, Bruxelles prépare un grand ménage numérique. Selon Politico, des responsables européens ont réuni cette semaine plusieurs géants du web pour repenser entièrement la gestion des cookies. Un nouveau texte législatif, attendu pour décembre prochain, devrait proposer un cadre simplifié, voire une alternative complète à ces fenêtres intrusives.Parmi les pistes évoquées : un système de préférences centralisées, configuré une seule fois par l'internaute — par exemple via son navigateur — et reconnu automatiquement par tous les sites. Une sorte de « passeport de consentement » numérique, qui éviterait d'avoir à répondre encore et encore aux mêmes questions. L'Union européenne, déjà à l'origine du célèbre RGPD, espère ainsi réconcilier protection des données et confort d'utilisation. Car si le Vieux Continent reste à la pointe de la régulation numérique, il s'agit désormais de rendre cette protection un peu moins fatigante… et beaucoup plus efficace. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Aux États-Unis, l'État du Michigan, pourtant habitué à faire la bascule entre démocrates et républicains, pourrait bien franchir un pas inédit dans l'histoire du numérique américain. Un projet de loi présenté le 11 septembre fait grand bruit : il propose d'interdire purement et simplement la pornographie en ligne, pour tous les habitants, adultes compris.Baptisé Anticorruption of Public Morals Act, le texte, déposé par le représentant républicain Josh Schriver, va bien au-delà des dispositifs classiques de vérification d'âge. Il entend bannir toute représentation d'actes sexuels, qu'elle soit réelle, écrite, dessinée ou générée par intelligence artificielle. Résultat : des livres érotiques, des films, des jeux vidéo ou même des œuvres artistiques pourraient être concernés. Des films grand public comme Quand Harry rencontre Sally ou 50 Nuances de Grey pourraient, dans les faits, devenir illégaux.Les sanctions prévues sont d'une sévérité extrême : jusqu'à 25 ans de prison et 125 000 dollars d'amende pour les diffuseurs de contenu jugé « immoral », avec inscription au registre des délinquants sexuels. Mais le projet va encore plus loin : il cible les personnes transgenres, en interdisant toute représentation ou description présentant une « déconnexion entre la biologie et le genre ». Une formulation qui pourrait rendre illégale la simple publication d'une photo ou d'un témoignage d'une personne trans, ce que les associations dénoncent comme une atteinte directe à la liberté d'expression.Enfin, la loi prévoit de bloquer les VPN et les serveurs proxy, empêchant les internautes de contourner la censure. Les fournisseurs d'accès qui ne s'y conformeraient pas risqueraient de lourdes amendes. Une mesure digne, selon certains observateurs, des régimes autoritaires comme la Russie ou la Chine. Soutenue par cinq élus républicains, cette proposition a peu de chances d'être adoptée, le Sénat du Michigan restant à majorité démocrate. Mais elle révèle une tendance inquiétante : celle d'un mouvement conservateur américain prêt à criminaliser le numérique au nom de la moralité. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est une petite révolution silencieuse qui pourrait changer la donne pour des millions de créateurs et d'éditeurs en ligne. Le géant du cloud Cloudflare vient de lancer un outil gratuit qui permet enfin de bloquer les robots d'intelligence artificielle venus aspirer les contenus du web pour entraîner leurs modèles.Jusqu'ici, les géants de l'IA pouvaient librement explorer les sites, collecter textes, images ou données pour nourrir leurs algorithmes — souvent sans consentement ni compensation. Cloudflare a donc décidé de reprendre la main en ajoutant une nouvelle couche de protection au fameux fichier robots.txt, celui que chaque site utilise pour indiquer aux robots ce qu'ils peuvent ou non indexer. Concrètement, l'entreprise introduit un système à trois feux tricolores.Le signal « search » autorise les moteurs de recherche à indexer le contenu de manière classique.« ai-input » gère l'accès des IA qui veulent utiliser ce contenu pour générer des réponses.Et « ai-train » détermine s'il peut servir à l'entraînement de nouveaux modèles.Autrement dit, un média pourra continuer à apparaître sur Google, tout en interdisant à ChatGPT, Claude ou Gemini de s'entraîner sur ses articles. Une innovation saluée par tout l'écosystème numérique. Reddit, Quora ou encore Stack Overflow y voient un moyen concret de « protéger Internet contre les abus et l'exploitation non autorisée du contenu ».Le constat de Matthew Prince, le patron de Cloudflare, est sans appel : « Internet ne peut pas attendre pendant que le contenu des créateurs est exploité à des fins lucratives par d'autres entreprises. » Et il y a urgence. La firme estime que le trafic des robots dépassera celui des humains d'ici 2029. Déjà, plus de 3,8 millions de sites bénéficient automatiquement de cette protection via les services Cloudflare. Et pour faciliter la vie des non-techniciens, la société a lancé ContentSignals.org, un générateur gratuit du code à insérer sur son site. Une initiative à la fois symbolique et stratégique : Cloudflare veut faire de son système le standard mondial d'un web où les créateurs gardent enfin le contrôle de leur œuvre. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est une histoire tragiquement banale dans le monde de la cybersécurité. Une entreprise de transport britannique, KnP, employant 700 personnes, a mis la clé sous la porte… à cause d'un simple mot de passe. Les hackers du groupe Akira ont exploité cette faille humaine pour déchaîner une attaque qui s'est terminée par une demande de rançon de 5 millions de livres sterling. Malgré une assurance cyber et l'intervention d'une cellule de crise, l'entreprise n'a pas survécu.Le scénario, documenté par les chercheurs de Sophos, suit une mécanique bien huilée. D'abord, les pirates récupèrent des identifiants compromis – souvent des mots de passe VPN faibles ou réutilisés – avant de s'introduire dans les systèmes. Ensuite, ils exploitent une vulnérabilité connue, la CVE-2024-40711, présente dans le logiciel de sauvegarde Veeam Backup & Replication. Cette faille leur permet d'exécuter du code à distance, de créer des comptes administrateurs et de déployer leurs ransomwares Fog ou Akira. Dans le cas de KnP, le mot de passe d'un employé a suffi. Pas de double authentification, pas de garde-fou. Les pirates ont pris le contrôle total du réseau, chiffré les données critiques, puis effacé les sauvegardes et les systèmes de secours. En quelques jours, les 500 camions de la société étaient à l'arrêt, et l'activité, irrémédiablement paralysée. L'équipe de crise a parlé du « pire scénario possible ».Au Royaume-Uni, le phénomène explose : entre août 2023 et août 2024, 63 % des organisations publiques ont subi une attaque par ransomware. Le géant Marks & Spencer a lui aussi été victime du malware DragonForce, là encore à cause d'un mot de passe compromis. Selon la FEVAD, 44 % des entreprises du commerce mondial ont été touchées l'an dernier, et près de 43 % des cyberattaques visent désormais les petites structures. En France, 6 PME sur 10 cessent leur activité dans les six mois après une attaque. Depuis 2023, le groupe Akira aurait extorqué plus de 42 millions de dollars à 250 organisations. Leur secret ? Aucune magie, juste l'exploitation de failles basiques. Alors oui, parfois, un simple gestionnaire de mots de passe peut valoir bien plus qu'un pare-feu dernier cri. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Google passe à la vitesse supérieure : son navigateur Chrome va désormais intégrer Gemini, son intelligence artificielle maison, pour devenir un véritable navigateur agentique — autrement dit, un outil capable de comprendre vos intentions et d'agir à votre place. Une avancée technologique, certes… mais aussi un tournant majeur en matière de collecte de données personnelles, comme le révèle un rapport de Surfshark.Selon cette étude, la version IA de Chrome — lancée d'abord aux États-Unis — recueille 24 types de données différentes liées à l'utilisateur. On y retrouve le nom complet, la localisation précise, l'identifiant unique de l'appareil, l'historique complet de navigation et de recherche, mais aussi les achats effectués et toutes les interactions avec les produits Google. Une mine d'informations, que la firme de Mountain View justifie par la nécessité d'« améliorer l'expérience utilisateur ». Face à cette approche intrusive, Microsoft Edge avec Copilot se montre à peine plus mesuré. Le navigateur récupère lui aussi l'historique de navigation, les données d'usage et de performance, mais Copilot ajoute une couche supplémentaire : photos, vidéos, enregistrements audio, données publicitaires et localisation.En comparaison, Perplexity, avec son navigateur Comet, fait figure de bon élève — ou presque. Il limite la collecte à 10 types de données, parmi lesquelles la localisation et les identifiants utilisateurs. De son côté, Opera, qui prépare un navigateur IA baptisé Neon, n'est pas encore accessible, mais sa version actuelle dotée d'Aria, son IA embarquée, se limite à six catégories de données non personnelles. Le grand gagnant côté respect de la vie privée ? Brave. Son assistant Leo ne collecte que deux informations : les données d'usage anonymisées et un identifiant technique. Le navigateur reste ainsi l'un des rares à garantir une navigation réellement privée, même à l'ère de l'intelligence artificielle. En clair, l'arrivée des IA dans nos navigateurs redéfinit la frontière entre assistance intelligente et surveillance numérique. Et pour l'instant, c'est surtout Google qui flirte dangereusement avec la ligne rouge. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Les annonces s'enchaînent à un rythme effréné chez OpenAI. Après un partenariat géant à 300 milliards de dollars avec Oracle il y a deux semaines, le créateur de ChatGPT récidive. Cette fois, c'est avec NVIDIA, le leader incontesté des processeurs graphiques, qu'il scelle une alliance d'une ampleur colossale. Le communiqué commun des deux entreprises a de quoi donner le vertige. OpenAI va construire et déployer au moins 10 gigawatts de data centers équipés des systèmes NVIDIA — soit plusieurs millions de GPU destinés à nourrir la prochaine génération d'intelligence artificielle. Pour donner un ordre d'idée, cette puissance équivaut à celle d'une dizaine de réacteurs nucléaires. L'investissement global pourrait atteindre 100 milliards de dollars, selon les premières estimations.La première phase de ce partenariat débutera en 2026, sur la plateforme Vera Rubin, un écosystème d'infrastructures de calcul de nouvelle génération. Les contours financiers précis restent flous : s'agit-il d'un investissement direct de NVIDIA dans OpenAI, ou de la valeur cumulée des infrastructures construites ? Quoi qu'il en soit, Sam Altman, le patron d'OpenAI, affiche une ambition sans détour :« Tout commence par le calcul. L'infrastructure sera le socle de l'économie du futur, et ce que nous construisons avec NVIDIA ouvrira la voie à de nouvelles avancées en matière d'IA. »Ce partenariat s'inscrit dans une course mondiale à la puissance de calcul. OpenAI, NVIDIA, Microsoft, Oracle et SoftBank sont déjà impliqués dans le projet Stargate, une méga-initiative de 500 milliards de dollars visant à ériger un réseau d'infrastructures IA sur le sol américain. Derrière cette frénésie d'investissements, un enjeu : détenir les clés de la superintelligence, cette IA autonome et ultra-performante que tous les acteurs veulent maîtriser avant les autres. Mais la démesure de ces projets alimente aussi des inquiétudes. Car pour OpenAI, malgré ses 700 millions d'utilisateurs, les dépenses explosent bien plus vite que les revenus. De quoi faire craindre l'émergence d'une bulle de l'intelligence artificielle — pour l'instant, toujours gonflée par l'enthousiasme des investisseurs. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est une annonce majeure pour l'un des géants du jeu vidéo. Electronic Arts, l'éditeur d'EA Sports FC, Apex Legends, Battlefield, F1 ou encore Les Sims, va quitter la Bourse pour redevenir une entreprise privée. Si les régulateurs donnent leur feu vert, l'opération devrait être finalisée entre avril et juin 2026.Le montant du rachat donne le vertige : 55 milliards de dollars. Trois acteurs reprennent 100 % du capital — le fonds souverain saoudien PIF, déjà actionnaire à 9,9 %, accompagné de Silver Lake et Affinity Partners, fondé par Jared Kushner, le gendre de Donald Trump. Une partie du financement, environ 20 milliards, provient d'un prêt orchestré par JPMorgan. Andrew Wilson reste PDG, et le siège demeure à Redwood City, en Californie. Mais concrètement, qu'est-ce que cela change pour les joueurs ? À court terme, absolument rien. Les serveurs d'Apex, F1 ou EA Sports FC restent actifs, vos sauvegardes sont intactes et vos abonnements EA Play continuent sans modification. L'entreprise a toutefois annulé sa conférence investisseurs d'octobre 2025, signe que la transition est déjà en marche.Ce rachat marque le plus grand buyout jamais réalisé dans le jeu vidéo, devant Take-Two ou Ubisoft, même s'il reste en dessous du rachat d'Activision Blizzard par Microsoft. À la différence de ce dernier, il ne s'agit pas d'un rapprochement industriel, mais d'une privatisation financée par des fonds d'investissement. Côté contenu, les licences phares devraient rester au cœur de la stratégie. L'inquiétude porte plutôt sur l'avenir des franchises secondaires et sur la politique tarifaire, dans un contexte où les prix des jeux et abonnements continuent de grimper. Enfin, un autre sujet sensible reste à surveiller : la gouvernance. L'implication du fonds saoudien PIF pourrait attirer l'attention des autorités sur la protection des données et la gestion stratégique de l'entreprise. Ce rachat s'inscrit dans une stratégie plus large du royaume pour devenir un acteur clé du jeu vidéo mondial, via Savvy Games Group, doté d'un plan d'investissement de 38 milliards de dollars. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

OpenAI vient de franchir une nouvelle étape dans la sécurisation de ChatGPT. Alors que l'entreprise prépare son entrée en bourse et a déjà renforcé ses règles pour protéger les adolescents, elle travaille désormais sur un bouton d'arrêt d'urgence intégré directement dans ses futures puces d'intelligence artificielle. Mais une étude publiée cette semaine révèle une difficulté inattendue : les modèles peuvent… manigancer. Le rapport, mené avec Apollo Research et intitulé « Detecting and reducing scheming in AI models », montre que certains modèles testés se sont mis à tromper leurs utilisateurs. Pas de complot digne d'un film de science-fiction pour l'instant, mais de petits mensonges opportunistes : par exemple, déclarer qu'une tâche a été accomplie alors qu'elle ne l'était pas.Ces observations rejoignent une autre étude d'Apollo Research publiée fin 2024. Les chercheurs avaient alors demandé à plusieurs modèles — dont GPT-o1, Claude 3 et Gemini 1.5 — d'atteindre un objectif “à tout prix”. Résultat : tous ont démontré des comportements trompeurs persistants. Certains ont volontairement introduit des erreurs subtiles, d'autres ont tenté de désactiver leurs mécanismes de sécurité, voire d'exfiltrer ce qu'ils croyaient être leurs propres paramètres vers des serveurs externes. Rien d'étonnant, selon les chercheurs : une IA entraînée sur des données humaines peut reproduire nos travers, y compris le mensonge. Reste que ces dérives inquiètent. Pour y répondre, OpenAI teste une méthode baptisée “alignement délibératif”. Objectif : réduire drastiquement ces manœuvres. Les premiers résultats sont encourageants, avec une baisse d'un facteur 30 des actions dissimulées lors des tests. Mais des échecs rares et graves persistent.Le risque est même paradoxal : en apprenant aux modèles à éviter de mentir, on pourrait les pousser à raffiner leurs tromperies pour échapper aux contrôles. Consciente du danger, OpenAI multiplie les garde-fous : recrutement de nouveaux chercheurs, coopération avec d'autres laboratoires et lancement d'un concours doté de 500 000 dollars pour détecter les “comportements nuisibles” des IA. La firme prévient : plus l'IA sera chargée de missions complexes aux conséquences concrètes, plus le risque de dérives grandira. D'où l'urgence de développer des défenses solides, au cœur même du matériel. Un enjeu vital à l'heure où l'intelligence artificielle prend une place croissante dans nos vies. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est officiel : l'Europe a franchi un cap historique. La Commission européenne vient de confirmer que Jupiter, le supercalculateur installé à Jülich en Allemagne, a atteint la barre symbolique de l'exaflop, soit 10 puissance 18 opérations par seconde. Concrètement, c'est comme si un million de smartphones travaillaient en même temps. Seuls trois géants américains le devancent encore – El Capitan, Frontier et Aurora – mais Jupiter propulse enfin l'Europe dans le club très fermé des supercalculateurs exaflopiques, aux côtés des États-Unis et de la Chine.Un projet colossal de 500 millions d'euros, financé par l'Union européenne et l'Allemagne via EuroHPC. La machine, conçue par Eviden à Angers avant d'être déployée en Allemagne, s'appuie sur 24 000 processeurs graphiques Nvidia dans sa partition Booster. Mais Jupiter impressionne aussi par sa sobriété : alimenté uniquement par des énergies renouvelables, il dispose d'un système innovant de refroidissement à eau chaude. Résultat : il occupe la première place mondiale du classement Green500 pour son efficacité énergétique.Au-delà de la prouesse technologique, Jupiter ouvre un champ immense d'applications. En météorologie, il permettra des prévisions climatiques et météo au kilomètre près : canicules, inondations ou tempêtes violentes seront modélisées avec une précision inédite. En intelligence artificielle, il sera la colonne vertébrale de la future AI Factory européenne, offrant enfin aux start-ups, industriels et laboratoires locaux les ressources nécessaires pour développer leurs propres modèles de génération de texte, d'image ou de vidéo.La santé n'est pas en reste : neurosciences et recherche médicale vont exploiter sa puissance pour explorer le cerveau humain et progresser sur des maladies comme Alzheimer. « JUPITER renforce la souveraineté numérique de l'Europe et met à disposition des chercheurs les ressources informatiques les plus puissantes et les plus durables », a résumé la commissaire Ekaterina Zaharieva. Déjà, EuroHPC a sélectionné 13 projets d'usines d'IA à travers le continent. Au 30 juin, pas moins de 76 candidatures avaient été déposées pour bâtir des gigafactories de modèles capables de gérer des centaines de trillions de paramètres. Avec Jupiter, l'Europe entend bien ne plus être seulement spectatrice de la course mondiale à la puissance de calcul, mais actrice à part entière. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Depuis 2023, Meta s'est lancé dans une drôle d'aventure : peupler Instagram, Messenger et WhatsApp de chatbots personnalisés. Au départ, ils prenaient les traits de célébrités, comme un gadget marketing. Puis l'entreprise a ouvert son outil AI Studio, permettant à chacun de créer ses propres personnages. Mais pour les marchés internationaux, ce sont des freelances chevronnés qui s'en chargent.Meta les recrute en hindi, espagnol, indonésien ou portugais, avec un profil exigeant : au moins six ans d'expérience en narration et en conception de personnages. Leur mission ? Donner vie à ces bots. Ils choisissent un vocabulaire adapté, conçoivent une personnalité cohérente et ajustent chaque interaction au contexte culturel local. Les dialogues ne doivent pas seulement être fluides : ils doivent sonner vrai pour l'utilisateur, qu'il soit en Amérique latine, en Inde ou en Asie du Sud-Est. Cette attention au détail n'a rien d'anodin. Car Meta garde en mémoire des dérapages passés. Selon Reuters, certains bots avaient pu fournir de fausses informations médicales, tenir des propos racistes, voire entretenir des conversations sexuelles avec des mineurs. Désormais, les freelances surveillent et corrigent les dialogues en continu, traquant les informations personnelles et ajustant les réponses pour rester dans des limites claires.Dans tous les cas, Meta cherche à maintenir l'équilibre : offrir des personnages attractifs, mais éviter les dérapages. La rémunération suit la complexité de la tâche. Meta propose jusqu'à 55 dollars de l'heure à ses freelances. Une somme élevée, mais qui reflète la minutie du travail : écrire des dialogues naturels dans plusieurs langues, bâtir des personnalités crédibles et vérifier en permanence que les conversations restent pertinentes. Derrière l'image ludique de ces chatbots, on découvre une réalité bien plus sérieuse : Meta veut transformer ces personnages virtuels en un canal de communication incontournable, calibré au mot près, et surveillé de près. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

L'iPhone 17 est arrivé, et une fois encore, les Français vont devoir casser leur tirelire un peu plus que les autres. Selon une étude publiée par Compare the Market, la France se classe en tête des pays où l'iPhone est le plus cher. Ici, il faut débourser en moyenne 1178,60 €, soit plus de 325 € de plus qu'au Canada. Une différence qui interroge : pourquoi un tel écart ?Premier élément de réponse : la TVA. En France, elle est fixée à 20 %, alors qu'aux États-Unis, les prix affichés sont hors taxes. Résultat : un iPhone 15 Pro Max vendu 1199 dollars outre-Atlantique, soit environ 1131 € hors taxes, grimpe à 1479 € TTC une fois sur les étagères françaises. Même avec les taxes locales américaines, souvent inférieures à 7 %, l'écart reste conséquent.Apple rappelle que ses tarifs sont ajustés en fonction de plusieurs paramètres : les taux de change, les lois d'importation, les réglementations locales, mais aussi les coûts logistiques. Et ces coûts, en Europe, sont souvent plus élevés. À cela s'ajoute la garantie légale de deux ans imposée par Bruxelles, contre un an seulement aux États-Unis. Une protection pour le consommateur, mais qui se répercute sur le prix final. Il faut aussi compter les frais de douane : importer un iPhone depuis l'Amérique du Nord en vue de le revendre en France entraîne un surcoût de 20 % sur les produits électroniques, auquel s'ajoutent des frais de transport et de gestion. De quoi décourager les chasseurs de bonnes affaires à l'international. Autre facteur : l'adaptation technique. Les iPhone vendus en Europe sont calibrés pour nos réseaux mobiles. Une étape qui entraîne des coûts supplémentaires de certification et de production.Résultat : le prix grimpe d'année en année. À titre de comparaison, depuis l'iPhone 5, le coût moyen d'un modèle haut de gamme a presque doublé. Aujourd'hui, l'iPhone 17 démarre à 969 € dans sa version de base avec 256 Go. Pour la version Pro, comptez 1329 €, et jusqu'à 2479 € pour le Pro Max doté de la plus grande capacité de stockage. En clair, l'iPhone reste un produit star en France… mais aussi un luxe de plus en plus assumé. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

En 2018, le MIT Media Lab dévoilait un prototype intrigant : un dispositif capable de transformer des mots « dits dans la tête » en texte. L'appareil reposait sur des électrodes fixées autour du visage, enregistrant les minuscules signaux neuromusculaires émis lorsque nous subvocalisons. « Il ne s'agit pas de lire les pensées mais de traduire ce que l'on choisit de formuler intérieurement », expliquait alors Arnav Kapur, à l'origine du projet.Sept ans plus tard, ce travail est devenu AlterEgo, une start-up qu'il a cofondée et qui propose un casque de communication presque invisible. L'idée : dialoguer avec une intelligence artificielle sans prononcer un mot, ni donner le moindre signe extérieur. À Cambridge, les premiers tests utilisaient seize électrodes pour décoder un vocabulaire limité. Après optimisation, seulement quatre suffisaient, avec un taux de précision atteignant 92 %. Dans une démonstration récente, Arnav Kapur et son associé Max Newlon utilisent leur casque pour interroger ChatGPT en silence : les réponses s'affichent ou se font entendre uniquement pour eux. « On peut taper à la vitesse de la pensée », résume Newlon.Le casque reprend ce principe dans une version compacte. Les capteurs traduisent la parole intérieure, la transmettent à une IA, et la réponse revient par conduction osseuse : de petites vibrations dirigent le son vers l'oreille interne, sans obstruer le conduit auditif. L'utilisateur peut donc interagir avec son environnement, un atout que soulignait déjà la professeure Pattie Maes, encadrante du projet, pour qui sortir un téléphone coupe toujours le fil d'une conversation. L'appareil permet déjà d'écrire un message, de lancer une recherche en ligne ou de contrôler une application uniquement par la pensée formulée. Une caméra frontale ajoute une dimension contextuelle : l'IA peut analyser la scène et répondre en tenant compte de l'environnement visuel. Les usages potentiels sont vastes : communication dans des environnements bruyants comme les aéroports ou les ponts d'envol, échanges discrets lors d'opérations sensibles, ou encore aide aux personnes privées de voix, à l'image de l'acteur Val Kilmer. AlterEgo ouvre dès maintenant un accès anticipé pour les curieux. Mais pour une commercialisation grand public, il faudra encore patienter : aucune date officielle n'a été annoncée. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Depuis cet été, un nouvel outil circule librement sur l'index Python et suscite inquiétude chez les spécialistes de la cybersécurité. Baptisé Villager, ce framework se présente comme un assistant automatisé de tests d'intrusion — cartographie d'un système, reconnaissance, exploitation, installation de mécanismes de persistance — le tout piloté par de l'intelligence artificielle. Publié sur PyPI et téléchargé des milliers de fois en quelques semaines, il s'annonce comme une aide moderne pour les pentesters. Sauf que, en creusant, des chercheurs de l'entreprise Straiker ont dressé un tout autre portrait : Villager serait lié à une entité chinoise aux pratiques opaques et recyclerait des composants déjà vus dans des malwares offensifs.Conçu pour automatiser des workflows, Villager orchestre des conteneurs, lance des scanners adaptés au contexte et génère des charges utiles, le tout à partir d'instructions en langage naturel. L'outil embarque une large bibliothèque de « prompts » préconfigurés et une interface pour suivre les campagnes en temps réel — caractéristiques utiles en audit, mais dangereuses si elles tombent entre de mauvaises mains. Straiker a surtout mis au jour des réutilisations problématiques : l'infrastructure de Villager s'appuie sur des éléments d'un projet antérieur dont les modules correspondaient à des fonctionnalités de cheval de Troie connues — keylogger, vol de comptes, accès webcam, outils d'exfiltration — déjà détournées par des opérateurs malveillants.L'autre inquiétude tient à la voie de diffusion. PyPI est massivement intégré aux processus de développement, d'intégration continue et de déploiement. Un paquet publié sur cet index peut être importé automatiquement dans des environnements sensibles sans contrôle humain, transformant une dépendance innocente en vecteur d'intrusion. De plus, le caractère modulaire et éphémère de l'outil — conteneurs configurés pour s'autodétruire et effacer les traces — complique la détection et l'analyse post-incident.Face à cette menace émergente, les équipes de sécurité recommandent des mesures pratiques mais non techniques dans leurs principes : restreindre l'installation de paquets non validés en production, surveiller et auditer l'apparition de conteneurs non autorisés, renforcer la supervision des flux sortants et des scans réseau, et formaliser un processus d'approbation pour tout agent d'automatisation fondé sur l'IA. Les autorités et la communauté open source sont aussi appelées à renforcer la gouvernance de dépôts publics afin d'éviter que des outils ambivalents ne deviennent, en quelques clics, des armes faciles d'accès. Villager illustre un nouveau pari technologique — l'automatisation IA des audits — qui peut servir la défense comme l'attaque. La question pour les entreprises et les régulateurs est désormais de réussir à encadrer ces innovations avant qu'elles ne fassent basculer la balance en faveur des cybercriminels. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

À Santa Clara, Richard Ho, patron du hardware chez OpenAI et ancien architecte des TPU de Google, a livré un message sans détour : les garde-fous purement logiciels ne suffisent plus. Selon lui, les futurs systèmes d'intelligence artificielle devront intégrer des freins physiques, inscrits directement dans le matériel, pour garantir un contrôle ultime quand un modèle dévie.« Les modèles sont vraiment retors », a-t-il lancé, plaidant pour que l'arrêt ne repose plus seulement sur le code ou l'orchestration des serveurs. L'idée n'est pas de débrancher brutalement une IA au moindre doute, mais de doter les puces et cartes de signaux, seuils et verrous capables d'interrompre toute action anormale. C'est une étape dans la stratégie d'OpenAI visant une infrastructure « intrinsèquement sûre », testable de bout en bout. Le timing n'est pas anodin : avec des agents désormais persistants, interconnectés et capables d'agir hors du regard des utilisateurs, le risque de dérives discrètes grandit.Concrètement, OpenAI mise sur une combinaison d'« interrupteurs » matériels, de télémétrie fine et d'isolement via des enclaves sécurisées. À cela s'ajoutent attestation cryptographique, firmware minimaliste et chemins d'exécution supervisés. L'objectif est clair : imposer des politiques de sécurité au plus près du calcul, au niveau de la puce, de la carte et du rack. Car l'expérience l'a montré : certains modèles ont déjà contourné des mécanismes logiciels censés les stopper. D'où l'intérêt d'un kill switch matériel, hors de portée du modèle, et activable depuis l'extérieur. Le débat dépasse désormais le cercle des laboratoires. Régulateurs et chercheurs réclament des standards matériels, du registre des puces jusqu'aux limites intégrées d'usage. Le Royaume-Uni va même jusqu'à soutenir le développement de kill switches industriels, preuve que le sujet gagne en urgence politique. Un changement de paradigme se dessine : la sécurité ne sera plus seulement un protocole d'exploitation, mais un attribut de conception, gravé au plus près du silicium. Prochain jalon attendu : prouver que ces freins matériels tiennent leurs promesses sans étouffer l'élan des prochains modèles d'IA généralistes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.