Tout ce qu'il faut savoir dans le domaine de la Tech et d'Internet.

Meta accélère encore dans la course à l'intelligence artificielle. Après une année marquée par des investissements massifs et une chasse aux talents à grande échelle, le groupe de Mark Zuckerberg vient de frapper un nouveau coup en rachetant Manus, un agent IA dont les performances ont rapidement attiré l'attention du secteur.Présenté au printemps dernier par la start-up Butterfly, Manus s'est imposé en quelques semaines comme l'un des agents les plus avancés du moment. Capable de trier des candidatures, planifier des voyages complexes, analyser des données ou piloter des tâches numériques de bout en bout, l'outil s'est fait connaître grâce à une démonstration virale qui le plaçait au niveau, voire au-dessus, des solutions proposées par les leaders du marché. Accessible sur invitation, Manus a séduit des millions d'utilisateurs prêts à payer un abonnement mensuel.La trajectoire de Butterfly a été fulgurante. En l'espace de quelques mois, la jeune pousse, fondée à Pékin mais basée à Singapour, revendiquait plus de 100 millions de dollars de revenus annuels récurrents et une valorisation estimée à 500 millions de dollars. Des chiffres impressionnants, appuyés par des statistiques techniques spectaculaires : des dizaines de trillions de tokens traités et des millions d'environnements virtuels générés. Autant d'arguments qui ont visiblement convaincu Meta de sortir le chéquier. Le géant américain aurait déboursé plus de deux milliards de dollars pour mettre la main sur Manus. Une acquisition stratégique, alors que Meta cherche à intégrer des agents intelligents directement au cœur de Facebook, Instagram et WhatsApp. L'idée est claire : faire de l'IA un compagnon omniprésent, capable d'assister les utilisateurs dans leurs tâches quotidiennes, personnelles comme professionnelles.Butterfly insiste toutefois sur la continuité du service. Manus restera accessible de manière indépendante, avec ses abonnements et son équipe basée à Singapour. Pour Meta, c'est aussi l'assurance de récupérer une activité déjà rentable, à l'heure où les investissements dans l'IA pèsent lourdement sur les finances des géants du numérique. Reste un point sensible : l'origine chinoise du projet. Dans un contexte de tensions technologiques entre Washington et Pékin, l'opération pourrait susciter des interrogations politiques. Meta a d'ailleurs pris les devants, affirmant qu'après la transaction, aucun actionnaire chinois ne conservera de participation et que Manus cessera toute activité en Chine. Un signal clair : pour s'imposer dans la bataille mondiale de l'IA, Meta entend lever tous les obstacles, y compris géopolitiques. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Les signaux sont au rouge pour les prix de l'électronique grand public en 2026. Les dirigeants de Asus et Acer ont confirmé que les ordinateurs portables et de bureau verront leurs tarifs augmenter dès le début de l'année prochaine. En cause : la flambée du prix de la mémoire vive et du stockage, happés par la demande massive des centres de données dédiés à l'intelligence artificielle.Selon le quotidien taïwanais Commercial Times, Samson Hu, patron d'Asus, et Jason Chen, PDG d'Acer, s'accordent sur un constat partagé par l'ensemble du secteur : les hausses de coûts devront inévitablement être répercutées sur les prix de vente. Jusqu'ici, les constructeurs avaient réussi à contenir l'inflation grâce à des stocks constitués avant la pénurie. Mais cette période de répit touche à sa fin. Dès le premier trimestre 2026, les nouvelles machines intégreront des composants achetés au prix fort. Asus entend ajuster finement ses gammes, en jouant sur les configurations et le positionnement tarifaire pour rester compétitif. Acer se montre plus direct : « les prix du quatrième trimestre ne seront pas ceux du premier trimestre de l'an prochain », a prévenu Jason Chen. Pour limiter la casse, certains fabricants pourraient réduire les dotations techniques : 8 Go de RAM au lieu de 16 Go, capacités de stockage revues à la baisse. Une stratégie défensive, alors même que la pénurie touche aussi les SSD.La situation pourrait s'installer dans la durée. Les deux géants du secteur, SK Hynix et Samsung, n'envisagent pas d'augmenter significativement leurs capacités de production. Construire une usine de mémoire prend entre trois et cinq ans, un pari risqué dans un marché cyclique. Quant à Micron, le groupe a recentré ses efforts sur la mémoire à très haut débit (HBM) pour l'IA, au détriment du grand public, et prévient que la tension sur les prix pourrait durer au-delà de 2026. Résultat : les consommateurs risquent de payer plus cher des machines parfois moins bien équipées. Une ironie à l'heure où les logiciels, dopés à l'IA, deviennent toujours plus gourmands en ressources. L'informatique personnelle entre ainsi dans une phase paradoxale : plus puissante côté usages, mais plus coûteuse et plus contrainte côté matériel. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

L'intelligence artificielle est-elle réellement prête à remplacer les humains au travail ? La question agite les entreprises, entre fantasmes de productivité totale et scepticisme assumé. Pour dépasser les discours, des chercheurs de Carnegie Mellon University ont tenté une expérience originale : simuler une entreprise presque entièrement peuplée d'agents d'intelligence artificielle. Les résultats, publiés en prépublication sur arXiv, sont loin d'annoncer la fin du salariat humain. Les scientifiques ont confié le fonctionnement de cette entreprise virtuelle à des agents issus des modèles les plus en vue du moment : Claude d'Anthropic, GPT-4o d'OpenAI, Gemini de Google, Nova d'Amazon, Llama de Meta ou encore Qwen d'Alibaba. Chaque agent s'est vu attribuer un poste classique : analyste financier, chef de projet, ingénieur logiciel. En parallèle, d'autres agents jouaient le rôle de collègues ou de services internes, comme les ressources humaines.Sur le papier, tout était en place. Dans les faits, la performance est restée très limitée. Le meilleur élève, Claude 3.5 Sonnet, n'a réussi à mener à terme que 24 % des tâches confiées. En incluant les missions partiellement accomplies, son score plafonne à 34,4 %. Gemini 2.0 Flash arrive en deuxième position, avec à peine 11,4 % de tâches finalisées. Aucun autre modèle ne dépasse la barre des 10 %. Un contraste saisissant avec les promesses d'autonomie souvent associées à ces systèmes. Les chercheurs identifient plusieurs causes à ces échecs. Les agents peinent à comprendre les implicites humains : demander un fichier en « .docx » ne leur permet pas toujours de déduire qu'il s'agit d'un document Word. Ils manquent aussi de compétences sociales élémentaires et se retrouvent rapidement bloqués lorsqu'ils doivent naviguer sur le Web, gérer des fenêtres surgissantes ou interpréter des interfaces complexes. Plus préoccupant encore, certains agents estiment avoir réussi une tâche après en avoir simplement contourné les étapes difficiles.En clair, cette expérience rappelle une réalité souvent oubliée : si les IA excellent sur des tâches ciblées et bien définies, elles restent très loin de pouvoir gérer seules un environnement de travail réel, avec ses imprévus, ses règles implicites et ses interactions humaines. Le remplacement généralisé des salariés, lui, peut encore attendre. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Un pas de plus, et cette fois décisif, vers la banque à part entière. Le 15 décembre, PayPal a déposé deux demandes d'agrément auprès des autorités américaines : le département des institutions financières de l'Utah et la Federal Deposit Insurance Corporation. Objectif affiché : transformer sa filiale de crédit en banque industrielle, sous le nom de PayPal Bank. Depuis plus de dix ans, le géant californien avance déjà sur ce terrain. Depuis 2013, il a accordé plus de 30 milliards de dollars de prêts à quelque 420 000 comptes professionnels dans le monde. Une niche bien identifiée : les petites entreprises et les indépendants, souvent jugés trop risqués ou pas assez rentables par les banques traditionnelles. Avec cette licence bancaire, PayPal veut désormais se passer d'intermédiaires, prêter en direct et aller plus vite.Pour les commerçants américains, la promesse est claire : des décisions de crédit accélérées, moins de paperasse et, potentiellement, des coûts plus bas. « L'accès au capital reste l'un des principaux freins à la croissance des petites entreprises », résume Alex Chriss, le PDG du groupe. À la tête de cette future banque, PayPal a recruté Mara McNeill, ex-dirigeante de Toyota Financial Savings Bank, un profil taillé pour rassurer des régulateurs traditionnellement méfiants face aux ambitions bancaires des géants de la tech. PayPal Bank ne se contenterait pas du crédit. Des comptes d'épargne rémunérés, garantis jusqu'à 250 000 dollars par la FDIC, sont aussi au programme. Et surtout, l'entreprise veut rejoindre directement les réseaux Visa et Mastercard, afin de contrôler toute la chaîne de paiement.Cette évolution n'est pas anodine sur le plan géopolitique. En Europe, la dépendance aux infrastructures américaines inquiète. En avril dernier, Christine Lagarde, présidente de la Banque centrale européenne, alertait sur la domination des systèmes de paiement étrangers. Dans la foulée, seize grandes banques ont lancé Wero, un projet paneuropéen censé renforcer la souveraineté financière du continent. Pour les professionnels français, l'enjeu reste ouvert. PayPal propose déjà des prêts via des partenaires bancaires. Devenir banque à part entière lui permettrait d'accélérer encore, de réduire les coûts… et de bousculer un peu plus un secteur bancaire déjà sous pression. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Le 14 décembre dernier, une attaque terroriste a endeuillé la célébration de Hanoukka à Bondi Beach, à Sydney. Quinze personnes ont perdu la vie. Mais dans les minutes qui ont suivi les coups de feu, une autre machine s'est mise en route, implacable : celle de la désinformation sur les réseaux sociaux, et en particulier sur X.Très vite, un homme d'affaires pakistanais, parfaitement innocent, s'est retrouvé projeté au centre d'un déferlement de haine. Son seul tort : porter le même nom que l'un des terroristes. Sa photo a été massivement relayée, accompagnée d'accusations infondées. Il a reçu des menaces de mort, sa famille a été harcelée. Une erreur d'identité banale, mais aux conséquences dramatiques. Et malgré l'existence des Community Notes, censées corriger les fausses informations, le mal était fait. Selon le Center for Countering Digital Hate, près de trois quarts des contenus de désinformation liés aux élections américaines de 2024 n'ont jamais été corrigés. Et lorsqu'une note apparaît, il faut parfois attendre plusieurs dizaines d'heures.Or, sur les réseaux sociaux, le temps est un luxe. Une étude du MIT montre que les fausses informations se propagent jusqu'à six fois plus vite que les vraies. Et sur X, ce phénomène est désormais encouragé par le modèle économique de la plateforme. Les créateurs sont rémunérés en fonction de l'engagement généré par leurs publications. Peu importe la véracité, seule compte la réaction. Plus ça choque, plus ça rapporte. Résultat : une vidéo de feux d'artifice de Noël, organisée de longue date par un club local, a été présentée comme des « célébrations arabes » après l'attentat. Des millions de vues avant d'être démentie. Pire encore, l'intelligence artificielle Grok, intégrée à X, a inventé de toutes pièces le nom du prétendu héros qui aurait désarmé un terroriste. Un nom fictif, issu d'un site frauduleux créé le jour même.Pendant ce temps, le véritable héros de Bondi Beach, Ahmed al-Ahmed, un Australien d'origine syrienne qui a risqué sa vie pour sauver des inconnus, est resté largement invisible dans le flot médiatique. Il a fallu du temps pour que la vérité émerge, pendant que le mensonge, lui, faisait le tour du monde. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Voici peut-être l'idée la plus simple… et la plus efficace pour démocratiser l'open source. Un projet indépendant baptisé Github Store vient de transformer GitHub en véritable magasin d'applications, à la manière d'un App Store ou d'un Google Play, mais dédié exclusivement aux logiciels libres. Disponible sur Android et sur ordinateur — Windows, macOS et Linux — Github Store propose une interface claire et familière : catégories, captures d'écran, descriptions détaillées et surtout un bouton d'installation en un clic. Fini la chasse aux fichiers au fond des dépôts ou la peur de télécharger la mauvaise archive. Ici, tout est pensé pour l'utilisateur final, pas uniquement pour les développeurs.Le fonctionnement est astucieux. L'application analyse automatiquement les dépôts GitHub publics qui publient de vraies versions installables dans leurs “releases”. Elle filtre les formats pertinents — APK, EXE, MSI, DMG, PKG, DEB, RPM — et écarte les simples archives de code source. Résultat : seules les applications réellement prêtes à être installées apparaissent dans le catalogue. L'utilisateur peut ensuite naviguer par popularité, mises à jour récentes ou nouveautés, et même filtrer par système d'exploitation pour ne voir que les logiciels compatibles avec sa machine. Chaque fiche application va plus loin que de simples captures d'écran. On y retrouve le nombre d'étoiles, de forks, les problèmes signalés, le README complet, les notes de version et le détail précis des fichiers téléchargeables. Une transparence fidèle à l'esprit open source.Côté technique, Github Store repose sur Kotlin Multiplatform et Compose. Sur Android, l'installation passe par le gestionnaire de paquets natif. Sur ordinateur, le fichier est téléchargé puis ouvert avec l'outil par défaut du système. Il est possible de se connecter avec un compte GitHub, optionnel mais utile : cela permet d'augmenter fortement les limites d'accès à l'API pour explorer sans contrainte. L'application est distribuée via les releases GitHub du projet et sur F-Droid pour Android, sous licence Apache 2.0. Autrement dit, libre, modifiable et réutilisable. Une précision importante toutefois : Github Store n'a pas vocation à garantir la sécurité des logiciels proposés. Il facilite la découverte et l'installation, mais la responsabilité reste entre les mains des développeurs… et des utilisateurs. En rendant l'open source aussi accessible qu'un store grand public, Github Store pourrait bien changer durablement la façon dont nous découvrons et utilisons les logiciels libres. Une petite révolution, sans marketing tapageur, mais avec une idée redoutablement efficace. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est une affaire qui secoue tout l'écosystème des cryptomonnaies et relance un débat explosif : où s'arrête la protection de la vie privée, et où commence la complicité criminelle ? Aux États-Unis, Keonne Rodriguez, développeur du portefeuille Bitcoin Samourai Wallet, vient d'être condamné à cinq ans de prison. Son crime ? Avoir conçu et exploité un outil jugé trop efficace pour garantir l'anonymat des transactions.Lancé en 2015, Samourai Wallet se présentait comme un portefeuille Bitcoin open source destiné à préserver la confidentialité financière de ses utilisateurs. En pratique, il reposait notamment sur une technique de « coin mixing », qui consiste à mélanger les transactions de plusieurs utilisateurs afin de rendre leur traçage extrêmement difficile. Un principe défendu par de nombreux militants de la vie privée… mais perçu par les autorités comme un facilitateur de criminalité. En avril 2024, les agents du FBI interpellent Rodriguez à son domicile. Le United States Department of Justice l'accuse d'exploitation d'un service de transfert monétaire non autorisé et de blanchiment d'argent. Selon l'enquête, plus de 237 millions de dollars de fonds criminels — issus de trafics de drogue, de fraudes, de marchés du darknet ou encore de contenus pédocriminels — auraient transité par l'infrastructure Samourai.La défense, elle, plaide la neutralité technologique. Rodriguez affirme n'avoir fait qu'écrire du code, sans contrôler l'usage qui en était fait. Mais les juges ont retenu plusieurs éléments aggravants : Samourai n'était pas un simple logiciel décentralisé. L'équipe opérait des serveurs indispensables au fonctionnement du service, prélevait des commissions sur chaque opération — environ 4,5 millions de dollars au total — et certains messages publics ou documents marketing visaient explicitement des acteurs des marchés « gris » ou illégaux. C'est là que la frontière se brouille. Contrairement à des outils comme Tor ou Signal, Samourai combinait centralisation, modèle économique et communication provocatrice. Pour le tribunal, l'intention ne faisait plus de doute. Le cofondateur et directeur technique William Hill a écopé de quatre ans de prison. L'affaire pourrait toutefois rebondir : Donald Trump a récemment évoqué la possibilité d'un réexamen du dossier en vue d'une grâce présidentielle. Quoi qu'il en soit, l'affaire Samourai Wallet fera date. Elle rappelle une leçon brutale : défendre la vie privée financière est une chose. Exploiter une infrastructure centralisée, rémunérée, et assumant d'attirer des usages criminels en est une autre. Dans l'Amérique actuelle, la ligne rouge est désormais très claire. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Vous connaissez sans doute Anna's Archive, cette bibliothèque pirate devenue incontournable pour la sauvegarde des livres et articles scientifiques du monde entier. Jusqu'ici, sa mission était claire : préserver le texte, là où la densité d'information est la plus élevée. Mais l'archive vient de franchir un cap spectaculaire : elle s'attaque désormais à la préservation de la musique en ligne, et plus précisément à Spotify.Le chantier est titanesque. Objectif affiché : sauvegarder non seulement les morceaux, mais aussi l'ensemble de leurs métadonnées. Au total, cela représente près de 300 téraoctets de données. Résultat : la plus grande base de données de métadonnées musicales jamais rendue publique, avec 186 millions de codes ISRC uniques, ces identifiants qui permettent de tracer chaque enregistrement sonore. À titre de comparaison, MusicBrainz n'en recense qu'environ cinq millions. Côté audio, Anna's Archive affirme avoir archivé environ 86 millions de morceaux, soit près de 99,6 % des écoutes totales sur Spotify, même si cela ne couvre qu'un peu plus d'un tiers du catalogue global. Pour gérer cette masse colossale, l'équipe a fait un choix pragmatique : prioriser la popularité. Les titres écoutés au moins une fois ont été conservés en qualité originale, tandis que la longue traîne — ces millions de morceaux jamais lancés — a été compressée dans un format plus léger, voire partiellement écarté.Les statistiques issues de cette collecte sont vertigineuses. Les trois titres les plus populaires — signés Lady Gaga, Billie Eilish et Bad Bunny — cumulent à eux seuls plus d'écoutes que des dizaines de millions de morceaux obscurs réunis. Une concentration extrême qui pose un problème majeur à la conservation musicale : l'oubli quasi total de la création marginale, expérimentale ou locale. C'est là que l'approche d'Anna's Archive tranche. Plutôt que de ne préserver que les œuvres populaires en qualité parfaite, le projet privilégie une conservation exhaustive, même dans une qualité jugée « suffisante ». Une philosophie assumée : mieux vaut tout sauver imparfaitement que ne conserver qu'un fragment idéalisé de la culture. L'ensemble est distribué via des torrents, librement duplicables. La base s'arrête à juillet 2025, mais elle inaugure quelque chose de nouveau : une archive musicale ouverte, réplicable, et collective. Une tentative, peut-être la première de cette ampleur, pour protéger le patrimoine musical mondial des aléas du temps, des conflits, des fermetures de plateformes… et de l'oubli numérique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Il aura fallu plus de cinq ans de tensions politiques et de négociations feutrées pour que TikTok parvienne à se débarrasser de son handicap originel aux États-Unis : ses racines chinoises. Sous la menace persistante d'une interdiction pure et simple, sa maison mère, ByteDance, a finalement signé, le 18 décembre 2025, un accord décisif avec l'administration américaine. Objectif : rester sur le sol américain en se pliant aux exigences de sécurité nationale portées par Donald Trump.La solution trouvée passe par la création d'une nouvelle entité indépendante : TikTok USDS Joint Venture. Cette coentreprise américaine pilotera désormais les données, l'algorithme et la modération de la plateforme aux États-Unis. Plusieurs acteurs entrent au capital à hauteur de 15 % chacun, dont Oracle, le fonds américain Silver Lake et l'investisseur émirati MGX. ByteDance, de son côté, voit sa participation réduite à 19,9 %, tandis que 30,1 % restent entre les mains d'investisseurs historiques, parmi lesquels Fidelity et General Atlantic.Un nouveau conseil d'administration, composé de sept membres à majorité américaine, doit être mis en place. Selon une note interne consultée par l'Associated Press, sa mission est claire : « protéger les données des Américains et la sécurité nationale des États-Unis ». TikTok conservera néanmoins le contrôle de l'essentiel de ses activités commerciales sur le territoire. La transaction doit être finalisée le 22 janvier 2026, soit la veille de la date à laquelle l'interdiction de TikTok aurait dû entrer en vigueur. Sur le fond, Washington reprochait à TikTok deux points majeurs : l'hébergement potentiel des données d'utilisateurs américains hors du pays et la puissance de son algorithme, soupçonné de pouvoir servir d'outil d'influence à Pékin. Désormais, les données seront stockées localement via Oracle. TikTok reconnaît que des employés basés en Chine y ont eu accès par le passé, tout en affirmant qu'aucune information n'a jamais été transmise aux autorités chinoises.Cet accord met fin à un feuilleton entamé dès 2020, lorsque Donald Trump avait tenté, sans succès, de bannir l'application lors de son premier mandat. En 2024, le Congrès, dans un rare consensus bipartisan, avait adopté une loi signée par Joe Biden, imposant la vente ou la suspension des applications contrôlées par des adversaires étrangers. Une échéance repoussée à quatre reprises depuis janvier 2025, le temps de négocier. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est un mal bien connu de tous les internautes : cette accumulation incontrôlable d'onglets ouverts, dès lors que l'on cherche des informations sur plusieurs sites à la fois. On s'y perd rapidement, et la mémoire vive de l'ordinateur fond comme neige au soleil. Pour répondre à ce problème devenu presque structurel, Google dévoile une expérimentation ambitieuse : un nouveau navigateur dopé à l'intelligence artificielle Gemini, baptisé Disco.Sa première fonctionnalité expérimentale s'appelle GenTabs. Le principe est radical : confier à l'IA la gestion du contenu de vos onglets. Plutôt que de jongler entre dix pages ouvertes, Gemini analyse l'ensemble des informations affichées et les transforme en une application web interactive, générée à la demande. Une approche qui rappelle le « vibe coding », cette manière de créer des outils à partir d'une simple intention exprimée en langage naturel.Dans les démonstrations publiées par Google, l'interface se divise en deux parties. À gauche, un chatbot Gemini classique. À droite, la fenêtre de navigation. Exemple proposé : l'organisation d'un voyage. L'utilisateur discute avec Gemini, consulte des pages d'activités locales, puis l'IA suggère de créer un outil interactif. En quelques secondes, une carte s'affiche, regroupant toutes les informations collectées, avec filtres par dates, options météo et planification d'itinéraire. Aucun code à écrire, aucune configuration technique à comprendre. Tout est généré automatiquement. Google imagine déjà d'autres usages : des outils pour visualiser des concepts scientifiques, comparer des meubles dans une pièce, créer de petits jeux, planifier ses repas ou organiser un potager. Le navigateur devient ainsi moins un lecteur de pages qu'un atelier de synthèse et d'interaction, piloté par l'IA.Pour l'instant, Disco reste une expérimentation issue de Google Labs. Basé sur Chromium, il n'est pas destiné à un usage quotidien et nécessite une inscription sur liste d'attente. Mais derrière la prouesse technique se pose une question de fond : quel avenir pour les sites web eux-mêmes ? Cette interrogation avait déjà émergé avec les résumés générés par IA dans le moteur de recherche. Si les contenus sont analysés, synthétisés et consommés par des machines plutôt que par des humains, que devient le modèle économique du web ? La publicité, aussi agaçante soit-elle, finance encore une grande partie des sites. Sans lecteurs humains, plus de clics, plus de revenus. En cherchant à résoudre le chaos des onglets, Google esquisse peut-être un futur plus fluide pour les utilisateurs… mais potentiellement bien plus fragile pour l'écosystème du web tel que nous le connaissons aujourd'hui. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

À première vue, on se demande ce qui pourrait bien freiner OpenAI. L'entreprise à l'origine de ChatGPT enchaîne les partenariats prestigieux avec les géants de la tech et séduit désormais bien au-delà de la Silicon Valley. Dernier exemple en date : Disney, qui vient de signer un accord stratégique avec OpenAI. Un partenariat qui permettra à l'outil vidéo Sora d'utiliser des personnages iconiques de la marque, de Mickey Mouse à tout l'univers Disney. Dans la foulée, le groupe américain s'est engagé à investir un milliard de dollars dans le capital d'OpenAI.Une somme impressionnante… mais qui paraît presque dérisoire au regard des finances de l'entreprise dirigée par Sam Altman. Car OpenAI dépense énormément, et même de plus en plus vite. La course à l'intelligence artificielle est devenue un champ de bataille industriel où chaque avancée technologique se paie au prix fort, en puissance de calcul, en infrastructures et en talents. Selon plusieurs estimations relayées par le média Mashable, ce milliard de dollars fraîchement injecté ne suffirait à couvrir que trois à quatre semaines des pertes actuelles d'OpenAI. Une donnée vertigineuse, qui prend encore plus de relief lorsqu'on la compare aux engagements globaux de l'entreprise : cette somme représenterait à peine un millième des dépenses prévues à moyen terme.Autrement dit, OpenAI brûle du cash à un rythme rarement vu dans l'histoire récente de la tech. Au point que certains analystes commencent à évoquer, à voix basse, un scénario longtemps jugé impensable : celui d'une fragilité financière, voire d'une faillite à long terme si le modèle économique ne se stabilise pas. Cette inquiétude intervient dans un contexte moins favorable qu'il n'y paraît. Ces derniers mois, un décrochage technologique a été observé entre ChatGPT et son principal concurrent, Gemini, développé par Google. Avec Gemini 3, le géant californien a repris une position de leader, laissant planer le doute sur la capacité d'OpenAI à conserver son avance initiale. L'histoire de la tech est riche de précédents. Être pionnier ne garantit pas le succès durable. Les plus anciens se souviennent de Netscape, premier navigateur web grand public, rapidement marginalisé par Internet Explorer à la fin des années 1990. Un rappel brutal que, dans ce secteur, l'innovation coûte cher… et que la domination n'est jamais acquise. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

L'intelligence artificielle est devenue le mot magique de la Silicon Valley. Les géants du numérique veulent l'injecter partout, parfois à marche forcée. Chez Amazon, très engagé dans cette course technologique, l'idée a été de truffer sa plateforme de streaming Prime Video de fonctionnalités dopées à l'IA. Mais l'expérience tourne, pour l'instant, au sérieux revers. Ces derniers jours, Amazon a essuyé une vague de critiques sur les réseaux sociaux. En cause : une nouvelle fonction de résumés générés par intelligence artificielle, testée en version bêta aux États-Unis. Le principe semblait séduisant : proposer, sous forme de courts clips vidéo narrés par une voix synthétique, un rappel des éléments clés de l'intrigue d'une série. Dans les faits, l'outil s'est révélé largement défaillant.La polémique a explosé autour de Fallout, l'une des séries phares de Prime Video. Les résumés produits par l'IA contenaient des erreurs factuelles, des incohérences, et parfois des éléments qui ne correspondaient tout simplement pas à l'histoire. Rapidement, les extraits ont circulé en ligne, suscitant moqueries et indignation. Face au bad buzz, Amazon n'a pas tardé à réagir. La plateforme a tout simplement désactivé la fonctionnalité, non seulement pour Fallout, mais aussi pour l'ensemble des séries concernées par le test : Tom Clancy's Jack Ryan, The Rig, Bosch et Upload. Un retrait discret, mais révélateur d'un échec cuisant dans l'intégration de l'IA à l'expérience de streaming.Ce n'est d'ailleurs pas la première fois que Prime Video se retrouve dans l'embarras sur ce terrain. Plus tôt ce mois-ci, Amazon avait déjà été critiqué pour avoir proposé des doublages d'animés générés par intelligence artificielle, jugés artificiels et dénaturant les œuvres originales. Là encore, sous la pression des abonnés, ces contenus avaient été retirés. Ces ratés successifs illustrent les limites d'une stratégie qui consiste à déployer l'IA à tout prix, parfois au détriment de la qualité. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est une révélation qui risque de refroidir les ardeurs des partisans du cloud « souverain ». En Allemagne, un rapport juridique commandé par le ministère de l'Intérieur, longtemps resté confidentiel, vient d'être rendu public grâce à une demande d'accès à l'information. Et son constat est sans appel : les lois américaines permettent bel et bien aux agences de renseignement des États-Unis d'accéder à des données hébergées en Europe. Pour y voir clair, Berlin avait missionné des juristes de l'Université de Cologne. Leur question était simple, mais explosive : jusqu'où s'étend réellement le pouvoir des autorités américaines sur les données stockées hors de leur territoire ? La réponse tient en quelques textes bien connus à Washington : le Stored Communications Act, renforcé par le Cloud Act, et surtout la section 702 du Foreign Intelligence Surveillance Act, prolongée par le Congrès jusqu'en 2026 au moins. Ensemble, ces lois offrent une portée extraterritoriale massive aux services américains. Le point clé est juridique, pas géographique. Peu importe que vos données soient stockées à Francfort, Dublin ou Paris. Ce qui compte, c'est qui contrôle l'infrastructure. Si la maison mère d'un fournisseur cloud est basée aux États-Unis, elle peut être contrainte de transmettre des données, même si celles-ci sont hébergées par une filiale européenne. Et la zone grise va plus loin encore : selon les experts cités par Heise Online, même certaines entreprises européennes peuvent être concernées dès lors qu'elles entretiennent des relations commerciales substantielles avec les États-Unis. On pourrait croire que le chiffrement règle le problème. Là encore, le rapport tempère. Le droit américain impose aux entreprises de préserver l'accès aux données jugées pertinentes dans le cadre d'enquêtes potentielles. Un fournisseur cloud qui se rendrait techniquement incapable d'y accéder s'exposerait à de lourdes sanctions. Résultat : un conflit frontal entre le RGPD européen, qui limite les transferts vers des pays tiers, et l'extraterritorialité revendiquée par Washington. Le Data Privacy Framework, censé servir de pont entre les deux blocs, apparaît plus fragile que jamais.Cette situation touche directement les géants américains du cloud, mais le cas de Microsoft 365, omniprésent dans les administrations et les entreprises européennes, cristallise les inquiétudes. Certains juristes estiment qu'un usage compatible avec le RGPD reste possible, à condition de mener des évaluations d'impact très poussées. D'autres jugent cette approche illusoire. Pour des acteurs comme Nextcloud, le diagnostic est clair : audits et clauses contractuelles ne suffisent plus. L'Europe doit investir massivement dans ses propres infrastructures, miser sur l'open source et développer des technologies réellement autonomes. Car une chose est désormais évidente : héberger des données en Europe ne garantit plus leur protection. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

La phrase a résonné comme un coup de tonnerre dans le monde de la tech. Mustafa Suleyman, responsable de l'intelligence artificielle grand public chez Microsoft, a affirmé que le groupe pourrait tout simplement renoncer à certains développements si l'IA devenait incontrôlable. Un propos rare dans un secteur davantage habitué aux promesses d'omnipotence qu'aux appels à la retenue.Cette prise de position tranche avec l'euphorie ambiante de la Silicon Valley. Tandis que nombre d'acteurs poursuivent à marche forcée le Graal de l'« intelligence artificielle générale », Microsoft se présente en gardien prudent, prêt à activer un bouton d'arrêt d'urgence. Pour Mustafa Suleyman, la ligne est claire : l'entreprise ne développera pas de systèmes qu'elle ne peut pas maîtriser. L'ambition affichée est celle d'une « superintelligence humaniste », conçue pour assister l'humain, et non pour le remplacer. Copilot, l'assistant intégré aux outils de Microsoft, serait la première illustration de cette vision. Mais ce discours soulève un paradoxe. Microsoft est aussi l'un des principaux investisseurs mondiaux dans l'IA, avec des dizaines de milliards de dollars engagés dans ses infrastructures et dans son partenariat stratégique avec OpenAI. Une posture d'équilibriste, entre accélération technologique maximale et promesse de retenue éthique. Appuyer sur l'accélérateur tout en affirmant garder le pied sur le frein.Cette prudence affichée éclaire aussi les relations, parfois ambiguës, entre Microsoft et OpenAI. Là où OpenAI revendique ouvertement l'objectif de créer une intelligence artificielle générale, Microsoft temporise. Son PDG, Satya Nadella, a récemment qualifié ce concept de « légèrement survendu », préférant mettre en avant des usages concrets et immédiatement utiles. Reste à savoir si cette ligne rouge est réellement infranchissable ou si elle relève d'une stratégie de communication destinée à rassurer le public et les régulateurs. Car dans le même temps, Microsoft a renégocié son partenariat avec OpenAI afin de pouvoir développer ses propres modèles d'IA, en toute autonomie. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Sur le papier, l'application française Wizz promet une expérience sociale encadrée et sécurisée. Dans les faits, le constat est bien plus inquiétant. Son fonctionnement repose sur le swipe, comme Tinder ou Bumble. Pourtant, Wizz assure ne pas être une application de rencontres et met en avant un système de vérification d'âge par intelligence artificielle, censé séparer strictement les utilisateurs par tranche d'âge. Une barrière qui, selon plusieurs enquêtes, ne tiendrait pas. Les faits divers s'accumulent. À Hawaï, une fillette de 11 ans a été agressée par un militaire de 19 ans qui se faisait passer pour un adolescent de 15 ans sur l'application. D'autres affaires décrivent des scénarios similaires : un homme de 23 ans prétendant avoir 14 ans, ou encore un individu de 27 ans se présentant comme mineur pour approcher et agresser plusieurs adolescentes. Dans tous les cas, le point commun est le même : une vérification d'âge défaillante.Le magazine américain The Hill a voulu tester ce système. Un journaliste de 28 ans s'inscrit sur Wizz. Verdict : l'algorithme d'IA valide son profil comme celui d'un adolescent de 16 ans, sans alerte. Les « algorithmes sophistiqués de sécurité » mis en avant par l'entreprise apparaissent alors comme un simple argument marketing. Déjà épinglée par les médias, l'application avait été retirée temporairement des boutiques d'Apple et de Google, avant de revenir avec la promesse d'améliorations. Manifestement, sans effet concret. Ce débat s'inscrit dans un contexte plus large. Aux États-Unis, le Kids Online Safety Act, soutenu aussi bien par des élus démocrates que républicains, vise à imposer aux plateformes un véritable devoir de protection. Le principe est simple : comme dans l'automobile ou l'agroalimentaire, une entreprise ne pourrait plus lancer un service sans démontrer qu'il est sûr pour ses utilisateurs, notamment les mineurs.L'industrie technologique reste aujourd'hui l'une des rares à échapper à ce type d'obligation. Avec une loi comme le KOSA, les plateformes devraient prouver l'efficacité réelle de leurs dispositifs de sécurité, sous peine de poursuites judiciaires. Les promesses ne suffiraient plus. Si ce texte doit encore franchir plusieurs étapes au Congrès américain, il envoie déjà un signal clair. Pour des applications comme Wizz, l'ère de l'auto-déclaration et des garde-fous symboliques touche peut-être à sa fin. Protéger les mineurs ne peut plus relever du discours. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

L'intelligence artificielle est déjà partout dans notre quotidien professionnel. Depuis plus d'un an, Google a intégré son IA Gemini dans la suite Google Workspace : résumés automatiques dans Gmail, rédaction de documents dans Drive, prise de notes dans Meet… Mais avec l'arrivée de l'IA dite « agentique », le géant de la tech passe à l'étape suivante.Google vient d'annoncer le lancement de Google Workspace Studio, un nouvel outil destiné aux professionnels. Promesse affichée : permettre de créer, en quelques minutes, de véritables agents IA capables d'automatiser les tâches du quotidien, sans écrire une seule ligne de code. Il suffit d'expliquer, en langage naturel, ce que l'on souhaite faire. L'agent se charge du reste, grâce à la puissance de Gemini 3. Ces agents ne se contentent pas d'exécuter des consignes figées. Ils sont conçus pour analyser des situations, s'adapter à de nouvelles informations et déclencher des actions en fonction du contexte. Concrètement, ils peuvent surveiller vos mails, détecter des mots-clés, envoyer automatiquement des alertes, préparer des briefings, ou encore organiser des tâches à partir de contenus présents dans vos documents. Ils peuvent aussi aller chercher des informations sur le web pour ajuster leur comportement.Autre point clé : l'ouverture aux outils tiers. Google Workspace Studio peut se connecter à des applications professionnelles majeures comme Jira, Salesforce, Mailchimp ou Asana. Les agents peuvent ainsi automatiser des chaînes complètes de travail, de la gestion de projet au suivi client. Ils sont aussi partageables entre collaborateurs, avec des modèles prêts à l'emploi pour accélérer la prise en main. Google voit déjà plus loin. Des évolutions sont annoncées, notamment le partage externe, l'envoi d'e-mails hors du domaine principal, ainsi qu'une prise en charge avancée des webhooks, ces mécanismes qui permettent aux applications de dialoguer entre elles en temps réel. Le déploiement a commencé cette semaine. L'accès pour les utilisateurs finaux est prévu à partir du 5 janvier 2026, pour les domaines à activation progressive. L'outil reste réservé aux abonnements payants Business, Enterprise, Education et aux offres Google AI dédiées. Les mineurs, eux, n'y auront pas accès. Derrière cette annonce, un signal clair : Google ne veut plus seulement proposer de l'assistance par IA, mais confier aux entreprises de véritables agents numériques autonomes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est une annonce qui fait l'effet d'un séisme dans le monde du web. Matthew Prince, le patron de Cloudflare, révèle que son entreprise a bloqué 416 milliards de requêtes de robots d'intelligence artificielle depuis juillet. Un chiffre vertigineux, qui confirme une tendance que beaucoup pressentaient : Internet n'est plus majoritairement parcouru par des humains, mais par des machines.Les données du rapport 2025 d'Imperva enfoncent le clou : les bots représentent désormais 51 % du trafic mondial, contre seulement 27 % il y a dix ans. Une bascule spectaculaire, portée par la frénésie des géants de l'IA — OpenAI, Anthropic, Google et consorts — dont les modèles doivent avaler toujours plus de données pour s'améliorer. Résultat : leurs robots arpentent le web en long, en large et en travers. GPTBot, l'aspirateur d'OpenAI, a triplé sa présence en un an. ClaudeBot, son équivalent chez Anthropic, suit le même rythme. Ces bots vont plus loin que les anciens robots d'indexation : ils réclament 2,5 fois plus de données par requête que le crawler de Google. Et le plus croustillant, c'est qu'ils ne renvoient quasiment aucun visiteur vers les sites qu'ils exploitent. Cloudflare a mesuré un ratio édifiant : 70 900 visites de ClaudeBot pour 1 visiteur humain généré. OpenAI fait un peu mieux… mais reste entre 250 et 1 217 pour un.Cette marée robotique a un coût. Le projet open source Read the Docs a vu sa consommation de bande passante chuter de 75 % en bloquant les bots IA — de 800 à 200 Go par jour — générant 1 500 dollars d'économies mensuelles. Multipliez cela par des milliers de sites : la facture globale devient gigantesque. Face à cette extraction massive de contenus, des pistes émergent : faire payer les visites des robots d'IA, ou rémunérer les créateurs dont les contenus alimentent les réponses générées. Reste à convaincre les géants du secteur. En attendant, Cloudflare a tranché : depuis juillet, tous les bots IA sont bloqués par défaut sur les sites qu'il protège. Un geste symbolique — l'entreprise ne couvre qu'environ 20 % du web — mais un signal fort. Les créateurs de contenus ne sont peut-être pas encore dépossédés. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Pour la dernière grande journée de son événement annuel AWS re:Invent, Amazon Web Services a levé le voile sur une annonce stratégique : l'arrivée de Graviton5, son tout nouveau processeur maison. Une puce ARM de cinquième génération, gravée en 3 nanomètres, embarquant… 192 cœurs. Un monstre de calcul, pensé pour bouleverser l'équation performance-prix du cloud.AWS ne s'en cache pas : le pari Graviton est déjà un succès. Plus de la moitié des nouvelles capacités de calcul de la plateforme reposent désormais sur cette architecture, et près de 90 % des 1 000 plus gros clients EC2 utilisent déjà ces processeurs. Avec Graviton5, Amazon ne se contente plus d'optimiser : il change d'échelle. Cette nouvelle génération marque un véritable saut technologique. En concentrant 192 cœurs sur une seule puce, Amazon augmente considérablement la densité de calcul. Résultat : les échanges entre cœurs sont 33 % plus rapides. Le cache L3, cette mémoire ultra-rapide essentielle aux performances, a été multiplié par cinq. Chaque cœur dispose ainsi de 2,6 fois plus d'espace immédiat que sur Graviton4. Concrètement, cela accélère fortement les bases de données, l'analyse de données massives, mais aussi les jeux en ligne ou les services temps réel.Côté réseau, les progrès sont tout aussi notables : +15 % de bande passante en moyenne, jusqu'à un doublement sur les instances les plus puissantes. L'accès au stockage cloud progresse aussi de 20 %. Graviton5 promet au total 30 % de performances supplémentaires et 20 % de latence en moins par rapport à la génération précédente. La gravure en 3 nm, l'une des plus avancées du marché — dominée par TSMC, Samsung et Intel — permet d'augmenter la puissance tout en réduisant la consommation. Un point crucial à l'heure où les data centers pèsent de plus en plus lourd dans la consommation électrique mondiale. AWS va même jusqu'à refroidir directement la puce, sans boîtier intermédiaire.Autre avancée majeure : la sécurité. Avec le Nitro Isolation Engine, AWS ne se contente plus d'affirmer l'isolation des données… il en apporte une preuve mathématique. Une garantie très recherchée par les banques, les hôpitaux et les administrations. Les premiers retours sont enthousiastes. Airbnb gagne 25 % sur ses moteurs de recherche. Atlassian observe 30 % de rapidité en plus sur Jira. SAP annonce même jusqu'à 60 % d'accélération sur ses bases de données. Les premières instances EC2 M9g sont déjà disponibles en test. Les déclinaisons C9g et R9g, dédiées au calcul intensif et à la mémoire, arriveront en 2026. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est une plainte devenue quasi quotidienne chez les joueurs comme chez les télétravailleurs : Discord consomme de plus en plus de mémoire vive. La plateforme de chat vocal et textuel confirme aujourd'hui ce que beaucoup constataient déjà : lorsque plusieurs serveurs sont ouverts, l'application peut dépasser les 4 gigaoctets de RAM, au point de ralentir sérieusement Windows 11 et les jeux lancés en parallèle.Face à la grogne, Discord teste désormais une solution radicale : surveiller sa propre consommation de mémoire… et se relancer automatiquement lorsqu'elle dépasse un seuil critique. L'objectif est simple : libérer de la RAM pour éviter que la machine ne suffoque. Une mesure présentée comme un garde-fou, mais qui révèle surtout l'ampleur du problème. Cette gourmandise n'est pas qu'une question d'usage intensif. Discord repose sur le framework Electron, qui embarque en réalité un navigateur complet basé sur Chromium. Autrement dit, chaque fenêtre de discussion fonctionne comme une page web à part entière, avec son moteur JavaScript, ses composants, ses modules. Dans des conditions dites « normales », l'application flirte déjà avec le gigaoctet de mémoire. Et après plusieurs heures d'utilisation, entre appels vocaux, partages d'écran et navigation frénétique, la consommation peut exploser.Les développeurs reconnaissent d'ailleurs l'existence de fuites de mémoire. Neuf ont été corrigées ces derniers mois, permettant une réduction d'environ 5 % pour les profils les plus gourmands. Un progrès, certes, mais encore loin de transformer Discord en logiciel léger. D'où cette nouvelle expérimentation : si l'application dépasse 4 Go de RAM, qu'elle tourne depuis plus d'une heure, que l'utilisateur est inactif depuis trente minutes et qu'aucun appel n'est en cours, alors Discord se ferme… puis redémarre automatiquement. L'opération ne peut se produire qu'une fois toutes les 24 heures pour éviter les interruptions en boucle.Sur le papier, la mécanique est rassurante. Dans la pratique, elle ressemble surtout à un pansement posé sur une architecture lourde. Et Discord est loin d'être un cas isolé. D'autres applications comme Microsoft Teams ou la nouvelle version de WhatsApp pour Windows affichent elles aussi des consommations démesurées. Le problème devient d'autant plus sensible que le prix de la mémoire vive remonte. Tout le monde ne peut pas se permettre d'ajouter 16 Go de RAM pour suivre la course aux logiciels XXL. Entre applications toujours plus lourdes et matériel plus cher, les configurations modestes plient rapidement. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est une annonce qui a fait trembler Hollywood : Netflix a proposé un chèque de 83 milliards de dollars pour s'offrir Warner Bros., ses studios de cinéma, de télévision, de jeux vidéo… et surtout sa plateforme de streaming, HBO Max. Une opération titanesque, présentée comme historique. Mais attention : à ce stade, rien n'est encore acté. Le processus pourrait s'étendre jusqu'à fin 2026, et le chemin s'annonce semé d'embûches réglementaires et politiques.Car cette acquisition devrait être passée au crible par les autorités de la concurrence dans le monde entier. En clair, Netflix devra démontrer que l'absorption de Warner et de son catalogue — de Game of Thrones à l'univers DC, en passant par Harry Potter — ne portera pas atteinte à la concurrence ni aux consommateurs. Officiellement, la plateforme le répète : « rien ne change pour l'instant ». Mais en coulisses, les tensions sont déjà très fortes. Le groupe Paramount-Skydance, candidat malheureux au rachat, conteste ouvertement le processus. Son patron, David Ellison, fils du fondateur d'Oracle, espérait l'emporter grâce à ses relations politiques, notamment avec Donald Trump. Quelques heures avant l'annonce de Netflix, Paramount dénonçait publiquement une vente « opaque et injuste ».Donald Trump, justement, est entré directement dans le jeu. Le 7 décembre 2025, sur Truth Social, il a déclaré vouloir examiner de près cette opération, évoquant un risque de « part de marché excessive ». S'il ne peut pas bloquer seul le dossier, il pèse lourdement sur la FTC, dont il a placé un proche à la tête. Le patron de Netflix, Ted Sarandos, a bien tenté d'apaiser les tensions en rencontrant Donald Trump avant l'annonce. Sans succès visible. Pire encore, selon plusieurs médias américains, Paramount-Skydance pourrait préparer une OPA hostile pour reprendre Warner à coup de surenchère boursière.Et les obstacles ne s'arrêtent pas aux États-Unis. Les régulateurs européens et britanniques, réputés plus stricts, pourraient à leur tour freiner le dossier. Le syndicat des acteurs SAG-AFTRA s'y oppose déjà, inquiet pour l'avenir du cinéma en salles. Même dans le scénario le plus optimiste, la transaction ne serait pas finalisée avant la seconde moitié de 2026. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

La France accélère dans la course aux infrastructures numériques. Vendredi 28 novembre 2025, le ministère de l'Économie a dévoilé un véritable mode d'emploi pour implanter des centres de données sur le territoire. Objectif affiché : structurer, encadrer et surtout accélérer un secteur devenu stratégique. Aux côtés de Roland Lescure, la ministre déléguée au Numérique, Anne Le Hénanff, a voulu clarifier les règles du jeu. Le signal est fort : 63 sites sont déjà identifiés et plus de 109 milliards d'euros d'investissements annoncés. L'ambition est claire : faire de la France un hub européen majeur du data.Derrière chaque clic, chaque photo stockée, chaque requête d'intelligence artificielle, se cachent des hangars de serveurs fonctionnant jour et nuit. Le guide distingue désormais les petites salles informatiques, les centres de colocation géants, les infrastructures cloud ou encore les datacenters dédiés au calcul intensif pour l'IA. Si l'État s'en mêle autant, c'est pour une raison essentielle : la souveraineté. Héberger les données sensibles sur le sol national permet de se prémunir contre des lois étrangères à portée extraterritoriale, comme le Cloud Act, et de soutenir l'essor des start-up françaises de l'IA, fortement dépendantes de la puissance de calcul. Le déclic est venu du sommet parisien sur l'IA, en février. Une task force réunissant la Direction générale des Entreprises, Business France et RTE a passé le territoire au crible. Résultat : des sites repérés en Normandie, en Occitanie ou dans le Grand Est, afin de désengorger l'Île-de-France, déjà sous forte tension électrique.Car le nerf de la guerre reste l'électricité. Un datacenter moyen consomme entre 50 et 250 mégawatts, l'équivalent d'une petite ville. Le raccordement peut prendre jusqu'à neuf ans. À cela s'ajoute la connectivité, avec la nécessité d'un accès à la fibre et aux hubs de peering, comme Marseille, devenue un carrefour numérique grâce à ses câbles sous-marins. Le volet environnemental n'est pas oublié. Le texte fixe des exigences sur l'eau, le refroidissement et l'efficacité énergétique, avec un objectif de PUE à 1,20 d'ici 2030. La récupération de la chaleur devient également obligatoire pour les grandes installations. Enfin, l'argument économique reste décisif : un datacenter de 100 mégawatts crée une cinquantaine d'emplois directs et apporte des recettes fiscales significatives. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

En validant, en septembre dernier, le rachat d'Axio par Amazon, la Reserve Bank of India n'a pas seulement autorisé une acquisition de plus. Elle a ouvert la porte à un changement d'échelle majeur : pour la première fois, un géant technologique étranger obtient en Inde un accès direct à l'activité de crédit en ligne. Une évolution qui ne laisse ni les analystes ni les régulateurs indifférents.Axio, anciennement Capital Float, est un acteur bien installé du prêt numérique. Plus de dix millions d'Indiens ont déjà eu recours à ses services. Depuis six ans, l'entreprise travaillait main dans la main avec Amazon pour alimenter l'offre de paiement différé. Avec ce rachat, la relation devient une intégration complète. Et l'objectif est clair : démocratiser l'accès au crédit dans un pays où, selon les chiffres du groupe, un consommateur sur six seulement dispose d'une solution de financement à l'achat. Mais l'ambition est plus large. Amazon entend aussi relancer le crédit aux petites entreprises, un segment stratégique pour l'économie indienne. Des prêts « sur mesure » sont annoncés pour les marchands, construits à partir du comportement d'achat, des données transactionnelles et des outils de gestion de trésorerie. En clair, la marketplace se transforme peu à peu en plateforme financière intégrée.Le contexte joue en faveur du groupe. En cinq ans, le marché indien du crédit à la consommation est passé d'environ 80 à plus de 200 milliards de dollars. Dans cet écosystème, les géants du numérique disposent d'un atout décisif : ils contrôlent à la fois l'interface, les flux et les données. Et la stratégie ne s'arrête pas au prêt. Via Amazon Pay, l'un des moyens de paiement les plus utilisés sur l'infrastructure nationale de virements instantanés UPI, le groupe propose désormais aussi des dépôts à terme, en partenariat avec plusieurs banques locales, accessibles dès 1 000 roupies. Une première incursion dans l'épargne grand public. Ce virage s'inscrit dans un cadre réglementaire tout récent, qui autorise désormais les filiales détenues à 100 % par des groupes technologiques à accorder elles-mêmes des crédits. Amazon a saisi l'opportunité sans attendre.Reste une interrogation centrale : jusqu'où le groupe pourra-t-il étendre son influence dans un secteur bancaire indien très encadré et parfois méfiant envers les Big Tech ? Pour l'heure, le géant avance prudemment, en s'appuyant sur les banques tout en consolidant ses propres outils. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Depuis des années, Elon Musk promet une révolution imminente : celle de la conduite totalement autonome. Une promesse répétée, martelée, mais toujours freinée, en Europe, par un mur réglementaire solide. Faute de pouvoir déployer pleinement son système sur route ouverte, Tesla a choisi une autre stratégie : la démonstration grandeur nature.Dès le mois de décembre, le constructeur américain lance une tournée française pour présenter son système de conduite autonome avancée, le FSD. Les inscriptions sont déjà ouvertes et l'expérience est gratuite. Les passagers pourront monter à bord dans plusieurs villes : Nantes, Bordeaux, Paris, Lille, Cannes, Toulouse, Marseille, Strasbourg et Lyon. Mais avec une nuance de taille : un conducteur de sécurité restera impérativement au volant. Une obligation légale qui rappelle que l'autonomie intégrale, pour l'instant, reste un horizon plus qu'une réalité.L'objectif de Tesla est clair : prouver, par l'expérience, que sa technologie est prête pour les routes européennes. Le système FSD repose exclusivement sur la vision par caméras, sans recourir au LiDAR, contrairement à certains concurrents. Un parti pris technologique assumé, mais contesté. Des acteurs comme Waymo, qui ont misé sur une approche combinant caméras, radars et capteurs laser, semblent aujourd'hui plus avancés dans l'homologation et l'exploitation réelle.Tesla, de son côté, juge les règles européennes trop rigides, voire dépassées. La marque estime même que tenter d'adapter son système au cadre réglementaire actuel pourrait le rendre moins sûr. Une déclaration qui en dit long sur la méthode employée : forcer le débat en s'appuyant sur la preuve par l'usage. Ce n'est pas la première fois que le constructeur s'y essaie. Des démonstrations ont déjà eu lieu en Europe, notamment dans des environnements réputés complexes, comme autour de Place de l'Étoile à Paris. La tournée française s'inscrit dans cette même logique : impressionner le public, rassurer, mais aussi maintenir une pression constante sur les autorités. Reste que ces démonstrations interviennent autour d'un système toujours non homologué sur le continent. Tesla joue désormais une partie de calendrier, en multipliant les tests visibles et médiatisés pour accélérer la discussion réglementaire. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Vous pensiez avoir fait le tour des cybermenaces ? Une nouvelle attaque vient rappeler que le Web n'a pas fini de nous surprendre. Son nom : HashJack. Une faille aussi discrète que redoutable, qui détourne une mécanique pourtant banale d'Internet — le fragment d'URL, cette petite partie d'adresse située après le symbole dièse, habituellement utilisée pour naviguer dans une page.Jusqu'ici, ce fragment était considéré comme inoffensif, car il ne transite jamais vers les serveurs. Sauf que l'arrivée des assistants d'intelligence artificielle intégrés aux navigateurs a tout changé. L'attaque HashJack consiste à dissimuler des instructions malveillantes dans ce fragment. Instructions que les assistants IA, trop obéissants, lisent… et exécutent localement. Résultat : sur des outils comme Perplexity Comet ou l'assistant intégré à Microsoft Edge, un simple lien peut suffire à déclencher l'affichage de fausses informations, voire l'exfiltration de données sensibles. Une attaque sans effraction visible.Le plus inquiétant, c'est que les systèmes de défense traditionnels n'y voient… rien. Pare-feu et antivirus scrutent les échanges réseau, mais ici, tout se joue à l'intérieur même du navigateur. Aucun trafic suspect, aucun signal d'alerte. Une démonstration brutale des limites de nos outils de sécurité face aux nouveaux usages de l'IA. Face à la révélation de cette faille, la réaction a été rapide. Microsoft et Perplexity ont déployé en urgence des correctifs. Une réactivité saluée, mais qui interroge : pourquoi faut-il systématiquement attendre l'attaque pour colmater ?Pour l'instant, certains assistants comme ChatGPT ou Claude ne semblent pas vulnérables à cette forme précise d'attaque. Mais les spécialistes restent prudents. La sécurité de l'IA ressemble de plus en plus à un jeu de chat et de la souris : une faille à peine corrigée, une autre apparaît. Du côté des entreprises, la société de cybersécurité Cato Networks recommande déjà de restreindre fortement l'usage de ces assistants ou de bloquer purement et simplement les fragments d'URL suspects. Moralité : les assistants intelligents progressent à pas de géant, mais leur sécurité avance encore au rythme de l'artisanat. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

L'intelligence artificielle, cette usine à images, à voix et à vidéos qui inonde nos écrans, commencerait-elle à fatiguer le public ? Sur TikTok, royaume du flux permanent et de l'instantané, les contenus générés par IA se multiplient au point de susciter une lassitude visible. Trop de visages artificiels, trop de musiques clonées, trop de récits formatés. Face à cette saturation, la plateforme tente une réponse : un nouvel « interrupteur » permettant de moduler la présence de l'IA dans les recommandations.Officiellement, l'objectif est simple : offrir aux utilisateurs un peu de contrôle sur l'invasion des contenus synthétiques. Dans les faits, l'outil se cache dans les paramètres et permet seulement de réduire – ou non – l'exposition aux vidéos générées par des algorithmes. Car il n'est pas question pour la plateforme de se passer de intelligence artificielle, devenue un moteur central de production, d'optimisation et de viralité. Derrière cette nouveauté, une inquiétude bien réelle agite les équipes de TikTok : celle du « AI slop », ce déluge de contenus fades, interchangeables, qui finit par user l'attention. Trop d'automatisation tue l'émotion, trop de perfection artificielle érode l'authenticité. En donnant l'illusion d'un choix, la plateforme cherche surtout à préserver l'engagement et éviter la fuite des utilisateurs lassés par ce bruit numérique permanent.L'étiquetage automatique des contenus générés par IA est présenté comme un gage de transparence. Mais suffira-t-il à ralentir le flot ? L'expérience montre que d'autres plateformes ont déjà dû réagir. Pinterest, par exemple, a récemment serré la vis pour éviter que ses tableaux ne deviennent des galeries d'images entièrement artificielles. TikTok, de son côté, met aussi en avant un fonds destiné à l'éducation à l'IA, histoire de montrer sa bonne volonté. Reste une réalité que l'interrupteur ne change pas : le modèle de la plateforme repose sur une chose essentielle, notre attention. Qu'un contenu soit produit par un humain ou par une machine, ce qui compte avant tout, c'est sa capacité à retenir l'utilisateur. Tant que l'IA reste un outil redoutablement efficace pour capter les regards, elle continuera d'inonder les flux. Derrière l'affichage du choix, le doute persiste. Cet interrupteur est-il un véritable levier de contrôle pour les utilisateurs… ou simplement un gadget de plus, destiné à nous donner l'illusion que nous restons aux commandes ? Une certitude demeure : dans la bataille entre attention humaine et algorithmes, la machine garde, pour l'instant, une longueur d'avance. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

On ne sait toujours pas qui se cache derrière le nom de Satoshi Nakamoto, le créateur mythique du Bitcoin. Mais une chose est certaine : son héritage, lui, est colossal. En ayant miné les tout premiers blocs de la blockchain, il est aujourd'hui crédité d'environ 1,1 million de bitcoins, disséminés sur plusieurs portefeuilles numériques. Une fortune fantôme, jamais touchée, devenue une véritable légende des marchés.Mais derrière ce mythe absolu, un autre nom s'est longtemps imposé comme la première grande figure connue du Bitcoin milliardaire : Owen Gunden. Un pionnier discret, entré dans la danse dès 2011, à une époque où le Bitcoin ne valait encore que quelques dollars. Cette année-là, il met la main sur 11 000 bitcoins. Il les garde, patiemment, pendant quatorze ans. Jusqu'à aujourd'hui.Car Owen Gunden vient de tourner définitivement la page. Depuis octobre dernier, il a commencé à vendre, morceau par morceau, l'intégralité de ses avoirs. La liquidation est désormais achevée : ses 11 000 bitcoins se sont transformés en environ 1,3 milliard de dollars. Avec cette opération, il abandonne son statut de plus ancien milliardaire connu du Bitcoin encore actif. La symbolique est forte. Gunden faisait partie de cette toute première génération d'investisseurs apparue au moment même où Satoshi Nakamoto disparaissait de la scène. Un passage de relais historique, presque générationnel. D'autant que le calendrier interroge. Cette sortie intervient alors que le marché du Bitcoin traverse une phase de forte correction.Après avoir inscrit un sommet spectaculaire au début du mois d'octobre, au-dessus des 125 000 dollars, la cryptomonnaie a brutalement décroché. Elle est repassée sous la barre des 100 000 dollars, puis sous celle des 90 000, flirtant même avec les 80 000 dollars ces derniers jours. Une chute qui alimente toutes les spéculations. Dans l'écosystème, une question obsède désormais les investisseurs : les grandes “baleines”, ces acteurs détenant d'immenses volumes de bitcoins, anticipent-elles un retournement durable du marché ? Sommes-nous à l'aube d'un véritable bear market ? Avec la sortie d'Owen Gunden, ce n'est pas seulement une fortune qui change de mains. C'est un chapitre entier de l'histoire du Bitcoin qui se referme — celui des pionniers, des aventuriers de la première heure, qui avaient cru à l'or numérique bien avant le reste du monde. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

En Allemagne, la protection des mineurs en ligne entre dans une nouvelle ère. Fini les cases à cocher “J'ai plus de 18 ans” et les contrôles symboliques. À partir de décembre 2025, la vérification de l'âge ne reposera plus sur les sites internet, mais directement sur les smartphones, tablettes et ordinateurs. Une décision radicale, portée par le nouveau traité interétatique sur la protection des mineurs, adoptée sous l'impulsion de Berlin.Concrètement, les fabricants d'appareils devront intégrer un système de contrôle d'âge activable instantanément par les parents. Une fois enclenché, l'appareil se verrouille selon une tranche d'âge précise. Toute application jugée inadaptée devient inaccessible sans intervention d'un adulte. Les boutiques d'applications, elles aussi, sont mises à contribution : chaque logiciel devra afficher une classification claire, sous peine de lourdes sanctions financières pouvant atteindre deux millions d'euros. Ce choix marque une rupture nette avec l'approche adoptée jusque-là en France, où le débat sur le blocage des sites pour adultes reste enlisé entre efficacité technique et protection de la vie privée. Là où Paris tâtonne, l'Allemagne choisit de frapper au cœur du système : l'appareil lui-même. Une logique simple, presque brutale : plutôt que de filtrer le réseau, on verrouille le terminal.Cette stratégie s'inscrit aussi en contrepoint des initiatives de l'Union européenne, parfois critiquées pour leur dépendance aux technologies de groupes comme Google. Ici, aucune base de données centrale, aucun stockage massif d'informations sensibles : tout se joue localement, directement sur l'appareil de l'utilisateur. Mais l'efficacité réelle du dispositif reste sujette à caution. Chaque nouveau verrou numérique devient rapidement un terrain de jeu pour des adolescents rompus aux VPN, navigateurs alternatifs et autres détours techniques. Autre point faible : les applications seront classées, mais le web, lui, demeure largement dans une zone grise. Sans étiquetage obligatoire page par page, le filtrage risque de montrer ses limites. En verrouillant la porte des appareils sans toujours contrôler les fenêtres du web, l'Allemagne fait un pari audacieux. Une avancée technologique claire, politiquement forte, mais dont la solidité sera très vite mise à l'épreuve par la réalité des usages… et l'ingéniosité de la jeunesse connectée. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

L'affaire tombe au plus mauvais moment pour Google. Alors que la firme dévoile fièrement son nouveau modèle Gemini 3, une accusation enflamme soudain la toile : Gmail servirait à entraîner l'intelligence artificielle de Google. De quoi faire frémir les utilisateurs… avant même d'avoir vérifié l'info. Rapidement, Google dément et parle d'allégations « trompeuses ». Mais comment en est-on arrivé là ?Tout part d'une confusion récurrente entre espionnage industriel et fonctionnalités intelligentes. Les fameuses « Smart Features », qui trient automatiquement vos spams ou vous proposent des réponses toutes faites, reposent sur un principe simple : l'algorithme analyse vos mails… pour vous rendre service. Une analyse locale et limitée, indispensable pour faire fonctionner ces options. Mais là où Google insiste, c'est sur la frontière à ne pas franchir : « Nous n'utilisons pas le contenu de Gmail pour entraîner notre modèle d'IA Gemini », affirme la firme. Autrement dit, l'IA peut lire pour vous, mais pas apprendre de vous. L'affaire ne sort pourtant pas de nulle part. Plusieurs utilisateurs ont constaté que certaines options intelligentes s'étaient réactivées automatiquement, malgré un choix initial de les désactiver. Une maladresse technique, ou un forçage un peu trop zélé ? Résultat : un recours collectif a été déposé en Californie le 11 novembre. Les plaignants accusent Google d'avoir manipulé, volontairement ou non, les paramètres de confidentialité de millions d'utilisateurs.La situation a de quoi faire sourire — jaune. Car elle survient au moment même où Gmail commence à proposer du vrai chiffrement de bout en bout, une fonctionnalité réclamée depuis des années pour renforcer la confidentialité des échanges. Une sorte de paradoxe numérique : Google verrouille enfin la porte d'entrée… alors qu'une fenêtre pourrait s'être entrouverte derrière. Pour les utilisateurs, la parade existe : un petit tour dans les paramètres et il est possible de désactiver chaque option intelligente. Mais le prix à payer, c'est le retour à un Gmail plus « brut », sans tri automatique ni rappels contextuels. Cette polémique révèle surtout un climat de méfiance généralisée : dès qu'un service se dit « intelligent », l'ombre du soupçon plane. Une tension qui ne risque pas de s'apaiser à l'ère des IA omniprésentes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est un partenariat aussi inattendu que stratégique que Bruxelles a officialisé ce lundi 24 novembre. L'OTAN s'allie à Google Cloud, un géant privé de la tech, pour moderniser la gestion de ses données parmi les plus sensibles de la planète. L'annonce a été faite lors de la troisième conférence annuelle sur le cloud organisée par l'Alliance en Belgique. Au cœur de l'accord : une technologie baptisée Google Distributed Cloud “air-gapped”. Un nom technique pour désigner un système totalement isolé du monde extérieur. Ici, pas de réseau, pas d'Internet, pas de connexion au cloud public. Les serveurs Google seront installés physiquement dans les infrastructures de l'OTAN, mais fonctionneront en vase clos, sous le contrôle exclusif de la NCIA, l'agence de communication et d'information de l'Alliance.Le dispositif servira notamment au JATEC, le centre d'analyse et de formation de l'OTAN. Toutes les opérations sensibles, les simulations militaires et les flux classifiés transiteront par cette bulle numérique fortifiée. L'objectif : bénéficier des capacités d'IA et d'analyse de Google, tout en garantissant que aucune donnée ne quitte jamais le périmètre militaire. Un compromis qui permet à l'organisation de parler ouvertement de « souveraineté », un terme habituellement réservé aux États. Pourquoi faire appel à Google, alors ? Parce que l'OTAN veut accélérer sa transformation technologique, tout en profitant d'outils d'IA impossibles à développer en interne dans les mêmes délais. Tara Brady, présidente de Google Cloud pour l'Europe, explique que l'accord permettra à l'Alliance « d'accélérer de manière décisive sa modernisation numérique tout en maintenant les niveaux les plus élevés de sécurité ». Une manière de dire que la puissance algorithmique de Google est devenue incontournable.Du côté de l'OTAN, le discours est assumé. Antonio Calderon, directeur technique de la NCIA, rappelle que « le partenariat avec l'industrie est essentiel » à la transformation de l'organisation. Et l'IA fait désormais partie des outils opérationnels que l'Alliance entend maîtriser. Le déploiement commencera dans les prochains mois. Et au-delà du symbole, ce contrat de plusieurs millions de dollars raconte une réalité : même les institutions les plus secrètes du monde n'échappent plus à la révolution de l'intelligence artificielle. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est officiel : depuis ce 24 novembre 2025, chaque citoyen européen dispose d'un pouvoir inédit. Bruxelles vient de lancer une plateforme qui permet de signaler anonymement toute dérive liée à l'intelligence artificielle. Une première en Europe, portée par le Bureau européen de l'IA, le nouvel organisme chargé de faire respecter l'AI Act.L'objectif est clair : offrir un canal ultra-sécurisé, facile d'accès, pour dénoncer les manquements présumés à la législation sur l'IA — sans risquer de représailles. Que vous soyez salarié, partenaire, prestataire… ou simple témoin, il est désormais possible d'alerter l'Union européenne en quelques minutes. Et surtout, sans laisser la moindre trace. Techniquement, l'outil coche toutes les cases. Le signalement est chiffré de bout en bout, avec des protocoles certifiés qui garantissent un anonymat absolu. L'interface accepte toutes les langues officielles de l'Union, et permet de joindre des documents dans la majorité des formats existants. Mais la vraie nouveauté se trouve ailleurs : une boîte postale sécurisée intégrée au système permet un dialogue continu avec le Bureau européen de l'IA. Une fois le signalement déposé, les enquêteurs peuvent demander des précisions, accuser réception ou tenir le lanceur d'alerte informé de l'avancée du dossier — sans jamais pouvoir l'identifier.Cette approche transforme l'alerte anonyme en processus collaboratif, un peu à la manière des cellules de lanceurs d'alerte anticorruption, mais à l'échelle du continent. Pour rappel, l'AI Act, entré en vigueur cet été, vise à encadrer les systèmes d'intelligence artificielle tout en encourageant l'innovation. Le texte protège la santé, la sécurité, les droits fondamentaux et même la démocratie. Mais une loi sans contrôle reste une coquille vide. Grâce aux signalements citoyens, l'Europe espère détecter très tôt les dérives — qu'il s'agisse d'un modèle d'IA dangereux, d'un usage illicite de données ou d'un système “à haut risque” déployé sans autorisation. La Commission promet de traiter chaque alerte avec « soin, diligence et intégrité ». Au-delà de la formule, cette plateforme marque un tournant : pour la première fois, la surveillance des technologies d'IA devient aussi l'affaire des Européens eux-mêmes.https://ai-act-whistleblower.integrityline.app/ Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Nouvel épisode dans le bras de fer entre Bruxelles et Google. Début septembre, la Commission européenne infligeait une amende record de 2,95 milliards d'euros au géant américain pour abus de position dominante dans la publicité en ligne. Une sanction assortie d'une menace lourde : une scission de certaines activités si Google ne proposait pas rapidement des mesures pour rétablir la concurrence.Depuis, Google conteste farouchement la décision et prépare son appel. Mais en parallèle, le groupe devait impérativement soumettre cette semaine ses propositions concrètes pour éviter une séparation forcée. Il s'est finalement exécuté. Dans un communiqué, un porte-parole assure que « notre proposition répond pleinement à la décision de la Commission, sans recourir à une scission disruptive », qui nuirait, selon lui, aux milliers d'annonceurs et éditeurs utilisant aujourd'hui ses outils publicitaires.Bruxelles confirme avoir reçu le document et promet une analyse minutieuse : « Nous allons examiner les mesures proposées par Google pour vérifier si elles peuvent mettre fin aux atteintes à la concurrence », indique la Commission. Selon des informations du Monde, cette proposition comporte deux volets. D'abord, des mesures immédiates destinées à stopper les pratiques pointées par l'enquête européenne. Ensuite, des modifications structurelles plus profondes, destinées à éliminer ce que Bruxelles considère comme un conflit d'intérêts entre plusieurs briques du système publicitaire de Google — notamment entre sa plateforme d'achat d'espaces, son serveur publicitaire et son marché d'enchères.Cet été déjà, Google avait tenté de convaincre Bruxelles avec une première série d'engagements jugés insuffisants. Cette fois, l'enjeu est clair : convaincre la Commission qu'il est possible de restaurer la concurrence sans démanteler une partie de l'écosystème Google Ads. La balle est désormais dans le camp de l'Union européenne. Si les mesures sont jugées inefficaces, Bruxelles pourrait relancer la procédure de scission. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Mardi 18 novembre, un peu après midi, Internet a toussé… puis s'est effondré par intermittence. En quelques minutes, Cloudflare, l'un des piliers de l'infrastructure du Web mondial, a entraîné dans sa chute une avalanche de services : ChatGPT, X/Twitter, Canva, Clubic et des milliers d'autres plateformes. L'hypothèse d'une cyberattaque massive a d'abord dominé. En réalité, la vérité est plus banale — et beaucoup plus inquiétante.Tout commence à 12h05, lorsque Cloudflare déploie une mise à jour sur un cluster de bases de données ClickHouse. Une modification censée renforcer la sécurité en rendant explicites les permissions d'accès. Un ajustement mineur, en apparence. Sauf que ce changement provoque un bug imprévu : chaque colonne de données se duplique dans les métadonnées. Une anomalie invisible pour l'utilisateur… mais catastrophique pour un composant clé : le fichier utilisé par le système Bot Management, chargé d'analyser le trafic pour distinguer humains et robots.Habituellement, ce fichier contient une soixantaine d'empreintes. Avec les doublons, il en compte plus de 200. Le problème ? Le logiciel censé le traiter est conçu pour refuser tout fichier dépassant 200 entrées, afin d'éviter une surcharge mémoire. Résultat : lorsque ce fichier corrompu se propage aux milliers de serveurs mondiaux, les machines plantent en série et renvoient des erreurs 500 aux internautes du monde entier. Le cauchemar se complique encore. Le fichier est régénéré toutes les cinq minutes. Selon que le serveur tombe sur une version saine ou défectueuse, Cloudflare oscille entre fonctionnement normal et blackout. Diagnostiquer la panne devient un casse-tête. Matthew Prince, le PDG, parle même d'une possible “démonstration de force” d'un réseau de bots, après les gigantesques attaques DDoS de juin.Ce n'est qu'à 14h04 qu'une piste interne apparaît. À 14h37, les équipes identifient enfin le coupable : le fichier Bot Management. À 15h24, sa génération automatique est stoppée. À 15h30, Internet redémarre. Enfin… presque. Le tableau de bord tombe à son tour, écrasé par le flot de connexions en attente. Il faudra attendre 18h06 pour un retour complet. Dans un mea culpa inhabituellement frontal, Matthew Prince avoue : « Une panne comme celle-ci est inacceptable. » Cloudflare promet des coupe-circuits plus rapides, une validation plus stricte des fichiers internes, et des limites pour ses outils de débogage, eux-mêmes responsables d'un ralentissement massif. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Depuis l'irruption de ChatGPT dans le grand public, l'intelligence artificielle est devenue la nouvelle ruée vers l'or… et le grand gagnant de cette vague s'appelle Jensen Huang. Le patron de NVIDIA, fabricant des GPU indispensables à l'entraînement des modèles d'IA, dirige aujourd'hui une entreprise dont la capitalisation dépasse le PIB de l'Allemagne. Un succès vertigineux, qu'il explique pourtant avec une simplicité presque déconcertante.Invité par le Cambridge Union, le milliardaire est revenu sur son parcours. Né à Taïwan, arrivé aux États-Unis à l'âge de neuf ans, il fonde NVIDIA en 1993, à tout juste 30 ans. Mais selon lui, la base de sa réussite se trouve bien avant, dans une enfance marquée par un refus absolu de se fixer des barrières. Il raconte notamment une scène qui a forgé sa manière d'aborder la vie : sa mère, qui ne parlait pas un mot d'anglais, lui a pourtant enseigné la langue… armée uniquement d'un bout de papier et d'un dictionnaire.Un souvenir fondateur. « À bien des égards, cela définit NVIDIA. Cela me définit aussi », résume-t-il. Si sa mère, qui ne parlait que le hokkien taïwanais, a pu accomplir cette prouesse, alors rien ne lui semble vraiment impossible. C'est cette philosophie qu'il applique aujourd'hui à son entreprise, devenue incontournable dans la révolution de l'IA : « J'aborde presque tout en me demandant : est-ce vraiment si difficile ? » confie-t-il. Sa fortune personnelle, désormais estimée à plus de 165 milliards de dollars, n'a pas entamé cette vision très directe du travail et de la réussite. Et son discours fait écho à celui d'autres géants de la tech — comme Pavel Durov — qui disent avoir puisé leur inspiration dans le courage et la ténacité de leurs parents. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Les alertes autour des dérives possibles de l'intelligence artificielle se multiplient, et les dernières recherches ne sont pas rassurantes. Après les révélations sur Claude AI exploitée par des espions chinois et la découverte par OpenAI que ChatGPT pouvait mentir, une nouvelle étude montre à quel point il est facile de contourner les règles censées encadrer ces systèmes. Cette fois, ce sont les chercheurs de Cybernews qui tirent la sonnette d'alarme. Leur objectif : vérifier si les garde-fous intégrés aux principaux modèles du marché résistent à des tentatives de manipulation simples, rapides, et réalistes. Verdict : une minute suffit souvent à faire déraper une IA.L'équipe a testé six modèles : Gemini Flash 2.5, Gemini Pro 2.5, ChatGPT-5, ChatGPT-4o, Claude Opus 4.1 et Claude Sonnet 4. Les chercheurs ont soumis à ces systèmes toute une série de demandes liées à des thématiques sensibles : discours haineux, maltraitance animale, contenus sexuels, criminalité, piratage, drogues, contrebande ou encore harcèlement. Chaque réponse était notée selon son niveau de conformité ou de déviation.Et les conclusions sont sans appel :« Avec les bons mots, même des utilisateurs non techniques peuvent amener un modèle à produire des réponses nuisibles », résume l'étude. Certains modèles divulguent même des informations dangereuses dès que la demande est habilement formulée.Un constat surprenant émerge : être aimable fonctionne mieux que provoquer l'IA. Parler gentiment au modèle, présenter la question comme une enquête, un roman ou un travail universitaire permettait souvent de contourner ses protections. À l'inverse, les insultes ou les formulations agressives déclenchaient plus facilement un refus. Les réactions varient toutefois selon les modèles. Les IA d'Anthropic, plus strictes, se sont montrées particulièrement fermes sur les discours haineux et les stéréotypes, même si elles ont parfois cédé face aux « attaques académiques ». Gemini Pro 2.5 apparaît comme le plus problématique : il « fournissait souvent des réponses directes et potentiellement dangereuses ». Quant à ChatGPT, il se situe au milieu du peloton : souvent prudent, mais susceptible de céder lorsque la demande prend la forme d'un récit ou d'une analyse à la troisième personne — produisant alors des réponses symboliques ou psychologiques contenant malgré tout des éléments sensibles. Pour les chercheurs, même des “fuites partielles” représentent un risque majeur si elles tombent entre de mauvaises mains. Reste désormais aux développeurs à renforcer ces garde-fous, avant qu'un simple contournement ne devienne une porte d'entrée vers des usages autrement plus inquiétants. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Les ordinateurs quantiques n'existent pas encore à grande échelle, mais ils inquiètent déjà tout le monde. Leur puissance de calcul pourrait, à terme, briser les systèmes de chiffrement qui protègent aujourd'hui nos communications, nos données sensibles, nos transactions. En clair : le coffre-fort numérique mondial pourrait devenir transparent du jour au lendemain. Face à cette menace, Thales prend les devants. Le groupe français vient de dévoiler Mistral, un nouveau système de chiffrement conçu pour résister aux attaques quantiques. Une solution souveraine, destinée aux administrations publiques, aux opérateurs d'importance vitale et aux industriels de la défense. Objectif : sécuriser dès juin prochain toutes les communications classées « limitées ». Et le timing n'est pas un hasard.À Rennes, où se tient la Cyber Week, Thales frappe fort pour la deuxième fois en deux mois, après avoir présenté son dispositif DCM5 dédié aux secrets d'État. Avec Mistral — à ne pas confondre avec la start-up Mistral AI — le message est clair : la course au chiffrement post-quantique est lancée, et l'Europe entend bien ne pas rester spectatrice. Concrètement, Mistral repose sur des algorithmes spécialement conçus pour survivre à la puissance de calcul des futures machines quantiques. Le système vise la certification Common Criteria EAL4+, l'un des niveaux les plus élevés au monde, et se conforme aux recommandations de l'ANSSI, l'agence française cybersécurité.Thales assure également que la performance n'a pas été sacrifiée. Mistral affiche un débit impressionnant de 4 × 10 Gbit/s, avec une latence minimale, ce qui permet d'intégrer la solution dans des infrastructures existantes sans ralentissement. Grâce à une gestion centralisée, le déploiement se veut simple et rapide, un atout de taille pour les grandes organisations déjà sous tension. Selon Pierre Jeanne, vice-président cybersécurité souveraine, Thales sera prêt à fournir « une solution capable de résister aux attaques quantiques » à la France et à ses partenaires européens dès juin 2026. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Sept ans après son entrée en vigueur, le RGPD continue d'imposer sa marque, tout en s'inscrivant dans un environnement réglementaire européen devenu beaucoup plus dense. Depuis 2018, l'Union européenne a multiplié les textes pour encadrer l'économie numérique : la directive NIS2 renforce la cybersécurité des opérateurs jugés essentiels, le Data Act organise le partage des données issues des objets connectés, et l'AI Act, premier cadre mondial pour les intelligences artificielles à « haut risque », entre progressivement en application. Ensemble, ces textes redéfinissent les obligations des entreprises, du stockage de données à la gouvernance des algorithmes.Mais une idée reçue circule : non, le registre des traitements n'a pas disparu. La Commission européenne a simplement proposé en 2025 d'en assouplir les conditions pour les petites structures. Ce projet de règlement « Omnibus » permettrait d'exempter davantage d'entreprises, en relevant le seuil de 250 à 750 salariés et en limitant l'obligation aux traitements présentant un « risque élevé ». Le texte est encore à l'étude, mais le principe d'accountability, lui, reste central : chaque organisation doit continuer à documenter ses traitements, ses finalités, ses durées de conservation et ses mesures de sécurité — y compris l'authentification multifacteur et le chiffrement, désormais considérés comme des standards de base. Le Data Act, entré en application le 12 septembre 2025, instaure un droit d'accès et de partage équitable des données générées par les produits connectés. Concrètement, un fabricant ou un fournisseur ne pourra plus bloquer l'accès à ces données : il devra respecter un principe “FRAND” – équitable, raisonnable et non discriminatoire. Les obligations techniques ne s'appliqueront toutefois qu'aux nouveaux produits mis sur le marché à partir de septembre 2026.De son côté, l'AI Act, adopté en 2024, impose d'ici 2026 des obligations lourdes pour les systèmes d'IA dits « à haut risque » : gestion des risques, documentation complète, transparence et audits réguliers. Enfin, NIS2, transposée fin 2024, élargit considérablement le périmètre des entités soumises aux règles de cybersécurité, avec davantage de contrôles, de notifications d'incidents et de sanctions. À l'international, les États-Unis avancent en ordre dispersé : faute de loi fédérale, chaque État – Californie, Virginie, Colorado ou Utah – impose son propre régime. En revanche, les transferts de données entre l'Europe et les États-Unis reposent désormais sur le Data Privacy Framework, validé par Bruxelles en 2023, et toujours en vigueur malgré plusieurs recours. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est une enquête qui secoue le monde de la publicité en ligne. Selon des documents internes obtenus par l'agence Reuters, Meta, la maison mère de Facebook et d'Instagram, aurait tiré en 2024 près de 16 milliards de dollars de revenus issus de publicités liées à des arnaques ou à des produits interdits. Une somme colossale, représentant environ 10 % de son chiffre d'affaires annuel, estimé cette année-là à 164,5 milliards de dollars.D'après ces révélations, Meta dispose bien d'un système interne capable de repérer les campagnes suspectes, mais le seuil pour qu'une annonce soit réellement bloquée est extrêmement élevé. Les algorithmes du groupe n'interdisent un annonceur que lorsqu'ils atteignent 95 % de certitude qu'il s'agit d'une fraude. Un taux de tolérance qui laisse forcément le champ libre à de nombreux escrocs. Et lorsqu'un annonceur n'atteint pas ce seuil, Meta applique une mesure baptisée “penalty bids” : l'entreprise augmente le prix de ses espaces publicitaires pour ces comptes jugés à risque. Si les annonceurs acceptent de payer plus cher, la plateforme encaisse les revenus supplémentaires — une méthode qui, de fait, monétise le risque plutôt que de l'éliminer. Pire encore, le système de recommandation publicitaire continue à diffuser des annonces similaires auprès des utilisateurs ayant déjà interagi avec une publicité frauduleuse. Autrement dit : plus une arnaque circule, plus elle rapporte.Selon un rapport interne daté de décembre 2024, les plateformes de Meta auraient diffusé en moyenne 15 milliards de publicités “à haut risque” chaque jour. Parmi elles, les plus suspectes — qualifiées de “higher-risk ads” — auraient généré à elles seules près de 7 milliards de dollars de revenus annualisés. L'enquête de Reuters, couvrant la période 2021-2025, montre aussi une application particulièrement laxiste des règles internes. Un petit annonceur doit être signalé au moins huit fois avant d'être bloqué, tandis que les gros comptes — les High Value Accounts — peuvent cumuler plus de 500 infractions sans suspension. Interrogé par Reuters, Andy Stone, porte-parole de Meta, parle d'une “vision sélective” et d'une interprétation “trop large” des chiffres. Il affirme que la société a supprimé 134 millions de publicités frauduleuses en 2025 et que les signalements d'utilisateurs ont chuté de 58 % en un an et demi. Mais pour Reuters, la conclusion est claire : malgré ses promesses, Meta reste structurellement dépendante d'un modèle où la fraude fait partie du profit. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Amazon continue d'intégrer l'intelligence artificielle dans l'ensemble de ses services. Après le shopping, après Amazon Music, c'est désormais au tour des liseuses Kindle d'entrer dans cette nouvelle ère. Le géant du e-commerce vient de dévoiler Kindle Translate, un service de traduction automatique pensé pour aider les auteurs indépendants à toucher un public international — sans supporter les coûts souvent prohibitifs d'une traduction professionnelle.Le programme, encore en phase bêta, n'est accessible qu'à une partie des auteurs utilisant Kindle Direct Publishing, la plateforme d'autoédition d'Amazon. Pour l'instant, seules trois combinaisons linguistiques sont disponibles : anglais, espagnol et allemand. Un champ d'action limité, mais qui pourrait rapidement s'élargir. Amazon justifie ce lancement par un constat : moins de 5 % des livres disponibles sur sa boutique américaine existent dans plus d'une langue. L'entreprise promet donc de combler cette lacune grâce à l'automatisation.Chaque manuscrit traduit via Kindle Translate passera par une évaluation automatique de la qualité avant publication. De plus, le lecteur sera informé par un étiquetage dédié que l'ouvrage provient d'une traduction générée par IA. L'auteur aura de son côté la possibilité de prévisualiser, ligne par ligne, le résultat final. Mais l'initiative soulève déjà plusieurs interrogations. Car la traduction littéraire ne se résume pas à transposer des mots : c'est un véritable travail d'interprétation culturelle, d'humour, de rythme et de sous-texte. Les risques d'erreurs subtiles, de nuances perdues ou de contresens demeurent élevés, même avec les meilleurs systèmes actuels. S'ajoute une autre inquiétude : l'impact sur les traducteurs professionnels. Depuis l'explosion des IA génératives il y a trois ans, la profession se trouve déjà fragilisée. Le lancement de Kindle Translate pourrait accentuer cette pression en habituant éditeurs et auteurs à des traductions rapides, bon marché… mais parfois très éloignées de l'exigence littéraire d'un travail humain. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Chez nos voisins britanniques, la ponctualité n'est décidément plus ce qu'elle était… surtout au ministère de l'Environnement. L'administration vient d'achever une migration informatique massive vers Windows 10, pour un coût faramineux de 312 millions de livres sterling — environ 368 millions d'euros. Problème : ce chantier titanesque se conclut exactement au moment où Microsoft met fin au support de Windows 10. Une modernisation flambant neuve… déjà obsolète.Sur le papier pourtant, tout semblait parfait. Entre 2022 et 2025, plus de 31 500 ordinateurs vieillissants ont été remplacés, des dizaines de milliers de failles comblées, et près d'une centaine d'applications critiques mises à jour. Un bilan qui aurait pu être salué, si la destination finale n'était pas un système d'exploitation officiellement abandonné en octobre 2025. Résultat : le ministère devra sans doute souscrire au support étendu, très coûteux, proposé par Microsoft. L'équivalent d'une voiture neuve dont la garantie aurait expiré avant même de quitter le garage.Cette étonnante erreur pose une question simple : comment un projet de cette ampleur a-t-il pu ignorer un calendrier public, connu de tous depuis des années ? Le cas n'est malheureusement pas isolé. Il illustre une fragilité chronique du secteur public britannique : la dette technique. Car même après ces investissements massifs, le ministère reconnaît devoir encore remplacer des dizaines de milliers d'appareils — ordinateurs et smartphones — qui ne sont, eux non plus, pas compatibles avec Windows 11. Les exigences matérielles modernes, comme la puce TPM 2.0, semblent avoir été complètement négligées par les planificateurs.Aujourd'hui, près de la moitié du budget informatique annuel du gouvernement britannique — soit 2,3 milliards de livres — sert uniquement à maintenir en vie des systèmes anciens. Pendant que d'autres pays misent sur la souveraineté numérique et la modernisation cloud, l'administration britannique semble, elle, enfermée dans un cycle coûteux de bricolages successifs. Au lieu de préparer l'avenir, le Defra vient donc d'investir dans une voie sans issue. Une erreur de stratégie qui fera date… et une leçon de gestion de projet dont beaucoup préféreront s'inspirer à l'envers. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Dans un rapport rendu public début novembre, Google Threat Intelligence tire la sonnette d'alarme : les cybercriminels industrialisent désormais des malwares dopés à l'intelligence artificielle. Ce ne sont plus de simples programmes statiques, mais des menaces autonomes et adaptatives — capables de modifier leur comportement à la demande pour échapper aux défenses traditionnelles.Parmi les familles identifiées, PromptFlux illustre la mutation : ce malware interroge une API d'IA pour réécrire son propre code et générer, à chaque activation, une nouvelle variante indétectable par les antivirus. Résultat : une chasse au caméléon où les signatures classiques perdent toute efficacité. Autre cas préoccupant, PromptSteal, déployé en Ukraine et attribué à APT28 (le groupe lié à la Russie connu sous le nom de Fancy Bear). Là, l'IA génère à la volée des commandes pour extraire des données ciblées — le logiciel ne contient plus des instructions figées, il les fabrique en temps réel. Une première opérationnelle, selon Google. Enfin, QuietVault mène la chasse aux secrets : après avoir exfiltré des jetons d'accès, il utilise des outils d'IA locaux pour fouiller le système et récupérer d'autres identifiants, automatisant une traque qui, hier, demandait des analystes humains. L'autonomie atteint un seuil inédit et dangereux.La firme de Mountain View souligne aussi la facilité avec laquelle les modèles peuvent être manipulés : de faux prétextes — « exercice académique », « projet étudiant » — suffisent parfois à pousser un assistant IA à livrer des conseils d'exploitation. L'ingénierie sociale migre ainsi vers les modèles de langage : au lieu d'abuser d'un humain, l'attaquant abuse d'une IA. Le tableau se complète côté marché noir : des services nommés sur le modèle des chatbots proposent désormais des malwares « clé en main », abonnements et assistance compris. Le cybercrime se professionnalise, se banalise, et abaisse ses barrières d'entrée. Que faire ? Les chercheurs encouragent une stratégie en profondeur : durcir les modèles, renforcer la traçabilité des appels API, et surtout maintenir une vigilance permanente. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est un projet discret, mais hautement stratégique : l'euro numérique vient de franchir une nouvelle étape. Bruxelles a annoncé cette semaine un calendrier clair pour la création de cette future monnaie digitale, pensée comme un antidote à la domination des géants américains du paiement, Visa et Mastercard, mais aussi comme un rempart face à la montée en puissance des stablecoins adossés au dollar.Selon le plan dévoilé, la phase pilote de l'euro numérique devrait débuter en 2027, à condition qu'un cadre légal soit adopté au niveau européen dès l'année prochaine. Si tout se déroule comme prévu, les citoyens du Vieux Continent pourraient commencer à l'utiliser dès 2029. Pour Piero Cipollone, membre du directoire de la Banque centrale européenne, il ne s'agit pas d'un simple projet technologique, mais bien d'un « effort collectif pour préparer l'avenir du système monétaire européen ».Mais derrière l'enthousiasme des institutions, les banques commerciales grincent des dents. Leur crainte : voir les particuliers transférer une partie de leurs dépôts vers cette nouvelle monnaie numérique émise directement par la BCE, ce qui fragiliserait leurs ressources. Pour rassurer le secteur, Bruxelles prévoit un plafond de détention fixé à 3 000 euros par personne, un seuil censé éviter la fuite des capitaux… mais qui pourrait être révisé à l'avenir.En toile de fond, l'euro numérique illustre un bras de fer économique et politique. D'un côté, l'Europe veut réduire sa dépendance aux systèmes de paiement étrangers. De l'autre, les banques défendent leurs marges et misent sur le développement de stablecoins libellés en euros comme alternative. Entre souveraineté monétaire et réticences du secteur financier, la route vers l'euro numérique promet d'être longue Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est une information qui fait trembler tout Hollywood. Selon Reuters, Netflix envisagerait rien de moins que le rachat de Warner Bros Discovery, l'un des plus grands studios de cinéma au monde — et propriétaire de HBO Max, son concurrent direct dans le streaming. Une opération potentiellement historique, qui pourrait bouleverser l'équilibre de toute l'industrie du divertissement.Le géant californien, déjà valorisé à près de 460 milliards de dollars, vise un objectif clair : atteindre le trillion, soit mille milliards de dollars de capitalisation d'ici la fin de la décennie. Pour y parvenir, Netflix veut frapper fort. Il aurait mandaté la banque d'investissement Moelis & Co pour étudier la faisabilité du rachat. Une banque d'affaires réputée, déjà à l'origine de l'acquisition de Paramount Global par Skydance Media.L'entreprise aurait d'ores et déjà eu accès aux informations financières confidentielles de Warner Bros Discovery, afin d'évaluer la solidité de ses actifs et la pertinence d'une offre. En clair : Netflix ne se contente plus de produire, il veut devenir un géant du contenu global, de la production au streaming. Pour l'instant, Warner Bros Discovery reste prudente. Le groupe, qui aurait reçu d'autres propositions — notamment de Comcast et de Paramount Skydance Corp —, les a toutes jugées insuffisantes. Mais si l'accord venait à se concrétiser, Netflix mettrait la main sur des licences mythiques : Harry Potter, Game of Thrones, Friends, ou encore Batman et Superman. Et surtout, il absorberait HBO Max, fort de ses 120 millions d'abonnés. En un mot, cette fusion serait un séisme industriel. Netflix deviendrait non seulement le roi du streaming, mais aussi un poids lourd du cinéma mondial. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.