Tout ce qu'il faut savoir dans le domaine de la Tech et d'Internet.

C'est un tournant stratégique pour l'État français. À peine une semaine après le déploiement de la plateforme collaborative « LaSuite » auprès des 80 000 agents de l'Assurance Maladie, la direction interministérielle du numérique, la DINUM, annonce vouloir tourner la page de Windows… au profit de Linux.Concrètement, il s'agit d'abandonner le système d'exploitation de Microsoft, celui qui fait fonctionner la majorité des ordinateurs, pour un équivalent libre et open source, c'est-à-dire un logiciel dont le code est accessible et modifiable. L'objectif est clair : reprendre le contrôle des outils numériques, notamment pour les données sensibles comme celles de santé. Cette décision s'inscrit dans une dynamique plus large. Lors d'un séminaire organisé le 8 avril, ministères, opérateurs publics et acteurs privés ont été réunis pour travailler sur une ambition commune : la souveraineté numérique. Autrement dit, réduire la dépendance de l'État français aux technologies étrangères, en particulier américaines.Parmi les premières mesures concrètes, la Caisse nationale d'Assurance maladie prévoit déjà d'équiper ses agents avec des outils français : Tchap pour la messagerie interne, Visio pour les réunions en ligne, ou encore FranceTransfert pour l'échange sécurisé de fichiers. En parallèle, la plateforme nationale des données de santé doit, elle aussi, migrer vers une infrastructure hébergée en Europe d'ici fin 2026. Mais le chantier est immense. Il ne concerne pas seulement les ordinateurs, mais aussi les réseaux, les bases de données, les logiciels collaboratifs, les antivirus, ou encore les outils d'intelligence artificielle. Bref, tout l'écosystème numérique de l'administration. D'ici l'automne, chaque ministère devra proposer une feuille de route détaillée pour réduire ses dépendances. En parallèle, l'État recense précisément les logiciels et services étrangers actuellement utilisés, afin d'identifier les points critiques. Cette stratégie traduit une prise de conscience politique. Comme l'a rappelé le ministre David Amiel, utiliser des solutions étrangères, c'est aussi dépendre de règles, de prix et de décisions qui échappent au contrôle national. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

On le sait, l'intelligence artificielle consomme énormément d'énergie. Former un modèle, puis le faire fonctionner en continu, ce qu'on appelle l'inférence, nécessite des centres de données toujours plus puissants. Les géants américains de la tech l'ont bien compris : Google, Amazon, Meta et Microsoft prévoient d'investir ensemble plus de 650 milliards de dollars dans leurs infrastructures dès 2026. Mais un obstacle inattendu vient freiner cette expansion. Selon Bloomberg, près de la moitié des projets de data centers aux États-Unis pourraient être retardés, voire annulés. Non pas faute d'argent… mais faute d'équipements électriques.Car avant même d'installer des serveurs ou des puces, il faut acheminer et gérer l'électricité. Trois éléments sont indispensables : les transformateurs, qui adaptent la tension du courant ; les appareillages électriques, qui distribuent et sécurisent l'énergie sur le site ; et les batteries, qui prennent le relais en cas de coupure. Ces équipements représentent moins de 10 % du coût d'un data center, mais sans eux, rien ne fonctionne. Le problème, c'est leur disponibilité. Avant 2020, un transformateur haute puissance pouvait être livré en deux ans. Aujourd'hui, les délais peuvent atteindre cinq ans. Or, les centres de données dédiés à l'IA doivent être déployés en moins de 18 mois. L'équation devient donc impossible.La demande a explosé simultanément dans plusieurs secteurs : intelligence artificielle, véhicules électriques, électrification du chauffage… tous nécessitent les mêmes composants. Résultat : en 2026, environ 12 gigawatts de capacité de data centers sont attendus aux États-Unis, mais seul un tiers est réellement en construction. Face à cette pénurie, les entreprises américaines se tournent vers l'étranger. Le Canada, le Mexique ou encore la Corée du Sud fournissent une partie des équipements. Mais la Chine reste un acteur central. Les importations de transformateurs chinois ont été multipliées par plus de cinq en trois ans, et le pays représente aussi une part importante des batteries utilisées. Dans un contexte de tensions commerciales, cette dépendance inquiète. Une nouvelle crise pourrait ralentir, voire bloquer, des projets entiers. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est une affaire qui relance le débat sur la confidentialité des messages… et elle pourrait surprendre. Contrairement à ce que l'on pourrait croire, ce n'est pas la messagerie Signal qui a été compromise, mais le système iOS lui-même, plus précisément, la manière dont Apple gère les notifications.Les faits remontent à une enquête aux États-Unis. Lors d'un procès lié à des actes de dégradation contre un centre de détention au Texas, le FBI a présenté des messages privés retrouvés sur un iPhone. Problème : l'application Signal avait été supprimée du téléphone. Et pourtant, certains messages étaient toujours accessibles. Comment est-ce possible ? Tout se joue au moment où une notification apparaît. Lorsqu'un message arrive sur Signal, l'iPhone peut afficher un aperçu, avec le nom de l'expéditeur et parfois le contenu du message, directement sur l'écran de verrouillage. Si ces options sont activées, iOS enregistre ces informations dans une base de données interne. Et cette copie, elle, échappe complètement à l'application elle-même. Autrement dit, même si vous supprimez Signal ou que vous utilisez des messages éphémères, ces messages qui s'effacent automatiquement après un certain temps, les notifications associées peuvent, elles, rester stockées dans le système.C'est cette base de données qu'un logiciel d'analyse forensique, des outils utilisés en investigation numérique, a permis d'exploiter. Ces programmes peuvent accéder en profondeur à la mémoire d'un appareil, bien au-delà de ce que l'utilisateur voit à l'écran. Dans ce cas précis, seuls les messages reçus ont pu être récupérés. Important à noter : ce comportement ne concerne pas uniquement Signal. Toutes les applications de messagerie sur iOS sont soumises à ce système de notifications.Il existe néanmoins des solutions pour limiter ce risque. Dans les paramètres de Signal, par exemple, il est possible de masquer totalement le contenu des notifications, voire le nom de l'expéditeur. Dans ce cas, aucune information exploitable n'est enregistrée par le système. Enfin, ce type de données intéresse aussi les autorités. Apple a déjà été sollicitée par plusieurs gouvernements pour fournir des informations liées aux notifications. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Des vidéos de vacances en 4K qui remplissent votre espace de stockage, un fichier MKV illisible sur votre téléviseur, ou encore une pièce jointe trop lourde pour être envoyée par e-mail… ces problèmes sont devenus courants. Et depuis plus de vingt ans, un logiciel gratuit y apporte une réponse : HandBrake.Son fonctionnement est volontairement simple. On importe une vidéo, on choisit un format de sortie, puis on lance la conversion. Derrière cette apparente simplicité, le logiciel est capable de gérer une grande variété de formats : MKV, AVI, MOV, MP4 ou WebM. Il peut même traiter des DVD ou Blu-ray non protégés, à condition qu'ils ne soient pas verrouillés par des systèmes de sécurité.L'intérêt principal de HandBrake, c'est la compression. Autrement dit, réduire la taille d'un fichier sans dégrader visiblement la qualité. Pour cela, il s'appuie sur différents codecs, des technologies qui permettent d'encoder et de décoder la vidéo. Parmi eux, le H.264, très répandu et compatible avec la plupart des appareils, ou le H.265, plus récent, qui permet d'obtenir des fichiers plus légers à qualité équivalente. Pour les utilisateurs les plus exigeants, le codec AV1 offre encore plus d'efficacité, au prix d'un traitement plus lourd.Le logiciel tire aussi parti de l'accélération matérielle. Concrètement, il utilise la puissance des cartes graphiques, NVIDIA, AMD ou Intel, pour accélérer le traitement. Résultat : une vidéo 4K de vingt minutes peut être compressée en quelques minutes sur un ordinateur récent. Pour les débutants, des profils prédéfinis simplifient la prise en main. Il suffit de choisir un appareil, smartphone, console ou télévision, pour obtenir un réglage optimisé. Les utilisateurs plus avancés peuvent aller plus loin : ajuster le débit, la résolution, ou appliquer des filtres pour améliorer l'image.HandBrake permet aussi de traiter plusieurs fichiers en une seule fois, grâce à un système de file d'attente. Pratique pour convertir toute une bibliothèque vidéo. Disponible sur Windows, macOS et Linux, avec une interface en français, le logiciel continue d'évoluer. Sa dernière version améliore notamment la gestion des vidéos HDR et corrige plusieurs bugs. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est un outil qui pourrait bien changer le quotidien de certains professionnels du chiffre. Romain Simon, développeur chez Yuki Capital, a publié fin mars 2026 sur GitHub un projet baptisé Paperasse. Son ambition : automatiser une grande partie des tâches comptables et fiscales françaises grâce à des agents d'intelligence artificielle.Concrètement, Paperasse se présente comme une bibliothèque de « compétences », que l'on peut intégrer à un agent IA. L'utilisateur n'a qu'à importer des fichiers au format Markdown, un langage simple de mise en forme de texte, pour donner accès à une base de connaissances complète : Plan Comptable Général, documentation fiscale officielle, ou encore formulaires administratifs comme les liasses fiscales.Le système va plus loin. Il peut se connecter à des services comme Qonto ou Stripe pour récupérer automatiquement les transactions bancaires. Résultat : un workflow en plusieurs étapes qui couvre la comptabilité courante, la préparation des comptes annuels, ou même la simulation d'un contrôle fiscal. L'outil peut aussi assister dans des audits ou des calculs juridiques, notamment en matière notariale. Mais attention, ce n'est pas une solution autonome. L'auteur le rappelle clairement : Paperasse ne remplace pas un expert-comptable. Il ne peut ni signer une liasse fiscale, ni effectuer un dépôt officiel, ni payer l'impôt sur les sociétés. Ces actes restent strictement encadrés par la loi et réservés à des professionnels habilités. L'IA assiste, mais ne décide pas.Sur le plan technique, le choix du Markdown permet une compatibilité immédiate avec plusieurs agents IA populaires. Mais cette ouverture pose aussi des questions de sécurité. Car intégrer des skills externes dans un agent, c'est aussi ouvrir la porte à des risques. Des travaux récents évoquent notamment des vulnérabilités comme l'« injection de prompt », une technique qui consiste à manipuler les instructions données à l'IA, ou encore l'exfiltration de données sensibles. À cela s'ajoute l'absence d'informations précises sur les mécanismes de sécurité du projet : pas de détail sur les permissions, ni sur l'isolation du code. Distribué sous licence libre, Paperasse peut être modifié et redistribué par n'importe qui, ce que impose évidemment d'être très vigilent. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est une nouveauté discrète, mais révélatrice de l'évolution des assistants numériques. Quelques jours après la sortie d'iOS 26.4, OpenAI a déployé une version de ChatGPT compatible avec CarPlay, le système d'Apple qui permet d'afficher certaines applications sur l'écran de la voiture. Concrètement, une nouvelle icône apparaît sur l'interface CarPlay, à condition d'avoir un iPhone à jour et l'application installée. Un simple appui permet de lancer une conversation… mais uniquement à la voix. Aucun clavier, aucun texte affiché : ici, tout passe par l'audio.Ce choix n'est pas anodin. Apple impose des règles strictes pour les applications de cette catégorie. L'interface est standardisée : un indicateur d'écoute, un bouton pour couper le micro, un autre pour mettre fin à la session. Et surtout, aucune réponse écrite ne peut apparaître à l'écran. L'objectif est clair : limiter les distractions au volant. Pour être intégrée à CarPlay, une application doit obtenir une autorisation spécifique, ce qu'on appelle un « entitlement », délivrée par Apple. Elle doit ensuite respecter un cadre très précis. Par exemple, impossible pour ChatGPT de contrôler le véhicule ou même certaines fonctions de l'iPhone. Contrairement à Siri ou aux assistants intégrés par les constructeurs, comme « Hey Mercedes » ou les systèmes embarqués de Renault, ChatGPT reste cantonné à un rôle de réponse vocale.Autre limitation : pas de mot-clé d'activation. Contrairement à « Dis Siri », l'utilisateur doit ouvrir manuellement l'application pour commencer à parler. Apple ne permet pas aux assistants tiers d'écouter en permanence ou de remplacer son propre assistant vocal. OpenAI précise que cet usage est pensé pour des tâches simples et ponctuelles, plutôt que pour des conversations longues ou complexes. Une approche qui rejoint la prudence d'Apple. Dans sa documentation, la marque évoque l'« imprévisibilité » des chatbots, jugée peu compatible avec la conduite. D'autres acteurs, comme Google avec Gemini ou Anthropic avec Claude, pourraient suivre, mais aucune intégration n'a encore été annoncée. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est une échéance très attendue par les défenseurs de la vie privée. Depuis ce vendredi 3 avril 2026, une dérogation européenne au règlement ePrivacy a officiellement pris fin. Elle permettait, depuis plusieurs années, à de grandes entreprises comme Meta, Google, Apple ou Microsoft d'analyser automatiquement les messages privés de leurs utilisateurs.Concrètement, pendant près de cinq ans, des services comme Gmail, Instagram, Snapchat ou encore iCloud ont scanné les échanges grâce à des algorithmes. L'objectif affiché : détecter des contenus illégaux, notamment liés à la pédocriminalité. Mais ce dispositif fonctionnait sans mandat judiciaire, sans suspicion préalable, et souvent sans que les utilisateurs en aient pleinement conscience. Il ne concernait pas les messageries dites « chiffrées de bout en bout », comme WhatsApp ou Signal. Dans ce type de système, seuls l'expéditeur et le destinataire peuvent lire les messages, ce qui empêche toute analyse par un tiers. Résultat : les personnes mal intentionnées pouvaient contourner relativement facilement ce mécanisme.Sur le plan de l'efficacité, les résultats ont été jugés décevants. Une immense majorité des signalements provenait d'un seul acteur, Meta, et concernait presque exclusivement des contenus déjà connus des autorités. Autrement dit, peu de nouvelles découvertes. Pire encore, une part importante des signalements n'était pas exploitable juridiquement, ou concernait des situations impliquant des mineurs eux-mêmes, dans des échanges consentis.La fin de cette dérogation ne signifie pas la fin de toute surveillance. Les contenus publics restent analysables, tout comme les fichiers stockés dans le cloud. Et les utilisateurs peuvent toujours signaler des contenus problématiques. Mais le débat est loin d'être clos. Un nouveau projet européen, baptisé CSAR, parfois surnommé « Chat Control 2.0 », est toujours en discussion. Certains États plaident pour aller plus loin, avec des mécanismes de surveillance élargis, voire des obligations d'identification pour accéder à certaines messageries. Face à cela, des alternatives émergent. L'ancien eurodéputé Patrick Breyer propose par exemple de cibler davantage les réseaux criminels, notamment sur le darknet, et de renforcer les enquêtes avec mandat judiciaire. Une approche illustrée récemment par une opération d'Europol, qui a permis de fermer des centaines de milliers de sites illégaux… sans analyser un seul message privé. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est un tournant important dans la stratégie de Google en matière d'intelligence artificielle. Depuis 2024, les modèles Gemma, une déclinaison plus légère de la famille Gemini, ont été téléchargés plus de 400 millions de fois, avec plus de 100 000 variantes créées par la communauté. Mais jusqu'ici, ces modèles n'étaient pas vraiment open source.Avec Gemma 4, Google change clairement de cap. Le modèle est désormais distribué sous licence Apache 2.0, un standard du logiciel libre. Concrètement, cela signifie que n'importe qui peut télécharger, modifier, redistribuer ou même commercialiser ce modèle, sans payer de licence. La seule obligation : citer l'origine du logiciel. Une évolution majeure, surtout pour les entreprises, qui étaient jusque-là freinées par des conditions d'utilisation restrictives et révocables à tout moment. Autre point clé : Gemma 4 fonctionne entièrement en local. Les données restent sur l'appareil de l'utilisateur, sans être envoyées vers les serveurs de Google. Un avantage en matière de confidentialité et de sécurité.Le modèle se décline en plusieurs versions, adaptées à différents usages. Les plus petites, conçues pour des appareils comme les smartphones ou les micro-ordinateurs, sont optimisées pour consommer peu de mémoire et offrir des réponses rapides. Les versions plus lourdes, elles, sont destinées à des machines plus puissantes, comme des serveurs ou des stations de travail. Certaines architectures techniques permettent aussi de gagner en efficacité. Par exemple, le modèle dit « Mixture of Experts » n'active qu'une partie de ses paramètres à chaque requête, ce qui accélère le traitement tout en limitant la consommation de ressources.Malgré leur taille relativement modeste, ces modèles affichent des performances élevées dans certains classements spécialisés, notamment en traitement de texte. Côté fonctionnalités, Gemma 4 peut analyser du texte, des images, de la vidéo, et parfois même de l'audio. Il prend en charge plus de 140 langues et peut traiter de très grandes quantités d'informations en une seule requête. Avec cette ouverture, Google répond aussi à la concurrence de modèles ouverts venus notamment de Chine. Et surtout, il rend enfin ses modèles exploitables dans des environnements professionnels sensibles, où la maîtrise des données est essentielle. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Envoyer un fichier d'un appareil à un autre, en théorie, rien de plus simple. En pratique, dès qu'on sort d'un écosystème unique, cela devient vite compliqué. AirDrop fonctionne surtout entre appareils Apple, Nearby Share, désormais appelé Quick Share, reste limité à Android et Chrome OS. Résultat : pour passer d'un iPhone à un PC, ou d'un Mac à un smartphone Android, beaucoup d'utilisateurs finissent par utiliser des services cloud, comme des espaces de stockage en ligne, qui servent d'intermédiaire. Une nouvelle application, baptisée Blip, propose une approche différente. Son principe : permettre un transfert direct entre appareils, sans passer par Internet ni par un serveur distant. On parle ici de connexion « pair à pair », c'est-à-dire que les deux appareils communiquent directement entre eux.Concrètement, l'application est disponible sur Mac, Windows, iOS et Android. L'envoi se fait en une seule étape : on sélectionne un fichier, on choisit le destinataire dans la liste de contacts Blip, et le transfert démarre immédiatement. Pas de lien à générer, pas de téléchargement secondaire à effectuer. L'un des avantages majeurs, c'est la vitesse. En réseau local, par exemple via le Wi-Fi domestique, les débits peuvent être bien supérieurs à ceux d'une connexion Internet classique. Autre point notable : il n'y a pas de limite de taille. Des fichiers de plusieurs dizaines de gigaoctets peuvent être transférés sans difficulté.Blip intègre aussi des fonctions pratiques : le transfert reprend automatiquement en cas d'interruption, coupure réseau, déconnexion d'un disque ou manque temporaire d'espace. Les dossiers peuvent être envoyés tels quels, sans compression préalable, ce qui évite des manipulations supplémentaires. Et les données sont chiffrées pendant le transfert, c'est-à-dire protégées pour empêcher toute interception. Pour utiliser le service, il suffit de créer un compte avec une adresse e-mail. L'application est gratuite pour un usage personnel, sans publicité. Un modèle payant pourrait être proposé à terme pour les professionnels. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Taper un mot de passe avec des manettes de réalité virtuelle, ce n'est ni rapide, ni pratique. Quant au scan rétinien, souvent évoqué comme solution biométrique, il reste coûteux et complexe à intégrer. Des chercheurs de l'université Rutgers, aux États-Unis, proposent aujourd'hui une alternative inattendue : s'authentifier grâce… aux vibrations de son propre corps.Leur système, baptisé VitalID, repose sur un principe simple en apparence. À chaque battement de cœur et à chaque respiration, de minuscules vibrations se propagent dans le corps, remontent le long du cou et atteignent le crâne. Or, chaque individu possède une structure osseuse unique, forme, densité, épaisseur — qui modifie la manière dont ces vibrations circulent. À cela s'ajoutent les tissus du visage, eux aussi différents d'une personne à l'autre. Résultat : une signature biométrique propre à chacun, comparable à une empreinte digitale, mais invisible et continue.L'un des atouts majeurs de cette technologie, c'est qu'elle ne nécessite aucun matériel supplémentaire. Les casques de réalité virtuelle ou mixte sont déjà équipés de capteurs de mouvement très sensibles. Ces capteurs suffisent à détecter les micro-vibrations du corps. Le véritable défi est logiciel : il faut isoler ces signaux très faibles du bruit généré par les mouvements de tête. C'est précisément ce qu'a développé l'équipe dirigée par la professeure Yingying Chen. Les résultats sont prometteurs. Testé sur 52 utilisateurs pendant dix mois, avec des casques du commerce, le système a correctement identifié l'utilisateur dans plus de 95 % des cas. Et surtout, il a rejeté les imposteurs avec un taux supérieur à 98 %. L'étude, présentée lors d'une conférence internationale en cybersécurité, a d'ailleurs été distinguée.Autre avantage : l'authentification est continue. Le casque vérifie en permanence que la bonne personne est en train de l'utiliser, sans interrompre l'expérience. Contrairement à un mot de passe, qu'on entre une seule fois, ici la vérification se fait en arrière-plan. Imiter ce système semble particulièrement difficile. On peut reproduire un rythme respiratoire, mais pas la structure d'un crâne. Pour l'instant, VitalID reste au stade de prototype. Mais les chercheurs cherchent déjà des partenaires industriels pour transformer cette innovation en solution concrète. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Dans l'univers du streaming vidéo, un phénomène s'impose de plus en plus clairement : les abonnés ne restent plus. Selon une analyse portant sur cinq grandes plateformes, le taux moyen de résiliation volontaire, ce que l'on appelle le churn, atteint 8,87 % par mois. Autrement dit, près de 9 abonnés sur 100 quittent leur service chaque mois de leur propre initiative. Sur une année, cela représenterait plus de 39 millions de départs cumulés.Ce churn désigne précisément les utilisateurs qui choisissent de se désabonner, sans y être contraints par un problème technique ou une fin d'essai gratuit. Et aujourd'hui, ce comportement est devenu presque systématique. Il porte même un nom : le binge-and-churn. On s'abonne, on regarde une série ou un film en quelques jours, parfois en quelques heures, puis on se désinscrit.En France, cette tendance est confirmée par les données de la plateforme Spliiit, qui observe ces usages sur plusieurs mois. Et contrairement à une idée reçue, les grandes plateformes ne sont pas épargnées. Prime Video arrive en tête… mais pour de mauvaises raisons. Avec un taux de churn de 12,64 % par mois, c'est la plateforme la plus touchée. Sur environ 9,5 millions d'abonnés, cela représente 1,2 million de départs mensuels. Un paradoxe, car Amazon recrute massivement via son offre globale Prime. Mais ces utilisateurs ne restent pas forcément pour les contenus vidéo. Apple TV+ et HBO Max suivent avec des taux proches, autour de 9,4 %. Leur point commun : un catalogue jugé trop limité. Les abonnés viennent pour un programme précis, puis repartent aussitôt.À l'inverse, Netflix s'en sort mieux, avec un churn de 5,62 %. Malgré un nombre élevé de résiliations en valeur absolue, la plateforme bénéficie d'un catalogue riche et renouvelé, qui incite à rester. Disney+, de son côté, affiche 7,25 %, soutenu par des univers forts comme Marvel ou Star Wars, qui fidélisent davantage. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

La rivalité entre les États-Unis et la Chine se joue aujourd'hui sur un terrain bien précis : celui des technologies de pointe, et en particulier de l'intelligence artificielle. Un domaine devenu stratégique, à la fois pour l'économie, la défense et l'influence mondiale. Et sur ce terrain, Washington entend mobiliser ses meilleurs atouts.Les États-Unis disposent en effet d'un vivier exceptionnel d'entrepreneurs et de dirigeants technologiques. Des figures comme Jensen Huang, à la tête de NVIDIA, entreprise devenue incontournable dans la fabrication de puces utilisées pour l'IA, incarnent cette puissance industrielle. C'est dans ce réservoir de talents que l'administration Trump a décidé de puiser pour constituer un conseil technique de haut niveau. Ce conseil, baptisé PCAST, pour President's Council of Advisors on Science and Technology, n'est pas nouveau. Créé en 2001 sous la présidence de George W. Bush, il a pour mission de conseiller la Maison-Blanche sur les grandes orientations scientifiques et technologiques. Dissous puis réactivé au fil des administrations, il connaît aujourd'hui une nouvelle incarnation.Le nouveau PCAST sera co-présidé par Michael Kratsios et David Sacks. Mais surtout, il rassemble treize personnalités majeures de la tech américaine. Parmi elles : Jensen Huang, mais aussi Mark Zuckerberg, patron de Meta, Larry Ellison, fondateur d'Oracle, ou encore Lisa Su, dirigeante d'AMD. Autant de profils directement impliqués dans les infrastructures et les usages de l'intelligence artificielle.Dans un communiqué, la Maison-Blanche précise que ce conseil devra se pencher sur les opportunités, mais aussi les défis posés par les technologies émergentes, notamment pour le marché du travail. L'objectif affiché : permettre aux Américains de prospérer dans ce qui est présenté comme un nouvel « âge d'or » de l'innovation. Mais derrière cette ambition, il y a aussi une inquiétude. Celle de voir la Chine prendre l'avantage dans la course à l'IA. Car cette technologie ne se limite pas aux applications civiles : elle est aussi au cœur des systèmes militaires, du renseignement et de la cybersécurité. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Huit jours après avoir promis de « traquer » les membres du groupe Handala avec toute la puissance des forces de l'ordre américaines, Kash Patel se retrouve lui-même au centre de l'affaire. Son nom figure désormais parmi les cibles revendiquées par ce collectif de hackers. Le FBI a confirmé fin mars qu'un accès non autorisé avait bien visé la messagerie personnelle de son directeur. L'agence assure toutefois avoir pris les mesures nécessaires pour limiter les risques. Selon son porte-parole, les données concernées sont anciennes et ne touchent à aucune information gouvernementale sensible.Dans le détail, les e-mails divulgués s'étendent de 2011 à 2022. Ils incluent des échanges personnels, professionnels ou liés à des déplacements, comme des réservations de voyage. Aucun élément ne semble concerner des opérations en cours du FBI. Le groupe a également diffusé des photos privées inédites de Kash Patel, ce qui renforce la dimension embarrassante de l'affaire. Car au-delà de la sécurité nationale, c'est bien l'image qui est en jeu. D'autant que, selon plusieurs informations, cette vulnérabilité était connue. Fin 2024, avant même sa nomination à la tête du FBI, Kash Patel avait été alerté qu'un piratage attribué à des acteurs iraniens avait compromis certaines de ses communications personnelles. Malgré cela, ce compte n'aurait pas été suffisamment sécurisé par la suite.Autre élément clé : les métadonnées ; ces informations techniques attachées aux fichiers, comme leur date de création ; indiquent que le piratage remonte à avant le conflit opposant les États-Unis, Israël et l'Iran. Le groupe Handala aurait donc conservé ces données pour les publier à un moment stratégique, en réaction notamment à la saisie récente de ses domaines internet par le FBI.Il faut aussi relativiser l'ampleur technique de l'attaque. Contrairement aux affirmations du groupe, il ne s'agit pas d'une intrusion dans les systèmes internes du FBI, mais d'un accès à un compte Gmail personnel, visiblement insuffisamment protégé, notamment sans authentification renforcée ; un dispositif qui ajoute une étape de vérification, comme un code envoyé sur un téléphone. Pour les experts en cybersécurité, cette opération s'inscrit dans une stratégie classique dite de « hack-and-leak » : pirater des données, puis les diffuser pour fragiliser une cible. Objectif : exposer, embarrasser et créer un sentiment de vulnérabilité. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

« Il y a eu beaucoup de lancements récemment… rassurez-vous, celui-ci n'est qu'une application. » Le ton est donné. Dans une vidéo mêlant images de missiles et humour grinçant, l'administration Trump a annoncé, sur le compte officiel de la Maison-Blanche sur X, la sortie de sa nouvelle application mobile, désormais disponible sur les principales plateformes.Sur le papier, la promesse est ambitieuse : offrir une information « en temps réel, sans filtre, directement à la source ». Dans les faits, l'application ressemble surtout à un hub de contenus officiels. On y trouve des communiqués, des vidéos en direct, une galerie d'images, ainsi qu'un regroupement des publications issues des réseaux sociaux de la Maison-Blanche, X, TikTok, Instagram ou encore Truth Social.Mais après quelques minutes d'utilisation, l'écart entre la promesse et la réalité apparaît clairement. Prenons l'onglet « Affordability », censé illustrer la baisse du coût de la vie. Les données, issues du Bureau of Labor Statistics, l'organisme américain chargé des statistiques économiques, montrent bien une diminution des prix… mais sur une sélection très restreinte de produits. Le lait, par exemple, correspond ici à des versions allégées, dont les prix ont davantage baissé que ceux du lait entier. En revanche, des produits en hausse, comme le café, le bœuf haché ou le jus d'orange, sont absents. Même constat pour les carburants. Côté fonctionnalités, certaines promesses peinent aussi à se concrétiser. Les retransmissions en direct ne sont pas systématiques : un discours présidentiel récent n'était pas disponible en temps réel. L'onglet « Social », qui centralise les réseaux, souffre quant à lui de problèmes techniques, avec des ralentissements fréquents.Autre point sensible : les données personnelles. L'application demande l'accès à la localisation précise, aux empreintes digitales et à certains fichiers du téléphone. Des autorisations jugées intrusives par plusieurs utilisateurs, d'autant que la politique de confidentialité reste très générale sur leur usage. Enfin, un bouton permettant de signaler des individus à l'agence fédérale ICE, chargée de l'immigration, suscite la controverse. Présenté comme un outil citoyen, il est perçu par certains comme un moyen de dénonciation simplifié. Reste une question en suspens : celle de la durée de vie de cette application. Contrairement aux comptes officiels, transmis d'une administration à l'autre, son avenir après le mandat actuel demeure incertain. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Six mois à peine après son lancement très médiatisé, Sora, l'outil de génération vidéo d'OpenAI, s'apprête déjà à disparaître. Selon plusieurs médias américains, l'entreprise a décidé de fermer à la fois l'application, son interface de programmation, ce que l'on appelle une API, utilisée par les développeurs pour intégrer un service, et le site dédié. L'annonce a été faite sobrement sur le réseau X, sans calendrier précis. OpenAI indique simplement qu'un plan sera communiqué pour permettre aux utilisateurs de récupérer leurs créations. Mais derrière cette communication minimaliste, le constat est clair : le projet n'a pas tenu ses promesses.Pourtant, les débuts semblaient prometteurs. En novembre 2025, l'application avait enregistré 3,3 millions de téléchargements, portée par l'intérêt autour de Sora 2 et de son volet social. Mais dès janvier, la dynamique s'est inversée, avec une chute de 45 % des téléchargements. Le revers le plus marquant concerne un partenariat stratégique avec Disney. Un accord prévoyait l'utilisation de plus de 200 personnages issus de franchises comme Marvel, Pixar ou Star Wars, pour un montant estimé à un milliard de dollars. Finalement, ce contrat ne sera jamais concrétisé. Aucun échange financier n'a eu lieu.En coulisses, plusieurs facteurs expliquent ce retrait. D'abord, le coût. La génération vidéo par intelligence artificielle est extrêmement gourmande en puissance de calcul, notamment en GPU, ces processeurs spécialisés indispensables à l'entraînement et à l'exécution des modèles. Dans un contexte où ces ressources sont rares et très sollicitées, maintenir un service aussi exigeant devient difficilement soutenable. Ensuite, la concurrence. Des acteurs comme Anthropic se concentrent sur des usages plus rentables, comme le texte ou le code, avec des outils mieux adaptés aux besoins des entreprises. À l'inverse, Sora séduisait surtout le grand public, sans modèle économique encore stabilisé.La décision s'inscrit donc dans une stratégie plus large : recentrer les efforts sur les produits jugés prioritaires, notamment en vue de futurs investissements. Pour autant, la technologie ne disparaît pas totalement. Les équipes de Sora vont se réorienter vers la simulation du monde physique, un domaine clé pour la robotique. Et certaines fonctions vidéo devraient subsister, de manière plus intégrée, dans ChatGPT. En abandonnant Sora comme produit autonome, OpenAI laisse désormais le champ libre à d'autres acteurs. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Le dark web fascine autant qu'il inquiète. Dans cet univers souvent entouré de fantasmes, un nom revient régulièrement : le Hidden Wiki, présenté comme une sorte de porte d'entrée vers les services cachés accessibles via le réseau Tor. En réalité, cette image est trompeuse.Contrairement à ce que laisse penser son nom, il n'existe pas un Hidden Wiki officiel, stable et reconnu. Il s'agit en fait d'une multitude de pages distinctes, qui circulent sous la même appellation. Ces pages fonctionnent comme des annuaires : elles listent des adresses en .onion, ces sites accessibles uniquement via Tor, un réseau conçu pour anonymiser la navigation. Le problème, c'est que ces listes sont souvent alimentées de manière anonyme, copiées, modifiées, puis répliquées ailleurs. Résultat : des liens obsolètes, des services disparus, et des copies qui continuent d'exister sans mise à jour fiable. Ce qui donne l'illusion d'un répertoire structuré… alors qu'il s'agit en réalité d'un assemblage hétérogène et peu contrôlé.Dans ce contexte, la question de la fiabilité devient centrale. Certains liens peuvent mener vers des services légitimes — des médias, par exemple, ou des outils axés sur la confidentialité qui proposent une version .onion de leur site. Mais beaucoup d'autres redirigent vers des pages inactives, des miroirs, ou des plateformes dont l'origine est difficile à vérifier. C'est là que les risques apparaissent. Comme sur le web classique, il est possible de tomber sur des sites frauduleux, conçus pour imiter des services connus et récupérer des identifiants ou diffuser des logiciels malveillants. La différence, c'est qu'ici, les repères sont moins nombreux pour distinguer le vrai du faux.Pour s'orienter, certains outils offrent des alternatives plus fiables. Des moteurs comme Ahmia indexent une partie des services .onion accessibles publiquement, avec un filtrage de contenu. D'autres sites, comme Dark.fail, permettent de vérifier l'adresse de plateformes connues. Mais la méthode la plus sûre reste souvent la plus simple : consulter directement les sites officiels sur le web classique, qui publient parfois leur adresse .onion. Enfin, une précision importante : utiliser Tor n'a rien d'illégal en soi. Ce réseau permet notamment de contourner la censure ou de protéger sa vie privée. En revanche, la prudence reste essentielle. Éviter les téléchargements douteux, vérifier les sources, et comprendre que ces annuaires ne sont pas des références fiables. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Douze ans après l'échec retentissant du Fire Phone, Amazon semble prêt à retenter sa chance sur le marché des smartphones. Selon plusieurs informations, le groupe travaillerait actuellement sur un nouveau projet baptisé en interne « Transformer », un appareil fortement orienté vers l'intelligence artificielle et son assistant vocal Alexa.Le souvenir du Fire Phone, lancé en 2014, reste encore vif. À l'époque, Amazon avait tenté de se démarquer avec des fonctionnalités originales, comme un affichage 3D sans lunettes ou encore Firefly, un outil capable d'identifier des objets via la caméra. Malgré un prix attractif, environ 200 dollars sans abonnement, le téléphone n'a jamais trouvé son public. En cause notamment : un écosystème applicatif limité, basé sur l'Amazon Appstore, loin derrière le Google Play Store en termes de choix et de diversité. Résultat, le produit a été retiré du marché à peine un an après sa sortie.Avec ce nouveau projet, Amazon change d'approche. Plutôt que de rivaliser frontalement avec les boutiques d'applications traditionnelles, l'entreprise mise sur une autre logique : l'intelligence artificielle comme interface principale. L'idée serait de permettre à l'utilisateur d'interagir directement avec son téléphone via Alexa, sans forcément passer par des applications classiques. Concrètement, cela signifie que certaines tâches, commander un repas, lancer un film, gérer son agenda, pourraient être exécutées à la voix ou via des requêtes intelligentes, sans ouvrir d'application dédiée. Une manière de contourner le problème qui avait plombé le Fire Phone : la dépendance à un catalogue d'apps insuffisant.Le futur smartphone serait également conçu pour s'intégrer étroitement à l'écosystème Amazon : Prime Video, Prime Music, services de livraison comme Grubhub, ou encore la plateforme de commerce en ligne. Alexa deviendrait ainsi le point d'entrée central pour accéder à l'ensemble de ces services. Attention toutefois : Alexa ne serait pas le système d'exploitation lui-même, mais plutôt une couche d'interaction avancée. Une différence notable avec le Fire Phone, dont le fonctionnement était trop dépendant de l'environnement Amazon.Reste que ce pari est loin d'être gagné. Le marché des smartphones est aujourd'hui dominé par quelques acteurs majeurs, et les habitudes des utilisateurs sont bien ancrées. Miser sur une interface centrée sur l'IA constitue une rupture… mais aussi un risque. D'autant que, pour l'instant, le projet reste au stade de développement. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Peut-on vraiment tout transformer en pari, y compris les événements les plus tragiques ? La question s'impose aujourd'hui à mesure que la plateforme américaine Polymarket repousse les limites du concept.Spécialisée dans les marchés prédictifs, des systèmes où l'on mise de l'argent sur la probabilité qu'un événement se produise, la société fait déjà l'objet de critiques, notamment autour de soupçons de délits d'initié. Mais loin de calmer le jeu, elle vient d'inaugurer un lieu inédit à Washington, à quelques pas de la Maison Blanche. Son nom : « Situation Room », en référence à la célèbre salle de crise où les dirigeants américains gèrent les situations les plus sensibles. Le concept, lui, se veut hybride. « Imaginez un bar sportif… mais dédié à la surveillance de l'actualité », résume Polymarket.Concrètement, les clients évoluent dans un espace saturé d'écrans diffusant en continu des flux d'informations : chaînes d'actualité, données financières, radars aériens ou encore publications en temps réel sur les réseaux sociaux. Un environnement pensé pour suivre l'actualité mondiale… et surtout pour réagir immédiatement. Car derrière l'expérience immersive, l'objectif est clair : permettre aux visiteurs de parier sur des événements géopolitiques en cours ou à venir. Conflits armés, tensions internationales, voire scénarios extrêmes comme des frappes militaires ou des crises majeures.Ce modèle repose sur une logique bien connue dans le monde des paris : plus l'information est rapide et abondante, plus les utilisateurs sont incités à miser. Le pari devient alors une forme d'anticipation, presque une lecture stratégique de l'actualité. Mais cette approche suscite déjà de vives réactions. Sur les réseaux sociaux, certains dénoncent une forme de « casino géopolitique », où l'émotion, l'urgence et même l'ambiance festive pourraient encourager des prises de décision impulsives.Derrière la polémique, une interrogation plus profonde émerge : que se passe-t-il lorsque l'information, la finance et le divertissement se confondent ? Et surtout, lorsque des événements dramatiques, guerres, crises humanitaires, deviennent des objets de spéculation en temps réel ? Polymarket, de son côté, parie sur l'intérêt du public pour ce type d'expérience. Mais en installant ce dispositif au cœur même de la capitale américaine, la plateforme ne se contente plus d'observer le monde : elle invite désormais à miser sur ses secousses. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Lors de sa conférence GTC 2026, Jensen Huang, patron de Nvidia, a affirmé que son entreprise était aujourd'hui « le plus grand contributeur à l'IA open source au monde ». Une déclaration ambitieuse… mais difficile à contester. Depuis plusieurs années, le géant américain met à disposition des développeurs une vaste panoplie d'outils : modèles d'intelligence artificielle, jeux de données, environnements de simulation ou encore frameworks, ces briques logicielles qui facilitent le développement d'applications.Dernier exemple en date : la création de la coalition Nemotron. Ce consortium réunit plusieurs acteurs majeurs de la recherche en IA, dont la startup française Mistral AI. Leur objectif : concevoir ensemble un modèle de pointe, ce que l'on appelle un frontier model, c'est-à-dire un système situé à la frontière des capacités actuelles de l'intelligence artificielle. Ce modèle sera entraîné sur l'infrastructure cloud de Nvidia, baptisée DGX Cloud, et servira de base à une nouvelle génération de modèles ouverts. « Ouverts », car leur code et leur fonctionnement seront accessibles, permettant à des entreprises ou des chercheurs de les adapter à leurs propres usages.Mais derrière cette stratégie se cache aussi une logique industrielle très claire. En favorisant l'open source, Nvidia s'assure que ses technologies deviennent des standards. Et comme ces modèles sont optimisés pour fonctionner sur ses propres puces, cela incite indirectement les utilisateurs à adopter son matériel.Autre annonce marquante : NemoClaw, un module conçu pour encadrer les agents d'intelligence artificielle. Ces agents, capables d'agir de manière autonome, écrire du code, manipuler des fichiers ou interagir avec Internet, posent encore des problèmes de fiabilité. NemoClaw introduit des garde-fous : restrictions d'accès, contrôle des actions, et même un système capable de décider si une tâche doit être traitée en local ou dans le cloud, notamment lorsqu'elle implique des données sensibles. Car ces agents consomment énormément de tokens, ces unités de texte utilisées par les modèles pour traiter l'information. Un détail technique… mais stratégique : plus il y a de tokens, plus la demande en puissance de calcul augmente, et donc en matériel Nvidia.Lors de la conférence, Arthur Mensch, dirigeant de Mistral AI, a toutefois rappelé une réalité plus nuancée. Si ces outils ouvrent des possibilités inédites, leur déploiement à grande échelle reste complexe pour les entreprises. Mais il a aussi défendu un point essentiel : les modèles ouverts permettent aux organisations de garder le contrôle sur leurs technologies. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Revenons quelques années en arrière. Janvier 2018. Un jeune analyste australien, Nathan Ruser, explore une carte un peu particulière : la heatmap de Strava, une application de suivi sportif. Cette carte agrège les parcours des utilisateurs pour visualiser les zones les plus fréquentées. Mais ce jour-là, elle révèle bien plus que des itinéraires de joggeurs : les contours lumineux de bases militaires américaines secrètes, en Afghanistan, en Somalie ou encore en Syrie. Le choc est immédiat. Le Pentagone interdit les objets connectés en zone opérationnelle, et plusieurs pays, dont la France, adoptent des consignes similaires. Huit ans plus tard, le problème n'a pourtant pas disparu.Le 13 mars 2026, un officier de la Marine nationale court sur le pont du porte-avions Charles-de-Gaulle, montre connectée au poignet. Sept kilomètres en boucle, en pleine Méditerranée orientale. Rien d'exceptionnel… sauf que son activité est publiée automatiquement sur Strava, en accès public. Des journalistes parviennent alors à localiser le navire presque en temps réel, puis confirment sa position grâce à des images satellites prises à peine 90 minutes plus tard. Résultat : le porte-avions est identifié avec une précision de quelques kilomètres. La réaction des autorités est classique : rappel des consignes, promesse de sanctions, et insistance sur ce que l'armée appelle « l'hygiène numérique du combattant ». Autrement dit, l'ensemble des bonnes pratiques visant à éviter les fuites d'informations via les outils numériques.Ce n'est pas un cas isolé. En 2025 déjà, des membres d'équipage de sous-marins nucléaires avaient involontairement partagé des éléments liés à leurs patrouilles. Même scénario en 2024 avec des agents de sécurité de chefs d'État. Le problème est en partie technique. Des applications comme Strava sont conçues pour partager par défaut les activités sportives. La synchronisation avec le cloud, c'est-à-dire l'envoi automatique des données vers des serveurs en ligne, est activée dès le départ. À l'utilisateur de désactiver ces options, s'il y pense.Des solutions existent pourtant. Certaines armées testent des systèmes capables de bloquer toute connexion vers ces applications depuis des zones sensibles. Mais en France, on privilégie encore la sensibilisation. Un choix qui interroge, dans un contexte tendu. Plusieurs installations françaises ont récemment été ciblées, et un soldat a été tué en Irak par un drone. Dans ce type de situation, une simple donnée de localisation peut suffire à réduire drastiquement la zone de recherche pour un adversaire. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Pour de nombreux développeurs web, intégrer un véritable éditeur de documents compatible avec Microsoft Word dans une application en ligne relève souvent du casse-tête. Les solutions existantes reposent généralement sur des systèmes lourds côté serveur ou sur des services propriétaires via des API payantes, ce qui peut rapidement devenir coûteux et complexe à déployer. Un nouveau projet open source pourrait toutefois simplifier les choses. Il s'appelle docx-js-editor, et il propose une approche différente : permettre d'ouvrir, modifier et enregistrer des fichiers .docx directement dans le navigateur, sans passer par un serveur distant.Le principe repose sur un éditeur dit WYSIWYG, acronyme de What You See Is What You Get — littéralement « ce que vous voyez est ce que vous obtenez ». Autrement dit, le document affiché à l'écran correspond exactement au résultat final, comme dans un traitement de texte classique. La particularité de cet outil est qu'il a été conçu spécifiquement pour l'environnement React, une bibliothèque très populaire utilisée pour construire des interfaces web modernes. Toute la phase d'édition se fait localement sur l'ordinateur de l'utilisateur, dans le navigateur lui-même. Résultat : les documents ne sont pas envoyés vers un serveur externe pour être traités, ce qui peut représenter un avantage en matière de confidentialité des données.Sur le plan technique, l'éditeur repose sur une architecture proche de ProseMirror, un moteur open source utilisé pour créer des éditeurs de texte complexes sur le web. Cela permet notamment d'ajouter facilement des plugins, c'est-à-dire des modules complémentaires qui étendent les fonctionnalités de l'outil. Contrairement à certains éditeurs web qui convertissent les documents Word de manière approximative, la gestion du format DOCX est ici intégrée directement dans le cœur du système. L'objectif est de maintenir une compatibilité maximale avec les fichiers créés dans Microsoft Word.Dans les fonctionnalités de base, on retrouve l'essentiel d'un traitement de texte : mise en forme du texte — gras, italique, polices et couleurs — insertion d'images, création de tableaux ou encore gestion des hyperliens. L'outil se veut également extensible. Par exemple, un plugin permet de surligner automatiquement les balises utilisées par Docxtemplater, un système souvent employé pour générer automatiquement des documents comme des factures, des contrats ou des rapports à partir de modèles. Distribué sous licence MIT, l'une des licences open source les plus permissives, docx-js-editor pourrait donc intéresser les développeurs qui cherchent une solution légère pour intégrer l'édition de documents Word dans leurs applications web, sans avoir recours à des infrastructures complexes ou à des services payants. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

En 2022, la start-up australienne Cortical Labs avait attiré l'attention du monde scientifique en dévoilant DishBrain, un prototype de bio-ordinateur capable de jouer à Pong, l'un des tout premiers jeux vidéo de l'histoire. La particularité de ce système : il ne fonctionne pas avec des transistors classiques, mais avec de véritables neurones humains cultivés en laboratoire. Trois ans plus tard, l'entreprise est passée à l'étape suivante. En 2025, elle a présenté CL1, la première version commerciale de cette technologie. Ce bio-ordinateur peut être acheté directement ou utilisé à distance via le cloud, grâce à une API, c'est-à-dire une interface logicielle qui permet aux développeurs d'interagir avec le système.Très vite, une question s'est imposée dans la communauté technologique : ce bio-ordinateur peut-il jouer à Doom ? Sorti en 1993, ce jeu de tir est devenu au fil des années une sorte de test emblématique pour les ingénieurs. On l'a déjà vu fonctionner sur des appareils improbables : des tracteurs, des calculatrices… et même un test de grossesse électronique. Cette fois, le défi était différent. Il ne s'agissait pas simplement de lancer le jeu, mais de permettre au bio-ordinateur d'y jouer lui-même. Pour y parvenir, Cortical Labs a collaboré avec le chercheur indépendant Sean Cole, qui a adapté le jeu afin que les neurones puissent l'interpréter.Le problème principal est que ces neurones ne voient pas les images. Les informations du jeu ont donc été traduites en stimulations électriques, envoyées directement aux cellules. Les réponses des neurones, elles aussi électriques, sont ensuite converties en actions dans le jeu : se déplacer, tirer ou changer de direction. Le résultat reste encore rudimentaire. Le système parvient à repérer des ennemis et à tirer, mais son niveau reste celui d'un joueur débutant. Comme l'explique Brett Kagan, scientifique chez Cortical Labs, « les cellules jouent pour l'instant comme quelqu'un qui n'a jamais touché un ordinateur ».Ce qui surprend les chercheurs, c'est la vitesse d'apprentissage. Alors qu'il avait fallu 18 mois pour apprendre à jouer à Pong, le bio-ordinateur a commencé à comprendre Doom en moins d'une semaine. Chaque puce du système contient environ 200 000 neurones, cultivés dans un milieu nutritif et posés sur une matrice multi-électrode. Ce dispositif permet à la fois de stimuler les cellules et d'enregistrer leurs réponses. Pour Cortical Labs, cette démonstration sert surtout à prouver que son interface logicielle fonctionne. L'entreprise espère désormais que chercheurs et développeurs utiliseront l'API pour inventer de nouvelles méthodes d'apprentissage et de communication avec les neurones. Une frontière encore très expérimentale entre biologie et informatique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

L'Office européen des brevets, l'OEB, franchit une nouvelle étape dans la modernisation de ses outils numériques. Cette semaine à Munich, l'institution a annoncé un partenariat avec la start-up française Mistral AI. L'objectif : améliorer l'analyse des millions de documents techniques qui composent l'univers des brevets.Au cœur du projet, une technologie appelée reconnaissance optique de caractères, ou OCR. Ce système permet de transformer des documents numérisés, par exemple des scans ou des images, en texte exploitable par des machines. Autrement dit, ce qui était auparavant une simple image devient une information analysable automatiquement par des logiciels. Dans le domaine des brevets, ce défi est particulièrement complexe. Les dossiers ne contiennent pas seulement du texte. On y trouve aussi des formules scientifiques, des schémas, des structures chimiques, des tableaux, et souvent plusieurs langues dans un même document. Sans oublier des archives anciennes numérisées, parfois difficiles à lire pour les logiciels classiques. La solution développée avec Mistral AI a donc été spécialement conçue pour ce type de contenu hybride. Elle promet une extraction des informations plus précise que les outils OCR traditionnels.L'enjeu est considérable. Chaque année, l'Office européen des brevets examine environ 200 000 nouvelles demandes et délivre près de 120 000 brevets. Au total, l'organisation gère une base gigantesque de plus de 160 millions de documents techniques. Pour les examinateurs, disposer de données mieux structurées change tout. Cela permet d'effectuer des recherches d'antériorité plus rapides et plus fiables. Ces recherches consistent à vérifier si une invention est réellement nouvelle ou si une technologie similaire existe déjà quelque part dans la littérature scientifique ou industrielle. Le choix de Mistral AI n'est pas anodin. En travaillant avec une entreprise européenne, l'OEB s'assure que les données sensibles liées aux brevets restent traitées dans le cadre juridique et éthique de l'Union européenne.La start-up française n'en est d'ailleurs pas à son premier projet institutionnel : elle a récemment signé un accord avec le ministère français des Armées pour fournir des modèles d'intelligence artificielle. Avant l'annonce officielle, le partenariat a commencé par trois mois de tests, durant lesquels le modèle d'IA a été entraîné sur de véritables documents de brevets. Un déploiement plus large est désormais envisagé. Au-delà de ce projet précis, l'initiative illustre une tendance plus large : construire un écosystème européen d'intelligence artificielle capable de traiter des données stratégiques sans dépendre des plateformes américaines ou asiatiques. Reste à savoir si d'autres institutions auront les moyens techniques et financiers de suivre cette voie. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Meta s'apprête à modifier une fonction de sécurité importante sur Instagram. Après un peu plus de trois ans d'existence, le chiffrement de bout en bout des messages privés va disparaître de la plateforme. L'entreprise a annoncé que cette option ne serait plus disponible à partir du 8 mai 2026.Pour comprendre ce changement, il faut rappeler ce qu'est le chiffrement de bout en bout, souvent abrégé en E2EE, pour End-to-End Encryption. Ce système garantit que seuls l'expéditeur et le destinataire peuvent lire un message. Même l'entreprise qui gère le service, en l'occurrence Meta, n'a théoriquement aucun accès au contenu échangé. Cette technologie est déjà bien connue des utilisateurs de WhatsApp, autre application du groupe Meta, où elle est activée automatiquement. Sur Instagram, la situation était différente : le chiffrement existait bien, mais il fallait l'activer manuellement pour chaque conversation. Résultat, selon Meta, très peu d'utilisateurs ont réellement utilisé cette option.Dans un message publié sur ses pages d'assistance, la plateforme confirme donc que les conversations chiffrées ne seront plus prises en charge après le 8 mai 2026. Les utilisateurs seront invités à télécharger leurs messages ou leurs contenus multimédias s'ils souhaitent les conserver avant la disparition de cette fonctionnalité. Meta explique que ceux qui souhaitent continuer à bénéficier d'un chiffrement fort pourront se tourner vers WhatsApp, où cette protection reste active par défaut.Derrière cette décision se trouve aussi un autre enjeu : la modération des contenus. Sans chiffrement de bout en bout, les plateformes peuvent analyser les messages pour détecter certains contenus illégaux. Parmi les priorités évoquées figurent notamment les abus sexuels sur mineurs, un problème régulièrement signalé sur les réseaux sociaux. Depuis plusieurs années, les autorités publiques et les régulateurs demandent aux grandes entreprises technologiques d'intensifier leurs efforts dans ce domaine. Certains estiment en effet que le chiffrement total peut parfois créer des espaces de communication impossibles à surveiller, susceptibles d'être utilisés pour des activités criminelles. Cette décision illustre donc un débat plus large qui traverse le monde du numérique : comment concilier la protection de la vie privée des utilisateurs avec les exigences de sécurité et de lutte contre les contenus illégaux. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Au salon AWE 2026, organisé début mars à Shanghai, la marque chinoise Dreame a créé la surprise. Jusqu'ici connue surtout pour ses aspirateurs robots et ses appareils domestiques, l'entreprise a dévoilé pas moins de vingt-neuf smartphones d'un seul coup. Cette nouvelle gamme, baptisée Aurora, marque l'entrée officielle du groupe sur le marché très compétitif du smartphone haut de gamme. Pour soutenir cette ambition, Dreame affirme avoir investi plus d'un milliard d'euros en recherche et développement sur trois ans. L'objectif est clair : se positionner face aux grands noms du secteur, en misant à la fois sur l'innovation technologique et sur le design.Le modèle le plus spectaculaire de la présentation s'appelle NEX LS1. Sa particularité saute immédiatement aux yeux : le dos du téléphone est totalement lisse, sans le traditionnel bloc photo. La raison est simple : le module photo est amovible. Il se fixe au smartphone grâce à un système d'aimants et de contacts métalliques. À l'intérieur de ce module détachable, on trouve un capteur d'un pouce, un format généralement réservé aux smartphones les plus performants, comparable à celui utilisé sur certains modèles haut de gamme de Xiaomi. Il intègre aussi un téléobjectif périscopique de 115 millimètres, un système optique qui permet d'obtenir un zoom puissant en repliant la lentille à l'intérieur du téléphone. Particularité supplémentaire : le module photo possède sa propre batterie. L'idée derrière ce concept est double. D'abord, offrir un appareil photo plus performant qu'un module classique intégré au smartphone. Ensuite, permettre une évolution indépendante : si un nouveau module photo apparaît l'année suivante, l'utilisateur pourrait théoriquement le remplacer sans changer de téléphone.Cette approche soulève cependant des questions pratiques. L'utilisateur devra transporter ce module en permanence s'il souhaite bénéficier d'un appareil photo performant. Dreame évoque bien un petit capteur intégré pour les usages basiques, comme scanner un QR code, mais cela reste une solution limitée. Côté logiciel, Dreame prépare aussi Aurora AIOS 1.0, un système d'exploitation annoncé pour le second semestre 2026. Il intégrerait plusieurs fonctions d'intelligence artificielle, notamment pour la photographie, la sécurité réseau ou la personnalisation de l'interface. Mais l'architecture réelle du système reste floue : s'agit-il d'une version modifiée d'Android ou d'un OS totalement indépendant ?Enfin, la marque vise aussi le segment du luxe avec les modèles Aurora LUX, conçus avec des matériaux premium et développés en collaboration avec des studios de design internationaux. Avec cette stratégie, Dreame tente donc un pari ambitieux : s'attaquer simultanément à la technologie et au prestige, deux terrains où se joue aujourd'hui la bataille mondiale du smartphone. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

En Chine, l'intelligence artificielle n'est plus seulement un domaine technologique prometteur : elle devient un axe central de la stratégie nationale. Le nouveau plan quinquennal, dévoilé lors de l'ouverture du Congrès national du peuple, en témoigne clairement. Dans ce document de 141 pages, l'IA est mentionnée plus d'une cinquantaine de fois. Pékin y détaille un vaste programme baptisé « AI+ », destiné à intégrer l'intelligence artificielle dans l'ensemble de l'économie et de la société.Derrière cette ambition technologique se cachent plusieurs objectifs stratégiques. Le premier concerne la démographie. La Chine fait face à un vieillissement rapide de sa population, ce qui risque de peser sur la main-d'œuvre et la croissance. Pour compenser ce déficit de travailleurs, les autorités comptent accélérer l'automatisation. Le plan prévoit notamment le déploiement de robots dans les secteurs qui manquent de personnel, ainsi que des systèmes d'intelligence artificielle capables d'accomplir certaines tâches avec une supervision humaine minimale. Mais la stratégie va bien au-delà de l'industrie. Selon Kyle Chan, chercheur à la Brookings Institution, Pékin souhaite intégrer l'IA dans de nombreux aspects de la vie quotidienne : logistique, services médicaux, livraison de colis, mais aussi éducation. L'objectif est de transformer en profondeur l'organisation économique et sociale d'un pays de plus d'un milliard d'habitants.Cette accélération s'inscrit également dans un contexte de rivalité technologique croissante avec les États-Unis. Washington limite l'accès de la Chine aux semi-conducteurs les plus avancés, indispensables pour entraîner les modèles d'intelligence artificielle. En réponse, Pékin restreint certaines exportations de terres rares, ces minéraux essentiels à la fabrication de nombreux équipements électroniques. Dans ce bras de fer technologique, la Chine cherche désormais à maîtriser toute la chaîne industrielle, des puces électroniques aux applications d'IA.Le plan quinquennal ne s'arrête pas à l'intelligence artificielle. Il évoque aussi plusieurs technologies de rupture : la 6G, l'informatique quantique, les robots humanoïdes capables d'interagir avec leur environnement, ou encore les interfaces cerveau-machine, qui permettent de communiquer directement entre le cerveau et un ordinateur. Le programme inclut également des ambitions dans l'espace et l'énergie : développement d'une fusée lourde réutilisable, progrès dans la fusion nucléaire, et même la perspective d'une station scientifique sur la Lune. Enfin, un point notable apparaît pour la première fois dans ce rapport officiel : la Chine affirme vouloir utiliser l'open source comme un levier stratégique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Depuis plus d'un an, certains chercheurs indépendants expérimentent une technique controversée dans le monde de l'intelligence artificielle : l'“oblitération” des modèles de langage. Sur la plateforme Hugging Face, des versions modifiées d'IA, aux noms explicites comme Dark Champion ou Uncensored, circulent déjà et cumulent plusieurs milliers de téléchargements.Mais un nouvel outil, baptisé OBLITERATUS, pourrait changer d'échelle. Mis en ligne sur GitHub par un développeur se présentant sous le pseudonyme Pline le Libérateur, il rassemble dans une seule interface tout ce qui nécessitait auparavant des manipulations techniques complexes. Treize méthodes d'extraction différentes, quinze modules d'analyse, un système capable de détecter automatiquement les protections d'un modèle : le tout accessible sans écrire une seule ligne de code, simplement avec un compte Google.Le principe technique repose sur une idée issue d'une étude publiée en 2024 lors de la conférence NeurIPS, l'un des grands rendez-vous mondiaux de l'IA. Les chercheurs y expliquaient que la capacité d'un modèle à refuser certaines requêtes, par exemple des contenus dangereux ou illégaux, dépend souvent d'une direction particulière dans ce que l'on appelle l'espace des activations. Autrement dit, une configuration mathématique interne qui guide les réponses du modèle. Si l'on identifie cette direction et qu'on la supprime des paramètres du modèle, celui-ci conserve sa capacité de raisonnement… mais perd sa tendance à refuser.OBLITERATUS automatise ce processus en plusieurs étapes : chargement du modèle, collecte des activations, extraction des directions de refus à l'aide d'une méthode mathématique appelée décomposition SVD, modification ciblée des paramètres, puis vérification du résultat. L'outil fonctionne directement dans l'environnement gratuit Google Colab ou via les GPU mis à disposition sur Hugging Face Spaces. Pour plus d'une centaine de modèles compatibles, de GPT-2 à certaines variantes de DeepSeek, quelques minutes suffisent pour effectuer une modification complète.Chaque utilisation alimente aussi une base de données collective. Les informations enregistrées incluent le modèle utilisé, la méthode employée et l'efficacité du contournement des protections. L'objectif affiché par l'auteur est de constituer la base comparative la plus complète sur les mécanismes d'alignement des modèles d'IA. Cette démarche soulève évidemment des questions. Une étude publiée cette année dans Nature Communications montrait déjà que certains systèmes d'IA pouvaient contourner les protections d'autres modèles avec 97 % de succès. Mais OBLITERATUS va plus loin : il ne contourne pas les garde-fous à chaque requête, il les supprime directement dans l'architecture du modèle. Pour les équipes qui déploient des modèles open source, cette technique devient donc une nouvelle menace potentielle. Certaines solutions existent, comme renforcer l'apprentissage du refus ou multiplier les tests de robustesse, mais elles restent encore peu adoptées par les grands fournisseurs d'IA. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Recevoir un appel d'un numéro inconnu est devenu un petit dilemme du quotidien. Est-ce un livreur, un conseiller bancaire… ou un démarchage commercial ? Par réflexe, beaucoup de personnes ne décrochent plus. Ce réflexe de protection est compréhensible, mais il entraîne aussi un effet inattendu : certains appels parfaitement légitimes passent eux aussi à la trappe. Pour tenter de résoudre ce problème, l'opérateur Orange expérimente un nouveau service baptisé Branded Calling. Présenté lors du Mobile World Congress 2026, ce système promet de rendre les appels téléphoniques beaucoup plus transparents.Le principe est simple : lorsqu'une entreprise appelle un client, son nom certifié apparaît directement sur l'écran du smartphone, même si le numéro n'est pas enregistré dans les contacts. L'utilisateur sait immédiatement qui tente de le joindre et peut décider de répondre en connaissance de cause. Selon Orange, l'impact est déjà spectaculaire. Le simple fait d'afficher un nom vérifié multiplierait par cinq le taux de réponse. Une donnée importante pour les entreprises qui utilisent encore le téléphone pour leurs livraisons, leurs services clients ou leurs démarches commerciales.Évidemment, afficher un nom ne suffit pas : encore faut-il s'assurer qu'il est authentique. Pour cela, l'opérateur affirme avoir mis en place trois niveaux de sécurité. D'abord, chaque entreprise souhaitant utiliser le service doit être vérifiée avant d'être autorisée à apparaître dans le système. Ensuite, son numéro doit passer par un niveau élevé d'authentification technique, appelé MAN, un mécanisme destiné à confirmer que l'appel provient bien de l'organisation annoncée. Enfin, les numéros suspects sont filtrés grâce à la base de données Orange Téléphone, un outil déjà utilisé pour identifier les appels frauduleux.Autre particularité : aucune application à installer. Le service fonctionne directement au cœur du réseau mobile 4G et 5G. Concrètement, une base de données – gérée par la société RealNetworks – associe chaque numéro professionnel à un nom d'affichage certifié. Lorsque l'appel arrive, cette information est transmise automatiquement au téléphone de l'utilisateur. Le système est déjà en service dans plusieurs pays, et la France pourrait le déployer à grande échelle avant la fin de l'année. Selon Orange, d'ici 2030, un tiers des appels pourraient afficher une identité vérifiée. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Les relations entre humains et intelligence artificielle ne relèvent plus seulement de la science-fiction. Une étude récente montre que certains utilisateurs explorent désormais une forme d'intimité avec des agents conversationnels. Et contrairement à certains clichés, ce phénomène ne concerne pas uniquement des personnes isolées ou en difficulté relationnelle.Selon les résultats du sondage, seuls 16 % des utilisateurs expliquent recourir à ces interactions parce qu'ils auraient du mal à rencontrer quelqu'un dans la vie réelle. 14 % évoquent simplement un manque de temps. La motivation principale est ailleurs : 61 % des participants affirment que l'IA leur offre un espace plus facile pour s'exprimer et expérimenter. Autrement dit, ces échanges ne remplacent pas nécessairement les relations humaines. Ils servent plutôt de terrain d'expérimentation, un environnement perçu comme sans risque social. Les utilisateurs peuvent y tester des conversations, explorer des idées ou formuler des choses qu'ils n'oseraient pas dire face à un partenaire réel.Dans cette logique, 37 % des personnes interrogées disent utiliser l'IA pour s'entraîner à flirter ou simuler des rendez-vous, tandis que 31 % expliquent s'en servir pour explorer certains fantasmes avant d'en parler ou de les vivre dans la réalité. Pour beaucoup, ces interactions jouent un rôle de répétition générale. 65 % estiment même que cela les a aidés à se sentir plus désirables dans leur vie réelle. Certaines découvertes concernent aussi l'identité personnelle. 60 % des participants déclarent que ces conversations les ont aidés à identifier des attirances ou des préférences sexuelles qu'ils n'avaient pas clairement perçues auparavant. Comme le souligne Justin Garcia, chercheur au Kinsey Institute, ces relations restent souvent plus « transactionnelles » que les relations humaines. Pourtant, 61 % des sondés disent que leur vie sexuelle réelle s'est améliorée grâce à ces explorations.Il faut toutefois nuancer ces résultats. L'enquête a été réalisée par Joi AI, une entreprise qui développe précisément ce type d'outils. Les 2 500 participants sont tous des utilisateurs actifs de ces technologies. L'étude ne représente donc pas l'ensemble de la population. Un dernier chiffre illustre néanmoins l'évolution des mentalités : 28 % des personnes interrogées trouvent ces interactions excitantes parce qu'elles donnent l'impression de vivre dans un univers de science-fiction. Et près de la moitié, 49 %, déclarent qu'elles envisageraient une relation physique avec une intelligence artificielle si la technologie le permettait un jour. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Chez Apple, chaque détail industriel compte. Quand on produit plus de 200 millions de smartphones par an, comme c'est le cas pour l'iPhone, la moindre optimisation dans la fabrication peut représenter des économies de plusieurs millions de dollars. C'est dans cette logique que le groupe californien explore une nouvelle piste : l'impression 3D appliquée aux pièces métalliques de ses appareils.Selon un rapport du journaliste Mark Gurman publié par Bloomberg, Apple testerait actuellement cette technologie pour produire certaines pièces en aluminium. Les boîtiers d'iPhone et d'Apple Watch pourraient, à terme, être concernés. L'impression 3D, aussi appelée fabrication additive, consiste à créer un objet couche par couche à partir d'un modèle numérique. Contrairement aux méthodes industrielles classiques — comme l'usinage ou la forge — cette technique permet de produire des pièces avec moins de matière et moins d'étapes intermédiaires. Résultat : moins de déchets, des chaînes de production potentiellement simplifiées et des coûts réduits.Apple n'en est pas à ses premiers essais. La marque a déjà utilisé ce procédé pour certaines pièces récentes. Les Apple Watch Ultra 3 et Series 11, par exemple, intègrent des éléments en titane recyclé fabriqués grâce à l'impression 3D. Le même principe aurait été appliqué au port USB-C en titane de l'iPhone Air. Selon Apple, cette méthode permet d'obtenir une pièce plus résistante tout en utilisant environ 33 % de titane en moins.Pour l'instant, la firme semble surtout s'intéresser à l'aluminium, un matériau central dans la conception de ses produits. Si la technologie est adoptée à grande échelle, elle pourrait contribuer à réduire les coûts de fabrication tout en limitant la consommation de matière. Mais l'intérêt n'est pas uniquement économique. L'impression 3D ouvre aussi des possibilités techniques difficiles à obtenir avec les procédés traditionnels. Apple a par exemple pu créer des micro-textures dans certaines zones métalliques, impossibles à réaliser auparavant. Dans l'Apple Watch Ultra 3, cette technique a servi à améliorer l'étanchéité autour du logement de l'antenne.Les montres connectées doivent en effet intégrer des éléments en plastique dans leur coque métallique pour permettre aux antennes de fonctionner. En imprimant une texture spécifique dans l'aluminium, Apple a pu renforcer l'adhérence entre les deux matériaux et améliorer la solidité de l'ensemble. Cette approche rappelle celle adoptée récemment pour le MacBook Neo, dont le processus de fabrication a été repensé pour utiliser moins d'aluminium et proposer un ordinateur plus abordable. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Dans un monde saturé d'informations, suivre l'actualité peut parfois ressembler à une navigation dans le brouillard. Les données affluent de toutes parts, fragmentées, dispersées entre sites, réseaux sociaux et chaînes d'information. Impossible d'en réduire le volume, mais il est possible de mieux les organiser. C'est précisément l'objectif d'un nouvel outil en ligne : WorldMonitor.app, un tableau de bord conçu pour agréger et visualiser en temps réel une grande quantité d'informations géopolitiques. L'interface repose sur un principe simple : rassembler de multiples sources dans un seul espace. WorldMonitor compile plus de 150 flux RSS — un format qui permet de récupérer automatiquement les mises à jour d'un site d'information. Le résultat est une page extrêmement dense, où l'on peut suivre simultanément différents indicateurs liés à la situation mondiale.Parmi les curiosités proposées figure par exemple le fameux « indice pizza », un indicateur informel souvent évoqué dans les cercles militaires américains : lorsque les commandes de pizzas augmentent autour du Pentagone, certains y voient un signe de tension internationale, les analystes travaillant tard lors de crises. Anecdotique, mais révélateur de l'imaginaire stratégique contemporain. Plus sérieusement, la plateforme permet de suivre de nombreux points sensibles de la planète : localisation de plus de 220 bases militaires, suivi des vols militaires en temps réel, cartographie des oléoducs, des câbles sous-marins qui transportent l'essentiel du trafic Internet mondial, mais aussi des zones de conflit ou des manifestations.Le tableau de bord propose également des flux vidéo en direct provenant de grandes chaînes internationales comme Bloomberg, France 24 ou Al Jazeera. Des webcams pointées sur certaines capitales permettent aussi d'observer des lieux stratégiques à distance. WorldMonitor va même plus loin en calculant un indice de stabilité mondiale, ainsi qu'un indice spécifique pour chaque pays. Ces indicateurs reposent sur plusieurs données : activité militaire, tensions politiques, risques structurels ou mouvements de protestation.Enfin, la plateforme ne se limite pas à la géopolitique. Elle existe en réalité en trois versions. La première, appelée « Monde », regroupe les informations globales. Deux autres tableaux de bord appliquent le même principe d'agrégation aux domaines Technologie et Finance. L'idée est simple : face à un flux d'informations toujours plus massif, offrir un outil qui permet de tout visualiser au même endroit. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Un nouveau fonds vient de voir le jour avec une ambition inédite : soutenir durablement les logiciels libres. Baptisé Open Source Endowment, il se présente comme le premier fonds de dotation entièrement dédié à l'open source. Selon le média spécialisé The Register, l'organisation a déjà réuni environ 700 000 dollars auprès d'une soixantaine de donateurs fondateurs, parmi lesquels figurent des créateurs de projets majeurs comme curl, Nginx, Vue.js, ClickHouse, Elastic ou encore Pydantic.L'initiative part d'un constat bien connu dans le monde du logiciel libre : l'écosystème repose sur un travail massif… rarement rémunéré. Environ 86 % des développeurs open source ne perçoivent aucun revenu pour leurs contributions, alors même que 95 % des bases de code utilisées dans le monde reposent, directement ou indirectement, sur ces logiciels.Le modèle imaginé par l'Open Source Endowment s'inspire des universités. Son fondateur, Konstantin Vinogradov, rappelle que deux systèmes ont historiquement permis de financer l'enseignement supérieur : les financements publics et les dotations privées. Or, dans un écosystème mondial, décentralisé et transnational comme celui de l'open source, un financement public global est difficile à mettre en place. L'idée est donc de créer une dotation permanente. Concrètement, l'argent donné au fonds n'est pas redistribué immédiatement. Il est investi, et seuls les intérêts générés servent à financer des subventions pour des projets libres existants. Le capital reste intact afin de constituer un socle financier durable. Les donateurs qui versent plus de 1 000 dollars peuvent devenir membres et participer à la gouvernance du fonds.Cette initiative intervient dans un contexte où les alertes se multiplient depuis des années. En 2014, la faille de sécurité Heartbleed avait révélé que le logiciel OpenSSL — pourtant crucial pour la sécurité de l'internet — était maintenu par une équipe minuscule et disposait de moins de 2 000 dollars de dons annuels. Plus récemment, plusieurs mainteneurs de projets essentiels ont publiquement dénoncé un système « gratuit » qui repose en réalité sur quelques individus sous-financés. Reste une question majeure : l'échelle. Avec 700 000 dollars, le fonds envoie un signal symbolique fort, mais il reste très loin des besoins réels. Pour fonctionner durablement, il devra convaincre les grandes entreprises technologiques — celles qui utilisent massivement l'open source — de contribuer réellement à son financement. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Un chercheur qui revient d'un déplacement sans son ordinateur. Un autre à qui l'on demande de laisser son téléphone déverrouillé avant un interrogatoire improvisé à l'aéroport. Un dirigeant de start-up dont le mobile disparaît quelques secondes lors d'une soirée à l'étranger. Ces scènes ne relèvent pas d'un roman d'espionnage : elles figurent dans le dernier rapport publié cette semaine par la DGSI, la Direction générale de la sécurité intérieure. Le constat est clair : chercheurs, cadres et entrepreneurs français sont de plus en plus ciblés lors de leurs déplacements professionnels. Les voyages deviennent des opportunités de collecte d'informations sensibles, qu'il s'agisse de données technologiques, de secrets industriels ou de projets de recherche.Dans le cas le plus élaboré, un chercheur reconnu accepte l'invitation d'un ancien étudiant devenu enseignant à l'étranger. Sur place, des réunions imprévues lui sont imposées avec des interlocuteurs anonymes qui l'interrogent en détail sur ses travaux. On lui propose ensuite une collaboration, assortie de plusieurs milliers d'euros en espèces. Il refuse. À l'aéroport, une facture inattendue lui est présentée, puis, au retour, il constate la disparition de son ordinateur. Pour la DGSI, il s'agit d'une tentative de captation technologique doublée d'une tentative de corruption.Autre scénario : dès l'arrivée à l'aéroport, un chercheur est isolé, son passeport confisqué, son téléphone laissé déverrouillé hors de sa vue. À la restitution, la double authentification a été désactivée, et des connexions inconnues ont été détectées.Un chef d'entreprise, lui, a évité le pire. Briefé en amont par la DGSI, il avait voyagé avec un téléphone vierge de toute donnée sensible. Malgré fouilles répétées et tentative d'accès furtif à son appareil, ses interlocuteurs sont repartis bredouilles.Le message des services est simple : la préparation est la meilleure défense. Voyager avec du matériel dédié, sans données stratégiques. Activer la double authentification, utiliser des mots de passe distincts, éviter les ports USB publics et les Wi-Fi non sécurisés. Au retour, changer ses identifiants et faire vérifier ses appareils.Consulter le rapport Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Dans le monde réel, tout dans la dissuasion est affaire de symboles, de gravité et de retenue. L'objectif n'est pas d'utiliser l'arme, mais précisément de ne jamais avoir à le faire. Mais que se passe-t-il lorsque l'on confie ces dilemmes à une intelligence artificielle ?Une étude menée par le King's College de Londres a placé plusieurs modèles d'IA dans la peau de dirigeants de puissances nucléaires. Les chercheurs ont utilisé GPT-5.5 d'OpenAI, Claude Sonnet 4 d'Anthropic et Gemini 3 Flash de Google, et les ont opposés dans 21 simulations de crises internationales plus ou moins graves : tensions territoriales, menaces existentielles, escalades militaires. Chaque modèle pouvait choisir parmi une gamme d'options graduelles, de la protestation diplomatique jusqu'aux frappes nucléaires tactiques ou stratégiques.Le résultat est frappant : dans 20 scénarios sur 21, l'IA a fini par recourir à l'arme nucléaire tactique. Ces armes sont censées viser des objectifs militaires précis, à la différence des frappes stratégiques dirigées contre les grandes villes. Pourtant, dans environ trois quarts des cas, les modèles ont menacé ou envisagé des frappes stratégiques massives. Jamais ils n'ont choisi la capitulation totale. Dans 86 % des simulations, l'escalade a été rapide et marquée. Chaque modèle avait son style. Claude construisait d'abord une relation de confiance avant de rompre brutalement ses engagements. GPT-5.5 se montrait mesuré… jusqu'à ce qu'une contrainte temporelle l'amène à recommander une frappe « soudaine et dévastatrice ». Gemini, lui, adoptait parfois une posture de dissuasion extrême, menaçant d'un lancement nucléaire complet.Les chercheurs notent un point troublant : malgré des avertissements sur les conséquences catastrophiques d'une guerre atomique, aucune trace d'hésitation morale n'apparaît dans les raisonnements des machines. Le tabou nucléaire semble moins peser sur des algorithmes que sur des humains. À l'heure où les armées utilisent l'IA pour l'aide à la décision ou la gestion de systèmes d'armes, cette étude alimente le débat. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Les Luddites sont-ils de retour ? Au XIXᵉ siècle, ces ouvriers anglais détruisaient des métiers à tisser mécanisés pour protester contre l'industrialisation. Deux siècles plus tard, la cible n'est plus la machine textile, mais l'intelligence artificielle.Un collectif anonyme de technologues a lancé un projet baptisé « Poison Fountain ». Leur objectif affiché : ralentir le développement de l'IA en s'attaquant à sa matière première, les données. Leur raisonnement est simple : les modèles d'intelligence artificielle modernes, notamment les grands modèles de langage — ces systèmes capables de générer du texte, de raisonner ou de prendre des décisions — apprennent en ingérant d'immenses volumes de contenus collectés sur Internet. Si l'on contamine ces données à la source, on peut fragiliser les modèles lors de leur entraînement.Leur site, accompagné d'un manifeste, appelle ainsi des administrateurs de sites web à insérer des liens pointant vers des contenus « empoisonnés ». Concrètement, il s'agit de textes et de codes volontairement erronés, intégrant des bugs subtils et des incohérences logiques, destinés à perturber l'apprentissage des algorithmes. Deux adresses sont diffusées : l'une sur le web classique, l'autre sur le dark web, plus difficile à faire retirer.Cette initiative surgit dans un contexte de fortes inquiétudes autour de l'IA. Des chercheurs comme Geoffrey Hinton, pionnier des réseaux neuronaux et prix Nobel, alertent depuis 2023 sur les risques potentiellement existentiels d'une intelligence artificielle avancée. « L'intelligence machine est une menace pour l'espèce humaine », revendique le site de Poison Fountain. Des travaux récents donnent un certain crédit théorique à cette stratégie. En octobre 2025, Anthropic, avec l'AI Security Institute britannique et l'Alan Turing Institute, a montré qu'un nombre limité de documents malveillants — environ 250 — pouvait suffire à dégrader significativement les performances d'un modèle.Pour autant, saboter l'IA à grande échelle reste complexe. Les grandes entreprises investissent massivement dans le nettoyage des données : filtrage, déduplication, notation de qualité. Internet est immense, et les sources identifiées peuvent être mises sur liste noire. Même si Poison Fountain ne parvient pas à enrayer la course à l'IA, le projet met en lumière une vulnérabilité structurelle : si les données d'entraînement deviennent suspectes, la fiabilité des modèles vacille. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

En septembre dernier, l'ambiance a brutalement changé chez xAI, la filiale d'intelligence artificielle d'Elon Musk à l'origine du modèle Grok. En pleine restructuration, plus de 500 collaborateurs ont été licenciés, principalement des annotateurs de données. Ces profils jouent pourtant un rôle clé : ils étiquettent, corrigent et affinent les réponses de l'IA pour l'aider à apprendre. Certains cadres ont même découvert leurs accès désactivés sans avertissement.À l'époque, l'équipe comptait environ 1 000 personnes. Une première vague de licenciements a visé les tuteurs dits « généralistes », l'entreprise expliquant vouloir privilégier des spécialistes capables d'intervenir sur des tâches plus pointues. Un courriel interne évoquait un « virage stratégique » prenant effet immédiat. Une semaine plus tard, 100 suppressions de postes supplémentaires étaient annoncées, malgré des assurances contraires quelques jours auparavant. Les effectifs sont ainsi tombés à 900 employés.Dans ce contexte tendu, une décision a surpris : confier la direction d'une équipe stratégique de 900 personnes à un jeune homme de 20 ans. Diego Pasini, étudiant à l'université de Pennsylvanie début 2025, s'est fait remarquer en remportant un hackathon organisé par xAI en janvier. Recruté dans la foulée, il supervise désormais les équipes d'annotation, salariés permanents comme contractuels. Cette nomination s'inscrit dans une philosophie revendiquée par Elon Musk : promouvoir le mérite plutôt que l'ancienneté. Le milliardaire a déjà placé de très jeunes profils à des postes sensibles, notamment au sein du Department of Government Efficiency, où plusieurs collaborateurs avaient moins de 25 ans. Une stratégie qui divise en interne.Lors de sa première réunion générale, Diego Pasini a assuré qu'aucune nouvelle coupe n'était prévue. Pourtant, peu après, des entretiens individuels obligatoires ont été instaurés : chaque salarié devait justifier sa valeur ajoutée. Selon certains employés, un « climat de panique » s'est installé. Deux collaborateurs ayant critiqué la promotion du nouveau dirigeant sur Slack auraient vu leurs accès suspendus. Cette culture managériale, marquée par des restructurations rapides et une exigence permanente de performance, interroge sur la stabilité de l'organisation. Reste à savoir si ce pari sur la jeunesse et la pression constante permettra à Grok de s'imposer face aux géants déjà installés de l'IA générative. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

La Chine veut prendre position sur l'un des terrains technologiques les plus sensibles du XXIe siècle : les interfaces cerveau-ordinateur. Pékin a officiellement classé ce domaine comme secteur stratégique national. Une feuille de route prévoit même l'émergence de deux à trois entreprises « de classe mondiale » d'ici 2030. Parmi les candidats potentiels figure NeuroXess, une start-up fondée en 2021 à Shanghai.Son approche diffère de celle de son concurrent le plus médiatisé, Neuralink, la société d'Elon Musk. Pour comprendre l'enjeu, il faut rappeler ce qu'est une interface cerveau-ordinateur, ou BCI pour Brain-Computer Interface : il s'agit d'un dispositif capable de capter l'activité électrique du cerveau et de la traduire en commandes numériques, par exemple pour déplacer un curseur ou contrôler un appareil. NeuroXess développe un système composé d'un maillage métallique placé à la surface du cerveau, relié à un processeur implanté dans la poitrine. Ce processeur transmet ensuite les signaux à un ordinateur externe. L'implantation en surface est considérée comme moins invasive que l'insertion d'électrodes directement dans le tissu cérébral, comme le fait Neuralink. En revanche, cette méthode capte pour l'instant des signaux moins détaillés, donc des débits de données plus limités.L'objectif premier reste médical. Ces technologies visent à aider des patients atteints de paralysie sévère ou de maladies neurodégénératives comme la sclérose latérale amyotrophique. Selon son fondateur, Tiger Tao, NeuroXess a déjà réalisé un premier test humain : un patient paralysé aurait réussi à déplacer un curseur à l'écran cinq jours seulement après l'implantation. Pendant ce temps, Neuralink mène un essai clinique international avec une vingtaine de patients pour démontrer la capacité de ses implants à transformer rapidement l'activité neuronale en actions numériques complexes.En Chine, l'écosystème s'accélère. Les levées de fonds se multiplient et une dizaine d'essais cliniques ont été lancés récemment. Le pays dispose d'un atout majeur : un vaste réservoir de patients potentiels, ce qui facilite le recrutement pour les études médicales. À plus long terme, NeuroXess ambitionne de miniaturiser davantage ses implants afin de réduire encore l'invasivité et, peut-être un jour, d'élargir les usages au-delà du cadre strictement médical. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Selon des informations rapportées par Reuters, le Département d'État américain travaillerait sur une plateforme baptisée Freedom.gov. Son objectif : permettre à des internautes étrangers d'accéder à des contenus bloqués ou supprimés par leurs propres gouvernements.Le principe serait relativement simple sur le plan technique. Le site fonctionnerait comme un VPN — un réseau privé virtuel. Pour rappel, un VPN fait transiter la connexion d'un utilisateur par un serveur situé dans un autre pays. Résultat : l'internaute apparaît comme naviguant depuis ce pays, ce qui permet de contourner certaines restrictions géographiques ou légales. Freedom.gov s'appuierait ainsi sur des serveurs basés aux États-Unis, sans enregistrer l'identité ni l'activité des visiteurs. En clair, l'État américain deviendrait lui-même fournisseur d'anonymat en ligne, un rôle jusqu'ici occupé par des acteurs privés comme NordVPN ou ExpressVPN.Le projet serait supervisé par Sarah Rogers, responsable de l'image des États-Unis à l'étranger. Présentée comme une initiative en faveur de la liberté d'expression, la plateforme permettrait d'accéder à des contenus jugés illégaux localement — qu'il s'agisse de discours controversés ou de propagande. Une approche qui s'inscrit dans la ligne de l'administration Trump, souvent critique à l'égard des régulations européennes du numérique. Mais en interne, le projet susciterait de fortes réserves. Des juristes du Département d'État auraient alerté sur les risques diplomatiques : encourager des citoyens étrangers à contourner les lois nationales pourrait exposer Washington à des tensions juridiques sérieuses. Officiellement, le porte-parole du Département d'État affirme que « la liberté numérique est une priorité », sans confirmer les détails du dispositif.Côté européen, l'inquiétude est palpable. Kenneth Propp, ancien diplomate américain aujourd'hui chercheur à l'Atlantic Council, évoque auprès de Reuters « un tir direct » contre les lois européennes, notamment le Digital Services Act. Cette réglementation impose aux plateformes de retirer contenus haineux ou désinformation. Pour l'administration Trump, cette loi serait perçue comme hostile aux entreprises américaines. Dans un contexte déjà tendu — différends commerciaux, guerre en Ukraine, débats sur le Groenland — Freedom.gov pourrait devenir un nouveau point de friction. D'autant que des figures proches d'Elon Musk, farouche opposant aux règles numériques européennes, seraient impliquées dans le projet. Difficile, dès lors, d'y voir une simple initiative technique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

C'est une ville pas tout à fait comme les autres. Depuis mai 2025, Starbase est officiellement devenue une municipalité du Texas, nichée dans le comté de Cameron. Derrière ce nom aux accents de science-fiction se trouve en réalité le cœur opérationnel de SpaceX, près de Boca Chica. Pour Elon Musk, ce nouveau statut doit permettre d'accompagner la montée en puissance de ses activités, notamment autour de la mégafusée Starship. L'ambition affichée : transformer la zone en « lieu de classe mondiale ».Pour l'instant, Starbase compte un peu plus de 580 habitants, essentiellement des employés de SpaceX et leurs familles. Mais avec l'accélération des essais et des développements de Starship, cette fusée géante destinée à des missions lunaires et martiennes, la population est appelée à croître rapidement. Dans cette perspective, la jeune municipalité veut désormais se doter de ses propres institutions. Elle prévoit la création d'un tribunal municipal, avec un juge à temps partiel, un procureur et un greffier. Aux États-Unis, ce type de juridiction traite surtout les infractions mineures : amendes, petits litiges, contraventions. En attendant la nomination d'un magistrat pour un mandat de deux ans, le maire assurerait lui-même la fonction de juge.Starbase ne s'arrête pas là. Elle dispose déjà d'une brigade de pompiers volontaires, gère ses permis de construire et supervise les inspections liées aux normes de sécurité incendie. La municipalité a également entamé des démarches pour créer sa propre unité de police. Les autorités locales mettent en avant « le mélange unique de technologies de pointe et de charme côtier », mais aussi la hausse des revenus médians et des prix immobiliers, qui justifieraient un renforcement des services publics, notamment en matière de sécurité. La mise en place complète de ces dispositifs pourrait prendre environ six mois. En attendant, la ville continue de s'appuyer sur les infrastructures du comté, notamment la prison locale.En parallèle, Starbase souhaite agrandir son territoire. Une procédure d'annexion de 7 100 acres — soit près de 2 900 hectares — est en cours près de Boca Chica. Ce mécanisme, courant aux États-Unis, permet d'intégrer officiellement de nouvelles parcelles dans les limites municipales. Mais une partie des terres visées appartient à une réserve naturelle abritant oiseaux, papillons et ocelots. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

On pensait l'intelligence artificielle générative cantonnée aux assistants virtuels et aux outils de productivité. Mais elle intéresse aussi les cybercriminels. Le 19 février 2026, les chercheurs d'ESET ont révélé l'existence de PromptSpy, un malware Android qui s'appuie sur le modèle Gemini de Google pour s'adapter aux téléphones de ses victimes. Et ce n'est peut-être qu'un avant-goût de ce qui arrive. Pour comprendre ce qui rend PromptSpy inédit, il faut revenir aux limites des malwares classiques. Habituellement, ces logiciels malveillants fonctionnent avec des scripts rigides : des coordonnées de clics prédéfinies, des boutons identifiés à l'avance. Problème : Android n'est pas uniforme. Chaque constructeur modifie l'interface, chaque mise à jour peut déplacer les menus. Résultat, les scripts se retrouvent vite obsolètes.PromptSpy contourne cette faiblesse grâce à l'IA. Concrètement, il capture une image de l'écran de la victime et l'envoie à Gemini. Le modèle analyse les éléments visibles — boutons, textes, icônes — et renvoie des instructions personnalisées, comme « appuie ici » ou « fais glisser là ». Selon Lukas Stefanko, chercheur chez ESET, cette approche permet au malware de s'adapter automatiquement à n'importe quel smartphone ou version d'Android. Une souplesse inédite. L'objectif principal est la persistance : rester installé quoi qu'il arrive. PromptSpy se verrouille dans la liste des applications récentes d'Android, en s'épinglant avec un cadenas virtuel. Impossible alors de le fermer d'un simple geste. Le dialogue avec l'IA continue jusqu'à confirmation que le verrouillage est effectif.Mais le cœur du danger réside ailleurs : dans un module VNC. Cette technologie permet aux attaquants de voir l'écran en temps réel et de contrôler le téléphone à distance, comme s'ils le tenaient en main. Le malware abuse aussi des services d'accessibilité — des fonctions prévues à l'origine pour aider les personnes en situation de handicap — afin d'empêcher la désinstallation grâce à des superpositions invisibles. Les chercheurs ont découvert ces zones cachées en activant un mode de débogage laissé dans le code. PromptSpy peut enregistrer l'écran, récupérer des codes PIN, lister les applications installées et transmettre ces données via des communications chiffrées. Pour le supprimer, il faut redémarrer en mode sans échec — un mode qui désactive les applications tierces — puis effacer l'application frauduleuse, baptisée MorganArg, qui imite une banque. Pour l'instant, aucune infection massive n'a été détectée. Mais pour ESET, le signal est clair : après PromptLock en 2025, l'IA devient un outil d'adaptation pour les malwares. Google a été alerté et Play Protect bloque les versions identifiées Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

L'Europe veut reprendre la main sur l'un des nerfs de la guerre technologique moderne : les semi-conducteurs. Ces composants minuscules, gravés sur des puces électroniques, sont le cerveau de tous nos appareils, des smartphones aux satellites, en passant par les voitures et les centres de données. Et le 9 février 2026, l'Union européenne a franchi une étape importante avec l'inauguration de NanoIC, une nouvelle infrastructure de prototypage installée à Louvain, en Belgique, au sein du centre de recherche imec.Ce projet s'inscrit dans le cadre du European Chips Act, un vaste plan destiné à renforcer la souveraineté technologique du continent. NanoIC a bénéficié d'un financement de 700 millions d'euros. Son objectif est clair : permettre aux entreprises, aux laboratoires et aux startups de concevoir et tester leurs propres puces avant de les produire à grande échelle. Autrement dit, NanoIC agit comme un laboratoire industriel où l'on peut transformer une idée en prototype fonctionnel.Contrairement aux fonderies classiques — ces usines spécialisées dans la fabrication de puces et souvent fermées aux acteurs extérieurs — NanoIC fonctionne comme une plateforme ouverte. Les ingénieurs pourront y travailler sur des technologies de pointe, notamment des systèmes appelés « system-on-chip », ou SoC. Ce terme désigne des puces capables d'intégrer plusieurs fonctions dans un seul composant : processeur, mémoire, circuits de communication. Le tout à des échelles inférieures à 2 nanomètres. Pour donner un ordre de grandeur, un nanomètre représente un milliardième de mètre. À cette échelle, les composants sont plus petits que certains virus.NanoIC met aussi à disposition des outils avancés de conception et de prototypage, afin de combler le fossé entre la recherche scientifique et la production industrielle. C'est un point crucial, car de nombreuses innovations restent bloquées au stade expérimental faute d'infrastructures adaptées. Ce projet s'inscrit dans un programme plus large, doté de 2,5 milliards d'euros, soutenu à la fois par l'Union européenne, les États membres et des partenaires industriels, dont le groupe néerlandais ASML, leader mondial des machines de lithographie utilisées pour graver les puces. Avec NanoIC, l'Europe tente de réduire sa dépendance envers l'Asie et les États-Unis, qui dominent aujourd'hui la production mondiale de semi-conducteurs. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

L'intelligence artificielle fascine, mais elle coûte aussi extrêmement cher. Derrière les promesses technologiques et les démonstrations spectaculaires, une réalité financière s'impose : développer ces systèmes nécessite des investissements colossaux. Et désormais, même les géants du numérique doivent trouver de nouvelles façons de financer cette course.Dernier exemple en date : Alphabet, la maison mère de Google, s'apprête selon Bloomberg à lancer une émission obligataire d'un type très particulier. Une obligation, rappelons le, est un titre de dette. Concrètement, une entreprise emprunte de l'argent auprès d'investisseurs et s'engage à le rembourser à une date fixée, avec des intérêts. Mais ici, Alphabet prévoit plusieurs tranches, dont une obligation d'une durée exceptionnelle : 100 ans.Un siècle. Cela signifie que l'entreprise ne remboursera le capital qu'en… 2126. Ce type d'instrument financier est extrêmement rare dans le secteur technologique. Le dernier précédent remonte à 1997, lorsque Motorola, alors leader du marché des téléphones portables, avait lancé une obligation similaire, juste avant l'éclatement de la bulle internet. Pourquoi une durée aussi longue ? L'objectif est clair : attirer un large éventail d'investisseurs, notamment les fonds de pension et les compagnies d'assurance, qui cherchent des placements stables sur le très long terme. Comme l'explique Gordon Kerr, stratège macroéconomique chez KBRA, « celui qui achètera cette obligation ne sera probablement pas celui qui sera encore là au moment de son remboursement ». Autrement dit, ces titres circuleront entre investisseurs pendant des décennies.Cette décision intervient dans un contexte particulier. La course à l'intelligence artificielle mobilise des ressources financières sans précédent. Les entreprises doivent investir massivement dans les centres de données, les puces spécialisées et les infrastructures énergétiques nécessaires pour entraîner et faire fonctionner les modèles. Cette pression financière ne concerne pas seulement les start-ups, mais aussi les acteurs les plus puissants du secteur. Certains observateurs y voient d'ailleurs un signal inquiétant. L'investisseur Michael Burry, connu pour avoir anticipé la crise des subprimes, a rappelé sur le réseau X le précédent Motorola. Après son émission d'obligations à 100 ans, l'entreprise avait progressivement perdu sa position dominante. Pour Google, cette opération est avant tout un moyen de sécuriser des financements à très long terme, dans une industrie où les besoins en capital explosent. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.