Podcasts about rgpd

  • 374PODCASTS
  • 984EPISODES
  • 33mAVG DURATION
  • 5WEEKLY NEW EPISODES
  • Jun 19, 2025LATEST

POPULARITY

20172018201920202021202220232024

Categories



Best podcasts about rgpd

Show all podcasts related to rgpd

Latest podcast episodes about rgpd

Masters of Privacy (ES)
Gabriela Lis: cumplimiento legal vs. cultura de protección de datos personales

Masters of Privacy (ES)

Play Episode Listen Later Jun 19, 2025 33:06


¿Qué papel desempeña la formación en el cultivo de una cultura interna de protección de datos personales que vaya más allá del mero cumplimiento normativo?  Gabriela Lis cuenta con una amplia trayectoria en el ámbito de la protección de datos personales. Entre 2005 y 2016 fue asesora legal de la Dirección Nacional de Protección de Datos Personales (Ministerio de Justicia y Derechos Humanos) de Argentina. De 2022 a 2024 ejerció como External Partner en el equipo de Data Privacy Legales de Mercado Libre. Desde 2016 integra la Comisión de Relaciones Institucionales de la DMA Argentina. Es socia fundadora de la Asociación Latinoamericana de Privacidad (ALAP), y actualmente trabaja como consultora independiente en Protección de Dato Gabriela es abogada, graduada de la Universidad de Buenos Aires, con especialización en Derecho Empresarial. Magíster en el Reglamento General de Protección de Datos por la Universidad Nacional de Educación a Distancia (UNED), en el marco del programa conjunto con la Agencia Española de Protección de Datos (AEPD). Referencias: Gabriela Lis en LinkedIn Asociación Latinoamericana de Privacidad (ALAP) Asociación de Marketing y Datos de Argentina (DMA) Pablo Segura: comercio electrónico, inteligencia artificial y protección de datos (Masters of Privacy)

Objectif TECH
Trajectoires - Et si l'IA permettait aux soignants de se recentrer sur l'humain ?

Objectif TECH

Play Episode Listen Later Jun 17, 2025 18:11


Le manque de médecins et de soignants pousse le secteur de la santé à repenser ses méthodes de travail. Les agents d'IA émergent donc comme une solution prometteuse pour augmenter les capacités des praticiens sans les remplacer. De la prise de rendez-vous à l'analyse d'imagerie médicale, ces technologies promettent d'optimiser l'efficacité du système de santé. Pour comprendre cette transformation, nous accueillons Xavier Perret Directeur Cloud Azure chez Microsoft, qui partage son expertise sur les applications pratiques de ces agents dans le quotidien médical.Notre invité détaille les trois niveaux d'agents d'IA : du simple agent conversationnel aux systèmes multi-agents complexes capables d'orchestrer des chaînes de tâches sophistiquées. Il explique comment ces technologies aident les médecins à gagner du temps sur les aspects rébarbatifs pour se concentrer sur leur cœur de métier, tout en garantissant la sécurité des données sensibles grâce à des architectures certifiées HDS et des solutions de chiffrement avancées.Pour en découvrir plus :https://www.capgemini.com/fr-fr/perspectives/blog/grace-a-lia-le-nez-electronique-flaire-les-maladies/https://www.capgemini.com/fr-fr/perspectives/publications/deployer-ia-de-confiance-sante/

PolySécure Podcast
Spécial - Panel Propolys - Innovation en cybersécurité - part 2 - Parce que... c'est l'épisode 0x599!

PolySécure Podcast

Play Episode Listen Later Jun 11, 2025 35:18


Parce que… c'est l'épisode 0x599! Shameless plug 27 et 29 juin 2025 - LeHACK 12 au 17 octobre 2025 - Objective by the sea v8 10 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec 17 au 20 novembre 2025 - European Cyber Week 25 et 26 février 2026 - SéQCure 2065 Description Ce deuxième bloc de conversation avec les experts de Propolis, un incubateur d'entreprises, explore les défis complexes de la commercialisation des innovations en cybersécurité au Québec et au Canada. Les défis de la vulgarisation technique Berenice Alanis, représentante de Propolis, souligne un problème récurrent chez les entrepreneurs techniques : leur difficulté à communiquer efficacement leurs solutions. Les start-ups en cybersécurité peinent particulièrement à vulgariser leurs innovations, ce qui constitue un obstacle majeur à la commercialisation. L'incubateur consacre six mois à former ces entrepreneurs aux compétences relationnelles (soft skills) par le biais d'ateliers, de mentorat et de coaching. Le défi principal réside dans l'incapacité des entrepreneurs à bien poser le problème qu'ils tentent de résoudre. Comme l'explique Nora Boulahia Cuppens, professeure-chercheuse, cette difficulté existe aussi dans le milieu académique : un article scientifique n'est accepté que si le problème est clairement positionné et que l'innovation apporte une solution nouvelle et rentable. Les entrepreneurs doivent apprendre à expliquer leur solution comme s'ils s'adressaient à un enfant de dix ans, en évitant le jargon technique excessif. La spécificité du marché de la cybersécurité Thierry St-Jacques-Gagnon, entrepreneur en résidence, identifie une particularité fondamentale du secteur : contrairement aux technologies médicales où les clients sont naturellement du domaine médical, la cybersécurité doit s'adresser à des entreprises qui ne sont pas spécialisées en sécurité informatique. Les premiers clients ne sont pas les experts en cybersécurité, qui pourraient être des concurrents, mais plutôt les utilisateurs finaux qui ont besoin de protection. Cette réalité crée un paradoxe : la cybersécurité n'est ni considérée comme “sexy” ni comme prioritaire par les entreprises. Elle reste perçue comme une fonction de support plutôt qu'une unité d'affaires stratégique. L'intérêt ne se manifeste généralement qu'après un incident de sécurité, moment où les budgets deviennent soudainement disponibles, mais cet élan retombe rapidement. L'innovation par l'amélioration de l'expérience utilisateur L'approche de Kelvin Zero illustre une stratégie prometteuse : positionner la cybersécurité comme un amélioration de l'expérience utilisateur plutôt qu'une contrainte. L'exemple des solutions sans mot de passe démontre comment il est désormais possible d'augmenter simultanément la sécurité et la facilité d'utilisation, rompant avec le paradigme traditionnel selon lequel ces deux aspects étaient inversement proportionnels. L'insularité du secteur cybersécuritaire Un problème structurel majeur émerge des discussions : l'écosystème cybersécuritaire québécois reste très insulaire. Les professionnels se parlent entre eux lors de conférences spécialisées, mais peinent à franchir les frontières sectorielles pour atteindre les véritables utilisateurs finaux. Cette situation contraste avec celle observée aux États-Unis, où davantage de non-experts participent aux événements cybersécuritaires et comprennent l'importance de ces enjeux pour leurs entreprises. Les approches culturelles et réglementaires La discussion révèle des différences culturelles significatives entre les approches nord-américaine et européenne. Frédéric Cuppens explique que l'Europe privilégie une approche “régalienne” où l'État impose des réglementations que les entreprises doivent respecter, comme illustré par le RGPD ou les lois sur les infrastructures critiques. Cette approche serait difficilement acceptable en Amérique du Nord, où l'on privilégie la libre entreprise. Cependant, ces différences s'estompent avec des initiatives comme le projet de loi C-26 au Canada, qui crée des opérateurs d'importance vitale sur le modèle européen. Cette évolution suscite des débats, les entreprises n'étant pas habituées à une intervention étatique aussi directe. L'impact de la peur et de la sensibilisation L'analyse comparative révèle que les États-Unis et Israël bénéficient d'un contexte de menaces qui facilite naturellement la sensibilisation à la cybersécurité. L'Europe a compensé ce facteur par la réglementation, créant une culture de la conformité. Au Québec et au Canada, l'absence de ces deux éléments maintient une certaine complaisance collective face aux enjeux cybersécuritaires. Les solutions d'accompagnement et de formation Propolis développe plusieurs stratégies pour surmonter ces défis. L'incubateur s'appuie sur des entrepreneurs en résidence, des partenariats avec de grandes entreprises comme CGI, et un réseau de mentors pour aider les start-ups à franchir la barrière entre l'innovation technique et la réalité commerciale. L'accès aux subventions et le développement de prototypes fonctionnels constituent également des éléments clés du programme d'accompagnement. Innovation pédagogique : la maîtrise entrepreneuriat-cybersécurité Face au constat que les étudiants ayant des projets d'innovation sont souvent contraints de choisir entre leurs études et leur projet entrepreneurial, Polytechnique Montréal a créé un parcours novateur. Cette maîtrise en cybersécurité avec spécialisation entrepreneuriat permet aux étudiants de développer leur start-up tout en validant leurs crédits académiques. Le programme s'appuie sur Propolis pour la partie incubation, créant un pont naturel entre formation et commercialisation. Les enjeux de financement et d'accessibilité Un défi important concerne l'accessibilité des programmes d'incubation. Tous les participants n'ont pas la liberté financière de se consacrer entièrement à leur projet d'innovation, particulièrement ceux qui ont déjà une famille et des obligations professionnelles. Cette réalité soulève la question du besoin de subventions spécifiques permettant aux entrepreneurs de se dégager temporairement de leurs autres activités. Vers une approche systémique de l'innovation Les experts identifient plusieurs pistes d'amélioration pour l'écosystème. Le concept de “living lab” développé par l'IMC2 vise à créer des espaces d'interaction entre chercheurs, industriels et start-ups. Ces plateformes permettraient de partager des expérimentations, des données et des résultats dans un environnement de confiance mutuelle. La nécessité d'une approche plus structurée émerge également, avec des parallèles tracés avec les secteurs de la construction ou de l'ingénierie, où l'innovation coexiste avec des cadres réglementaires stricts. L'idée d'une certification professionnelle pour les développeurs web, par exemple, illustre comment l'encadrement pourrait coexister avec l'innovation. En conclusion, ce podcast révèle que le succès de l'entrepreneuriat en cybersécurité au Québec nécessite une approche holistique combinant formation technique et commerciale, sensibilisation du marché, évolution réglementaire mesurée, et création d'écosystèmes collaboratifs entre l'académie, l'industrie et les start-ups. L'enjeu principal reste de transformer une expertise technique reconnue en solutions commercialement viables répondant aux besoins réels des entreprises québécoises. Collaborateurs Nicolas-Loïc Fortin Thierry St-Jacques-Gagnon Nora Boulahia Cuppens Berenice Alanis Frédéric Cuppens Crédits Montage par Intrasecure inc Locaux réels par Propolys - Polytechnique Montréal

FormaRadio
XR : du « Wow » à la pédagogie

FormaRadio

Play Episode Listen Later Jun 9, 2025 44:58


AFFEN&Co 364, la Collégiale de l'AFFENavec Abdoul BENAMER, Président du Comité Ethique de France Immersive Learning (FIL) Abdou Benamer met en évidence les avantages pédagogiques de la XR, notamment pour les formations techniques coûteuses ou risquées, et sa capacité à améliorer l'intégration en entreprise. Le dialogue aborde également les défis liés à l'adoption de la XR, tels que le coût de l'équipement, la maintenance, l'hygiène, l'obsolescence et la nécessité de former les formateurs. La discussion met en lumière le travail du FIL pour établir des normes éthiques et des certifications pour les modules XR, garantissant ainsi la qualité et la sécurité des utilisateurs. France Immersive Learning (FIL), une association française loi 1901 regroupant plus d'une centaine d'acteurs du domaine. Le FIL promeut l'utilisation de l'XR, notamment pour le développement de modules de formation et d'applications industrielles, comme les jumeaux numériques.L'intérêt pédagogique de l'XR est multiple :Réduction des coûts et sécurité : Elle permet de former sur des équipements onéreux ou dangereux (ex: piloter une grue) sans les risques ni les coûts d'investissement matérielOptimisation des ressources humaines : La digitalisation des modules de formation, notamment pour l'intégration des nouveaux employés, réduit le temps passé par les managers et l'impact du turnover.Amélioration de l'apprentissage : La VR offre une immersion qui facilite la mémorisation et la pratique de gestes techniques ou de scénarios complexes, avec la possibilité de "toucher" virtuellement les objets grâce aux retours haptiques (gants, vestes) et même de sentir des odeurs pour le diagnostic (kits d'odeurs).Développement des soft skills : Des modules comme "Recrute-moi" permettent de simuler des entretiens avec des recruteurs variés (nerveux, malhonnêtes) animés par l'IA, aidant les candidats à gérer leur stress et à améliorer leur communication. Il est même possible d'analyser les micro-signaux et les regards pour des formations sur le sexisme en entreprise.Malgré une "barrière psychologique" liée à la maîtrise des outils numériques par les formateurs, ainsi que les défis de coût, maintenance, hygiène et obsolescence rapide des casques, des solutions émergent. La location de casques (20 à 50 €/24h) et l'accès à des tiers lieux (espaces comme AOIS, le centre d'Abdou Benamer de 2700 m² à Vigneux-sur-Seine) permettent d'accéder à du matériel récent sans investir.Le comité d'éthique du FIL travaille à définir des règles pour l'intégration de la VR, notamment sur la sécurité des utilisateurs (prévention du mal de mer via la téléportation, risques d'épilepsie, protocoles d'accompagnement), l'hygiène, la prise en compte du handicap, et la confidentialité des données (RGPD), insistant sur la nécessité du consentement de l'utilisateur. Le FIL vise à créer une labellisation des modules VR pour garantir leur qualité pédagogique et éthique.L'XR ne se limite plus au gaming ; elle se développe dans la formation ("snacking learning" pour des micro-modules) et les métiers. L'effet "waouh" initial doit être transformé en un intérêt pédagogique mesurable par des indicateurs clés de performance (KPI) pour que la VR ne soit pas qu'un simple divertissement

Les Matinales de KPMG
L'IA transforme déjà les modèles économiques

Les Matinales de KPMG

Play Episode Listen Later May 28, 2025 14:58


Radio KPMG diffuse régulièrement des chroniques consacrées à l'intelligence artificielle, pour en expliquer les caractéristiques techniques mais surtout éclairer les entreprises sur les enjeux opérationnels, stratégiques et règlementaires liés à ces technologies.Dans cette nouvelle chronique, Axel de Goursac, associé KPMG, responsable des sujets d'IA, nous montre, à travers de multiples exemples, comment l'intelligence artificielle est en train de transformer les modèles opérationnels de pans entiers de l'économie.

Podcast RGPD - IN MY DATA
Le RGPD a 7 ans

Podcast RGPD - IN MY DATA

Play Episode Listen Later May 26, 2025 41:21


Dimanche dernier, on soufflait les bougies d'un texte qui a profondément changé notre rapport aux données : le Règlement Général sur la Protection des Données, plus connu sous son acronyme, le RGPD.Entré en application le 25 mai 2018, il fête désormais ses 7 ans. Sept années de mise en conformité, de débats, de sanctions, mais aussi de sensibilisations aux droits des personnes dans un univers, toujours plus numérique.Alors, où en sommes-nous aujourd'hui ? Le RGPD a-t-il tenu ses promesses ? Quelles sont les réussites, les défis encore à relever, et les évolutions à venir ?Pour en parler, on revient sur les moments clés avec 3 Experts RGPD et DPO chez Blockproof ! Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Monde Numérique - Jérôme Colombain
✍️ Edito - Interdire les réseaux sociaux aux mineurs : mission impossible ?

Monde Numérique - Jérôme Colombain

Play Episode Listen Later May 23, 2025 4:02


Faut-il interdire les réseaux sociaux aux moins de 15 ans ? C'est le souhait de la secrétaire d'État au Numérique, Clara Chappaz, qui relance le débat sur la protection des mineurs en ligne. Mais malgré les lois déjà en vigueur, l'application concrète de cette interdiction se heurte à d'importants obstacles techniques, juridiques et éthiques.RGPD, majorité numérique, contrôle parental, vérification d'âge par IA ou carte bancaire… rien ne semble vraiment fonctionner. L'ARCOM propose bien la piste du “double anonymat”, mais sa mise en œuvre reste complexe.Les plateformes comme TikTok ou Instagram s'en remettent aux opérateurs ou aux stores pour prendre la responsabilité. Et pendant ce temps, la France tente de faire bouger les lignes au niveau européen, via le DSA. Un feuilleton numérique aux airs de patate chaude.-----------

L'Effet Marketing
Tout comprendre sur le tracking Server Side, avec Romain Trublard (REDIFF)

L'Effet Marketing

Play Episode Listen Later May 17, 2025 40:03


Pour cette mini-série dédiée au tracking, j'accueille à mon micro un expert et passionné du sujet, j'ai nommé Romain Trublard, Consultant Sénior en Tracking et Analytics.Dans ce 4ème épisode, on décrypte ensemble le tracking Server Side :C'est quoi le Server Side ? Pourquoi le mettre en place ?Le fonctionnement d'un tracking classique VS un tracking server sideLes 3 idées reçues du tracking server sideLes avantages et inconvénients du tracking server sideLes questions à se poser pour le mettre en place (ou non) dans votre entreprise

DSI et des Hommes
#19 - L'IA dans notre quotidien : opportunités et défis

DSI et des Hommes

Play Episode Listen Later May 13, 2025 3:43


Dans ce 5-minutes chrono du Déclic Numérique, Nicolas Bard explore comment l'intelligence artificielle se glisse dans notre vie de tous les jours : des assistants vocaux qui régissent notre habitat aux recommandations hyper-personnalisées de Netflix, en passant par les diagnostics médicaux boostés à l'IA. Il détaille :Usages concrets :Opportunités Défis & limitesMode d'emploi responsableSources & liensStatista “Voice assistant household penetration in France, 2024” – https://www.statista.com/statistics/assistant-voice-france/Netflix Tech Blog – https://netflixtechblog.com/Google Nest, rapport d'efficacité énergétique 2023 – https://nest.com/energy-savings/OMS “AI in Health” (2023) – https://www.who.int/news-room/feature-stories/detail/artificial-intelligenceGeorgetown University “Facial Recognition Bias” (2022) – https://www.georgetown.edu/facial-recognition-bias/CNIL Baromètre RGPD (2023) – https://www.cnil.fr/fr/la-connaissance-du-rgpdOCDE “Automation and the future of work” (2023) – https://www.oecd.org/automation-future-of-work/Fairlearn (open-source fairness toolkit) – https://fairlearn.org/----------------------------------DSI et des Hommes est un podcast animé par Nicolas BARD, qui explore comment le numérique peut être mis au service des humains, et pas l'inverse. Avec pour mission de rendre le numérique accessible à tous, chaque épisode plonge dans les expériences de leaders, d'entrepreneurs, et d'experts pour comprendre comment la transformation digitale impacte nos façons de diriger, collaborer, et évoluer. Abonnez-vous pour découvrir des discussions inspirantes et des conseils pratiques pour naviguer dans un monde toujours plus digital.Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Masters of Privacy (ES)
Paula Ortiz: consiente o paga, ¿plata y plomo?

Masters of Privacy (ES)

Play Episode Listen Later May 12, 2025 52:25


Paula Ortiz es abogada con más de dos décadas de experiencia en regulación digital, con foco en publicidad y protección de datos. Durante ocho años trabajó en la Agencia Española de Protección de Datos (AEPD), representando a España en foros internacionales, incluyendo el CEPD/EDPB. Después inauguró y trabajó durante una década el departamento legal e institucional de IAB Spain, desde donde publicó más de 20 guías cubriendo aspectos legales de la publicidad digital. Además de asesorar en estos temas, Paula es co-fundadora y directora de The Legal School, desde donde ayuda a los profesionales del derecho a adaptarse a la era digital y la Inteligencia Artificial. También imparte clases en IE University,  Deusto o ISDI - además de escribir habitualmente sobre publicidad digital.  Referencias: Paula Ortiz en LinkedIn The Legal School “Consiente o paga” en la UE: una línea temporal (diagrama ilustrativo: 2016-2025) Multa a Meta (200m euros) por incumplir la Directiva de Mercados Digitales (DMA) con el modelo “Consiente o paga” (Comisión Europea) Opinión del CEPD/EDPB sobre consentimiento o pago (grandes plataformas)  ICO: Consent or Pay guidelines  Stephen Almond: The UK ICO's Vision on a Privacy-Preserving AdTech Future (Not Just ADZ, febrero de 2025 - inglés) Alessandro De Zanche: “Consent or Pay”: a gift to MFAs and old ad tech agendas Sentencia Bundeskartellamt (TJUE)  La Croqueta: cómo devolver la cordura al solapamiento entre ePrivacy y RGPD antes de que los medios espanten a la poca audiencia que aún les queda (Sergio Maldonado, Medium) Cómo la Directiva de contenidos digitales terminará con el RGPD (Sergio Maldonado, Medium - Inglés) Robert Bateman: Consent or Pay (Masters of Privacy) Romain Robert: Pay or OK in AdTech (Masters of Privacy)

Les Cast Codeurs Podcast
LCC 325 - Trier le hachis des concurrents

Les Cast Codeurs Podcast

Play Episode Listen Later May 9, 2025 109:42


Gros épisode qui couvre un large spectre de sujets : Java, Scala, Micronaut, NodeJS, l'IA et la compétence des développeurs, le sampling dans les LLMs, les DTO, le vibe coding, les changements chez Broadcom et Red Hat ainsi que plusieurs nouvelles sur les licences open source. Enregistré le 7 mai 2025 Téléchargement de l'épisode LesCastCodeurs-Episode-325.mp3 ou en vidéo sur YouTube. News Langages A l'occasion de JavaOne et du lancement de Java 24, Oracle lance un nouveau site avec des ressources vidéo pour apprendre le langage https://learn.java/ site plutôt à destination des débutants et des enseignants couvre la syntaxe aussi, y compris les ajouts plus récents comme les records ou le pattern matching c'est pas le site le plus trendy du monde. Martin Odersky partage un long article sur l'état de l'écosystème Scala et les évolutions du language https://www.scala-lang.org/blog/2025/03/24/evolving-scala.html Stabilité et besoin d'évolution : Scala maintient sa position (~14ème mondial) avec des bases techniques solides, mais doit évoluer face à la concurrence pour rester pertinent. Axes prioritaires : L'évolution se concentre sur l'amélioration du duo sécurité/convivialité, le polissage du langage (suppression des “rugosités”) et la simplification pour les débutants. Innovation continue : Geler les fonctionnalités est exclu ; l'innovation est clé pour la valeur de Scala. Le langage doit rester généraliste et ne pas se lier à un framework spécifique. Défis et progrès : L'outillage (IDE, outils de build comme sbt, scala-cli, Mill) et la facilité d'apprentissage de l'écosystème sont des points d'attention, avec des améliorations en cours (partenariat pédagogique, plateformes simples). Des strings encore plus rapides ! https://inside.java/2025/05/01/strings-just-got-faster/ Dans JDK 25, la performance de la fonction String::hashCode a été améliorée pour être principalement constant foldable. Cela signifie que si les chaînes de caractères sont utilisées comme clés dans une Map statique et immuable, des gains de performance significatifs sont probables. L'amélioration repose sur l'annotation interne @Stable appliquée au champ privé String.hash. Cette annotation permet à la machine virtuelle de lire la valeur du hash une seule fois et de la considérer comme constante si elle n'est pas la valeur par défaut (zéro). Par conséquent, l'opération String::hashCode peut être remplacée par la valeur de hash connue, optimisant ainsi les lookups dans les Map immuables. Un cas limite est celui où le code de hachage de la chaîne est zéro, auquel cas l'optimisation ne fonctionne pas (par exemple, pour la chaîne vide “”). Bien que l'annotation @Stable soit interne au JDK, un nouveau JEP (JEP 502: Stable Values (Preview)) est en cours de développement pour permettre aux utilisateurs de bénéficier indirectement de fonctionnalités similaires. AtomicHash, une implémentation Java d'une HashMap qui est thread-safe, atomique et non-bloquante https://github.com/arxila/atomichash implémenté sous forme de version immutable de Concurrent Hash Trie Librairies Sortie de Micronaut 4.8.0 https://micronaut.io/2025/04/01/micronaut-framework-4-8-0-released/ Mise à jour de la BOM (Bill of Materials) : La version 4.8.0 met à jour la BOM de la plateforme Micronaut. Améliorations de Micronaut Core : Intégration de Micronaut SourceGen pour la génération interne de métadonnées et d'expressions bytecode. Nombreuses améliorations dans Micronaut SourceGen. Ajout du traçage de l'injection de dépendances pour faciliter le débogage au démarrage et à la création des beans. Nouveau membre definitionType dans l'annotation @Client pour faciliter le partage d'interfaces entre client et serveur. Support de la fusion dans les Bean Mappers via l'annotation @Mapping. Nouvelle liveness probe détectant les threads bloqués (deadlocked) via ThreadMXBean. Intégration Kubernetes améliorée : Mise à jour du client Java Kubernetes vers la version 22.0.1. Ajout du module Micronaut Kubernetes Client OpenAPI, offrant une alternative au client officiel avec moins de dépendances, une configuration unifiée, le support des filtres et la compatibilité Native Image. Introduction d'un nouveau runtime serveur basé sur le serveur HTTP intégré de Java, permettant de créer des applications sans dépendances serveur externes. Ajout dans Micronaut Micrometer d'un module pour instrumenter les sources de données (traces et métriques). Ajout de la condition condition dans l'annotation @MetricOptions pour contrôler l'activation des métriques via une expression. Support des Consul watches dans Micronaut Discovery Client pour détecter les changements de configuration distribuée. Possibilité de générer du code source à partir d'un schéma JSON via les plugins de build (Gradle et Maven). Web Node v24.0.0 passe en version Current: https://nodejs.org/en/blog/release/v24.0.0 Mise à jour du moteur V8 vers la version 13.6 : intégration de nouvelles fonctionnalités JavaScript telles que Float16Array, la gestion explicite des ressources (using), RegExp.escape, WebAssembly Memory64 et Error.isError. npm 11 inclus : améliorations en termes de performance, de sécurité et de compatibilité avec les packages JavaScript modernes. Changement de compilateur pour Windows : abandon de MSVC au profit de ClangCL pour la compilation de Node.js sur Windows. AsyncLocalStorage utilise désormais AsyncContextFrame par défaut : offrant une gestion plus efficace du contexte asynchrone. URLPattern disponible globalement : plus besoin d'importer explicitement cette API pour effectuer des correspondances d'URL. Améliorations du modèle de permissions : le flag expérimental --experimental-permission devient --permission, signalant une stabilité accrue de cette fonctionnalité. Améliorations du test runner : les sous-tests sont désormais attendus automatiquement, simplifiant l'écriture des tests et réduisant les erreurs liées aux promesses non gérées. Intégration d'Undici 7 : amélioration des capacités du client HTTP avec de meilleures performances et un support étendu des fonctionnalités HTTP modernes. Dépréciations et suppressions : Dépréciation de url.parse() au profit de l'API WHATWG URL. Suppression de tls.createSecurePair. Dépréciation de SlowBuffer. Dépréciation de l'instanciation de REPL sans new. Dépréciation de l'utilisation des classes Zlib sans new. Dépréciation du passage de args à spawn et execFile dans child_process. Node.js 24 est actuellement la version “Current” et deviendra une version LTS en octobre 2025. Il est recommandé de tester cette version pour évaluer son impact sur vos applications. Data et Intelligence Artificielle Apprendre à coder reste crucial et l'IA est là pour venir en aide : https://kyrylo.org/software/2025/03/27/learn-to-code-ignore-ai-then-use-ai-to-code-even-better.html Apprendre à coder reste essentiel malgré l'IA. L'IA peut assister la programmation. Une solide base est cruciale pour comprendre et contrôler le code. Cela permet d'éviter la dépendance à l'IA. Cela réduit le risque de remplacement par des outils d'IA accessibles à tous. L'IA est un outil, pas un substitut à la maîtrise des fondamentaux. Super article de Anthropic qui essaie de comprendre comment fonctionne la “pensée” des LLMs https://www.anthropic.com/research/tracing-thoughts-language-model Effet boîte noire : Stratégies internes des IA (Claude) opaques aux développeurs et utilisateurs. Objectif : Comprendre le “raisonnement” interne pour vérifier capacités et intentions. Méthode : Inspiration neurosciences, développement d'un “microscope IA” (regarder quels circuits neuronaux s'activent). Technique : Identification de concepts (“features”) et de “circuits” internes. Multilinguisme : Indice d'un “langage de pensée” conceptuel commun à toutes les langues avant de traduire dans une langue particulière. Planification : Capacité à anticiper (ex: rimes en poésie), pas seulement de la génération mot par mot (token par token). Raisonnement non fidèle : Peut fabriquer des arguments plausibles (“bullshitting”) pour une conclusion donnée. Logique multi-étapes : Combine des faits distincts, ne se contente pas de mémoriser. Hallucinations : Refus par défaut ; réponse si “connaissance” active, sinon risque d'hallucination si erreur. “Jailbreaks” : Tension entre cohérence grammaticale (pousse à continuer) et sécurité (devrait refuser). Bilan : Méthodes limitées mais prometteuses pour la transparence et la fiabilité de l'IA. Le “S” dans MCP veut dire Securité (ou pas !) https://elenacross7.medium.com/%EF%B8%8F-the-s-in-mcp-stands-for-security-91407b33ed6b La spécification MCP pour permettre aux LLMs d'avoir accès à divers outils et fonctions a peut-être été adoptée un peu rapidement, alors qu'elle n'était pas encore prête niveau sécurité L'article liste 4 types d'attaques possibles : vulnérabilité d'injection de commandes attaque d'empoisonnement d'outils redéfinition silencieuse de l'outil le shadowing d'outils inter-serveurs Pour l'instant, MCP n'est pas sécurisé : Pas de standard d'authentification Pas de chiffrement de contexte Pas de vérification d'intégrité des outils Basé sur l'article de InvariantLabs https://invariantlabs.ai/blog/mcp-security-notification-tool-poisoning-attacks Sortie Infinispan 15.2 - pre rolling upgrades 16.0 https://infinispan.org/blog/2025/03/27/infinispan-15-2 Support de Redis JSON + scripts Lua Métriques JVM désactivables Nouvelle console (PatternFly 6) Docs améliorées (métriques + logs) JDK 17 min, support JDK 24 Fin du serveur natif (performances) Guillaume montre comment développer un serveur MCP HTTP Server Sent Events avec l'implémentation de référence Java et LangChain4j https://glaforge.dev/posts/2025/04/04/mcp-client-and-server-with-java-mcp-sdk-and-langchain4j/ Développé en Java, avec l'implémentation de référence qui est aussi à la base de l'implémentation dans Spring Boot (mais indépendant de Spring) Le serveur MCP est exposé sous forme de servlet dans Jetty Le client MCP lui, est développé avec le module MCP de LangChain4j c'est semi independant de Spring dans le sens où c'est dépendant de Reactor et de ses interface. il y a une conversation sur le github d'anthropic pour trouver une solution, mais cela ne parait pas simple. Les fallacies derrière la citation “AI won't replace you, but humans using AI will” https://platforms.substack.com/cp/161356485 La fallacie de l'automatisation vs. l'augmentation : Elle se concentre sur l'amélioration des tâches existantes avec l'IA au lieu de considérer le changement de la valeur de ces tâches dans un nouveau système. La fallacie des gains de productivité : L'augmentation de la productivité ne se traduit pas toujours par plus de valeur pour les travailleurs, car la valeur créée peut être capturée ailleurs dans le système. La fallacie des emplois statiques : Les emplois sont des constructions organisationnelles qui peuvent être redéfinies par l'IA, rendant les rôles traditionnels obsolètes. La fallacie de la compétition “moi vs. quelqu'un utilisant l'IA” : La concurrence évolue lorsque l'IA modifie les contraintes fondamentales d'un secteur, rendant les compétences existantes moins pertinentes. La fallacie de la continuité du flux de travail : L'IA peut entraîner une réimagination complète des flux de travail, éliminant le besoin de certaines compétences. La fallacie des outils neutres : Les outils d'IA ne sont pas neutres et peuvent redistribuer le pouvoir organisationnel en changeant la façon dont les décisions sont prises et exécutées. La fallacie du salaire stable : Le maintien d'un emploi ne garantit pas un salaire stable, car la valeur du travail peut diminuer avec l'augmentation des capacités de l'IA. La fallacie de l'entreprise stable : L'intégration de l'IA nécessite une restructuration de l'entreprise et ne se fait pas dans un vide organisationnel. Comprendre le “sampling” dans les LLMs https://rentry.co/samplers Explique pourquoi les LLMs utilisent des tokens Les différentes méthodes de “sampling” : càd de choix de tokens Les hyperparamètres comme la température, top-p, et leur influence réciproque Les algorithmes de tokenisation comme Byte Pair Encoding et SentencePiece. Un de moins … OpenAI va racheter Windsurf pour 3 milliards de dollars. https://www.bloomberg.com/news/articles/2025-05-06/openai-reaches-agreement-to-buy-startup-windsurf-for-3-billion l'accord n'est pas encore finalisé Windsurf était valorisé à 1,25 milliards l'an dernier et OpenAI a levé 40 milliards dernièrement portant sa valeur à 300 milliards Le but pour OpenAI est de rentrer dans le monde des assistants de code pour lesquels ils sont aujourd'hui absent Docker desktop se met à l'IA… ? Une nouvelle fonctionnalité dans docker desktop 4.4 sur macos: Docker Model Runner https://dev.to/docker/run-genai-models-locally-with-docker-model-runner-5elb Permet de faire tourner des modèles nativement en local ( https://docs.docker.com/model-runner/ ) mais aussi des serveurs MCP ( https://docs.docker.com/ai/mcp-catalog-and-toolkit/ ) Outillage Jetbrains défend la suppression des commentaires négatifs sur son assistant IA https://devclass.com/2025/04/30/jetbrains-defends-removal-of-negative-reviews-for-unpopular-ai-assistant/?td=rt-3a L'IA Assistant de JetBrains, lancée en juillet 2023, a été téléchargée plus de 22 millions de fois mais n'est notée que 2,3 sur 5. Des utilisateurs ont remarqué que certaines critiques négatives étaient supprimées, ce qui a provoqué une réaction négative sur les réseaux sociaux. Un employé de JetBrains a expliqué que les critiques ont été supprimées soit parce qu'elles mentionnaient des problèmes déjà résolus, soit parce qu'elles violaient leur politique concernant les “grossièretés, etc.” L'entreprise a reconnu qu'elle aurait pu mieux gérer la situation, un représentant déclarant : “Supprimer plusieurs critiques d'un coup sans préavis semblait suspect. Nous aurions dû au moins publier un avis et fournir plus de détails aux auteurs.” Parmi les problèmes de l'IA Assistant signalés par les utilisateurs figurent : un support limité pour les fournisseurs de modèles tiers, une latence notable, des ralentissements fréquents, des fonctionnalités principales verrouillées aux services cloud de JetBrains, une expérience utilisateur incohérente et une documentation insuffisante. Une plainte courante est que l'IA Assistant s'installe sans permission. Un utilisateur sur Reddit l'a qualifié de “plugin agaçant qui s'auto-répare/se réinstalle comme un phénix”. JetBrains a récemment introduit un niveau gratuit et un nouvel agent IA appelé Junie, destiné à fonctionner parallèlement à l'IA Assistant, probablement en réponse à la concurrence entre fournisseurs. Mais il est plus char a faire tourner. La société s'est engagée à explorer de nouvelles approches pour traiter les mises à jour majeures différemment et envisage d'implémenter des critiques par version ou de marquer les critiques comme “Résolues” avec des liens vers les problèmes correspondants au lieu de les supprimer. Contrairement à des concurrents comme Microsoft, AWS ou Google, JetBrains commercialise uniquement des outils et services de développement et ne dispose pas d'une activité cloud distincte sur laquelle s'appuyer. Vos images de README et fichiers Markdown compatibles pour le dark mode de GitHub: https://github.blog/developer-skills/github/how-to-make-your-images-in-markdown-on-github-adjust-for-dark-mode-and-light-mode/ Seulement quelques lignes de pure HTML pour le faire Architecture Alors, les DTOs, c'est bien ou c'est pas bien ? https://codeopinion.com/dtos-mapping-the-good-the-bad-and-the-excessive/ Utilité des DTOs : Les DTOs servent à transférer des données entre les différentes couches d'une application, en mappant souvent les données entre différentes représentations (par exemple, entre la base de données et l'interface utilisateur). Surutilisation fréquente : L'article souligne que les DTOs sont souvent utilisés de manière excessive, notamment pour créer des API HTTP qui ne font que refléter les entités de la base de données, manquant ainsi l'opportunité de composer des données plus riches. Vraie valeur : La valeur réelle des DTOs réside dans la gestion du couplage entre les couches et la composition de données provenant de sources multiples en formes optimisées pour des cas d'utilisation spécifiques. Découplage : Il est suggéré d'utiliser les DTOs pour découpler les modèles de données internes des contrats externes (comme les API), ce qui permet une évolution et une gestion des versions indépendantes. Exemple avec CQRS : Dans le cadre de CQRS (Command Query Responsibility Segregation), les réponses aux requêtes (queries) agissent comme des DTOs spécifiquement adaptés aux besoins de l'interface utilisateur, pouvant inclure des données de diverses sources. Protection des données internes : Les DTOs aident à distinguer et protéger les modèles de données internes (privés) des changements externes (publics). Éviter l'excès : L'auteur met en garde contre les couches de mapping excessives (mapper un DTO vers un autre DTO) qui n'apportent pas de valeur ajoutée. Création ciblée : Il est conseillé de ne créer des DTOs que lorsqu'ils résolvent des problèmes concrets, tels que la gestion du couplage ou la facilitation de la composition de données. Méthodologies Même Guillaume se met au “vibe coding” https://glaforge.dev/posts/2025/05/02/vibe-coding-an-mcp-server-with-micronaut-and-gemini/ Selon Andrey Karpathy, c'est le fait de POC-er un proto, une appli jetable du weekend https://x.com/karpathy/status/1886192184808149383 Mais Simon Willison s'insurge que certains confondent coder avec l'assistance de l'IA avec le vibe coding https://simonwillison.net/2025/May/1/not-vibe-coding/ Guillaume c'est ici amusé à développer un serveur MCP avec Micronaut, en utilisant Gemini, l'IA de Google. Contrairement à Quarkus ou Spring Boot, Micronaut n'a pas encore de module ou de support spécifique pour faciliter la création de serveur MCP Sécurité Une faille de sécurité 10/10 sur Tomcat https://www.it-connect.fr/apache-tomcat-cette-faille-activement-exploitee-seulement-30-heures-apres-sa-divulgation-patchez/ Une faille de sécurité critique (CVE-2025-24813) affecte Apache Tomcat, permettant l'exécution de code à distance Cette vulnérabilité est activement exploitée seulement 30 heures après sa divulgation du 10 mars 2025 L'attaque ne nécessite aucune authentification et est particulièrement simple à exécuter Elle utilise une requête PUT avec une charge utile Java sérialisée encodée en base64, suivie d'une requête GET L'encodage en base64 permet de contourner la plupart des filtres de sécurité Les serveurs vulnérables utilisent un stockage de session basé sur des fichiers (configuration répandue) Les versions affectées sont : 11.0.0-M1 à 11.0.2, 10.1.0-M1 à 10.1.34, et 9.0.0.M1 à 9.0.98 Les mises à jour recommandées sont : 11.0.3+, 10.1.35+ et 9.0.99+ Les experts prévoient des attaques plus sophistiquées dans les prochaines phases d'exploitation (upload de config ou jsp) Sécurisation d'un serveur ssh https://ittavern.com/ssh-server-hardening/ un article qui liste les configurations clés pour sécuriser un serveur SSH par exemple, enlever password authentigfication, changer de port, desactiver le login root, forcer le protocol ssh 2, certains que je ne connaissais pas comme MaxStartups qui limite le nombre de connections non authentifiées concurrentes Port knocking est une technique utile mais demande une approche cliente consciente du protocol Oracle admet que les identités IAM de ses clients ont leaké https://www.theregister.com/2025/04/08/oracle_cloud_compromised/ Oracle a confirmé à certains clients que son cloud public a été compromis, alors que l'entreprise avait précédemment nié toute intrusion. Un pirate informatique a revendiqué avoir piraté deux serveurs d'authentification d'Oracle et volé environ six millions d'enregistrements, incluant des clés de sécurité privées, des identifiants chiffrés et des entrées LDAP. La faille exploitée serait la vulnérabilité CVE-2021-35587 dans Oracle Access Manager, qu'Oracle n'avait pas corrigée sur ses propres systèmes. Le pirate a créé un fichier texte début mars sur login.us2.oraclecloud.com contenant son adresse email pour prouver son accès. Selon Oracle, un ancien serveur contenant des données vieilles de huit ans aurait été compromis, mais un client affirme que des données de connexion aussi récentes que 2024 ont été dérobées. Oracle fait face à un procès au Texas concernant cette violation de données. Cette intrusion est distincte d'une autre attaque contre Oracle Health, sur laquelle l'entreprise refuse de commenter. Oracle pourrait faire face à des sanctions sous le RGPD européen qui exige la notification des parties affectées dans les 72 heures suivant la découverte d'une fuite de données. Le comportement d'Oracle consistant à nier puis à admettre discrètement l'intrusion est inhabituel en 2025 et pourrait mener à d'autres actions en justice collectives. Une GitHub action très populaire compromise https://www.stepsecurity.io/blog/harden-runner-detection-tj-actions-changed-files-action-is-compromised Compromission de l'action tj-actions/changed-files : En mars 2025, une action GitHub très utilisée (tj-actions/changed-files) a été compromise. Des versions modifiées de l'action ont exposé des secrets CI/CD dans les logs de build. Méthode d'attaque : Un PAT compromis a permis de rediriger plusieurs tags de version vers un commit contenant du code malveillant. Détails du code malveillant : Le code injecté exécutait une fonction Node.js encodée en base64, qui téléchargeait un script Python. Ce script parcourait la mémoire du runner GitHub à la recherche de secrets (tokens, clés…) et les exposait dans les logs. Dans certains cas, les données étaient aussi envoyées via une requête réseau. Période d'exposition : Les versions compromises étaient actives entre le 12 et le 15 mars 2025. Tout dépôt, particulièrement ceux publiques, ayant utilisé l'action pendant cette période doit être considéré comme potentiellement exposé. Détection : L'activité malveillante a été repérée par l'analyse des comportements inhabituels pendant l'exécution des workflows, comme des connexions réseau inattendues. Réaction : GitHub a supprimé l'action compromise, qui a ensuite été nettoyée. Impact potentiel : Tous les secrets apparaissant dans les logs doivent être considérés comme compromis, même dans les dépôts privés, et régénérés sans délai. Loi, société et organisation Les startup the YCombinateur ont les plus fortes croissances de leur histoire https://www.cnbc.com/2025/03/15/y-combinator-startups-are-fastest-growing-in-fund-history-because-of-ai.html Les entreprises en phase de démarrage à Silicon Valley connaissent une croissance significative grâce à l'intelligence artificielle. Le PDG de Y Combinator, Garry Tan, affirme que l'ensemble des startups de la dernière cohorte a connu une croissance hebdomadaire de 10% pendant neuf mois. L'IA permet aux développeurs d'automatiser des tâches répétitives et de générer du code grâce aux grands modèles de langage. Pour environ 25% des startups actuelles de YC, 95% de leur code a été écrit par l'IA. Cette révolution permet aux entreprises de se développer avec moins de personnel - certaines atteignant 10 millions de dollars de revenus avec moins de 10 employés. La mentalité de “croissance à tout prix” a été remplacée par un renouveau d'intérêt pour la rentabilité. Environ 80% des entreprises présentées lors du “demo day” étaient centrées sur l'IA, avec quelques startups en robotique et semi-conducteurs. Y Combinator investit 500 000 dollars dans les startups en échange d'une participation au capital, suivi d'un programme de trois mois. Red Hat middleware (ex-jboss) rejoint IBM https://markclittle.blogspot.com/2025/03/red-hat-middleware-moving-to-ibm.html Les activités Middleware de Red Hat (incluant JBoss, Quarkus, etc.) vont être transférées vers IBM, dans l'unité dédiée à la sécurité des données, à l'IAM et aux runtimes. Ce changement découle d'une décision stratégique de Red Hat de se concentrer davantage sur le cloud hybride et l'intelligence artificielle. Mark Little explique que ce transfert était devenu inévitable, Red Hat ayant réduit ses investissements dans le Middleware ces dernières années. L'intégration vise à renforcer l'innovation autour de Java en réunissant les efforts de Red Hat et IBM sur ce sujet. Les produits Middleware resteront open source et les clients continueront à bénéficier du support habituel sans changement. Mark Little affirme que des projets comme Quarkus continueront à être soutenus et que cette évolution est bénéfique pour la communauté Java. Un an de commonhaus https://www.commonhaus.org/activity/253.html un an, démarré sur les communautés qu'ils connaissaient bien maintenant 14 projets et put en accepter plus confiance, gouvernance legère et proteger le futur des projets automatisation de l'administratif, stabiilité sans complexité, les developpeurs au centre du processus de décision ils ont besoins de members et supporters (financiers) ils veulent accueillir des projets au delà de ceux du cercles des Java Champions Spring Cloud Data Flow devient un produit commercial et ne sera plus maintenu en open source https://spring.io/blog/2025/04/21/spring-cloud-data-flow-commercial Peut-être sous l'influence de Broadcom, Spring se met à mettre en mode propriétaire des composants du portefeuille Spring ils disent que peu de gens l'utilisaent en mode OSS et la majorité venait d'un usage dans la plateforme Tanzu Maintenir en open source le coutent du temps qu'ils son't pas sur ces projets. La CNCF protège le projet NATS, dans la fondation depuis 2018, vu que la société Synadia qui y contribue souhaitait reprendre le contrôle du projet https://www.cncf.io/blog/2025/04/24/protecting-nats-and-the-integrity-of-open-source-cncfs-commitment-to-the-community/ CNCF : Protège projets OS, gouvernance neutre. Synadia vs CNCF : Veut retirer NATS, licence non-OS (BUSL). CNCF : Accuse Synadia de “claw back” (reprise illégitime). Revendications Synadia : Domaine nats.io, orga GitHub. Marque NATS : Synadia n'a pas transféré (promesse rompue malgré aide CNCF). Contestation Synadia : Juge règles CNCF “trop vagues”. Vote interne : Mainteneurs Synadia votent sortie CNCF (sans communauté). Support CNCF : Investissement majeur ($ audits, légal), succès communautaire (>700 orgs). Avenir NATS (CNCF) : Maintien sous Apache 2.0, gouvernance ouverte. Actions CNCF : Health check, appel mainteneurs, annulation marque Synadia, rejet demandes. Mais finalement il semble y avoir un bon dénouement : https://www.cncf.io/announcements/2025/05/01/cncf-and-synadia-align-on-securing-the-future-of-the-nats-io-project/ Accord pour l'avenir de NATS.io : La Cloud Native Computing Foundation (CNCF) et Synadia ont conclu un accord pour sécuriser le futur du projet NATS.io. Transfert des marques NATS : Synadia va céder ses deux enregistrements de marque NATS à la Linux Foundation afin de renforcer la gouvernance ouverte du projet. Maintien au sein de la CNCF : L'infrastructure et les actifs du projet NATS resteront sous l'égide de la CNCF, garantissant ainsi sa stabilité à long terme et son développement en open source sous licence Apache-2.0. Reconnaissance et engagement : La Linux Foundation, par la voix de Todd Moore, reconnaît les contributions de Synadia et son soutien continu. Derek Collison, PDG de Synadia, réaffirme l'engagement de son entreprise envers NATS et la collaboration avec la Linux Foundation et la CNCF. Adoption et soutien communautaire : NATS est largement adopté et considéré comme une infrastructure critique. Il bénéficie d'un fort soutien de la communauté pour sa nature open source et l'implication continue de Synadia. Finalement, Redis revient vers une licence open source OSI, avec la AGPL https://foojay.io/today/redis-is-now-available-under-the-agplv3-open-source-license/ Redis passe à la licence open source AGPLv3 pour contrer l'exploitation par les fournisseurs cloud sans contribution. Le passage précédent à la licence SSPL avait nui à la relation avec la communauté open source. Salvatore Sanfilippo (antirez) est revenu chez Redis. Redis 8 adopte la licence AGPL, intègre les fonctionnalités de Redis Stack (JSON, Time Series, etc.) et introduit les “vector sets” (le support de calcul vectoriel développé par Salvatore). Ces changements visent à renforcer Redis en tant que plateforme appréciée des développeurs, conformément à la vision initiale de Salvatore. Conférences La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs : 6-7 mai 2025 : GOSIM AI Paris - Paris (France) 7-9 mai 2025 : Devoxx UK - London (UK) 15 mai 2025 : Cloud Toulouse - Toulouse (France) 16 mai 2025 : AFUP Day 2025 Lille - Lille (France) 16 mai 2025 : AFUP Day 2025 Lyon - Lyon (France) 16 mai 2025 : AFUP Day 2025 Poitiers - Poitiers (France) 22-23 mai 2025 : Flupa UX Days 2025 - Paris (France) 24 mai 2025 : Polycloud - Montpellier (France) 24 mai 2025 : NG Baguette Conf 2025 - Nantes (France) 3 juin 2025 : TechReady - Nantes (France) 5-6 juin 2025 : AlpesCraft - Grenoble (France) 5-6 juin 2025 : Devquest 2025 - Niort (France) 10-11 juin 2025 : Modern Workplace Conference Paris 2025 - Paris (France) 11-13 juin 2025 : Devoxx Poland - Krakow (Poland) 12 juin 2025 : Positive Design Days - Strasbourg (France) 12-13 juin 2025 : Agile Tour Toulouse - Toulouse (France) 12-13 juin 2025 : DevLille - Lille (France) 13 juin 2025 : Tech F'Est 2025 - Nancy (France) 17 juin 2025 : Mobilis In Mobile - Nantes (France) 19-21 juin 2025 : Drupal Barcamp Perpignan 2025 - Perpignan (France) 24 juin 2025 : WAX 2025 - Aix-en-Provence (France) 25-26 juin 2025 : Agi'Lille 2025 - Lille (France) 25-27 juin 2025 : BreizhCamp 2025 - Rennes (France) 26-27 juin 2025 : Sunny Tech - Montpellier (France) 1-4 juillet 2025 : Open edX Conference - 2025 - Palaiseau (France) 7-9 juillet 2025 : Riviera DEV 2025 - Sophia Antipolis (France) 5 septembre 2025 : JUG Summer Camp 2025 - La Rochelle (France) 12 septembre 2025 : Agile Pays Basque 2025 - Bidart (France) 18-19 septembre 2025 : API Platform Conference - Lille (France) & Online 23 septembre 2025 : OWASP AppSec France 2025 - Paris (France) 25-26 septembre 2025 : Paris Web 2025 - Paris (France) 2-3 octobre 2025 : Volcamp - Clermont-Ferrand (France) 3 octobre 2025 : DevFest Perros-Guirec 2025 - Perros-Guirec (France) 6-10 octobre 2025 : Devoxx Belgium - Antwerp (Belgium) 7 octobre 2025 : BSides Mulhouse - Mulhouse (France) 9-10 octobre 2025 : Forum PHP 2025 - Marne-la-Vallée (France) 9-10 octobre 2025 : EuroRust 2025 - Paris (France) 16 octobre 2025 : PlatformCon25 Live Day Paris - Paris (France) 16-17 octobre 2025 : DevFest Nantes - Nantes (France) 30-31 octobre 2025 : Agile Tour Bordeaux 2025 - Bordeaux (France) 30-31 octobre 2025 : Agile Tour Nantais 2025 - Nantes (France) 30 octobre 2025-2 novembre 2025 : PyConFR 2025 - Lyon (France) 4-7 novembre 2025 : NewCrafts 2025 - Paris (France) 6 novembre 2025 : dotAI 2025 - Paris (France) 7 novembre 2025 : BDX I/O - Bordeaux (France) 12-14 novembre 2025 : Devoxx Morocco - Marrakech (Morocco) 13 novembre 2025 : DevFest Toulouse - Toulouse (France) 15-16 novembre 2025 : Capitole du Libre - Toulouse (France) 20 novembre 2025 : OVHcloud Summit - Paris (France) 21 novembre 2025 : DevFest Paris 2025 - Paris (France) 27 novembre 2025 : Devfest Strasbourg 2025 - Strasbourg (France) 28 novembre 2025 : DevFest Lyon - Lyon (France) 5 décembre 2025 : DevFest Dijon 2025 - Dijon (France) 10-11 décembre 2025 : Devops REX - Paris (France) 10-11 décembre 2025 : Open Source Experience - Paris (France) 28-31 janvier 2026 : SnowCamp 2026 - Grenoble (France) 2-6 février 2026 : Web Days Convention - Aix-en-Provence (France) 23-25 avril 2026 : Devoxx Greece - Athens (Greece) 17 juin 2026 : Devoxx Poland - Krakow (Poland) Nous contacter Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com Faire un crowdcast ou une crowdquestion Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/

Vet'o micro
Épisode #108 - Fabrice Jaffré : E404 : carrière linéaire non trouvée

Vet'o micro

Play Episode Listen Later May 5, 2025 68:54


Fabrice Jaffré, vétérinaire reconverti dans la cybersécurité, bilan carboneur, formateur RSE et animateur de fresques écologiques (ENVN, 1991) au

Entreprendre dans la mode
[EXTRAIT] Comment faire exploser ton taux de conversion en email | Thomas Pedegaye (Email Club)

Entreprendre dans la mode

Play Episode Listen Later May 4, 2025 11:40


Masters of Privacy (ES)
Laura Juanes: el impacto de la inteligencia artificial sobre la ciberseguridad, derecho comparado y capacitación

Masters of Privacy (ES)

Play Episode Listen Later Apr 29, 2025 42:26


Laura Juanes es jurista especializada en protección de datos personales, gobernanza de inteligencia artificial y derechos humanos en el entorno digital, con más de veinte años de experiencia internacional, y es directora académica del programa avanzado de gestión de incidentes de ciberseguridad en el contexto de la inteligencia artificial (IE Law School).  Laura está basada en Miami y es fundadora de Global Privacy & Policy Consulting, donde asesora a empresas sobre desafíos tecnológicos y regulatorios, forma parte del Consejo de Administración de Caixabank Payments & Consumer y del Consejo Asesor del Ethical AI Governance Group. Laura ha liderado funciones globales de protección de datos personales, cumplimiento y gobernanza digital en Yahoo! y Meta, y también en grupos internacionales en otros sectores como RBI (dueños de Burger King). Ha sido ponente en foros como el G-20, el Foro Económico Mundial, la OEA, la Asamblea Global de Privacidad y la IAPP.  Nuestra invitada es licenciada en Derecho por la Universidad Autónoma de Madrid y tiene un LLM por la Universidad de Miami. Ha co -fundado el Women in Tech Miami Council y colabora como mentora de startups en Florida y América Latina. Referencias: Laura Juanes en LinkedIn IE Law School: Managing Cyber Incidents in an AI Driven World (Advanced Legal Program) Ethical AI Governance Group Women in Tech Miami Council  

Podcast Libre à vous !
Au café libre

Podcast Libre à vous !

Play Episode Listen Later Apr 29, 2025 61:41


Les références : Le ministère de la recherche veut sécuriser données et logiciels face au protectionnisme de Trump Communiqué de l'April : L'État doit créer et maintenir une forge publique des codes développés par l'administration Les droits de douane Trump relancent l'hypothèse d'une taxe GAFAM européenne La Commission européenne inflige d'importantes amendes à Meta et Apple, les premières dans le cadre du règlement visant à limiter le pouvoir des géants du numérique Meta va de nouveau entrainer ses IA sur les données des utilisateurs européens La base de données de vulnérabilités CVE a failli perdre son financement américain Le Signalgate offre une visibilité mondiale au logiciel libre de messagerie Quitter les Gafam en 2025, c'est possible : voici les meilleures alternatives L'association NOYB porte plainte contre Ubisoft pour violation du RGPD Article de l'April : Délais de mise en œuvre et précisions sur l'obligation de certification des logiciels de caisseVous pouvez mettre un commentaire pour l'épisode. Et même mettre une note sur 5 étoiles si vous le souhaitez. Et même mettre une note sur 5 étoiles si vous le souhaitez. Il est important pour nous d'avoir vos retours car, contrairement par exemple à une conférence, nous n'avons pas un public en face de nous qui peut réagir. Pour mettre un commentaire ou une note, rendez-vous sur la page dédiée à l'épisode.Aidez-nous à mieux vous connaître et améliorer l'émission en répondant à notre questionnaire (en cinq minutes). Vos réponses à ce questionnaire sont très précieuses pour nous. De votre côté, ce questionnaire est une occasion de nous faire des retours. Pour connaître les nouvelles concernant l'émission (annonce des podcasts, des émissions à venir, ainsi que des bonus et des annonces en avant-première) inscrivez-vous à la lettre d'actus.

Choses à Savoir TECH VERTE
« Starter Pack GPT », une catastrophe énergétique ?

Choses à Savoir TECH VERTE

Play Episode Listen Later Apr 13, 2025 2:40


C'est la nouvelle lubie du moment : les Starter Packs GPT pullulent sur les réseaux sociaux. Ces images, générées par intelligence artificielle, représentent les utilisateurs comme des figurines entourées d'objets censés refléter leur personnalité. Ludique, créatif, parfois très drôle : la tendance séduit autant les particuliers que les marques et les influenceurs, qui rivalisent d'imagination pour publier leur propre kit visuel.Mais derrière ce phénomène viral se cachent des enjeux bien plus lourds que quelques accessoires numériques. Car pour créer ces visuels personnalisés, il faut plus que de l'inspiration : il faut des ressources techniques colossales. L'IA de ChatGPT, à l'origine de ces créations, fonctionne grâce à des infrastructures très gourmandes en énergie. On estime que chaque image générée consomme autant que recharger un smartphone à moitié… et entre 2 à 5 litres d'eau sont nécessaires pour refroidir les serveurs qui font tourner ces modèles. À l'échelle mondiale, cela devient vertigineux.Et ce n'est pas tout : pour générer un Starter Pack personnalisé, l'utilisateur fournit des données personnelles – prénom, centres d'intérêt, parfois même des photos. Des informations sensibles, qui peuvent être stockées et utilisées, parfois sans que l'internaute en soit pleinement conscient. Par défaut, OpenAI conserve les échanges sauf paramétrage contraire. Comme le souligne Daria Viktorova, juriste spécialisée en IA, « ce qui reste après la mode, ce sont les données partagées – et c'est là que se joue l'enjeu majeur ».La transparence des entreprises d'IA sur ce sujet est souvent pointée du doigt. Certains utilisateurs sur Reddit ou des spécialistes comme Marion Mary dénoncent l'opacité des conditions générales, bien souvent illisibles pour le grand public. Et même en Europe, où le RGPD encadre partiellement l'usage des données, la législation peine à suivre le rythme des IA génératives. L'Union européenne prépare l'AI Act, un texte censé renforcer la régulation de l'intelligence artificielle. Mais en attendant, les questions restent nombreuses : qui est responsable si un visuel contient un contenu offensant ? L'utilisateur ? La plateforme ? Le développeur ? Et surtout : quelle place reste-t-il aux artistes humains ? Car oui, cette vague numérique menace aussi les créateurs. Sur Instagram, Sophie, une jeune illustratrice niçoise, interpelle la ville de Nice : pourquoi ne pas faire appel à de vrais artistes, comme on consulte un médecin pour une angine ? Derrière le divertissement, une vraie crise de valeurs se profile. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Masters of Privacy (ES)
Alejandro Prieto: privacidad anticompetitiva, DNIs explosivos y difamación artificial

Masters of Privacy (ES)

Play Episode Listen Later Apr 7, 2025 29:16


Alejandro Prieto es director del Departamento de Protección de Datos y Regulación Digital de Autocontrol. Anteriormente ha sido DPO del Grupo Alsea (VIPS, Starbucks, Foster's Hollywood, Domino's Pizza) y de Bluetab Solutions (Grupo IBM), así como consultor de seguridad de la información. Alejandro participa como docente en diversas instituciones, incluyendo la Universidad Carlos III de Madrid. Con nuestro invitado hemos abordado la nueva categorización de datos del DNI como especialmente sensibles, la denuncia de NOYB a OpenAI por atribuir a un ciudadano noruego el asesinato de sus hijos y la multa a Apple de 150 millones de euros en Francia por prácticas anticompetitivas.  Referencias: Alejandro Prieto en LinkedIn Newsletter de Alejandro Prieto Alejandro Prieto en Bluesky Multa de 150 millones de euros a Apple por usar “App Tracking Transparency” para imponer cortapisas en un mercado publicitario en el que participa sin el mismo nivel de consentimiento Sergio Maldonado: Apple vs. Privacy (2021, EN - Medium) La AEPD estima que el DNI contiene datos especialmente sensibles e impone sanción de 100.000 euros por solicitar su fotocopia por email (sanción) La AEPD sanciona por fotografiar el DNI en la entrega de paquetes (finReg360) OpenAI demandada en Noruega por difamar a un ciudadano atribuyéndole el asesinato de sus hijos Jorge García Herrero: ¿Contienen datos personales los LLM? ¿Cómo aplicamos el RGPD a los sistemas de IA generativa? (Masters of Privacy) Alejandro Prieto en Masters of Privacy (enero 2024): códigos de conducta en el mercado publicitario y la nueva dimensión del consentimiento APEP: Publicidad digital respetando la privacidad (curso).  

SMART TECH
Des actions de groupe pour protéger les données personnelles

SMART TECH

Play Episode Listen Later Mar 31, 2025 5:43


Introduites récemment en France, les actions de groupe trouvent leur origine dans le système juridique américain du 19ème siècle. A l'époque de l'entrée en vigueur du RGPD, on prédisait ou du moins on craignait que ce type d'action soit monnaie courante, mais finalement ça n'a pas véritablement été le cas. Comment expliquer ce faible engouement ? -----------------------------------------------------------------------SMART TECH - Le magazine quotidien de l'innovationDans SMART TECH, l'actu du numérique et de l'innovation prend tout son sens. Chaque jour, des spécialistes décryptent les actualités, les tendances, et les enjeux soulevés par l'adoption des nouvelles technologies.

Start to scale
#84 Affaires publiques en startup : pourquoi est-ce un levier de croissance?", avec Gabrielle Moreau

Start to scale

Play Episode Listen Later Mar 31, 2025 20:09


Dans ce podcast, Gabrielle, EMEA Communication & Public Affairs Manager chez ContentSquare, nous partage comment et pourquoi une startup doit se structurer en affaires publiques. Du Next 40 aux partenariats stratégiques, elle explique comment ce levier peut accélérer la croissance et éviter des blocages réglementaires.Au programme :À quel moment une startup doit s'intéresser aux affaires publiquesComment la French Tech et Business France ouvrent des portes à l'internationalPourquoi suivre et anticiper les réglementations est vital (RGPD, AI Act…)Gérer les sollicitations et prioriser les opportunités réellement utilesPour commander le livre Start Up & Down de Thibault Renouf: https://urls.fr/oR9K5pSoutenez l'émission ❤1 - Abonnez-vous pour ne rien manquer2 - Notez Start to Scale 5 étoiles ⭐ sur Apple Podcast avec un petit commentaire (ou sur Spotify)3 - Partagez-le podcast sur vos réseaux sociauxUn petit geste qui prend 30 secondes. Mais qui nous fait super plaisir en coulisses

Matin Première
Reconnaissance faciale illégale lors de courses à pied : PhotoRunning sous enquête

Matin Première

Play Episode Listen Later Mar 21, 2025 4:06


L'entreprise PhotoRunning, spécialisée dans la photographie d'événements sportifs en France, a utilisé un logiciel de reconnaissance faciale pour identifier les coureurs sur des photos, sans respecter la législation sur la protection des données personnelles (RGPD). Ce procédé a concerné plusieurs centaines de milliers de participants, dont des mineurs, et a été jugé illégal, car il ne respectait pas le consentement préalable des participants. En plus des coureurs, des spectateurs ont également été pris en photo sans leur autorisation. Une plainte a été déposée auprès de la CNIL pour dénoncer cette violation des droits des individus. Présenté par Eva Seker Merci pour votre écoute N'hésistez pas à vous abonner également aux podcasts des séquences phares de Matin Première: L'Invité Politique : https://audmns.com/LNCogwPL'édito politique « Les Coulisses du Pouvoir » : https://audmns.com/vXWPcqxL'humour de Matin Première : https://audmns.com/tbdbwoQRetrouvez tous les contenus de la RTBF sur notre plateforme Auvio.be Retrouvez également notre offre info ci-dessous : Le Monde en Direct : https://audmns.com/TkxEWMELes Clés : https://audmns.com/DvbCVrHLe Tournant : https://audmns.com/moqIRoC5 Minutes pour Comprendre : https://audmns.com/dHiHssrEt si vous avez apprécié ce podcast, n'hésitez pas à nous donner des étoiles ou des commentaires, cela nous aide à le faire connaître plus largement. Distribué par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

DigitalFeeling
Episode 110 - Le partage des données et les outils d'IA générative

DigitalFeeling

Play Episode Listen Later Mar 21, 2025 12:15


Épisode 110 - Comment sécuriser l'usage de l'IA en entreprise ? Confidentialité, RGPD et Intelligence Artificielle : Quels risques et quelles bonnes pratiques ?Dans ce nouvel épisode de Digital Feeling, j'aborde un sujet essentiel pour toutes les entreprises qui adoptent l'IA : la protection des données et la sécurisation de son usage par les collaborateurs.De plus en plus d'employés utilisent des outils comme ChatGPT ou Copilot, parfois sans l'aval de leur entreprise. Ce phénomène, appelé Shadow GPT, pose des questions en termes de confidentialité des données, respect du RGPD et conformité aux réglementations internationales.

Code-Garage
Code-Garage #119 - Qu'est-ce qu'une donnée dérivée ?

Code-Garage

Play Episode Listen Later Mar 18, 2025 11:44


Qu'est-ce qu'une donnée dérivée, une donnée inférée ou une donnée déduite ? Qu'est-il possible de faire et quelles sont les implications pour votre vie privée ?Liens de l'épisode :Profitez du prix de l'abonnement : https://code-garage.com/payment/pricingLa ré-identification des données : https://code-garage.com/podcast/classic/episode-93Le fingerprinting : https://code-garage.com/podcast/classic/episode-57Notre cours sur le RGPD et le juridique pour les devs : https://code-garage.com/courses/juridique

DigitalFeeling
Episode 109 - L'IA Générative : réponses aux questions des Professionnels

DigitalFeeling

Play Episode Listen Later Mar 14, 2025 5:28


Pour ce 109 ème épisode je vous réserve une surprise !J'ai cloné ma voix et utilisée l'IA pour générer cet épisode ;)On parle IA avec une IA !Attention néanmoins, le son baisse au fur et à mesure dans cet épisode ;(L'intelligence artificielle générative fascine autant qu'elle inquiète. Comment fonctionne-t-elle ? Quels sont ses risques et ses opportunités pour les entreprises ? Peut-elle remplacer des emplois ? Dans cet article, nous répondons aux questions les plus fréquentes sur l'IA générative et son impact dans le monde professionnel.Qu'est-ce que l'IA générative et comment l'intégrer en entreprise ?L'IA générative repose sur des modèles avancés comme GPT-4, capables de créer du contenu texte, image, audio et même vidéo. Son intégration en entreprise dépend du secteur d'activité :✅ Marketing : Rédaction d'articles, génération de posts pour les réseaux sociaux, personnalisation des emailings.✅ Juridique : Analyse et synthèse de documents complexes.✅ Finance : Automatisation de rapports et prédictions financières.Comment débuter avec l'IA générative ?Mon conseil : commencez par un projet pilote. Testez des outils comme ChatGPT, Jasper ou Copy.ai, observez les résultats et ajustez votre stratégie avant un déploiement à plus grande échelle.L'IA générative va-t-elle remplacer des emplois ?Oui et non. L'IA peut automatiser certaines tâches répétitives, mais elle ne remplace ni la créativité, ni le jugement humain, ni l'expertise métier.

Monde Numérique - Jérôme Colombain
L'humeur de Luc Julia - Règlementation, open source et IA agentique

Monde Numérique - Jérôme Colombain

Play Episode Listen Later Mar 6, 2025 14:23


Chaque mois, Luc Julia, co-inventeur de Siri et directeur scientifique de Renault, partage son analyse de la tech avec les auditeurs de Monde Numérique.Régulation de l'IAPlutôt qu'une approche trop stricte en amont, Luc Julia préconise une régulation a posteriori pour ne pas freiner l'innovation. Selon lui, vouloir encadrer l'IA avant même de comprendre ses applications réelles pourrait mener à des interdictions inutiles. Il cite l'exemple du RGPD, mis en place 15 ans après l'apparition des problèmes, ce qui a permis une adaptation plus pragmatique aux enjeux technologiques.Open sourceIl voit dans les IA open source une opportunité stratégique pour favoriser la transparence et l'indépendance technologique face aux géants américains. Contrairement aux modèles fermés des grandes entreprises de la Silicon Valley, l'open source permettrait de développer des IA plus spécialisées, adaptées aux besoins locaux et respectueuses des contraintes de souveraineté et de confidentialité.IA agentiqueLuc nous explique comment ces agents spécialisés, capables d'orchestrer des tâches complexes, pourraient révolutionner des domaines comme la robotique. Inspirée de travaux démarrés dans les années 80, cette approche repose sur la coordination de plusieurs IA aux fonctions spécifiques. Selon lui, ces agents intelligents pourraient permettre une automatisation plus avancée, notamment dans la gestion des systèmes industriels et des robots autonomes.-----------♥️ Soutenez Monde Numérique : https://donorbox.org/monde-numerique

Anomia - le partenaire Business des avocats

Thomas Livenais est avocat associé chez INLO Avocats, spécialisé en propriété intellectuelle et droit des nouvelles technologies. Il accompagne les entreprises innovantes dans leur mise en conformité avec les réglementations RGPD et IA, ainsi que dans la négociation et la rédaction de leurs contrats IT.Il a débuté sa carrière en tant que juriste chez eFront avant de devenir avocat au sein du cabinet CMS Francis Lefebvre. Cette double expérience lui permet de conjuguer expertise juridique et compréhension des enjeux business des entreprises.Diplômé de l'Université Toulouse 1 Capitole, il est titulaire d'un Master 2 en droit des affaires et d'un Master 2 en droit de la propriété intellectuelle. Il est également membre du comité de veille réglementaire de Hub France IA, où il contribue à l'analyse des évolutions réglementaires en intelligence artificielle. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Masters of Privacy (ES)
Jorge Cabet: data scraping, el viaje a KASPR

Masters of Privacy (ES)

Play Episode Listen Later Feb 18, 2025 62:42


¿Qué sucede cuando una empresa recaba datos personales de una web abierta o protegida mediante técnicas de “data scraping”? Hemos tratado varios casos recientes (KASPR-CNIL, Equifax-AEPD, Experian-ICO) con Jorge Cabet, pero no sin antes darnos un paseo entretenido por la historia del web scraping y el solapamiento de disciplinas que esta práctica invoca a ambos lados del charco. Jorge Cabet es Director en el departamento de Corporate e Innovación del despacho Augusta Abogados. Nuestro invitado ha ejercido en distintos despachos internacionales y ha trabajado también para el ente público. Colabora con distintos medios y publica artículos doctrinales además de ejercer la docencia en la Universidad. Referencias: Jorge Cabet (Cinco Días): el caso KASPR: empresas que usan tus datos, una realidad peligrosa de internet Jorge Cabet en LinkedIn Resolución de la AEPD contra EQUIFAX IBÉRICA (1 millón de euros) (EN) El caso de OpenAI reabre el debate sobre web scraping (Cyberscoop) (EN) hiQ Labs vs. LinkedIn (EN) Data scraping: KASPR fined €240,000 (CNIL) (EN) Polish Supervisory Authority issues GDPR fine for data scraping without informing individuals (Inside Privacy) (EN) Tribunal rules on Experian appeal against ICO action (ICO).

Toute l'info du week-end - Bernard Poirette
Ai-je le droit d'interdire à une IA d'utiliser ma voix, mon visage ou mes écrits ?

Toute l'info du week-end - Bernard Poirette

Play Episode Listen Later Feb 15, 2025 3:28


Roland Perez explique comment protéger vos droits face à l'utilisation de votre voix, de votre image et de vos écrits par l'intelligence artificielle. Il détaille les démarches à entreprendre pour vous opposer à cette utilisation non autorisée, en vous appuyant notamment sur le RGPD et les conditions d'utilisation des plateformes. Des conseils pratiques sont également donnés pour surveiller l'apparition de vos contenus en ligne et agir en cas de non-respect de vos droits.Notre équipe a utilisé un outil d'Intelligence artificielle via les technologies d'Audiomeans© pour accompagner la création de ce contenu écrit.

Le Super Daily
Youpi, c'est lundi et l'actualité social media est bouillante !

Le Super Daily

Play Episode Listen Later Feb 10, 2025 15:21


Épisode 1261 : Aujourd'hui on vous fait un tour d'horizon des dernières actus des plateformes sociales, de Threads à Linkedin en passant par Meta et Whatsapp, il y en aura pour tous les goûts ! Meta améliore son IA pour le ciblage publicitaire avec Advantage+Depuis plusieurs années, Meta mise sur l'IA pour optimiser la diffusion des publicités sur Facebook et Instagram. Avec la fin du ciblage ultra-précis dû aux restrictions sur les données personnelles (RGPD, iOS 14.5), l'automatisation via l'IA devient une priorité pour améliorer la performance des campagnes.Meta met à jour son système publicitaire Advantage+, optimisé par l'IA, pour automatiser davantage le ciblage des campagnes. Désormais, les marketeurs n'auront plus à choisir entre une campagne manuelle et une campagne Advantage+, car ce mode d'optimisation sera activé sur tous les éléments de la campagne.Threads génère plus d'engagement que X (ex-Twitter)Depuis le rachat de Twitter par Elon Musk en 2022, la plateforme a subi de nombreuses transformations (réduction de la modération, mises à jour controversées, montée en puissance de l'abonnement X Premium). Ces choix ont poussé Meta à lancer Threads, un concurrent direct, en juillet 2023.L'application Threads, le concurrent de X (ex-Twitter) lancé par Meta, connaît une forte progression avec 320 millions d'utilisateurs actifs. Une recente étude de buffer ki montre que les publications sur Threads génèrent 73,6% plus d'engagement que celles sur X.

Choses à Savoir TECH
L'AI Act européen va-t-il réellement contrôler l'IA ?

Choses à Savoir TECH

Play Episode Listen Later Feb 4, 2025 3:18


L'intelligence artificielle est sur toutes les lèvres, entre promesses technologiques et inquiétudes croissantes. Face aux risques liés à son développement rapide, l'Europe a décidé de serrer la vis. Adopté le 12 juillet 2024 et entré en vigueur le 1er août 2024, l'AI Act instaure un cadre réglementaire strict pour les systèmes d'IA en fonction de leur niveau de risque. Son objectif : bannir les IA jugées inacceptables et encadrer celles qui présentent un risque élevé. Mais sa mise en œuvre s'annonce déjà semée d'embûches.Le règlement européen définit quatre niveaux de risque, chacun impliquant un encadrement spécifique :-Risque minimal : Aucune régulation nécessaire, il concerne des outils comme les filtres anti-spam.-Risque spécifique lié à la transparence : Concerne notamment les chatbots, qui doivent informer clairement les utilisateurs qu'ils interagissent avec une machine.-Risque élevé : Cible les IA pouvant avoir un impact négatif sur la sécurité ou les droits fondamentaux. Elles nécessitent un contrôle renforcé.-Risque inacceptable : IA interdites en Europe, comme celles dédiées à la notation sociale, la reconnaissance faciale à grande échelle ou la prédiction criminelle. Seules exceptions : leur usage par les forces de l'ordre et pour la détection d'émotions à des fins médicales ou de sécurité.Pour se conformer à cette nouvelle législation, les entreprises du secteur ont jusqu'au 2 février 2025 pour s'adapter. Les sanctions sont lourdes : jusqu'à 35 millions d'euros d'amende ou 7 % du chiffre d'affaires annuel. En septembre 2024, 115 organisations, dont Google, Amazon et OpenAI, ont signé le pacte européen sur l'IA, s'engageant à cartographier les IA à risque. En revanche, Meta, Apple et Mistral se sont fait remarquer par leur absence, soulevant des questions sur leur position face à cette régulation. Parmi les technologies potentiellement menacées, DeepSeek, une IA chinoise spécialisée dans le traitement des données, est déjà dans le viseur des régulateurs européens.Si le texte est en vigueur, son application concrète reste incertaine. La Commission européenne devait publier des directives précises début 2025, mais elles se font toujours attendre. Cette absence de clarté inquiète les entreprises du secteur. Rob Sumroy, avocat spécialisé en droit des technologies, souligne un point essentiel : « Les entreprises s'interrogent sur l'arrivée de directives claires, et surtout, sur leur capacité à vraiment encadrer la conformité ». De plus, bien que les sanctions soient prévues, elles n'entreront probablement pas en vigueur immédiatement. Autre question majeure : comment l'AI Act va-t-il coexister avec d'autres régulations déjà en place, comme le RGPD, la directive NIS2 sur la cybersécurité ou encore DORA, qui encadre les risques numériques dans la finance ? Ces textes comportent déjà des exigences de notification d'incidents, qui pourraient se chevaucher avec les nouvelles règles européennes sur l'IA.L'entrée en vigueur de l'AI Act ne signifie pas une application immédiate. Son déploiement s'étalera jusqu'en août 2027, ce qui laisse du temps aux entreprises pour s'adapter… mais aussi aux zones d'ombre pour persister. En attendant, le débat reste ouvert : l'Europe parviendra-t-elle à encadrer l'IA sans freiner l'innovation ? Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

SMART TECH
RGPD : enjeux de conformité et évolutions

SMART TECH

Play Episode Listen Later Feb 3, 2025 14:40


Le RGPD, célèbre règlement général sur la protection des données va bientôt souffler sa 9ème bougie ! Et il sera d'ailleurs le thème phare de la 19e édition de l'Université des DPO organisée par l'AFCDP. L'occasion d'évoquer les enjeux juridiques, éthiques et technologiques et les évolutions du métier de délégué à la protection des données. -----------------------------------------------------------------------SMART TECH - Le magazine quotidien de l'innovationDans SMART TECH, l'actu du numérique et de l'innovation prend tout son sens. Chaque jour, des spécialistes décryptent les actualités, les tendances, et les enjeux soulevés par l'adoption des nouvelles technologies.

Masters of Privacy (ES)
Ramon Baradat: el Data Act, dispositivos conectados y solapamiento con protección de datos personales

Masters of Privacy (ES)

Play Episode Listen Later Jan 14, 2025 35:43


Tenemos pocos meses para adecuarnos al Data Act, que presenta interesantes solapamientos con el RGPD. ¿Cómo adecuar dispositivos en IoT, coches conectados, Smart Cities, Smart Homes, o accesorios destinados a optimizar la salud? Ramon Baradat es un abogado especializado en privacidad y derecho de las TIC (incluyendo comercio electrónico, IA o ciberseguridad) en la oficina de Barcelona de Cuatrecasas. También es autor de diversas publicaciones, docente y ponente, además de coordinar el capítulo de la IAPP en la ciudad condal, conjuntamente con Monica Meiterman, que ya ha estado con nosotros en el canal en inglés.  Referencias: Ramon Baradat en LinkedIn Data Act (Reglamento de 2023 sobre normas armonizadas para un acceso justo a los datos y su utilización) Leonardo Cervera: la protección de datos frente a la inminente avalancha regulatoria (Masters of Privacy) Ramon Baradat: Data Act: nuevas previsiones entre titulares de datos y usuarios Ramon Baradat: Data Act: nuevas previsiones para destinatarios de datos Data Governance Act (Reglamento de 2022 relativo a la gobernanza europea de datos) Directiva 1996 sobre la protección jurídica de las bases de datos Dato inferido o derivado en el ejercicio de portabilidad: directrices 2016 CEPD/EDPB  If This Then That - IFTTT (aplicación de automatización) [EN] Agentes inteligentes con Jamie Smith (Masters of Privacy) [EN] Dan Stone y Icebreaker: cartera para gestionar la propia identidad de forma descentralizada (Masters of Privacy) Espacios europeos comunes de datos

Masters of Privacy (ES)
Rafael Jiménez: medición digital sin consentimiento para trabajar con datos más fiables y webs más respetuosas

Masters of Privacy (ES)

Play Episode Listen Later Dec 26, 2024 31:23


¿Por qué no se está aprovechando el mercado de las directrices publicadas por la AEPD para hacer medición digital sin consentimiento? ¿Cuál es el impacto real de introducir un “rechazar todo” en primera capa?  Rafa Jiménez (PDD, IESE) lleva toda la vida trabajando en la industria y es el CEO y fundador de Seal Metrics. Antes de esto fundó Adinton, un software de atribución y análisis predictivo para la gestión de presupuestos de marketing digital. También ha dirigido su propia agencia de marketing digital (Desmarkt), habiendo además sido analista web desde los orígenes de la disciplina.  Referencias: Guía de uso de cookies para herramientas de medición de audiencia (Agencia Española de Protección de Datos, enero de 2024) [EN] Directrices 2/2023 sobre el ámbito técnico del artículo 5(3) de la directiva ePrivacy (Comité Europeo de Protección de Datos, noviembre de 2024 - previa consulta pública lanzada en noviembre de 2023) Seal Metrics: Cookieless Analytics Rafael Jiménez en LinkedIn Jesús Martín: Google ante la medición sin cookies (Masters of Privacy, junio de 2023) Newsroom de invierno: medición web sin consentimiento (Masters of Privacy, enero de 2024) Muerte al faldón de cookies: la nueva frontera de la gestión del consentimiento (Sergio Maldonado, agosto de 2018) [EN] The future of consent pop-ups and programmatic advertising in a privacy-first world (Sergio Maldonado, febrero de 2022) Faldones de consentimiento: la batalla continúa (Sergio Maldonado, octubre de 2022) La Croqueta: cómo devolver la cordura al solapamiento entre ePrivacy y RGPD antes de que los medios espanten a la poca audiencia que aún les queda sobre “consent or Pay” (Sergio Maldonado, enero de 2024) [EN] Romain Robert: Pay or OK in AdTech (Masters of Privacy, enero de 2024) Monográfico: directrices ePrivacy para un mundo post-cookies (Masters of Privacy, diciembre 2023) Monográfico: cookies y derecho comparado (Masters of Privacy, febrero de 2020) Laia Bertran: el nuevo marco jurídico de las cookies (Masters of Privacy, enero de 2020).

Masters of Privacy
Lokke Moerel: using personal data in the development and deployment of AI models

Masters of Privacy

Play Episode Listen Later Dec 22, 2024 23:31


Lokke Moerel is a leading global expert on new technologies, Artificial Intelligence (AI), Big Data, and the Internet of Things, as well as Morrison & Foerster's lead counsel on Binding Corporate Rules (BCR), with vast experience advising multinational companies in obtaining their BCR approvals throughout the EU. She has also authored the leading textbook on the subject, published by Oxford University Press.   We recorded this interview prior to the publication of the European Data Protection Board's opinion on AI models and GDPR principles, following both a discussion paper issued by Hamburg's Supervisory Authority (“Do LLMs contain personal data?”) and an announcement by the Irish Data Protection Commissioner that it would open an investigation into Google's PaLM model.   A separate interview on the same topic, with Jorge Garcia Herrero, was released last week on our Spanish-language channel. References: Do LLMs 'store' personal data? This is asking the wrong question (Lokke Moerel, Marijn Storm) Lokke Moerel on LinkedIn Lokke Moerel, Morrison & Foerster  EDPB opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models Discussion Paper: Large Language Models and Personal Data (Hamburgische Beauftragte für Datenschutz und Informationsfreiheit) Large Language Models do not store personal data: the LLM discussion paper of Hamburg's DPA with Dr. Markus Wünschelbaum (PrivacyPod) Data Protection Commission launches inquiry into Google AI model (DPC) ChatGPT provides false information about people, and OpenAI can't correct it (NOYB) Report of the work undertaken by the EDPB ChatGPT Taskforce (May 2024) [ES] Jorge García Herrero: ¿Contienen datos personales los LLM? ¿Cómo aplicamos el RGPD a los sistemas de IA generativa? (Masters of Privacy)

Choses à Savoir TECH
Pourquoi le nom David Mayer fait planter ChatGPT ?

Choses à Savoir TECH

Play Episode Listen Later Dec 22, 2024 2:03


Bug ou censure ? ChatGPT, le célèbre chatbot d'OpenAI, suscite la curiosité ce week-end après une découverte surprenante. Plusieurs utilisateurs ont constaté que mentionner le nom « David Mayer » dans une conversation provoque un blocage immédiat ou un message d'erreur. Fait intrigant, ce phénomène se produit même si le nom est intégré dans un contexte ou inversé.Ce dysfonctionnement alimente déjà les théories du complot. Selon certains, David Mayer serait une figure censurée par l'IA, notamment en raison d'un lien supposé avec les banquiers Rothschild, souvent pris pour cible dans des récits antisémites. Mais ce n'est pas un cas isolé. Le site 404media rapporte que d'autres noms, comme « Jonathan Zittrain » ou « Jonathan Turley », déclenchent également des messages d'erreur. Ces noms appartiendraient à des professeurs de droit américains ayant critiqué ChatGPT et les intelligences artificielles dans leurs travaux.Comment expliquer ce phénomène ? Une hypothèse avancée par Justine Moore, chercheuse en IA, évoque le droit à l'oubli, inscrit dans le RGPD européen. Des personnalités ayant demandé la suppression de leurs données pourraient ainsi figurer dans une liste noire, générant ces blocages. Une autre théorie suggère que certains noms, comme Jonathan Zittrain, pourraient correspondre à des pseudonymes de figures dangereuses, membres d'organisations terroristes. Ces spéculations rappellent que ChatGPT, bien qu'impressionnant, reste sujet à des « hallucinations », ces réponses erronées dues à des biais dans l'entraînement de l'IA. Pour l'heure, OpenAI n'a pas fourni d'explication officielle, laissant les interrogations ouvertes. En attendant des réponses claires, ces incidents mettent en lumière les défis techniques et éthiques liés à l'utilisation de l'IA, où la transparence est plus cruciale que jamais. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Choses à Savoir TECH
Une IA entraînée avec vos données médicales ?

Choses à Savoir TECH

Play Episode Listen Later Dec 19, 2024 1:57


Elon Musk s'attaque à un nouveau domaine : la médecine. Le milliardaire incite les utilisateurs de X (anciennement Twitter) à partager leurs résultats d'examens médicaux sur la plateforme pour entraîner Grok, le chatbot d'intelligence artificielle développé par xAI. Une démarche audacieuse qui ambitionne de révolutionner le diagnostic médical, mais qui suscite de vives critiques, notamment sur la fiabilité des analyses et la protection des données personnelles.« Soumettez vos radiographies, IRM ou PET scans à Grok pour analyse », a-t-il tweeté. Si certains témoignent d'analyses réussies, comme l'interprétation correcte de résultats sanguins ou l'identification d'un cancer du sein, d'autres exemples sont beaucoup moins flatteurs. Confondre tuberculose et hernie discale, ou interpréter une mammographie comme une image de testicules, illustre les limites actuelles de cette IA.Le Dr Laura Heacock, experte en imagerie médicale à l'université de New York, critique : « Les systèmes d'IA non génératifs restent plus fiables que Grok pour analyser des images médicales. » De son côté, Ryan Tarzy, PDG d'Avandra Imaging, dénonce un développement rapide, mais au détriment de la qualité et de la représentativité des données. Au-delà des erreurs techniques, les inquiétudes se concentrent sur la confidentialité. X n'est pas soumis aux protections HIPAA, l'équivalent américain du RGPD européen. Pour Matthew McCoy, professeur d'éthique médicale à l'université de Pennsylvanie, partager ses données sur une plateforme sociale reste une idée risquée : « Je ne serais absolument pas à l'aise de le faire. ». Malgré ses investissements colossaux – 6 milliards de dollars levés pour xAI –, Elon Musk fait face à des défis titanesques. Si l'IA promet de transformer la médecine, entre erreurs, éthique et vie privée, le chemin vers des diagnostics fiables et sécurisés semble encore long. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Masters of Privacy (ES)
Jorge García Herrero: ¿Contienen datos personales los LLM? ¿Cómo aplicamos el RGPD a los sistemas de IA generativa?

Masters of Privacy (ES)

Play Episode Listen Later Dec 16, 2024 42:51


Algunas autoridades supervisoras dicen que los LLM no contienen datos personales, pero la DPC irlandesa está investigando a Google por su modelo PaLM y NOYB ha presentado queja contra OpenAI por incumplimiento del principio de exactitud.  Después de 17 años en el despacho Garrigues, Jorge García Herrero encontró en 2017 su ikigai en la protección de datos personales. A día de hoy es premio de la AEPD a las “Buenas Prácticas en la implementación del RGPD y la LOPD" (2019), asesora a multinacionales españolas y extranjeras líderes en sus mercados, y lidera dos grupos especialistas en protección de datos. Jorge es además co-autor del manual “Análisis de sanciones en Protección de Datos divididas por conceptos y sectores” (Wolters Kluwer, 2021) y del libro “La adaptación al nuevo marco de protección de datos tras el RGPD y la LOPDGDD” (Wolters Kluwer, 2019). También es ponente y docente habitual en las Universidades de Valladolid, Alicante, Almería, y Pontificia de Salamanca. Su blog es uno de los más leídos en el gremio. Referencias: IA generativa vs RGPD (serie de posts, Jorge García Herrero) Zero-Party Data: Newsletter de Jorge García Herrero y Darío López Rincón Jorge García Herrero en Bluesky Jorge García Herrero en LinkedIn Discussion Paper: Large Language Models and Personal Data (Hamburgische Beauftragte für Datenschutz und Informationsfreiheit) Large Language Models do not store personal data: the LLM discussion paper of Hamburg's DPA with Dr. Markus Wünschelbaum (PrivacyPod) Data Protection Commission launches inquiry into Google AI model (DPC) ChatGPT provides false information about people, and OpenAI can't correct it (NOYB) Informe emitido por el ChatGPT Task Force del CEPD/EDPB Resumen de la evaluación de impacto (DPIA) de la ICO sobre Microsoft 365 CoPilot (por Jonas De Cock) ICO: Data Protection Impact Assessment – Microsoft 365 AI Hallucinations and Data Subject Rights under the GDPR: Regulatory Perspectives and Industry Responses (Theodore Christakis) Rob van Eijk (Future of Privacy Forum) Jorge García Herrero en Masters of Privacy: 2023, 2020

Choses à Savoir TECH
IA Vidéo : OpenAI lance officiellement SORA ?

Choses à Savoir TECH

Play Episode Listen Later Dec 12, 2024 2:02


OpenAI lève le voile sur Sora, son modèle de génération vidéo par intelligence artificielle, présenté lors de l'événement « Shipmas ». Attendu depuis des mois, Sora promet de transformer la création de contenu vidéo, permettant de générer des séquences à partir de simples descriptions textuelles. Deux abonnements sont proposés : ChatGPT Plus, à 20 dollars par mois, permet de créer 50 vidéos en 720p de 5 secondes. Les professionnels opteront pour le forfait Pro, à 200 dollars, offrant 500 vidéos mensuelles en 1080p et des séquences pouvant atteindre 20 secondes. L'atout majeur de Sora ? Le mode « Storyboard », pour enchaîner plusieurs séquences de façon fluide, et « Blending », qui assure des transitions dignes des meilleurs studios.Sur le plan technique, Sora s'appuie sur les avancées de DALL-E 3, offrant une compréhension précise des prompts. La version « Turbo » améliore vitesse et qualité visuelle, bien qu'elle rencontre encore des limites, notamment dans la gestion des mouvements complexes ou des interactions longues. OpenAI met l'accent sur la sécurité : chaque vidéo est marquée par un filigrane discret et des métadonnées C2PA identifiant leur origine, tandis que les contenus sensibles sont strictement interdits.Mais tout n'est pas rose : Sora est inaccessible en Europe, à cause des contraintes réglementaires, notamment le RGPD. Comme pour ChatGPT Voice, les utilisateurs européens devront passer par un VPN pour explorer le potentiel de l'outil. Si Sora impressionne par ses performances, elle reste perfectible. Les ingénieurs travaillent déjà à surmonter ses limites, avec des améliorations prévues pour 2025. Malgré tout, OpenAI ouvre une nouvelle ère pour la création vidéo, même si les Européens devront patienter avant de pleinement y participer. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Happywin
EP 181 De Sophia antipolis à Las Vegas : VIRTEEM une pépite française face aux enjeux de l'I/A

Happywin

Play Episode Listen Later Dec 9, 2024 50:41


Aujourd'hui, je vous emmène à la rencontre de Kevin Soler. Kevin est CEO de VIRTEEM, une pépite de la côte d'azur qui innove dans l'I/A et la réalité virtuelle. VIRTEEM a été sélectionné pour représenter la France au CES de Las Vegas en janvier 2025. Dans cet interview, Kevin nous partage l'histoire de son entreprise et sa vision inspirante de l'I/A et son ambition de positionner la France à travers VIRTEEM comme un acteur majeur sur la scène internationale.  La bataille de l'IA, c'est maintenant !   Si nous voulons un acteur français capable de proposer une solution stockée et opérée en France, en maîtrisant la sécurité des données et le respect des réglementations comme le RGPD ou l'AI ACT 2026, VIRTEEM est la réponse.  Cette entreprise française incarne l'innovation au service de la performance, tout en restant fidèle à nos valeurs et engagements réglementaires.  2. Un insight marquant de Gary Vaynerchuck, que Kevin m'a fait découvrir : « L'attention que vous donnez aux médias, c'est la valeur que vous leur attribuez, et cette valeur est inestimable. » Le véritable défi réside donc dans la manière dont nous utilisons cette attention : savoir quand, pourquoi, et surtout, à bon escient.  Un grand merci à Kevin pour son partage de vision et d'ambition. On lui souhaite un immense succès pour le CES de Las Vegas en janvier 2025 !

Masters of Privacy (ES)
Jorge Campanillas: misterios y despropósitos del registro de viajeros

Masters of Privacy (ES)

Play Episode Listen Later Dec 9, 2024 23:37


Jorge Campanillas Ciaurriz es uno de los abogados pioneros del derecho digital en España, fundador de Iurismatica Abogados y responsable de EventosJuridicos.com, el portal líder en castellano para encontrar eventos relacionados con el gremio.  Nuestro invitado es docente en diferentes másteres, tanto en la Universidad de Mondragón como en Deusto y otras universidades españolas. También es colaborador habitual en medios de comunicación.  Referencias:  Jorge Campanillas Ciaurriz en LinkedIn Jorge Campanillas Ciaurriz en Bluesky Iurismatica Abogados EventosJuridicos.com Real Decreto 933/2021, de 26 de octubre, por el que se establecen las obligaciones de registro documental e información de las personas físicas o jurídicas que ejercen actividades de hospedaje y alquiler de vehículos a motor Estos son los datos que te van a pedir ahora para el registro de viajeros en España (El Confidencial)

Monde Numérique - Jérôme Colombain
[Edito] Tout ce que ChatGPT sait de nous... mais qu'il ne veut pas nous dire

Monde Numérique - Jérôme Colombain

Play Episode Listen Later Nov 22, 2024 6:20


ChatGPT sait plein de choses sur nous. Est-ce un problème ou pas ? Je vous raconte une anecdote personnelle qui devrait vous faire réfléchir.L'autre jour, j'ai demandé à ChatGPT de me dire ce qu'il savait de moi. Il a commencé à par refuser, mais en lui parlant gentiment, il a fini par cracher le morceau et il m'a sorti un portrait hyper détaillé de mon profil et de mes centres d'intérêt. Environ 80 % des informations étaient vraies, à peine 20 % erronées (je n'ai pas de chien, je ne joue pas de trompette et je préfère la raclette à l'aligot). Au-delà de l'aspect amusant, cette expérience soulève la question des données personnelles que l'on confie à OpenAI. ChatGPT assure que les données restent confidentielles et conformes au RGPD, bien que certains incidents passés rappellent qu'il faut rester prudent. L'IA conversationnelle, comme Internet, n'oublie rien. Elle est un outil puissant, mais à utiliser avec discernement. L'écoute de cet édito devrait vous en convaincre. -----------

Masters of Privacy (ES)
Newsroom de otoño de 2024: el retorno del interés legítimo, LinkedIn y la vampírica inmortalidad de la Directiva ePrivacy

Masters of Privacy (ES)

Play Episode Listen Later Nov 12, 2024 32:05


Aquí estamos de nuevo con un Newsroom de otoño. Se repite la estructura habitual: ePrivacy y marco regulatorio; MarTech y AdTech; IA, Competencia y mercados digitales; PETs y Zero-Party Data; Futuro de los medios. Referencias: Post asociado con referencias y transcripción (blog de Masters of Privacy en castellano) Nobody was ready for the Privacy Sandbox, but deprecating cookie banners is long overdue (Sergio Maldonado, Medium) Multa de la AEPD a Ibercaja Multa de 310 millones a LinkedIn en Irlanda Asociación real de tenis contra la autoridad supervisora holandesa (TJUE) Directrices del CEPD sobre tratamientos basados en el interés legítimo Autoridad de Hamburgo: los LLMs no contienen datos personales APEP (21 de noviembre de 2024), Sesión Abierta: Consiente o paga y otros posibles modelos de uso de datos personales en publicidad digital.

Le Super Daily
Youpi c'est lundi, Youtube et Instagram sont au coude-à-coude !

Le Super Daily

Play Episode Listen Later Oct 28, 2024 14:58


Épisode 1204 : Youpi, c'est lundi et on a scruté les actualités social media pour vous trouver quelques pépites avant de bien commencer la semaine !Adam Mosseri est d'humeur bavarde ! Vous le savez, le boss d'Instagram organise fréquemment des sessions « ask me anything » sur son Instagram. L'occasion pour lui de débunker en face caméra des légendes urbaines ou rumeurs sur Instagram.3 sujets qui ont attiré mon attention : Le chef d'IG recommande de publier des carrousels pour améliorer la portée de son compte InstagramAdam Mosseri nous explique qu'on peut publier des reels avec notre logo dessus sans risque Là il est surtout question de filigrane. Ces petits logos persistant qui restent dans un coin de votre vidéo.Instagram dégrade la qualité des vidéos qui sont peu regardéesVous avez peut-être déjà constaté que vos vieilles stories à la une ou que certains vieux reels, avaient une qualité en dessous des autres.Les dirigeants de TikTok savent exactement combien de vidéos il faut pour devenir accro à leur plateformeDes documents internes ont récemment fuite et prouvent que Tiktok est tout à fait conscient du caractère addictif de son application. Pire, ses documents montrent que la plateforme a réalisé ses propres études pour détecter à partir de combien contenu, un utilisateur pouvait devenir accroc et rentrer en dépendance.Alors combien ? 260 vidéos ! Il suffit de 260 vidéos pour devenir accros à l'application.YouTube : Nouvelles fonctionnalités pour les créateurs de contenuYouTube vient d'annoncer plusieurs nouveautés pour enrichir l'expérience des créateurs et de leurs communautés. Parmi elles, l'ajout d'un « sticker de sondage » pour les vidéos Shorts, permettant aux créateurs de poser des questions à leur audience directement dans les Shorts.Sur YouTube jusqu'à maintenant les sondages n'étaient possible qu'en format « post » et s'affichaient dans le feed des utilisateurs ou à l'ancienne les créateurs demandaient dans une vidéo de répondre en commentaires.RGPD : LinkedIn écope d'une amende historique de 310 millions d'eurosLe 24 octobre 2024, LinkedIn a été condamné par la Commission irlandaise pour la protection des données à une amende de 310 millions d'euros pour infraction au RGPD notamment en ce qui concerne ses pratiques publicitaires.Arcachon et l'IALa ville d'arcachon offre un abonnement chat GPt à ses 11259 habitants, l'objectif pour le Maire est de lutter contre la fracture numérique et acculturer le maximum de personnes à l'IA.Retrouvez toutes les notes de l'épisode sur www.lesuperdaily.com ! . . . Le Super Daily est le podcast quotidien sur les réseaux sociaux. Il est fabriqué avec une pluie d'amour par les équipes de Supernatifs. Nous sommes une agence social media basée à Lyon : https://supernatifs.com. Ensemble, nous aidons les entreprises à créer des relations durables et rentables avec leurs audiences. Ensemble, nous inventons, produisons et diffusons des contenus qui engagent vos collaborateurs, vos prospects et vos consommateurs. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Monde Numérique - Jérôme Colombain
(Edito) Les Européens privés de tech pour cause de règlementation

Monde Numérique - Jérôme Colombain

Play Episode Listen Later Sep 27, 2024 4:05


De plus en plus de services numériques ne sont pas déployés en Europe car les géants américains s'opposent à la règlementation européenne.Meta, Apple, OpenAI ont récemment renoncé à lancer certains de leurs services dans les pays européens. La règlementation européenne (RGPD, DMA, DSA, AI Act) serait à l'origine de ces décisions. Un véritable bras de fer sembler s'être engagé entre les géants américains et les législateurs européens, notamment sur la question des données personnelles indispensables à l'entrainement des modèles d'intelligence artificielle. Un dilemme pour les Européens qui risquent de se retrouver privés d'outils innovants indispensables à l'innovation et au développement économique. -----------♥️ Soutien : https://donorbox.org/monde-numerique

IFTTD - If This Then Dev
#288.src - Edge computing: Loin du client, prêt du coeur avec Sacha Morard

IFTTD - If This Then Dev

Play Episode Listen Later Sep 4, 2024 56:11


"Tous les appels third-party se font côté serveur, et donc le navigateur n'a plus rien à faire" Le D.E.V. de la semaine est Sacha Morard, cofondateur de Edgee. Sacha nous explique la nature de l'Edge Computing, son fonctionnement en termes de capture de données, de déploiement. Sacha nous démontre ainsi la possibilité d'exécuter de l'analyse directement sur le serveur, proche du client, et les bénéfices que cela représente face aux adblock (dont on apprends plein de choses) et de RGPD. Et bonus, on évoque WebAssembly ! Nous évoquons aussi les implications potentielles en termes de sécurité et de coûts. Liens évoqués pendant l'émission "Start-up" sur Netflix **DotAI 2024 : Une conférence conçue par des ingénieurs, pour des ingénieurs** Ne manquez pas dotAI 2024, l'événement incontournable de l'année sur l'intelligence artificielle, les 17 et 18 octobre aux Folies Bergère de Paris. Profitez d'une réduction exclusive avec le code IFTTD lors de votre inscription. Inscrivez-vous dès maintenant avant que les places ne soient sold out ! Réservez votre place ici🎙️ Soutenez le podcast If This Then Dev ! 🎙️ Chaque contribution aide à maintenir et améliorer nos épisodes. Cliquez ici pour nous soutenir sur Tipeee 🙏Archives | Site | Boutique | TikTok | Discord | Twitter | LinkedIn | Instagram | Youtube | Twitch | Job Board |

Chronique Economique
Best Of : Les banques se lancent-elles dans la publicité ?

Chronique Economique

Play Episode Listen Later Aug 14, 2024 4:24


La direction de JP Morgan, la plus grande banque américaine, n'a pas annoncé un nouveau produit bancaire ni une nouvelle appli bancaire, elle a juste décidé de devenir une agence de publicité. C'est le Financial Times qui a révélé cette nouvelle. Forte des données privées qu'elle a sur ses clients, la banque JP Morgan promet aux annonceurs de leur offrir la capacité de cibler ses 80 millions de clients dès lors qu'ils effectuent leurs dépenses avec la carte de leur banque. Bien sûr il y aura un consentement préalable des clients, mais c'est fait, c'est acté dans le marbre. C'est la première banque au monde, sauf erreur de ma part, à se lancer comme ça sur le terrain de la publicité. Pourquoi une banque se lance-t-elle dans la pub ? Parce qu'elle ne gagne pas assez d'argent ? Pas du tout. La direction de JP Morgan a constaté deux choses. La première, c'est que la publicité digitale est surtout partagée entre trois géants du numérique (Meta, Google et Amazon). Rien qu'aux Etats-Unis, ce marché de la publicité digitale est de l'ordre de 260 milliards de dollars. Pourquoi laisser ce pactole aux seuls géants du numérique ? Et comme des firmes comme Apple ont renforcé leur politique en matière de vie privée et qu'on va bientôt assister à la fin des cookies tiers, il y a clairement une place à prendre pour les entreprises qui ont des masses de données numériques directes sur leurs clients. C'est évidemment le cas des banques. En Europe, la mentalité est différente et la réglementation RGPD rend a priori cette démarche publicitaire assez difficile. Je dis bien a priori, car les jeunes sont habitués, hélas, à brader leur intimité contre de la gratuité. Ils pourraient donc être une cible publicitaire tentante des banques européennes demain ou après-demain. --- La chronique économique d'Amid Faljaoui, tous les jours à 8h30 et à 17h30. Merci pour votre écoute Pour écouter Classic 21 à tout moment : www.rtbf.be/classic21 Retrouvez tous les épisodes de La chronique économique sur notre plateforme Auvio.be : https://auvio.rtbf.be/emission/802 Et si vous avez apprécié ce podcast, n'hésitez pas à nous donner des étoiles ou des commentaires, cela nous aide à le faire connaître plus largement.

Monde Numérique - Jérôme Colombain
Les Européens otages des GAFAM ? (Debrief Transat)

Monde Numérique - Jérôme Colombain

Play Episode Listen Later Jul 21, 2024 15:18


Alors que Meta a décidé de retarder la sortie de son intelligence artificielle en Europe à cause de la règlementation, avec Bruno Guglielminetti on s'interroge sur la position des Européens face aux géants américains du numérique.Au sommaire également : - Apple accusé d'avoir pillé les transcriptions des vidéos YouTube pour entrainer ses IA- Microsoft lance un concurrent de Canva- « Respect » : un réseau social peuplé uniquement d'IABonne écoute ! -----------

Monde Numérique - Jérôme Colombain
L'HEBDO (20 juillet 2024) : Panne mondiale et souveraineté numérique

Monde Numérique - Jérôme Colombain

Play Episode Listen Later Jul 20, 2024 53:49


Le meilleur de l'actu tech cette semaine : panne géante sur les PC, Meta et l'Europe, contrôle parental, smartphones pliants, Vision Pro, IA et médias, etc.-----------L'ACTU TECH DE LA SEMAINE :- Comment le bug de Crowdstrike a paralysé le monde (03:03)- Meta renonce à lancer son IA en Europe à cause du RGPD (- Musk et l'UE à couteaux tirés à propos de X (08:20)- Contrôle parental obligatoire en France… seulement pour les applis (10:14)LE DEBRIEF TRANSATLANTIQUE avec Bruno Guglielminetti: (11:43)- L'Europe otage de sa règlementation numérique ? - Apple accusé d'avoir pillé les transcriptions des vidéos YouTube pour entrainer ses IA- Microsoft lance un concurrent de Canva (20:25)- Le réseau social « Respect » peuplé uniquement d'IAL'INNOVATION DE LA SEMAINE :- Samsung prépare des smartphones plus fins qui se plieront en trois (27:15)LES INTERVIEWS DE LA SEMAINE :

Tech&Co
Apple prend encore du retard dans l'IA – 17/06

Tech&Co

Play Episode Listen Later Jun 17, 2024 25:49


Lundi 17 juin, François Sorel a reçu Clément David, président de Padok, Salime Nassur, fondateur de Maars et ancien directeur Marketing de Google Cloud Europe, et Gaël Duval, entrepreneur, Business Angel & Fondateur de JeChange.fr. Ils se sont penchés sur Apple qui prend encore du retard dans l'IA, Siri qui va prendre son temps par rapport à Apple Intelligence, Apple face à la tempête européenne, ainsi que sur Meta qui recule sur l'IA, bloqué par le RGPD, dans l'émission Tech & Co, la quotidienne, sur BFM Business. Retrouvez l'émission du lundi au jeudi et réécoutez la en podcast.

Vlan!
#302 Quand la technologie se transforme en arme de guerre avec Asma Mhalla

Vlan!

Play Episode Listen Later Apr 16, 2024 86:00


Asma Mhalla est spécialiste des enjeux politiques et géopolitiques de la Tech, autrice de Technopolitique pour lequel elle est souvent invitée dans les médias. Je connais Asma depuis un moment mais c'est la première fois qu'elle vient sur Vlan! Et ca tombe bien car je connais bien la technologie donc cela permet de challenger Asma, toujours avec bienveillance, pour tirer un maximum d'enseignements. Néanmoins, l'épisode est très compréhensible même si vous n'êtes pas familier avec la technologie, nous avançons crescendo mais avec un point de départ très accessible. Asma nous plongera au cœur des transformations mondiales impulsées par l'intelligence artificielle, nous interrogera sur l'impact de cette technologie sur la recomposition de l'ordre mondial et sur notre quotidien, et nous mettra en garde contre les dangers d'une approche étriquée des innovations qui font les affaires du jour. Nous naviguerons également dans le domaine de la rivalité stratégique et des changements systémiques, sans oublier de débattre des implications sur l'emploi et les enjeux éthiques liés aux armes autonomes. Rejoignez-nous pour ce voyage stimulant qui redéfinira notre rapport aux évolutions technologiques et leurs conséquences au-delà des frontières. Restez avec nous pour cette discussion éclairante. Une partie des questions que l'on aborde : 1. Comment la technologie et en particulier l'intelligence artificielle (IA) sont-elles en train de recomposer l'ordre mondial et les rivalités stratégiques entre nations? 2. Quels sont les enjeux éthiques liés au développement et à l'utilisation des armes autonomes, et comment l'intervention internationale pourrait-elle les réguler? 3. En quoi la "diplomatie liquide" de l'Inde offre-t-elle un modèle pertinent pour comprendre l'influence de la technologie dans les relations internationales? 4. Comment les changements démographiques globaux, comme le vieillissement de certaines sociétés et la jeunesse de continents comme l'Afrique, vont-ils affecter l'équilibre géopolitique et technologique mondial? 5. Quelle stratégie l'Afrique devrait-elle adopter pour répondre aux défis et aux opportunités créés par la révolution technologique, compte tenu de ses défis structurels actuels? 6. De quelle manière l'Europe peut-elle influencer la scène internationale en matière de réglementation de la technologie et quels sont les défis spécifiques auxquels elle est confrontée? 7. Face à la domination des clés technologiques par les États-Unis et la Chine, quel rôle l'Europe et la France peuvent-elles jouer pour développer une souveraineté et une vision techno-industrielle propres? 8. Quelles sont les implications de la manipulation via les réseaux sociaux sur nos démocraties, et comment peut-on reconnaître et contrer cette manipulation? 9. Comment les gouvernements et les sociétés peuvent-ils gérer le stress cognitif engendré par la surabondance d'informations et quelle est l'importance de prendre du recul? 10. Quelles implications le RGPD a-t-il eu jusqu'à présent sur la gouvernance mondiale de l'internet et sur la protection des libertés individuelles face à la propagation des technologies numériques ? Timestamps : 00:00 Défis climatiques et technologiques redéfinissent le monde. 08:00 Manque de vision en politique techno-industrielle. 12:11 Question de technologie pour la puissance mondiale. 19:28 Règlementation politique : respect des règles essentiel. 23:38 Négociations à trois échelles pour souveraineté technologique. 31:18 Technologie, super intelligences, risque pour l'humanité 39:02 La photographie comme art et évolution industrielle. 43:33 L'Inde profite des retombées du découplage. 48:45 Le Kenya et le Maroc en Afrique. 57:17 Évolution géopolitique entre États-Unis et Chine. 59:19 L'Afrique doit surmonter des obstacles pour émerger. 01:07:54 IA pour prises de décision stratégiques, éthique. 01:09:28 Armes semi-autonomes avec risque de dérapage. 01:18:22 Retour de la société politique, rôle de tous. 01:22:47 Choisir où mettre son attention dans société. Suggestion d'autres épisodes à écouter : Vlan #56 Ethique et intelligence artificielle sont elles compatibles?  avec Aurélie Jean (https://audmns.com/mYmYlUh) #178 Les technologies vont-elles nous permettre de faire face au défi climatique? avec Philippe Bihouix (https://audmns.com/ktZSlzb) #261 Chat GPT, les intelligences artificielles face à l'humanité avec Victor Storchan (https://audmns.com/cseeFYI) #146 Comment l'intelligence artificielle peut réellement vous rendre plus humain.e avec Alexandre Pachulski (https://audmns.com/KdwwONa)