Toute l'actualité du Bigdata et surtout de sa communauté francophone dans un podcast.
Vincent Heuschling, Alexander Dejanovski, Jérôme Mainaud, Nicolas Steinmetz

Dans cet épisode du BigData Hebdo, Vincent Heuschling et Paul Peton explorent les dernières annonces d'OpenAI, d'Anthropic et de Google concernant les agents AI et leur monétisation. Au programme les SDK, les workflows, etc...**A retenir dans cet épisode**- Les dernières annonces d'OpenAI, Anthropic, et Google.- Les agents ont de l'argent, il commencent à être monétisés.- OpenAI vise à concurrencer Google et l'App Store d'Apple. - Les SDK sont essentiels pour le développement d'agents AI. - La capacité de prise de décision des agents est cruciale pour leur efficacité. - La tarification des gros modèles AI est démesurée. - Les navigateurs AI soulèvent des questions éthiques. - La connectivité des agents est un enjeu majeur.**Le BigdataHebdo** Le BigdataHebdo est le podcast Francophone de la Data et de l'IA. Retrouvez plus de 200 épisodes https://bigdatahebdo.com Rejoignez la communauté sur le Slack https://join.slack.com/t/bigdatahebdo/shared_invite/zt-a931fdhj-8ICbl9dbsZZbTcze61rr~Q

Dans cet épisode on explore les défis et les évolutions du RAG (Retrieval-Augmented Generation) dans le contexte de l'IA. L'équipe du Bigdata Hebdo discute des promesses des éditeurs, des difficultés rencontrées par les utilisateurs, et des mécanismes d'IA nécessaires pour traiter efficacement les documents.On parle des enjeux liés à l'OCR, au chunking, et à l'importance des modèles d'embeddings.00:00 Introduction03:06 La promesse des éditeurs08:05 Comprendre le RAG et son fonctionnement11:06 Difficultés liées à l'OCR et à l'extraction de données19:05 Recommandations pour l'optimisation des documents28:46 Mistral Document AI et ses fonctionnalités33:49 Chunking et gestion des documents40:55 Fine-tuning des modèles d'embeddings43:00 Formats de documents et leur pérennité47:23 Conclusion et perspectivesNotes et ressources https://bigdatahebdo.com/podcast/episode-224-donnees-non-structurees-et-modern-ocr

Dans cet épisode du Big Data Hebdo, Vincent Heuschling et Nicolas Wlodarczyk discutent des caractéristiques et des avantages de la base de données NoSQL Aerospike. Nicolas partage son parcours dans le domaine de l'IT et explique comment Aerospike se distingue par sa rapidité et sa scalabilité, et sa capacité à optimiser les infrastructures.Chapitres00:00:00 Introduction00:01:42 Présentation d'Aerospike00:21:03 Use-Cases00:27:25 Réduction de l'Infrastructure et Efficacité00:30:22 Intégration et Interopérabilité avec d'autres Systèmes00:41:53 Modèles de Consommation et Licensing00:49:12 Transactions et cohérence00:58:43 RessourcesNotes et ressourceshttps://bigdatahebdo.com/podcast/episode-223-aerospike

Dans cet épisode du Big Data Hebdo, Vincent Heuschling, Paul Peton, et Jérôme Mainaud discutent des événements marquants de l'été 2025 dans le domaine de l'IA et du Big Data, notamment le drama autour de Luc Julia, du lancement raté de GPT5, de l'importance des modèles open source, et les initiatives européennes en matière de souveraineté technologique.

Avec Christophe Blefari (aka Blef) on discute des défis actuels des équipes data et de la réponse apportée par NAO.Comment le “Data vide coding” peut accélérer la productivité des projets data ?On évoque aussi le passage par YC qui a eu un impact significatif sur le produit et la société.On termine cet épisode avec le regard averti de Christophe sur le marché de la Data, et l'impact des LLM.Plus sur : https://bigdatahebdo.com/podcast/episode-221-data-vibe-coding-avec-nao

Dans cet épisode du Big Data Hebdo, Vincent Heuschling et Quentin Ambard reviennent sur le Data and AI Summit 2025 de Databricks.En autres on parle de :L'acquisition de Néon pour avoir une BDD au dessus du LakehouseLakeflow Designer pour avoir une approche low-codeL'intégration de l'IADatabricks One pour rendre l'interface plus accessibleLes améliorations du moteur SQL de DatabricksAgent Bricks qui simplifie le développement d'agents AI.La data-gouvernance avec Unity Catalog.Le Vector Search au dessus du lakehouseLes inevitables troll envers Snowflake

Dans cet épisode du Big Data Hebdo, on regarde l'évolution des formats de fichiers Table, en se concentrant sur Parquet, Delta Lake, Iceberg et Duck Lake. On évoque la gestion des metadata et les catalogues pour la gouvernance des données.

(00:00:00) Episode 218 : Agents IA (00:02:58) Définition d'un agent IA (00:09:49) Agents et outils (00:10:30) TAO & ReAct (00:39:50) Frameworks Dans cet épisode thématique, on explore les agents IA, dernière itération de l'IA Générative.Qu'est ce qui distingue un agent d'un chatbot ou d'un simple prompt ?On parle aussi de la relation entre agents, outils (tools) et modèles LLM.Quels sont les frameworks les plus matures pour construire des agents?

(00:00:00) Episode 217 : BDH live à Devoxx Paris 2025 (00:01:04) Conférence Bug Bash et tests autonomes (00:06:23) Windsurf : révolution du coding assistant (00:16:23) Automatisation de la veille technologique (00:22:28) LLM spécialisés vs généraux (00:37:00) Ariga Atlas pour les bases de données Cet épisode spécial du Big Data Hebdo, enregistré à Devoxx Paris, on donne la parole aux auditeurs ! On parle de Windsurf pour l'assistance au code, de test autonome avec Antithesis (qui a réussi à casser ETCD), et d'automatisation de la veille technologique, et pour finir d'automatisation pour les bases de données avec Ariga Atlas.

Dans cet épisode, on revient sur l'évolution de la data-ingénierie à travers deux outils : DBT et SQLMesh. Comment ces outils ont émergé avec la montée en puissance du SQL dans les architectures modernes ? Comment ils répondent aux enjeux de modélisation, d'industrialisation et de gouvernance de la donnée ? L'épisode est aussi l'occasion d'aborder l'évolution des métiers de la data, notamment l'émergence du rôle d'analytic engineer, à la croisée des chemins entre data engineering et data analytics.La révolution du SQL modulaire → Retour sur l'historique du SQL dans l'analytique moderne, l'explosion du SQL dans les moteurs cloud et les limites des requêtes monolithiques.DBT → Origine de DBT, philosophie “analyst-friendly”, séparation entre DBT Core et DBT Cloud, gestion du versioning, testing, documentation, templating avec Jinja.Le rôle d'Analytic Engineer → Mutation des équipes BI vers plus d'autonomie technique, convergence entre modélisation métier et industrialisation.Pourquoi SQLMesh ? → Introduction à SQLMesh comme alternative à DBT, positionnement technique, différences d'usage, réflexion sur les cas d'adoption.Retrouvez les épiosodes et show notes sur https://bigdatahebdo.com-----------------Cette publication est sponsorisée par Datatask (https://datatask.io/) et CerenIT (https://www.cerenit.fr/) .CerenIT (https://www.cerenit.fr/) vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr (https://cerenit.fr) et retrouvez-nous aussi au Time Series France (https://www.timeseries.fr/) .Datatask (https://datatask.io/) vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! Consultez le blog de Datatask (https://datatask.io/blog/) pour en savoir plus. Le générique a été composé et réalisé par Maxence Lecointe

Dans cet épisode du Big Data Hebdo, on fait le point sur le RAG (Retrieval-Augmented Generation) : est-il toujours au cœur des usages d'IA générative en entreprise, ou dépassé par les nouveaux paradigmes comme l'agentic AI ?Paul, Jérôme, Nicolas et Vincent reviennent sur :Les fondamentaux du RAG : pourquoi est-il apparu ?Comment fonctionne techniquement un pipeline RAG ?Les erreurs à éviter quand on passe en productionLes bonnes pratiques : hybrid search, cache, feedback utilisateursCe qui change en 2025 : modularité, agentic RAG, graph RAG, et plus encore !Retrouvez les épiosodes et show notes sur https://bigdatahebdo.com-----------------Cette publication est sponsorisée par Datatask (https://datatask.io/) et CerenIT (https://www.cerenit.fr/) .CerenIT (https://www.cerenit.fr/) vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr (https://cerenit.fr) et retrouvez-nous aussi au Time Series France (https://www.timeseries.fr/) .Datatask (https://datatask.io/) vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! Consultez le blog de Datatask (https://datatask.io/blog/) pour en savoir plus. Le générique a été composé et réalisé par Maxence Lecointe

Dans cet épisode du Big Data Hebdo,

Le BigDataHebdo reçoit Florian Caringi, responsable des plateformes Data & IA au sein du groupe BPCE. On discute de l'évolution des architectures Big Data, de Hadoop aux environnements hybrides et cloud, avec une adoption massive de Google Cloud (BigQuery, Vertex AI) pour des usages analytiques et data science.Florian partage son expérience sur les défis de migration, de FinOps, et l'intégration des IA génératives. Une discussion passionnante sur la modernisation des infrastructures et l'impact des nouvelles technologies dans les grandes organisations.Show notes et chapitres sur http://bigdatahebdo.com/podcast/episode-212-cloud-hybride-bpce/

Le BigDataHebdo, reçoit Mehdi, Developer Advocate chez MotherDuck, pour explorer l'univers de DuckDB et MotherDuck. Au programme, les origines académiques de DuckDB, son évolution en tant que moteur SQL analytique performant, et son extension MotherDuck qui permet de l'utiliser comme un Data Warehouse en ligne.Show notes sur http://bigdatahebdo.com/podcast/episode-211-motherduck/

Dans cet épisode on revient brièvement sur l'année écoulée, et on vous parle de ce qu'on prévoit sur 2025. Evidement ces prédictions sont très tintées d'IA ! Retrouvez tous les épisodes avec leurs shownotes : https://bigdatahebdo.com/?src=shownotes-----------------Cette publication est sponsorisée par Datatask (https://datatask.io/) et CerenIT (https://www.cerenit.fr/) .CerenIT (https://www.cerenit.fr/) vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr (https://cerenit.fr) et retrouvez-nous aussi au Time Series France (https://www.timeseries.fr/) .Datatask (https://datatask.io/) vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! Consultez le blog de Datatask (https://datatask.io/blog/) pour en savoir plus. Le générique a été composé et réalisé par Maxence Lecointe

Dans cet épisode on revient sur FoundationDB. FoundationDB est le socle de beaucoup de services (Icloud, Snowflake...) mais reste peu connue.Qui de mieux que l'équipe de spécialistes de Clever cloud qui l'a utilisé pour construire ses "Databases as a Service" pour en parler ? C'est donc un épisode conjoint avec leur podcast "Message à Caractère informatique" que vous retrouvez ici.Show notes de l'épisode : https://bigdatahebdo.com/podcast/episode-209-foundationdb-labrique-elementaire-----------------Cette publication est sponsorisée par Datatask (https://datatask.io/) et CerenIT (https://www.cerenit.fr/) .CerenIT (https://www.cerenit.fr/) vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr (https://cerenit.fr) et retrouvez-nous aussi au Time Series France (https://www.timeseries.fr/) .Datatask (https://datatask.io/) vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! Consultez le blog de Datatask (https://datatask.io/blog/) pour en savoir plus. Le générique a été composé et réalisé par Maxence Lecointe

Dans cet épisode on revient sur FoundationDB. FoundationDB est le socle de beaucoup de services (Icloud, Snowflake...) mais reste peu connue.Qui de mieux que l'équipe de spécialistes de Clever cloud qui l'a utilisé pour construire ses "Databases as a Service" pour en parler ? C'est donc un épisode conjoint avec leur podcast "Message à Caractère informatique" que vous retrouvez ici.Show notes de l'épisode : https://bigdatahebdo.com/podcast/episode-208-aux-sources-de-foundationdb-feat-maci-----------------Cette publication est sponsorisée par Datatask (https://datatask.io/) et CerenIT (https://www.cerenit.fr/) .CerenIT (https://www.cerenit.fr/) vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr (https://cerenit.fr) et retrouvez-nous aussi au Time Series France (https://www.timeseries.fr/) .Datatask (https://datatask.io/) vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! Consultez le blog de Datatask (https://datatask.io/blog/) pour en savoir plus. Le générique a été composé et réalisé par Maxence Lecointe

Episode enregistré en Live au Salon de la Data et De l'IA de Nante en Septembre 2024. On débat de la Data-Quality avec la contribution du public.à retrouver aussi sur Youtube https://youtu.be/9_C6hbZpDrwLes shownotes de cet épisode sont à retrouver surhttps://bigdatahebdo.com/podcast/episode-207-live-salon-data-ia/Retrouvez tous les épisodes de ce podcast sur https://bigdatahebdo.comEt sur la chaine Youtube

Les shownotes de cet épisode sont à retrouver surhttps://bigdatahebdo.com/podcast/episode-206-portes-ouvertes-chez-openai/Retrouvez tous les épisodes de ce podcast sur https://bigdatahebdo.comEt sur la chaine Youtube

Les shownotes de cet épisode sont à retrouver surhttps://bigdatahebdo.com/podcast/episode-205-Kestra-avec-Ludovic-DehonRetrouvez tous les épisodes de ce podcast sur https://bigdatahebdo.comEt sur la chaine Youtube

Les shownotes de cet épisode sont à retrouver surhttps://bigdatahebdo.com/podcast/episode-204-70-milliards-de-relections/ Retrouvez tous les épisodes de ce podcast sur https://bigdatahebdo.comEt sur la chaine Youtube ------------------Cette publication est sponsorisée par Datatask et CerenIT.CerenIT vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr et retrouvez-nous aussi au Time Series France.Datatask vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! Consulter le blog de Datatask pour en savoir plus. On recrute ! Venez cruncher de la data avec nous !Le générique a été composé et réalisé par Maxence Lecointe

Les shownotes de cet épisode sont à retrouver surhttps://bigdatahebdo.com/podcast/episode-203-pas-de-treve-olympique-pour-les-llms/ Retrouvez tous les épisodes de ce podcast sur https://bigdatahebdo.com------------------Cette publication est sponsorisée par Datatask et CerenIT.CerenIT vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr et retrouvez-nous aussi au Time Series France.Datatask vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! Consulter le blog de Datatask pour en savoir plus. On recrute ! Venez cruncher de la data avec nous !Le générique a été composé et réalisé par Maxence Lecointe

Retrouvez les shownotes de cet épisode sur https://bigdatahebdo.com/podcast/episode-202-data-architecture-avec-frederic-brossard-de-dcube/ ------------------Cette publication est sponsorisée par Datatask et CerenIT.CerenIT vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr et retrouvez-nous aussi au Time Series France.Datatask vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! Consulter le blog de Datatask pour en savoir plus. Le générique a été composé et réalisé par Maxence Lecointe

Retrouvez les liens de cet épisode dans les shownotes sur https://bigdatahebdo.com/podcast/episode-201-snowflake-summit-24-part-2-ml-et-genai/------------------Cette publication est sponsorisée par Datatask et CerenIT.CerenIT vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr et retrouvez-nous aussi au Time Series France.Datatask vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! Consulter le blog de Datatask pour en savoir plus. On recrute ! Venez cruncher de la data avec nous ! Ecrivez nous à recrutement@affini-tech.comLe générique a été composé et réalisé par Maxence Lecointe

Retrouvez les liens de cet épisode dans les shownotes sur https://bigdatahebdo.com/podcast/episode-200-snowflake-summit-24-part-1-data-engineering/------------------Cette publication est sponsorisée par Datatask et CerenIT.CerenIT vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr et retrouvez-nous aussi au Time Series France.Datatask vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! Consulter le blog de Datatask pour en savoir plus. On recrute ! Venez cruncher de la data avec nous ! Ecrivez nous à recrutement@affini-tech.comLe générique a été composé et réalisé par Maxence Lecointe

Retrouvez les liens de cet épisode dans les shownotes sur https://bigdatahebdo.com/podcast/episode-199-databricks-dais-2024/------------------Cette publication est sponsorisée par Datatask et CerenIT.CerenIT vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr et retrouvez-nous aussi au Time Series France.Datatask vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! Consulter le blog de Datatask pour en savoir plus. On recrute ! Venez cruncher de la data avec nous ! Ecrivez nous à recrutement@affini-tech.comLe générique a été composé et réalisé par Maxence Lecointe

Retrouvez les liens de cet épisode dans les shownotes sur https://bigdatahebdo.com/podcast/episode-198-ia-gen-et-anssi/------------------Cette publication est sponsorisée par Datatask et CerenIT.CerenIT vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr et retrouvez-nous aussi au Time Series France.Datatask vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! Consulter le blog de Datatask pour en savoir plus. On recrute ! Venez cruncher de la data avec nous ! Ecrivez nous à recrutement@affini-tech.comLe générique a été composé et réalisé par Maxence Lecointe

Retrouvez les liens de cet épisode dans les shownotes sur https://bigdatahebdo.com/podcast/episode-197-gladia-avec-jean-louis-queguiner/------------------Cette publication est sponsorisée par Datatask et CerenIT.CerenIT vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr et retrouvez-nous aussi au Time Series France.Datatask vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! Consulter le blog de Datatask pour en savoir plus. On recrute ! Venez cruncher de la data avec nous ! Ecrivez nous à recrutement@affini-tech.comLe générique a été composé et réalisé par Maxence Lecointe

Retrouvez les liens de cet épisode dans les shownotes sur https://bigdatahebdo.com/podcast/episode-196-python-news-et-autres/------------------Cette publication est sponsorisée par Datatask et CerenIT.CerenIT vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr et retrouvez-nous aussi au Time Series France.Datatask vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! Consulter le blog de Datatask pour en savoir plus. On recrute ! Venez cruncher de la data avec nous ! Ecrivez nous à recrutement@affini-tech.comLe générique a été composé et réalisé par Maxence Lecointe

Retrouvez les liens de cet épisode dans les shownotes sur https://bigdatahebdo.com/podcast/episode-195-dbt-avec-florian-eiden------------------Cette publication est sponsorisée par Datatask et CerenIT.CerenIT vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr et retrouvez-nous aussi au Time Series France.Datatask vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! Consulter le blog de Datatask pour en savoir plus. On recrute ! Venez cruncher de la data avec nous ! Ecrivez nous à recrutement@affini-tech.comLe générique a été composé et réalisé par Maxence Lecointe

Retrouvez les liens de cet épisode dans les shownotes sur https://bigdatahebdo.com/podcast/episode-194-self-service-data-avec-tristan-mayer/------------------Cette publication est sponsorisée par Datatask et CerenIT.CerenIT vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr et retrouvez-nous aussi au Time Series France.Datatask vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! Consulter le blog de Datatask pour en savoir plus. On recrute ! Venez cruncher de la data avec nous ! Ecrivez nous à recrutement@affini-tech.comLe générique a été composé et réalisé par Maxence Lecointe

Retrouvez les liens de cet épisode dans les shownotes sur https://bigdatahebdo.com/podcast/episode-193-microsoft-fabric-avec-marie-aubert------------------Cette publication est sponsorisée par Datatask et CerenIT.CerenIT vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr et retrouvez-nous aussi au Time Series France.Datatask vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! Consulter le blog de Datatask pour en savoir plus. On recrute ! Venez cruncher de la data avec nous ! Ecrivez nous à recrutement@affini-tech.comLe générique a été composé et réalisé par Maxence Lecointe

Retrouvez les liens de cet épisode dans les shownotes sur https://bigdatahebdo.com/podcast/episode-192-duckdb-et-autres-avec-christophe-blefari------------------Cette publication est sponsorisée par Datatask et CerenIT.CerenIT vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr et retrouvez-nous aussi au Time Series France.Datatask vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! Consulter le blog de Datatask pour en savoir plus. On recrute ! Venez cruncher de la data avec nous ! Ecrivez nous à recrutement@affini-tech.comLe générique a été composé et réalisé par Maxence Lecointe

Retrouvez les liens de cet épisode dans les shownotes sur https://bigdatahebdo.com/podcast/episode-191-popsink-avec-benjamin-djidi ------------------Cette publication est sponsorisée par Datatask et CerenIT.CerenIT vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr et retrouvez-nous aussi au Time Series France.Datatask vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! Consulter le blog de Datatask pour en savoir plus. On recrute ! Venez cruncher de la data avec nous ! Ecrivez nous à recrutement@affini-tech.comLe générique a été composé et réalisé par Maxence Lecointe

Retrouvez les liens de cet épisode dans les shownotes sur https://bigdatahebdo.com/podcast/episode-190-databricks-dbrx-avec-quentin-ambard------------------Cette publication est sponsorisée par Datatask et CerenIT.CerenIT vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr et retrouvez-nous aussi au Time Series France.Datatask vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! Consulter le blog de Datatask pour en savoir plus. On recrute ! Venez cruncher de la data avec nous ! Ecrivez nous à recrutement@affini-tech.comLe générique a été composé et réalisé par Maxence Lecointe

Retrouvez les liens de cet épisode dans les shownotes sur https://bigdatahebdo.com/podcast/episode-189-la-compta-du-futur-et-autres-news/------------------Cette publication est sponsorisée par Datatask et CerenIT.CerenIT vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr et retrouvez-nous aussi au Time Series France.Datatask vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! Consulter le blog de Datatask pour en savoir plus. On recrute ! Venez cruncher de la data avec nous ! Ecrivez nous à recrutement@affini-tech.comLe générique a été composé et réalisé par Maxence Lecointe

Retrouvez les liens de cet épisode dans les shownotes sur https://bigdatahebdo.com/podcast/episode-188-data-ops-avec-matthieu-rousseau/------------------Cette publication est sponsorisée par Datatask et CerenIT.CerenIT vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr et retrouvez-nous aussi au Time Series France.Datatask vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! Consulter le blog de Datatask pour en savoir plus. On recrute ! Venez cruncher de la data avec nous ! Ecrivez nous à recrutement@affini-tech.comLe générique a été composé et réalisé par Maxence Lecointe

Retrouvez les liens de cet épisode dans les shownotes sur https://bigdatahebdo.com/podcast/episode-186-plus-jquery-que-terraform/------------------Cette publication est sponsorisée par Datatask et CerenIT.CerenIT vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr et retrouvez-nous aussi au Time Series France.Datatask vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! Consulter le blog de Datatask pour en savoir plus. On recrute ! Venez cruncher de la data avec nous ! Ecrivez nous à recrutement@affini-tech.comLe générique a été composé et réalisé par Maxence Lecointe

* La Nuit de la Data et de l'IA - And the winners are... : -> https://www.republikgroup-it.fr/palmares-2024-tda* IA ACT * Probabl is a new AI company built around popular library scikit-learn -> https://techcrunch.com/2024/02/01/probabl-is-a-new-ai-company-built-around-popular-library-scikit-learn/* From Silos to Standardization: Leveraging DBT for a Democratized Data Framework -> https://medium.com/uc-engineering/from-silos-to-standardization-leveraging-dbt-for-a-democratized-data-framework-f444dcd07cd9* DuckDB vs Polars -> https://medium.com/gitconnected/duckdb-vs-polars-2ff19cc7af41* Meetup Python sur les frameworks UI -> https://youtu.be/yspHNEFjKfQ?list=PLv7xGPH0RMUT1GSCGHJmqnswpk-nyz5aq* NiceGUI -> https://nicegui.io------------------Cette publication est sponsorisée par Affini-Tech et CerenIT.CerenIT vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr et retrouvez-nous aussi au Time Series France.Affini-Tech vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! (Affini-Tech, Datatask) Consulter le blog d'Affini-Tech et le blog de Datatask pour en savoir plus. On recrute ! Venez cruncher de la data avec nous ! Ecrivez nous à recrutement@affini-tech.comLe générique a été composé et réalisé par Maxence Lecointe

Shownotes sur : https://bigdatahebdo.com/podcast/episode-184-pour-une-poignee-de-dollars/

### Promptologues* How to Cut RAG Costs by 80% Using Prompt Compression -> https://towardsdatascience.com/how-to-cut-rag-costs-by-80-using-prompt-compression-877a07c6bedb* Prompt Compression avec LLMLingua -> https://github.com/microsoft/LLMLingua### LLM Infra* Introducing Pinecone Serverless -> https://www.pinecone.io/blog/serverless/* embedchain/embedchain: The Open Source RAG framework -> https://github.com/embedchain/embedchain* A Guide to Large Language Model Abstractions - Two Sigma -> https://www.twosigma.com/articles/a-guide-to-large-language-model-abstractions/### Data eng* How to Scale Your Data Pipelines and Data Products with Contract Testing and Dbt -> https://towardsdatascience.com/how-to-scale-your-data-pipelines-and-data-products-with-dbt-and-contract-testing-10c92ea9a443* dbt Alternatives -> https://www.greenmountaindatasolutions.com/blog/alternatives-to-dbt-data-build-tool

Shownotes sur : https://bigdatahebdo.com/podcast/episode-182-zuck-fabric-une-agi-avec-des-data-contracts/

Shownotes sur : https://bigdatahebdo.com/podcast/episode-181-le-maestro-du-gptstore/

https://bigdatahebdo.com/podcast/episode-180-quelques-news-pour-demarrer-2024/

### LLM fever* [GAIC-fr] Analyse des annonces IA de MS Ignite -> https://www.youtube.com/watch?v=rJTcJHh6bcY* LightOn annonce la seconde version d'Alfred, son modèle LLM open-source -> https://www.actuia.com/actualite/lighton-annonce-la-seconde-version-dalfred-son-modele-llm-open-source/* Introducing Claude 2.1 -> https://www.anthropic.com/index/claude-2-1* Welcome to the Hallucination Index! -> https://www.rungalileo.io/hallucinationindex### data-engineering* Multithreading Framework for Data Ingestion -> https://awstip.com/multithreading-framework-for-data-ingestion-3c3c8480b8d0* Talend Open Studio c'est fini au 31/1/202 -> https://community.talend.com/s/question/0D55b00009OuDGPCA3/update-on-the-future-of-talend-open-studio?language=en_US* MotherDuck: Making PySpark Code Faster with DuckDB -> https://motherduck.com/blog/making-pyspark-code-faster-with-duckdb* How to Extract Data Observability Metrics from Snowflake Using SQL -> https://towardsdatascience.com/how-to-extract-data-observability-metrics-from-snowflake-using-sql-9bf001038788

### LLM fever* Kyutai, le laboratoire d'intelligence artificielle en mode science ouverte -> https://www.sciencesetavenir.fr/high-tech/intelligence-artificielle/kyutai-le-laboratoire-d-intelligence-artificielle-en-mode-science-ouverte-qui-veut-concurrencer-les-gafam_175123* ChatGPT Réinventé: comment le faire philosopher pour améliorer ses résultats -> https://generationia.flint.media/p/step-back-prompting-reculer-pour-mieux-sauter* Microsoft optimise Azure avec ses propres puces d'IA -> https://www.actuia.com/actualite/microsoft-optimise-azure-avec-ses-propres-puces-dia/### Data-eng* data load tool (dlt) -> https://dlthub.com/* Microsoft and Google join forces on OneTable, an open-source solution for data lake challenges -> https://venturebeat.com/data-infrastructure/exclusive-microsoft-and-google-join-forces-on-onetable-an-open-source-solution-for-data-lake-challenges/------------------Cette publication est sponsorisée par Affini-Tech et CerenIT.CerenIT vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr et retrouvez-nous aussi au Time Series France.Affini-Tech vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! (Affini-Tech, Datatask) Consulter le blog d'Affini-Tech et le blog de Datatask pour en savoir plus. On recrute ! Venez cruncher de la data avec nous ! Ecrivez nous à recrutement@affini-tech.comLe générique a été composé et réalisé par Maxence Lecointe

* Why can't datacenter operators stop thinking about atomic power? -> https://www.theregister.com/2023/09/27/datacenters_nuclear_power### LLM fever* Evaluate LLMs and RAG a practical example using Langchain and Hugging Face -> https://www.philschmid.de/evaluate-llm* Introducing the Giskard Bot: Enhancing LLM Testing & Debugging on Hugging Face -> https://huggingface.co/blog/JMJM/giskard-llm-testing-and-debugging-hf* Introducing Canopy: An easy, free, and flexible RAG framework powered by Pinecone -> https://www.pinecone.io/blog/canopy-rag-framework/### Tools* Pijul -> https://pijul.org/* Pijul la théorie -> https://pijul.org/manual/theory.html### meetup* "Ou va la modern Data Stack ?" le 31 janvier 2024 chez Criteo -> https://www.linkedin.com/company/modern-data-stack-france/------------------Cette publication est sponsorisée par Affini-Tech et CerenIT.CerenIT vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr et retrouvez-nous aussi au Time Series France.Affini-Tech vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! (Affini-Tech, Datatask) Consulter le blog d'Affini-Tech et le blog de Datatask pour en savoir plus. On recrute ! Venez cruncher de la data avec nous ! Ecrivez nous à recrutement@affini-tech.comLe générique a été composé et réalisé par Maxence Lecointe