Parlons Futur

Follow Parlons Futur
Share on
Copy link to clipboard

Chaque semaine, la revue de presse des 10 meilleurs articles de la semaine passée sur l'actu du futur de la technologie !

Thomas Jestin


    • Apr 13, 2023 LATEST EPISODE
    • infrequent NEW EPISODES
    • 23m AVG DURATION
    • 26 EPISODES


    Search for episodes from Parlons Futur with a specific topic:

    Latest episodes from Parlons Futur

    Après le texte et ChatGPT, la vidéo fera passer un nouveau cap à l'IA

    Play Episode Listen Later Apr 13, 2023 20:11


    Après ChatGPT, dites bonjour aux Action Engines

    Play Episode Listen Later Apr 13, 2023 17:22


    Approximations et omissions du dernier C dans l'Air sur l'IA

    Play Episode Listen Later Apr 6, 2023 55:43


    Attention : je diffuse des extraits de C dans l'Air et les commente ensuite, les extraits sont difficilement audibles malheureusement, mais il suffit de les passer, car je les résume ensuite avant de les commenter, désolé, je m'y prendrai mieux la prochaine fois.   Ressources utiles discutées dans le podcast : Lien vers l'épisode de C dans l'Air en question, avec notamment comme invités : - Gaspard Koenig, philosophe, auteur de "La fin de l'individu : voyage d'un philosophe au pays de l'intelligence artificielle" - Laurence Devillers, professeur en intelligence artificielle : Université La Sorbonne, experte en interaction humain / machine, auteur de "Les robots "émotionnels" La pétition en question, signée notamment par Yoshua Bengio, un des 3 parrains du deeplearning qui est derrière les dernières grandes avancées en IA. Yoshua Bengio est le seul des 3 à ne pas avoir rejoint le privé (à la différene de ses aînés Yann LeCun chez Meta et Geoffrey Hinton chez Google Brain) La pétition s'interroge "Should we let machines flood our information channels with propaganda and untruth? Should we automate away all the jobs, including the fulfilling ones? Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization?", considérant ainsi des risques de court terme, moyen terme et long terme. La position la plus radicales sur les risques liés à l'IA, celle d'Eliezer Yudkowsky :  "Many researchers steeped in these issues, including myself, expect that the most likely result of building a superhumanly smart AI, under anything remotely like the current circumstances, is that literally everyone on Earth will die. Not as in “maybe possibly some remote chance,” but as in “that is the obvious thing that would happen.” (tribune dans le magazine Time Pausing AI Developments Isn't Enough. We Need to Shut it All Down, écouter aussi mon précédent épisode de podcast) Chimp beats students at computer game (article dans le magazine Nature, en vidéo sur Youtube) Why Are Our Brains Shrinking? (University of San Francisco) "over the last 20,000 years alone, human brains have shrunk from 1,500 cubic centimeters (cc) to 1,350 cc, roughly the size of a tennis ball." Les 4 grandes positions face à l'IA pour simplifier Ceux qui ont signé cette pétition (Gary Marcus et Yoshua Bengio notamment) ou qui soutiennent les mêmes positions sans avoir pour autant signé ou soutenu la pétition, s'inquiétant des risques de court, moyen et long terme (notamment parmi ceux qui n'ont pas signé : Geoffrey Hinton, le plus anciens des 3 parrains de l'IA ; Demis Hassabis, CEO de Deepmind, l'autre labo de pointe sur l'IA avec openAI ; une partie des employés d'OpenAI en off, et même Sam Altman CEO d'OpenAI sur les enjeux de moyen et long terme) Ceux qui ont refusé de signer cette pétition car elles n'insistent pas assez sur les risques de court terme (en anglais: fairness, algorithmic bias, accountability, transparency, inequality, cost to the environment, disinformation, cybercrime) et trop sur les risques de long terme relevant de la science fiction (notamment les chercheuses en AI et sciences du langage Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, and Margaret Mitchell) Ceux qui refusent de signer car ils considèrent que c'est en développant l'IA qu'on trouvera aussi les solutions à ses problèmes, et que les risques encourus ne sont pas encore assez clairs, l'IA étant encore très primitive (notamment Yann LeCun, et OpenAI pour l'instant) Enfin les plus radicaux comme Eliezer Yudkowsky qui refusent de signer cette pétition car ils pensent qu'elle ne vas pas assez loin et minimise le risque existentiel.

    Une super IA signifie-t-elle la fin de l'humanité ? Résumé de la thèse d'Eliezer Yudkowsky

    Play Episode Listen Later Mar 30, 2023 40:03


    Eliezer Yudkowsky, expert reconnu des risques liés à l'IA: "We're All Gonna Die" (entretien de près de 2 heures sur Youtube, transcript here) Eliezer Yudkowsky est sans doute la figure la plus connue et respectée depuis 20 ans dans le milieu de la recherche sur les façons d'aligner l'IA sur nos valeurs humainesWikipedia : Eliezer Yudkowsky is an American decision theory and artificial intelligence (AI) researcher and writer. He is a co-founder and research fellow at the Machine Intelligence Research Institute (MIRI), a private research nonprofit based in Berkeley, California. His work on the prospect of a runaway intelligence explosion was an influence on Nick Bostrom's Superintelligence: Paths, Dangers, Strategies. Yudkowsky's views on the safety challenges posed by future generations of AI systems are discussed in the undergraduate textbook in AI, Stuart Russell and Peter Norvig's Artificial Intelligence: A Modern Approach. Eliezer Yudkowsky a livré il y a quelques semaines un entretien de près de 2 heures durant lesquelles il a partagé et expliqué sa conviction profonde: "nous allons tous mourir des mains d'une super intelligence artificielle", se montrant plus résigné que jamais, mais disant malgré tout vouloir "fight until the end with dignity"Eliezer Yudkowsky s'est dit d'abord surpris par le rythme des progrès en IA ces dernières années, à ses yeux, il est très probable qu'on parvienne à développer une super IA, plus capable que tous les êtres humains réunis à un moment ou un autre ce siècle-ci ("3 ans, 15 ans, plus ? Difficile de savoir...") Ses travaux depuis 20 ans l'on conduit à un constat sans appel : nous ne savons pas comment programmer une super IA pour être certain qu'elle ne nous nuise pas, et ne sommes pas près de le faire, c'est une tâche éminemment compliquée et sans doute impossible, qui demanderait qu'on y consacre des ressources extraordinaires, et il est trop tard pour cela C'est tout l'inverse qui se passe selon lui, les meilleurs labos en IA foncent tête baissée, leurs précautions sont bien insuffisantes et principalement de façadeL'actualité semble lui donner raison : "Microsoft got rid of its entire company division devoted to AI "ethics and society" during its January layoffs" "Most of their 30-person staff was reassigned way back in October, leaving just seven employees to manage the department." "Months later, though, they were all dismissed, along with the division — right as the company announced its mammoth $10 billion investment in OpenAI." (source) à noter toute fois que Sam Altman, CEO d'OpenAI, écrivait récemment : "Some people in the AI field think the risks of AGI (and successor systems) are fictitious; we would be delighted if they turn out to be right, but we are going to operate as if these risks are existential.", linking to that article AI Could Defeat All Of Us Combined  Eliezer Yudkowsky a eu un espoir en 2015 quand il a participé à la grande conférence sur les risques de l'IA organisée par Elon Musk, rassemblant des experts du sujet comme Stuart Russel, Demis Hassabis (co-fondateur de DeepMind en 2014), Ilya Sutskever et bien d'autres. Mais il a très vite déchanté, la conférence a accouché du pire des résultats à ses yeux : la création d'OpenAI peu après (par Ilya Sutskever, Sam Altman, Elon Musk, Peter Thiel et d'autres) Au lieu de freiner le développement de l'IA et d'essayer de résoudre la question de son alignement avec "nos valeurs", OpenAI cherche à accélérer les capacités de l'IA autant que possible, en reléguant selon lui au second plan et avec insincérité les efforts sur la sécurité, comme dit Sam Altman, CEO d'OpenAI, "ma philosophie a toujours été de scaler autant que possible et de voir ce qui se passe" Eliezer Yudkowsky conclut que les labos les plus en pointe sur l'IA, ivres de leur pouvoirs démiurgiques naissants et en pleine concurrence, nous emmènent tout droit vers la catastrophe, tandis que les politiques, dépassés, n'ont pas saisi  le caractère existentiel du risque. La cause est perdue à ses yeux. Il explique qu'une super IA sera très vite si supérieure à nous dans tous les domaines cognitifs que nous ne pourrons pas anticiper ce qu'elle fera. Une telle IA ni ne nous aimera ni ne nous détestera, mais nous sera indifférente, comme nous pouvons l'être vis à vis des fourmis. Car encore une fois nous n'avons aucune idée quant à comment la programmer pour être "gentille", en quelques mots :soit car on est trop spécifique dans nos règles, et la super IA trouvera une faille, car il est impossible pour nous de prévoir tous les cas de figures soit parce qu'on serait trop général, nos règles seraient alors sujettes à une interprétation trop large Et au-delà, encore une fois, impossible de prévoir comment se comportera une super IA plus douée que nous à tous les niveaux, impossible a priori de savoir ce qu'elle ferait de nos règles Eliezer Yudkowsky explique qu'une telle IA trouvera sans doute très vite un bien meilleur usage à faire des atomes nous constituant, bref, nous serons tous éliminés, c'est le scénario dont il est persuadé. Eliezer Yudkowsky est apparu plus résigné que jamais dans ce podcast, et l'émotion était palpable, ambiance. Eliezer Yudkowsky est reconnu, il connaît bien son sujet, on ne peut s'empêcher de penser en l'écoutant qu'il décrit là un futur possible, mais que faire ? Pendant ce temps-là, les sommes investies dans l'IA explosent... Ezra Klein du New York Times sur ce sujet récemment :In a 2022 survey, A.I. experts were asked, “What probability do you put on human inability to control future advanced A.I. systems causing human extinction or similarly permanent and severe disempowerment of the human species?” The median reply was 10%. I find that hard to fathom, even though I have spoken to many who put that probability even higher. Would you work on a technology you thought had a 10 percent chance of wiping out humanity? I often ask them the same question: If you think calamity so possible, why do this at all? Different people have different things to say, but after a few pushes, I find they often answer from something that sounds like the A.I.'s perspective. Many — not all, but enough that I feel comfortable in this characterization — feel that they have a responsibility to usher this new form of intelligence into the world.  

    The Third Magic

    Play Episode Listen Later Mar 21, 2023 4:30


    Résumé d'un article très intéresssant de Noah Smith https://noahpinion.substack.com/p/the-third-magic

    Disunited Nations - Chapitre 5 : pourquoi le Japon est le vrai patron de l'Asie, et non la Chine

    Play Episode Listen Later Feb 6, 2021 25:27


    Disunited Nations - Résumé Chapitre 4 : Les 4 piliers du succès d'un pays, et pourquoi la Chine est bien plus fragile qu'on ne le pense

    Play Episode Listen Later Feb 1, 2021 30:13


    Disunited Nations : Résumé chapitre 3 - Comment les Britanniques ont dominé le monde, pourquoi la Chine ne pourra faire de même

    Play Episode Listen Later Jan 20, 2021 10:43


    Découvrez les 3 piliers de la domination de monde par les Britanniques à leur époque, et en quoi la Chine est bien loin de pouvoir marcher dans leurs pas!

    Disunited Nations - Résumé chapitre 2 : les 4 clefs de la domination américaine, et pourquoi la Chine aura bien du mal à les reproduire de sitôt

    Play Episode Listen Later Jan 13, 2021 21:46


    Pourquoi la Chine est-elle menacée d'effondrement? Pourquoi la Chine ne pourra pas dominer le monde comme l'a fait les Etats-Unis depuis la fin de la guerre froide, et pourquoi même les Etats-Unis n'en ont plus les moyens. Quelques éléments de réponse dans ce résumé du chapitre 2 du livre de Peter Zeihan

    Disunited Nations, par Peter Zeihan, présentation et résumé chapitre 1

    Play Episode Listen Later Jan 11, 2021 20:43


    Présentation générale du livre fascinant de Peter Zeihan "Disunited Nations: The Scramble for Power in an Ungoverned World", résumé du 1er chapitre.

    Has China Won ? Ce qu'il faut retenir de l'intro du nouveau livre de Kishore Mahbubani

    Play Episode Listen Later May 28, 2020 11:02


    Kishore Mahbubani, ancien ambassadeur de Singapour à L'ONU, vient de publier un livre remarquable : Has China Won?: The Chinese Challenge to American Primacy Il y apporte une perspective qui dérange, différente de ce qu'on a l'habitude d'entendre en Europe et aux Etats-Unis. Voici ce qu'il faut retenir de l'introduction de ce nouveau livre.   à suivre : récap de chacun des chapitre

    Les 4 types de chance

    Play Episode Listen Later Apr 25, 2020 5:33


    Exemple concret de comment l'IA ne signifie pas forcément la fin du libre-arbitre

    Play Episode Listen Later Oct 24, 2019 8:11


    OpenAI et la main robot qui résout le Rubik's cube : décryptage derrière la hype

    Play Episode Listen Later Oct 24, 2019 7:21


    Résumé ci-dessous issu de cet épisode de ma newsletter ParlonsFutur Il faut noter que la main robotique elle-même en tant que hardware existe depuis 15 ans, utilisée par de nombreux labos pour leurs expériences l'algorithme lui-même qui permet de savoir quelles faces tourner dans quel sens et dans quel l'ordre, bref l'algo qui permet de résoudre le Rubik's cube, existe depuis 17 ans, un algo codé à la main, et non découvert par apprentissage par la machine, ce n'est pas ce dont il est question ici. De nombreux robots parviennent à résoudre le Rubik's cube, plus vite même que celui d'OpenAI ici (par ex, “a machine developed by MIT solved a cube in less than 0.4 seconds”) Mais aucun robot main humanoïde de ce type y était parvenu (pour un robot avec 24 degrés de liberté dans les mouvement, contre 7 en général pour un bras robot de base), c'est la dextérité du robot main qui est ici révolutionnaire, et la façon dont l'apprentissage s'est fait ici la nouveauté est que le logiciel derrière la main a appris de lui-même comment le faire, via un "apprentissage par renforcement", c'est-à-dire en sachant quel est l'objectif à atteindre, et en se faisant récompenser ou pénaliser plus il se rapproche ou s'éloigne de l'objectif “Human hands let us solve a wide variety of tasks. For the past 60 years of robotics, hard tasks which humans accomplish with their fixed pair of hands have required designing a custom robot for each task. As an alternative, people have spent many decades trying to use general-purpose robotic hardware, but with limited success due to their high degrees of freedom. In particular, the hardware we use here is not new—the robot hand we use has been around for the last 15 years—but the software approach is.” l'autre révolution est que le robot n'a pas eu besoin de tout apprendre dans le monde réel, mais dans une simulation virtuelle, ce qui accélère l'apprentissage puisqu'on peut accélerer le temps dans les simulations et en tenir de très nombreuses en parallèle ! OpenAI put it through thousands of years of training in simulation before trying the physical cube solve. But this only takes a few days because we can parallelize the training. You also don’t have to worry about the robots breaking or hurting someone as you’re training these algorithms,” "we developed a new method called Automatic Domain Randomization (ADR), which endlessly generates progressively more difficult environments in simulation. This frees us from having an accurate model of the real world, and enables the transfer of neural networks learned in simulation to be applied to the real world” ADR starts with one environment, wherein a neural network learns to solve Rubik’s Cube. As the neural network gets better at the task and reaches a performance threshold, the amount of domain randomization is increased automatically. This makes the task harder, since the neural network must now learn to generalize to more randomized environments. One of the parameters we randomize is the size of the Rubik’s Cube. ADR begins with a fixed size of the Rubik’s Cube and gradually increases the randomization range as training progresses. We apply the same technique to all other parameters, such as the mass of the cube, the friction of the robot fingers, and the visual surface materials of the hand. The neural network thus has to learn to solve the Rubik’s Cube under all of those increasingly more difficult conditions. ADR exposes the network to an endless variety of randomized simulations not only did they change how much gravity there is in the simulation—they changed which way gravity points. We find that our system trained with ADR is surprisingly robust to perturbations even though we never trained with them: The robot can successfully perform most flips and face rotations under all tested perturbations, though not at peak performance. The system can handle situations it never saw during training (comme être embêté par une girafe en peluche, voir vidéo, ou avoir des doigts attachés, etc.) This shows that reinforcement learning isn’t just a tool for virtual tasks, but can solve physical-world problems requiring unprecedented dexterity. Our robot still hasn’t perfected its technique though, as it solves the Rubik’s Cube 60% of the time (and only 20% of the time for a maximally difficult scramble). Un pas vers une IA (et des robots) capable de généraliser ?? We believe that meta-learning, or learning to learn, is an important prerequisite for building general-purpose systems, since it enables them to quickly adapt to changing conditions in their environments. The hypothesis behind our methodology ADR is that a memory-augmented networks combined with a sufficiently randomized environment leads to emergent meta-learning, where the network implements a learning algorithm that allows itself to rapidly adapt its behavior to the environment it is deployed in. "We believe that human-level dexterity is on the path towards building general-purpose robots" Un pas vers l'explicabilité ? (et la fin du syndrome boîte noire absolue?)  Ils ont développé un moyen de visualiser ce qu'il se passe dans la mémoire de l'algo, en temps réel  "We find that each memory group has a semantically meaningful behavior associated with it. For example, we can tell by looking at only the dominant group of the network’s memory if it is about to spin the cube or rotate the top clockwise before it happens." Visualizing our networks enables us to understand what they are storing in memory. For example, we can tell by looking at only the dominant group of the network’s memory if it is about to spin the cube or rotate the top clockwise before it happens Voir une vidéo du robot résolvant un cube, non éditée, vitesse réelle! Voir la vidéo de présentation des travaux avec toutes les perturbations originales surmontées et non-rencontrées au préalable pendant l'apprentissage Voir l'article sur le site d'OpenAI, avec plein de vidéos sympas

    Interview of Nicolas Colin, co-founder of The Family and author of Hedge: A Greater Safety Net for the Entrepreneurial Age

    Play Episode Listen Later Sep 19, 2019 103:17


    Nicolas Colin is the co-founder of The Family, a company that helps European startups scale. He's also the author of Hedge: A Greater Safety Net for the Entrepreneurial Age   [full transcript of the Q&A can be found here]   Q&A between Nicolas Colin (twitter.com/Nicolas_Colin) & Thomas Jestin (twitter.com/thomasjestin) in Singapore, March 2019 00:00 : intro : who's Nicolas Colin, his background, why he's in Singapore for a few days 2min 40sec :  tell us what The Family is 7m 35s : can you comment on some of the points of The Family's manifesto ? 8m 28s : how The Family was born from the idea that we're now in the Entrepreneurial Age (and not so much the information age), derived from that foundational article The Entrepreneurial age by Babak Nivi, cofounder of AngelList 11m 00s : what is an entrepreneur ? 13m 50s : The Family has the ambition to become the new Berkshire Hathaway (as detailed here), by providing capital and unfair advantages to entrepreneurs, what about these unfair advantages ? (less and less about these, more about capital and relationships with VCs, access to VCs, help raise fast and on good terms, they have a white list of VCs) 16m 50s : explain why you don't believe in gathering startups together under the same roof, like in the case of France at Station F 20m 52s : why don't you believe in mentors for European startups ? 24m 30s : can you say a word about some of the startups you're helping that are representative of your portfolio ? (special mention about Heetch, a French VTC app, see more here) 29m 00s : how Nicolas Colin was sued himself by the CEO of the leading taxi company in Paris 30m 50s : tell us a bit about how you used growth hacking yourself at The Family 36m 38s : about ramen-entrepreneurs and cockroach-entrepreneurs 38m 15s : quick intro of the book Hedge: A Greater Safety Net for the Entrepreneurial Age 39m 40s : about the Tech Backlash that started in the US a few years ago, as the genesis for the book 42m 55s : the argument of the book : we have to reinvent the Great Safety Net 44m 05s : what the first Great Safety Net was about (see the illustration on that article with full transcript of the Q&A) 46m 45s : why the Great Safety Net doesn't work anymore 48m 42s : please define your concept of "the multitude" (or the "networked individual"), different in your mind from the masses and the people 53m 33s : why our age is not so much the age of data, but the Entrepreneurial Age 55m 52s : how now power lies outside of companies, not inside anymore 56m 55s : tell us about your definition of a tech company (clue : telco are not tech companies) (see image in the article with transcript of the Q&A) 1h 00m 07s : what about that Great Safety Net 2.0 (see image in the article) 1h 02m 35s : tell us about your concept of hunters vs settlers (see image in the article) 1h 09m 40s : the particular case of Singapore that wants to attract hunters but at the same time prevent its own people from becoming hunters themselves and leaving Singapore 1h 11m 55s : please elaborate on that idea of "exit unions", as a cog in your Great Safety Net 2.0 1h 16m 58s : why entrepreneurs will be the ones bringing about that Greater Safety Net, and not the state : the example of Lambda school 1h 18m 11s : examples of start-ups from The Family's portfolio helping bring about the Greater Safety Net (www.side.co) 1h 19m 20s : why do you think the Universal Basic Income is such a bad idea ? 1h 22m 56s : about BREXIT, Boris Johnson said that the UK can become the new Singapore, is it going to happen ? is BREXIT affecting your work ? (mention of How Asia Works, by Joe Studwell) 1h 25m 34s : why GDPR doesn't work Questions from the public 1h 28m 20s : apart from market size and homogeneity and the fact that European governments don't understand startups, why don't we have European Googles or Facebooks ? (clue : we have too good a life in Europe) 1h 32m 48s : are Alibaba and Tencent tech companies based on your definition ? 1h 34m 26s : you talked a lot about consumer-based businesses, what about the future of enterprise businesses (businesses targeting businesses) in your opinion ? 1h 37m 12s : do you think that the networked individual system works or already works in China ? does it have potential in Africa in the future as well ? 1h 39m 55s : what are your expectations from the ideal investor ? (in short : swift response, good terms, support when in trouble) 1h 42m 01s : what are you looking for when assessing an early-stage startup to help and invest in ?  (in short : intensity) [full transcript of the Q&A can be found here] Interview happened with the help of the French Tech Singapore and the ENGIE factory in March 2019

    Entretien exclusif avec Jacques Attali : intelligence artificielle, avenir du travail, GAFA, Singularité, dictature volontaire et plus encore

    Play Episode Listen Later Nov 11, 2018 32:34


    00 min 56 sec : présentation du parcours de Jacques Attalli (JA) 01 min 56 sec : présentation de son oeuvre écrite 03 min 55 sec : comment JA définit l'intelligence artificielle (IA) 04 min 11 sec : comment définissez-vous l'intelligence humaine ? 09 min 36 sec : faut-il découpler intelligence et conscience ? peut-on imaginer des machines intelligentes qui ne seraient pas conscientes ? 11 min 35 sec :pourquoi l'IA n'est qu'une "technique sommaire et utile de prédiction, étape assez passagère avant l'avènement de sciences et technologies infiniment plus prometteuses", et constitue en fait "un appauvrissement majeur de la réflexion intellectuelle" selon JA 14 min 28 sec : l'IA va-t-elle renforcer l'emprise des GAFA sur le monde ? 15 min 05 sec : "l'IA jouera un rôle encore plus importants dans les pays totalitaires voire dans la mise en place de systèmes totalitaires dans les pays démocratiques car.." 16 min 02 sec : "l'IA sera d'abord une technologie chinoise parce que..." 18 min 06 sec : L'IA induira-t-elle un chômage de masse ? 22 min 01 sec :  Sachant que l'IA sera bientôt en mesure de comprendre nos émotions et de les simuler à la perfection, les métiers reposant sur le rapport humain sont-ils donc vraiment à l'abri ? 23 min 55 sec : aux Etats-Unis, de plus en plus de jeunes choisissent délibérément de se retirer du marché du travail pour mieux profiter d'une offre de loisirs numériques toujours plus vaste, qualititative et meilleure marché voire gratuite, que pensez-vous de cette tendance ? 27 min 12 sec : que faire face aux nouvelles addictions comme les jeux vidéos et les réseaux sociaux ? 30 min 22 sec : croyez-vous à la théorie de la Singularité ? "Monsieur Kurzweil m'a toujours paru comme un gentil naïf manquant infiniment de culture"

    Pourquoi le scénario dystopien de Harari est improbable!

    Play Episode Listen Later Jan 28, 2018 15:21


    Faut-il interdire les armes autonomes? Et en particulier les micro-drones autonomes et tueurs

    Play Episode Listen Later Jan 24, 2018 20:48


    Quelques définitions: IA, Machine Learning, Deep Learning, Supervised and Unsuopervised Learning, Reinforcement Learning

    Play Episode Listen Later Jan 6, 2018 35:26


    quelques supervised reinforcement learning machine learning deep learning
    Éléphants, miroirs des Hommes

    Play Episode Listen Later Dec 25, 2017 6:04


      Meilleurs extraits de l'article de The Economist Conserve elephants. They hold a scientific mirror up to humans     Elephants, about as unrelated to human beings as any mammal can be, seem nevertheless to have evolved intelligence, and possibly even consciousness. Though they may not be alone in this (similar claims are made for certain whales, social carnivores and a few birds), they are certainly part of a small and select group. Losing even one example of how intelligence comes about and makes its living in the wild would not only be a shame in its own right, it would also diminish the ability of biologists of the future to understand the process, and thus how it happened to human beings.   Dr Wittemyer argues that, human beings aside, no species on Earth has a more complex society than that of elephants. And elephant society does indeed have parallels with the way humans lived before the invention of agriculture.   The nuclei of their social arrangements are groups of four or five females and their young that are led by a matriarch who is mother, grandmother, great-grandmother, sister or aunt to most of them. Though males depart their natal group when maturity beckons at the age of 12, females usually remain in it throughout their lives.   Families are part of wider “kinship” groups that come together and separate as the fancy takes them. Families commune with each other in this way about 10% of the time. On top of this, each kinship group is part of what Dr Douglas-Hamilton, a Scot, calls a clan. Clans tend to gather in the dry season, when the amount of habitat capable of supporting elephants is restricted. Within a clan, relations are generally friendly. All clan members are known to one another and, since a clan will usually have at least 100 adult members, and may have twice that, this means an adult (an adult female, at least) can recognise and have meaningful social relations with that many other individuals.   A figure of between 100 and 200 acquaintances is similar to the number of people with whom a human being can maintain a meaningful social relationship—a value known as Dunbar’s number, after Robin Dunbar, the psychologist who proposed it. Dunbar’s number for people is about 150. It is probably no coincidence that this reflects the maximum size of the human clans of those who make their living by hunting and gathering, and who spend most of their lives in smaller groups of relatives, separated from other clan members, scouring the landscape for food.   Dealing with so many peers, and remembering details of such large ranges, means elephants require enormous memories. Details of how their brains work are, beyond matters of basic anatomy, rather sketchy. But one thing which is known is that they have big hippocampuses. These structures, one in each cerebral hemisphere, are involved in the formation of long-term memories. Compared with the size of its brain, an elephant’s hippocampuses are about 40% larger than those of a human being, suggesting that the old proverb about an elephant never forgetting may have a grain of truth in it.   In the field, the value of the memories thus stored increases with age. Matriarchs, usually the oldest elephant in a family group, know a lot. The studies in Amboseli and Samburu have shown that, in times of trouble such as a local drought, this knowledge permits them to lead their groups to other, richer pastures visited in the past. Though not actively taught (at least, as far as is known) such geographical information is passed down the generations by experience. Indeed, elephant biologists believe the ability of the young to benefit by and learn from the wisdom of the old is one of the most important reasons for the existence of groups—another thing elephants share with people.   Nor is it only in their social arrangements that elephants show signs of parallel evolution with humans. They also seem to have a capacity for solving problems by thinking about them in abstract terms. This is hard to demonstrate in the wild, for any evidence is necessarily anecdotal. But experiments conducted on domesticated Asian elephants (easier to deal with than African ones) show that they can use novel objects as tools to obtain out-of-reach food without trial and error beforehand. This is a trick some other species, such as great apes, can manage, but which most animals find impossible.   Wild elephants engage in one type of behaviour in particular that leaves many observers unable to resist drawing human parallels. This is their reaction to their dead. Elephant corpses are centres of attraction for living elephants. They will visit them repeatedly, sniffing them with their trunks and rumbling as they do so (see picture overleaf). This is a species-specific response; elephants show no interest in the dead of any other type of animal. And they also react to elephant bones, as well as bodies, as Dr Wittemyer has demonstrated. Prompted by the anecdotes of others, and his own observations that an elephant faced with such bones will often respond by scattering them, he laid out fields of bones in the bush. Wild elephants, he found, can distinguish their conspecifics’ skeletal remains from those of other species. And they do, indeed, pick them up and fling them into the bush.    

    Futur de la reproduction: utérus artificiel, pouvoir être à la fois le père et la mère génetique d'un enfant

    Play Episode Listen Later Dec 23, 2017 5:48


    Quand un singe arrive à contrôler un 3ème bras par la pensée

    Play Episode Listen Later Dec 22, 2017 3:31


    Le futur des ascenseurs

    Play Episode Listen Later Dec 21, 2017 4:05


    La révolution venue de Chine du "dockless bike sharing", le vélo à la demande sans borne!

    Play Episode Listen Later Dec 20, 2017 3:34


    #déc2017 : IA fait de l'art, crée des visages, des vidéos, crée d'autres IAs ; mini-cerveaux en laboratoire et plus

    Play Episode Listen Later Dec 18, 2017 72:04


    Dans ce podcast je pase en revue et commente les articles suivants : 00min00s : Inside China's Vast New Experiment in Social Ranking (14 déc 2017, Wired, article de 6000 mots) 12min47s : The Business of Artificial Intelligence (2017, Harvard Business Review, article de 5000 mots) 39min00s : These People Never Existed. They Were Made by an AI. (30 oct 2017, futurism.com) 41min16s : Nvidia’s new AI creates disturbingly convincing fake videos (5 déc 2017, thenextweb.com) 42min35s : These Creepy Mini-Brains May Finally Crack Deadly Brain Cancer (12 déc 2017, singularityhub.com) 47min43s : Une recherche suggère que ce n'est pas la conscience qui dirige l'esprit humain (27 nov 2017, trustmyscience.com) 53min23s : AI Can Now Produce Better Art Than Humans. Here’s How. (8 juil 2017, futurism.com) 1h01min13s : New robots can see into their future (4 déc 2017, news.berkeley.edu) 1h05min26s : Google’s New AI Is Better at Creating AI Than the Company’s Engineers (19 mai 2017, futurism.com) 2autres articles que je n'ai pas eu le temps de présenter mais que j'ai par ailleurs raccourcis sur la page dédiée à ce podcast : Computers are starting to reason like humans (14 juin 2017, www.sciencemag.org) AI's Implications for Productivity, Wages, and Employment (20 nov 2017, pcmag.com) Je liste aussi ici les derniers articles que j'ai pu écrire dans la presse: 5 approximations de Laurent Alexandre face au Parlement Européen (Journal du Net, déc 2017) Réactions à l'article "The impossibility of intelligence explosion" (nov 2017) Comment nous discuterons demain : télépathie, changement de voix, et autres bizarreries (Journal du Net, nov 2017) Réponse à Jacques Attali qui se demande si l'IA peut rivaliser avec l'intelligence humaine et jouer les artistes (oct 2017), JA qui m'a d'ailleurs répondu sur Twitter : "Tres intéressante réponse, parlons en?" Voici enfin le lien vers la page sur le site www.ParlonsFutur.com où pour chaque article ci-dessus je ne garde que les phrases clefs au format bullet point. Vous trouverez aussi sur cette même page une sélection de mes derniers tweets.  

    Les 5 points fondamentaux ignorés par les experts dans le C Dans L'air "Trump veut la lune" Décembre 2017

    Play Episode Listen Later Dec 17, 2017 20:23


    Dans ce podcast, j'ai souhaité réagir à l'émission C Dans L'Air du 15 décembre 2017 "Trump veut la lune" dans laquelle les experts sont allégrement passés à côté de plusieurs sujets clefs, j'y réponds ici : Quelles sont les 5 raisons avancées pour justifier l'exploration/conquête/colonisation de Mars ? Pourquoi il ne faut en fait pas envoyer l'Homme sur Mars ? Pourquoi il est intéressant de retourner sur la lune ? Pourquoi la lune et ses environs représentent un enjeu militaire stratégique majeur pour les nations ? Dans ce podcast, je reprends certains des éléments détaillés sur mon site Pourquoi Elon Musk ne doit pas envoyer l'Homme sur Mars, et en version courte dans une tribune parue dans l'Express Pourquoi Elon Musk ne doit pas envoyer l'Homme sur Mars, article mis en une du journal et repartagé plus de 900 fois. J'ai aussi écrit un livre du même nom disponible sur Amazon. Pour être prévenu(e) de mes futurs podcast traitant du progrès technologique et de son impact sur l'aventure humaine, touchant à tout de l'IA à la conquête spatiale en passant par les biotechnologies et les robots, vous pouvez vous abonner à la newsletter en laissant votre adresse email sur http://www.parlonsfutur.com/.    

    Claim Parlons Futur

    In order to claim this podcast we'll send an email to with a verification link. Simply click the link and you will be able to edit tags, request a refresh, and other features to take control of your podcast page!

    Claim Cancel