Podcast appearances and mentions of Luciano Floridi

  • 96PODCASTS
  • 147EPISODES
  • 37mAVG DURATION
  • 1MONTHLY NEW EPISODE
  • Apr 24, 2025LATEST
Luciano Floridi

POPULARITY

20172018201920202021202220232024


Best podcasts about Luciano Floridi

Latest podcast episodes about Luciano Floridi

Tcast
Data Privacy Fallout: 23andMe's Genetic Scandal

Tcast

Play Episode Listen Later Apr 24, 2025 31:02


The collapse of 23andMe is more than a business failure—it's a signal flare for every AI developer and tech executive. In this gripping episode of TCAST, Alexander McCaig and Jason Rigby dissect how a DNA data breach exposed over 7 million profiles and led to the unraveling of consumer trust. With 15 million users now at risk of having their most intimate genetic information auctioned off in bankruptcy court, the stakes for data privacy have never been higher. The hosts unpack philosophical, legal, and technical perspectives: What does it mean to own your DNA? How does consent work when data outlives intent? Featuring insights from thinkers like John Locke and Luciano Floridi, and showcasing TARTLE's decentralized model, this episode calls for an ethical reboot in how data is handled. Learn why centralized systems fail—and how TARTLE's Data Vault Connect could've saved the day. ⏱️ Timestamps 00:45 – Crisis Triggered: What the 23andMe bankruptcy means for tech. 04:20 – Genetic Ownership Debate: DNA as property or identity? 08:10 – Systemic Trust Failure: Consent debt and centralized vulnerabilities. 12:00 – The Gattaca Parallel: Profiling, prejudice, and dystopian AI futures. 17:35 – Zero-Debt Consent Model: TARTLE's blueprint for data ethics. 21:00 – Data as a Renewable Resource: Lessons from natural ecosystems. 26:10 – Sovereign Nations & Data Wars: Who's buying your DNA? 30:25 – Final Challenge to Tech Leaders: Ethical design isn't optional.

AI for Kids
From Tech-Savvy Kid to AI Advocate (Middle+)

AI for Kids

Play Episode Listen Later Feb 4, 2025 30:19 Transcription Available


Send us a textWhat if understanding the human brain could be your secret superpower? Join us for a captivating conversation with Nicolas Gertler, a Yale University student and AI enthusiast, as we explore the fascinating world of artificial intelligence. Nicolas shares his journey from a tech-savvy kid to an AI aficionado, drawing parallels between prompting AI systems and the art of storytelling. Together, we unpack the profound concept of AI alignment, emphasizing the critical need to ensure AI systems reflect human values.Empowering youth through AI education takes center stage as we highlight the importance of equipping students with the tools to navigate this technological landscape responsibly. Learn about the various pathways into AI, be it technical or policy-focused, and discover how organizations like IncoJustice are advocating for youth involvement in AI decision-making. We focus on the significance of AI ethics, urging students to critically evaluate AI's societal impacts, from privacy concerns to the future of the workforce.Venturing into the realm of AI-enhanced education, we unveil the potential of AI chatbots like the Luciano Floridi bot, which democratizes access to AI ethics knowledge. Discover how AI can revolutionize traditional learning by generating practice questions and providing personalized feedback while preserving the essence of human creativity. Resources:Encode JusticeLuciano Floridi BotSupport the showHelp us become the #1 podcast for AI for Kids.Buy our new book "Let Kids Be Kids, Not Robots!: Embracing Childhood in an Age of AI"Social Media & Contact: Website: www.aidigitales.com Email: contact@aidigitales.com Follow Us: Instagram, YouTube Gift or get our books on Amazon or Free AI Worksheets Listen, rate, and subscribe! Stay updated with our latest episodes by subscribing to AI for Kids on your favorite podcast platform. Apple Podcasts Amazon Music Spotify YouTube Other Like our content, subscribe or feel free to donate to our Patreon here: patreon.com/AiDigiTales...

Metanoia Lab | Liderança, inovação e transformação digital, por Andrea Iorio
Ep. 188 | Luciano Floridi: porque precisamos de mais filósofos da Inteligência Artificial?

Metanoia Lab | Liderança, inovação e transformação digital, por Andrea Iorio

Play Episode Listen Later Oct 29, 2024 20:20


Neste episódio especial da quarta temporada do Metanoia Lab, patrocinado pela Oi Soluções, o Andrea (andreaiorio.com) analisa uma frase do Luciano Floridi, professor italiano de Ética Digital na Universidade de Yale, que explica o papel de um filósofo na era da Inteligência Artificial, discutindo seja como a filosofia influencia a IA, e como a IA influencia a filosofia.

Ultim'ora
800 anni Federico II, rettore Lorito "Connessione Napoli-New York"

Ultim'ora

Play Episode Listen Later Oct 23, 2024 6:17


NEW YORK (STATI UNITI) (ITALPRESS) - Nell'ambito delle celebrazioni per gli 800 anni dalla fondazione, l'Università degli Studi di Napoli Federico II lancia un nuovo programma di internazionalizzazione, partendo da New York, capitale della finanza e dell'innovazione, dove l'ateneo ha una sede dislocata presso il Tata Center della Cornell University (Roosevelt Island, NYC). Una due giorni che mira soprattutto a presentare su un palcoscenico globale l'offerta formativa e le attività di ricerca. In programma, poi, un segmento dedicato al tema del trasferimento tecnologico e dell'open innovation. La Federico II, infatti, ha lanciato una serie di collaborazioni di altissima qualità con aziende ed investitori. "Questa è una conferenza che segna una partenza dell'attività della Federico II a Cornell Tech, meraviglioso campus in cui la nostra presenza diventa concreta - ha detto all'Italpress il rettore, Matteo Lorito -. In questo noi vediamo un'opportunità anche per una connessione con New York perché Napoli è una grande città con tanti problemi e le università contribuiscono a cercare di affrontare questi problemi. New York è una grandissima città con grandi problemi anche lei e sarebbe davvero interessante trovare delle connessioni e vedere come due università su alcuni temi importanti, riguardo l'intelligenza artificiale, la transizione ecologica e l'azione digitale, possano lavorare insieme".fsc/gsl (intervista di Stefano Vaccara)

Ultim'ora
800 anni Federico II, rettore Lorito "Connessione Napoli-New York"

Ultim'ora

Play Episode Listen Later Oct 23, 2024 6:17


NEW YORK (STATI UNITI) (ITALPRESS) - Nell'ambito delle celebrazioni per gli 800 anni dalla fondazione, l'Università degli Studi di Napoli Federico II lancia un nuovo programma di internazionalizzazione, partendo da New York, capitale della finanza e dell'innovazione, dove l'ateneo ha una sede dislocata presso il Tata Center della Cornell University (Roosevelt Island, NYC). Una due giorni che mira soprattutto a presentare su un palcoscenico globale l'offerta formativa e le attività di ricerca. In programma, poi, un segmento dedicato al tema del trasferimento tecnologico e dell'open innovation. La Federico II, infatti, ha lanciato una serie di collaborazioni di altissima qualità con aziende ed investitori. "Questa è una conferenza che segna una partenza dell'attività della Federico II a Cornell Tech, meraviglioso campus in cui la nostra presenza diventa concreta - ha detto all'Italpress il rettore, Matteo Lorito -. In questo noi vediamo un'opportunità anche per una connessione con New York perché Napoli è una grande città con tanti problemi e le università contribuiscono a cercare di affrontare questi problemi. New York è una grandissima città con grandi problemi anche lei e sarebbe davvero interessante trovare delle connessioni e vedere come due università su alcuni temi importanti, riguardo l'intelligenza artificiale, la transizione ecologica e l'azione digitale, possano lavorare insieme".fsc/gsl (intervista di Stefano Vaccara)

Passa dal BSMT
Prof. LUCIANO FLORIDI | L'intelligenza artificiale fa paura?

Passa dal BSMT

Play Episode Listen Later Oct 10, 2024 113:42


È tempo di MASTERCLASS al BSMT. Parliamo di filosofia dell'informazione e di intelligenza artificiale con uno dei massimi esperti mondiali nel campo dell'etica applicata al mondo digitale. Ebbene sì, il professore Luciano Floridi è passato dal BSMT. Nato in una borgata di Roma, Luciano è diventato una delle voci più autorevoli della filosofia contemporanea. Dopo aver concluso gli studi universitari in tempi record e con risultati eccellenti, è stato preso come professore a Oxford fino ad arrivare, oggi, ad essere direttore del Digital Ethics Center e professore nel programma di Scienze cognitive all'Università di Yale. Tra i vari premi e riconoscimenti conseguiti per il suo lavoro fondamentale in filosofia, Luciano vanta anche la nomina di Cavaliere di Gran Croce OMRI, onorificenza consegnatogli nel 2022 direttamente dal presidente della Repubblica, Sergio Mattarella. Luciano al BSMT ci ha guidato attraverso le complessità della società dell'informazione, spiegandoci come il digitale stia trasformando non solo il modo in cui viviamo, ma anche come pensiamo. Una chiacchierata in cui abbiamo esplorato l'impatto dell'intelligenza artificiale e in cui ci siamo interrogati sulle sfide morali del nostro tempo grazie a Luciano e alla sua capacità di rendere accessibili concetti complessi anche ai non addetti ai lavori. Buon ascolto! Learn more about your ad choices. Visit megaphone.fm/adchoices

Ultim'ora
IA, Luciano Floridi “No minaccia, ma democrazia non si salva da sola"

Ultim'ora

Play Episode Listen Later Sep 18, 2024 3:55


NEW YORK (STATI UNITI) (ITALPRESS) - "Da un lato si cerca di utilizzare l'Intelligenza artificiale per fare del male con imbrogli, falsi, i cosiddetti deepfake contro la democrazia che invece avrebbe bisogno di una mano. D'altra parte, ci sono enormi forze buone che usano l'intelligenza artificiale sia all'interno dei partiti sia per le elezioni sia per il coinvolgimento della cittadinanza. Quindi, io sarei moderatamente ottimista sul fatto che l'IA può darci una mano ma sarei fermo sul fatto che bisogna utilizzarla ora bene ed è uno sforzo, non verrà naturalmente ma dobbiamo metterci un po' di energia". Lo ha detto all'Italpress il professore Luciano Floridi, il filosofo italiano che da un anno dirige a Yale il "Digital Ethics Center" e che prima insegnava a Oxford, rispetto alle preoccupazioni che l'Intelligenza Artificiale possa essere una minaccia per la democrazia, in occasione della conferenza "Deepfakes and Democracy in the Age of AI" organizzata dalla The New York Academy of Sciences.xo9/col3/gtr(Intervista di Stefano Vaccara)

Ultim'ora
IA, Luciano Floridi “No minaccia, ma democrazia non si salva da sola"

Ultim'ora

Play Episode Listen Later Sep 18, 2024 3:55


NEW YORK (STATI UNITI) (ITALPRESS) - "Da un lato si cerca di utilizzare l'Intelligenza artificiale per fare del male con imbrogli, falsi, i cosiddetti deepfake contro la democrazia che invece avrebbe bisogno di una mano. D'altra parte, ci sono enormi forze buone che usano l'intelligenza artificiale sia all'interno dei partiti sia per le elezioni sia per il coinvolgimento della cittadinanza. Quindi, io sarei moderatamente ottimista sul fatto che l'IA può darci una mano ma sarei fermo sul fatto che bisogna utilizzarla ora bene ed è uno sforzo, non verrà naturalmente ma dobbiamo metterci un po' di energia". Lo ha detto all'Italpress il professore Luciano Floridi, il filosofo italiano che da un anno dirige a Yale il "Digital Ethics Center" e che prima insegnava a Oxford, rispetto alle preoccupazioni che l'Intelligenza Artificiale possa essere una minaccia per la democrazia, in occasione della conferenza "Deepfakes and Democracy in the Age of AI" organizzata dalla The New York Academy of Sciences.xo9/col3/gtr(Intervista di Stefano Vaccara)

Ultim'ora
IA, Luciano Floridi “No minaccia, ma democrazia non si salva da sola"

Ultim'ora

Play Episode Listen Later Sep 18, 2024 3:55


NEW YORK (STATI UNITI) (ITALPRESS) - "Da un lato si cerca di utilizzare l'Intelligenza artificiale per fare del male con imbrogli, falsi, i cosiddetti deepfake contro la democrazia che invece avrebbe bisogno di una mano. D'altra parte, ci sono enormi forze buone che usano l'intelligenza artificiale sia all'interno dei partiti sia per le elezioni sia per il coinvolgimento della cittadinanza. Quindi, io sarei moderatamente ottimista sul fatto che l'IA può darci una mano ma sarei fermo sul fatto che bisogna utilizzarla ora bene ed è uno sforzo, non verrà naturalmente ma dobbiamo metterci un po' di energia". Lo ha detto all'Italpress il professore Luciano Floridi, il filosofo italiano che da un anno dirige a Yale il "Digital Ethics Center" e che prima insegnava a Oxford, rispetto alle preoccupazioni che l'Intelligenza Artificiale possa essere una minaccia per la democrazia, in occasione della conferenza "Deepfakes and Democracy in the Age of AI" organizzata dalla The New York Academy of Sciences.xo9/col3/gtr(Intervista di Stefano Vaccara)

Laser
Modalità ONLIFE

Laser

Play Episode Listen Later Sep 17, 2024 24:55


Il 2007 è una data che ha segnato un cambiamento profondo nella nostra società, l'anno del lancio del primo iPhone: il momento in cui gli smartphones hanno iniziato a diffondersi a macchia d'olio. Usiamo lo smartphone per comunicare, per intrattenerci, per rilevare i nostri dati metabolici, per trovare l'anima gemella, per lavorare. Già… e questo significa utilizzare quell'oggetto parecchie ore al giorno. Il digitale è diventato una dimensione del nostro esistere, tanto che oggi, come ha scritto il filosofo Luciano Floridi, «è diventato davvero impossibile poter discriminare quello che agiamo in analogico da quello che agiamo in digitale». Sono due dimensioni della realtà quotidiana, totalmente integrate: non si può parlare più di online, perché ora viviamo ONLIFE.Rachele Bianchi Porro e Alessandra Bonzi ne hanno parlato con Matteo Lancini, psicologo e psicoterapeuta, Presidente della Fondazione “Minotauro” di Milano e direttore del Master “Prevenzione e trattamento della dipendenza da internet in adolescenza” e hanno provato per una settimana a disintossicarsi dalla tecnologia… ce l'avranno fatta?

I lavori di domani
I lavori della sostenibilità, Massimo Chiriatti, Chief technology & Innovation Officer

I lavori di domani

Play Episode Listen Later May 31, 2024


Massimo Chiriatti, CTO & Innovation Officer di Lenovo, uno dei massimi esperti in Italia sul tema dell'intelligenza artificiale e autore del libro "Incoscienza artificiale, come fanno le macchine a prevedere per noi". Massimo è una figura di spicco nel panorama ICT sia in veste di dirigente all'interno di multinazionali di settore sia come studioso, esperto e formatore sui temi dell'innovazione e della trasformazione digitale. Chiriatti collabora con Università e consorzi per eventi di formazione sull'economia digitale ed è co-autore con Luciano Floridi del paper scientifico "GPT-3: Its Nature, Scope, Limits, and Consequences", pubblicato su Springer, Minds and Machines. È inoltre autore del libro "Humanless - L'algoritmo egoista", edito da Hoepli nel 2019 e del volume "Incoscienza Artificiale", edito dalla Luiss Press nel 2021.Siti, app, libri e link utiliDati di Ricerca dell'Osservatorio Artificial Intelligence del Politecnico di MilanoLinee guida etiche per un'intelligenza artificiale (IA) affidabile (europee)Etica dell'intelligenza artificiale Luiciano FloridiIncoscienza artificiale Massimo ChiriattiI libri da scegliereChief technology e innovation officerIl Chief Technology and Innovation Officer (CTO) svolge un compito fondamentale, non solo quando si tratta di definire la strategia digitale dell'azienda, ma anche nel garantire l'allineamento degli obiettivi di business con le esigenze tecnologiche delle varie anime dell'organizzazione. Il CTO deve essere una guida esperta lungo il percorso dell'innovazione. Al CTO spetta, supervisionare le operazioni tecnologiche, gestire i team di sviluppo e individuare quali nuove soluzioni adottare e quali benefici ne conseguono. Per farlo deve quindi possedere una visione strategica e una solida conoscenza delle tendenze del settore per prendere decisioni informate. In sintesi, il CTO per fare bene il suo lavoro deve anche essere in grado di monitorare e valutare le nuove tendenze che influenzano il mercato ICT ma deve conoscere anche il contesto socioeconomico nazionale e internazionale in cui opera la sua azienda.

Yale Talk: Conversations with President Peter Salovey
Navigating the AI Revolution Responsibly

Yale Talk: Conversations with President Peter Salovey

Play Episode Listen Later Apr 2, 2024 28:37


Professor Luciano Floridi and President Peter Salovey discuss Yale's new Digital Ethics Center to research the governance, ethical, legal, and social implications of digital innovation and technologies like artificial intelligence.

Radio Next
A proposito di AI: quattro chiacchiere con Luciano Floridi

Radio Next

Play Episode Listen Later Jan 26, 2024


In un mondo sempre più interconnesso e tecnologicamente avanzato, l'intelligenza artificiale non è più solo una promessa futuristica, ma una realtà tangibile che permea ogni aspetto della nostra vita quotidiana. Per esplorare le sfaccettature e le implicazioni di questa rivoluzione tecnologica, abbiamo avuto il piacere di avere ai microfoni di RadioNext uno dei massimi esperti nel campo dell'etica e della filosofia dell'IA: Luciano Floridi, Founding Director del Digital Ethics Center, all'università di Yale.In questa chiacchierata, Floridi ci guida in un viaggio affascinante attraverso i temi più caldi dell'IA nel 2024, svelando come questa tecnologia stia modellando il nostro presente e influenzerà il nostro futuro. L'intervista tocca questioni cruciali come il ruolo dell'IA generativa nel contesto lavorativo e sociale, le implicazioni del recente AI Act dell'Unione Europea e quali competenze sono necessarie per convivere con questo nuovo strumento di lavoro.Uno dei momenti salienti dell'intervista è la discussione sulle ricerche sull'intelligenza artificiale generale sponsorizzate da Mark Zuckerberg. Floridi condivide le sue riflessioni sulle potenzialità e le preoccupazioni etiche di queste ricerche, sollevando interrogativi fondamentali sul futuro dell'IA e il suo impatto sulla società. Un altro punto focale dell'intervista è il dibattito sull'AI Act dell'UE. Floridi analizza l'efficacia di questo regolamento nell'equilibrare innovazione e protezione dei diritti dei cittadini, offrendo una prospettiva unica sulle sfide regolamentari poste dall'avanzamento dell'IA. Non manca una digressione tra l'approccio anglosassone all'innovazione e al digitale, orientato al laissez faire e e quello europeo, preoccupato delle implicazioni che un uso non appropriato potrebbe generare.La digressione si conclude con una lucida analisi degli impatti sul mondo del lavoro e sulle competenze necessarie a governare questo cambiamento epocale.Il podcast di questa puntata è un must per chiunque sia interessato a comprendere l'impatto dell'IA sul nostro mondo e sul nostro futuro. Ascoltalo per scoprire le intuizioni di uno dei più grandi pensatori del nostro tempo e preparati a essere stimolato, informato e ispirato.Buon ascolto!

Non Stop News
Non Stop News: l'attualità politica ed economica, quanti tipi di riso esistono

Non Stop News

Play Episode Listen Later Jan 20, 2024 94:14


Le prime pagine dei principali quotidiani nazionali commentate in rassegna stampa da Davide Giacalone Le previsioni della Banca d'Italia, Schlein e le armi, il contatto Biden-Netanyahu. Quanti tipi di riso esistono? Uno per ogni ricetta! Se ne occupa il numero di febbraio di Sale e pepe. Ne abbiamo parlato con la direttrice Laura Maragliano. I temi dell'attualità con Giuseppe De Bellis, direttore di Sky TG24. Ci ha parlato anche di uno speciale sulla IA che andrà in onda dal 24 gennaio curato da lui stesso insieme a Luciano Floridi, uno dei massimi esperti a livello mondiale. All'interno di Non Stop News, con Barbara Sala, Luigi Santarelli e Alessia Manzoni.

Techstorie - rozmowy o technologiach
65# Francusko-niemiecki sojusz, by zatrzymać amerykańską AI. A za nim dwa tajemnicze startupy

Techstorie - rozmowy o technologiach

Play Episode Listen Later Jan 9, 2024 37:09


We Francji za walkę o francuskie oblicze AI zabrał się tamtejszy rząd. W Niemczech lokalne ambicje na tym polu szczodrą ręką wspiera najbogatszy Niemiec Dieter Schwartz. Wspólnie, te dwa państwa doprowadziły do impasu w pracach nad dużą regulacją AI w Unii Europejskiej. Oto kulisy tej sprawy, za którą stoi wizja cyfrowej suwerenności, Sztucznej Inteligencji opartej na otwartym kodzie źródłowym, ale przede wszystkim na tajemniczych startupach, które powstały ledwie kilka miesięcy temu. Francuski MistralAI działa ledwie od maja 2023 roku, a już wyceniany jest na ponad 2 mld dolarów. Niemiecki Aleph Alpha jesienią zdobył 500 mln euro dofinansowana i specjalnie dla niego na południu Niemiec ma być wybudowany hiper-nowoczeny park technologiczny. A wszystkie te inwestycje są mocno podlane przekonaniem, że trzeba dać opór amerykańskim firmom na czele z OpenAi i Google. W opowieści o europejskich (czy raczej tych niemiecko-francuskich) dokonaniach na polu AI swoją wiedzą wspierają nas dr Leszek Bukowski, specjalista w dziedzinie przetwarzania języka naturalnego, profesor Luciano Floridi włoski filozof i etyk sztucznej inteligencji z Uniwersytetu Yale oraz dr Przemysław Chojecki, który prowadzi grupę technologiczną ulam.ai w ramach której pomaga budować strategie AI. Śródtytuły: Wprowadzenie 00:00 Jak silny jest francuski Mistral 03:04 Mocne polityczne plecy 14:20 Kto jest Świętym Graalem AI 25:19 Lidl i Kaufland inwestują w AI 31:04 Techsuwerenność 34:08 Źródła: 1. O tym, czy podejście open source wygra z zamkniętym https://www.semianalysis.com/p/google-we-have-no-moat-and-neither 2. O potrzebie narodowej sztucznej inteligencji- https://cedric-o.medium.com/le-combat-culturel-des-llm-b8ecd3df47c1 3. O tym, jak Mistral zablokował trilog - https://www.politico.com/newsletters/digital-future-daily/2023/12/13/frances-mistral-takes-a-victory-lap-00131624 4. O zachwytach francuskich polityków: https://www.lemonde.fr/en/economy/article/2023/12/12/french-unicorn-start-up-mistral-ai-embodies-its-artificial-intelligence-hopes_6337125_19.html?random=1881812848 5. O tym, jak najbogatszy Niemiec wspiera niemieckiego czempiona - https://alltechmagazine.com/germanys-richest-man-backs-aleph-alpha/ 6. Polecany odcinek "Techstorii": https://audycje.tokfm.pl/podcast/140490,41-Kaganiec-na-sztuczna-inteligencje-Jak-nowe-regulacje-moga-zmienic-internet

Intelligenza Artificiale Spiegata Semplice
AI Act in Stand-By? Approfondimento sulla lettera aperta degli esperti con Bianca de Teffé Erb di Deloitte

Intelligenza Artificiale Spiegata Semplice

Play Episode Listen Later Dec 4, 2023 14:27


Nel podcast di oggi, Giacinto Fiore, discute delle recenti controversie legate alla proposta di regolamentazione europea sull'Intelligenza Artificiale. I governi di Francia, Italia e Germania hanno sollevato preoccupazioni, cercando di escludere modelli fondamentali dalla regolamentazione. Tuttavia, un gruppo di esperti, incluso Luciano Floridi e Bianca de Teffé Erb di Deloitte, ha risposto con una lettera aperta, chiedendo ai governi di riconsiderare questa posizione.Bianca spiega i rischi di questa esclusione, sottolineando la necessità di regolamentazioni per garantire sicurezza, responsabilità e conformità etica nell'uso dell'IA.La discussione evidenzia anche gli impatti negativi derivanti dal ritardo nell'approvazione della regolamentazione.

The Dissenter
#855 Luciano Floridi - The Ethics of Artificial Intelligence: Principles, Challenges, and Opportunities

The Dissenter

Play Episode Listen Later Nov 2, 2023 56:12


------------------Support the channel------------ Patreon: https://www.patreon.com/thedissenter PayPal: paypal.me/thedissenter PayPal Subscription 1 Dollar: https://tinyurl.com/yb3acuuy PayPal Subscription 3 Dollars: https://tinyurl.com/ybn6bg9l PayPal Subscription 5 Dollars: https://tinyurl.com/ycmr9gpz PayPal Subscription 10 Dollars: https://tinyurl.com/y9r3fc9m PayPal Subscription 20 Dollars: https://tinyurl.com/y95uvkao   ------------------Follow me on--------------------- Facebook: https://www.facebook.com/thedissenteryt/ Twitter: https://twitter.com/TheDissenterYT   This show is sponsored by Enlites, Learning & Development done differently. Check the website here: http://enlites.com/   Dr. Luciano Floridi is the Founding Director of the Digital Ethics Center and Professor of Cognitive Science at Yale University. His research concerns primarily Digital Ethics, the Philosophy of Information, and the Philosophy of Technology. He is editor of The Ethics of Artificial Intelligence for the Sustainable Development Goals, and author of The Ethics of Artificial Intelligence: Principles, Challenges, and Opportunities (OUP), and The Green and the Blue: Naïve Ideas to Improve Politics in the Digital Age (Wiley).   In this episode, we focus on The Ethics of Artificial Intelligence. We first get into some historical background, and talk about how old the concept of AI is. We discuss how we should be realistic in our worries about future AI developments. We talk about principles of ethical AI, and a distinction between soft and hard ethics. We go through challenges posed by algorithms, and how AI can be used for criminal activity. Finally, we talk about the idea of AI for Social Good. -- A HUGE THANK YOU TO MY PATRONS/SUPPORTERS: PER HELGE LARSEN, JERRY MULLER, HANS FREDRIK SUNDE, BERNARDO SEIXAS, OLAF ALEX, ADAM KESSEL, MATTHEW WHITINGBIRD, ARNAUD WOLFF, TIM HOLLOSY, HENRIK AHLENIUS, JOHN CONNORS, FILIP FORS CONNOLLY, DAN DEMETRIOU, ROBERT WINDHAGER, RUI INACIO, ZOOP, MARCO NEVES, COLIN HOLBROOK, PHIL KAVANAGH, MIKKEL STORMYR, SAMUEL ANDREEFF, FRANCIS FORDE, TIAGO NUNES, FERGAL CUSSEN, HAL HERZOG, NUNO MACHADO, JONATHAN LEIBRANT, JOÃO LINHARES, STANTON T, SAMUEL CORREA, ERIK HAINES, MARK SMITH, JOÃO EIRA, TOM HUMMEL, SARDUS FRANCE, DAVID SLOAN WILSON, YACILA DEZA-ARAUJO, ROMAIN ROCH, DIEGO LONDOÑO CORREA, YANICK PUNTER, ADANER USMANI, CHARLOTTE BLEASE, NICOLE BARBARO, ADAM HUNT, PAWEL OSTASZEWSKI, NELLEKE BAK, GUY MADISON, GARY G HELLMANN, SAIMA AFZAL, ADRIAN JAEGGI, PAULO TOLENTINO, JOÃO BARBOSA, JULIAN PRICE, EDWARD HALL, HEDIN BRØNNER, DOUGLAS FRY, FRANCA BORTOLOTTI, GABRIEL PONS CORTÈS, URSULA LITZCKE, SCOTT, ZACHARY FISH, TIM DUFFY, SUNNY SMITH, JON WISMAN, DANIEL FRIEDMAN, WILLIAM BUCKNER, PAUL-GEORGE ARNAUD, LUKE GLOWACKI, GEORGIOS THEOPHANOUS, CHRIS WILLIAMSON, PETER WOLOSZYN, DAVID WILLIAMS, DIOGO COSTA, ANTON ERIKSSON, CHARLES MOREY, ALEX CHAU, AMAURI MARTÍNEZ, CORALIE CHEVALLIER, BANGALORE ATHEISTS, LARRY D. LEE JR., OLD HERRINGBONE, STARRY, MICHAEL BAILEY, DAN SPERBER, ROBERT GRESSIS, IGOR N, JEFF MCMAHAN, JAKE ZUEHL, BARNABAS RADICS, MARK CAMPBELL, TOMAS DAUBNER, LUKE NISSEN, CHRIS STORY, KIMBERLY JOHNSON, BENJAMIN GELBART, JESSICA NOWICKI, LINDA BRANDIN, NIKLAS CARLSSON, ISMAËL BENSLIMANE, GEORGE CHORIATIS, VALENTIN STEINMANN, PER KRAULIS, KATE VON GOELER, ALEXANDER HUBBARD, LIAM DUNAWAY, BR, MASOUD ALIMOHAMMADI, PURPENDICULAR, JONAS HERTNER, URSULA GOODENOUGH, GREGORY HASTINGS, DAVID PINSOF, SEAN NELSON, MIKE LAVIGNE, JOS KNECHT, AND ERIK ENGMAN! A SPECIAL THANKS TO MY PRODUCERS, YZAR WEHBE, JIM FRANK, ŁUKASZ STAFINIAK, TOM VANEGDOM, BERNARD HUGUENEY, CURTIS DIXON, BENEDIKT MUELLER, THOMAS TRUMBLE, KATHRINE AND PATRICK TOBIN, JONCARLO MONTENEGRO, AL NICK ORTIZ, AND NICK GOLDEN! AND TO MY EXECUTIVE PRODUCERS, MATTHEW LAVENDER, SERGIU CODREANU, BOGDAN KANIVETS, AND ROSEY!

Parker's Pensées
Ep. 251 - The Philosophy of Information and Artificial Intelligence w/Dr. Luciano Floridi

Parker's Pensées

Play Episode Listen Later Oct 28, 2023 74:19


In episode 251 of the Parker's Pensées Podcast, I'm joined by Dr. Luciano Floridi to discuss his work on the philosophy of information and the philosophy of artificial intelligence. Grab his book here to support my podcast: https://amzn.to/40aFf8o Check out my sponsor for this episode, Saddleback Leather!!! https://saddlebackleather.com/?ktk=d0pac01BLTc5ZGEzNmM2OTBl Join this channel to get access to perks: https://www.youtube.com/channel/UCYbTRurpFP5q4TpDD_P2JDA/join Join the Facebook group, Parker's Pensées Penseurs, here: https://www.facebook.com/groups/960471494536285/ If you like this podcast, then support it on Patreon for $3, $5 or more a month. Any amount helps, and for $5 you get a Parker's Pensées sticker and instant access to all the episode as I record them instead of waiting for their release date. Check it out here: Patreon: https://www.patreon.com/parkers_pensees If you want to give a one-time gift, you can give at my Paypal: https://paypal.me/ParkersPensees?locale.x=en_US Check out my merchandise at my Teespring store: https://teespring.com/stores/parkers-penses-merch Come talk with the Pensées community on Discord: dsc.gg/parkerspensees Sub to my Substack to read my thoughts on my episodes: https://parknotes.substack.com/ Check out my blog posts: https://parkersettecase.com/ Check out my Parker's Pensées YouTube Channel: https://www.youtube.com/channel/UCYbTRurpFP5q4TpDD_P2JDA Check out my other YouTube channel on my frogs and turtles: https://www.youtube.com/c/ParkerSettecase 0:00 - Luciano Floridi, Kierkegaard, and losing his faith 12:15 - What is Information? 17:43 - Is there information in tree rings and finger prints? 27:30 - AI isn't actually intelligent and that's the whole point 43:00 - Information and Extended Minds 1:08:13 - Simulation Hypothesis

The Dissenter
#809 Luciano Floridi: The Ethics of Artificial Intelligence for the Sustainable Development Goals

The Dissenter

Play Episode Listen Later Jul 17, 2023 38:56


------------------Support the channel------------ Patreon: https://www.patreon.com/thedissenter PayPal: paypal.me/thedissenter PayPal Subscription 1 Dollar: https://tinyurl.com/yb3acuuy PayPal Subscription 3 Dollars: https://tinyurl.com/ybn6bg9l PayPal Subscription 5 Dollars: https://tinyurl.com/ycmr9gpz PayPal Subscription 10 Dollars: https://tinyurl.com/y9r3fc9m PayPal Subscription 20 Dollars: https://tinyurl.com/y95uvkao   ------------------Follow me on--------------------- Facebook: https://www.facebook.com/thedissenteryt/ Twitter: https://twitter.com/TheDissenterYT   This show is sponsored by Enlites, Learning & Development done differently. Check the website here: http://enlites.com/   Dr. Luciano Floridi is the Founding Director of the Digital Ethics Center and Professor of Cognitive Science at Yale University. His research concerns primarily Digital Ethics, the Philosophy of Information, and the Philosophy of Technology. He is editor of The Ethics of Artificial Intelligence for the Sustainable Development Goals, and author of forthcoming The Ethics of Artificial Intelligence: Principles, Challenges, and Opportunities (OUP), and The Green and the Blue: Naïve Ideas to Improve Politics in the Digital Age (Wiley).   In this episode, we focus on The Ethics of Artificial Intelligence for the Sustainable Development Goals. We talk about the ethics of AI and the main issues it addresses. We discuss the UN's Sustainable Development Goals (SDGs), and how AI can contribute to them. We talk about the potential misuse of AI technology. We discuss if AI is an existential threat. We talk about how AI can help tackle climate change. Finally, we discuss how we should be wary of techno-solutionist claims. -- A HUGE THANK YOU TO MY PATRONS/SUPPORTERS: PER HELGE LARSEN, JERRY MULLER, HANS FREDRIK SUNDE, BERNARDO SEIXAS, OLAF ALEX, ADAM KESSEL, MATTHEW WHITINGBIRD, ARNAUD WOLFF, TIM HOLLOSY, HENRIK AHLENIUS, JOHN CONNORS, FILIP FORS CONNOLLY, DAN DEMETRIOU, ROBERT WINDHAGER, RUI INACIO, ZOOP, MARCO NEVES, COLIN HOLBROOK, SIMON COLUMBUS, PHIL KAVANAGH, MIKKEL STORMYR, SAMUEL ANDREEFF, FRANCIS FORDE, TIAGO NUNES, FERGAL CUSSEN, HAL HERZOG, NUNO MACHADO, JONATHAN LEIBRANT, JOÃO LINHARES, STANTON T, SAMUEL CORREA, ERIK HAINES, MARK SMITH, JOÃO EIRA, TOM HUMMEL, SARDUS FRANCE, DAVID SLOAN WILSON, YACILA DEZA-ARAUJO, ROMAIN ROCH, DIEGO LONDOÑO CORREA, YANICK PUNTER, ADANER USMANI, CHARLOTTE BLEASE, NICOLE BARBARO, ADAM HUNT, PAWEL OSTASZEWSKI, NELLEKE BAK, GUY MADISON, GARY G HELLMANN, SAIMA AFZAL, ADRIAN JAEGGI, NICK GOLDEN, PAULO TOLENTINO, JOÃO BARBOSA, JULIAN PRICE, EDWARD HALL, HEDIN BRØNNER, DOUGLAS FRY, FRANCA BORTOLOTTI, GABRIEL PONS CORTÈS, URSULA LITZCKE, SCOTT, ZACHARY FISH, TIM DUFFY, SUNNY SMITH, JON WISMAN, DANIEL FRIEDMAN, WILLIAM BUCKNER, PAUL-GEORGE ARNAUD, LUKE GLOWACKI, GEORGIOS THEOPHANOUS, CHRIS WILLIAMSON, PETER WOLOSZYN, DAVID WILLIAMS, DIOGO COSTA, ANTON ERIKSSON, CHARLES MOREY, ALEX CHAU, AMAURI MARTÍNEZ, CORALIE CHEVALLIER, BANGALORE ATHEISTS, LARRY D. LEE JR., OLD HERRINGBONE, STARRY, MICHAEL BAILEY, DAN SPERBER, ROBERT GRESSIS, TOM ROTH, IGOR N, JEFF MCMAHAN, JAKE ZUEHL, BARNABAS RADICS, MARK CAMPBELL, TOMAS DAUBNER, LUKE NISSEN, CHRIS STORY, KIMBERLY JOHNSON, BENJAMIN GELBART, AND JESSICA NOWICKI! A SPECIAL THANKS TO MY PRODUCERS, YZAR WEHBE, JIM FRANK, ŁUKASZ STAFINIAK, TOM VANEGDOM, BERNARD HUGUENEY, CURTIS DIXON, BENEDIKT MUELLER, VEGA GIDEY, THOMAS TRUMBLE, KATHRINE AND PATRICK TOBIN, JONCARLO MONTENEGRO, AND AL NICK ORTIZ! AND TO MY EXECUTIVE PRODUCERS, MATTHEW LAVENDER, SERGIU CODREANU, AND BOGDAN KANIVETS!

Future Science Group
Luciano Floridi Interview Final

Future Science Group

Play Episode Listen Later Jun 27, 2023 16:21


Luciano Floridi Interview Final by Future Science Group

Robinson's Podcast
105 - Luciano Floridi: The Ethics of Artificial Intelligence

Robinson's Podcast

Play Episode Listen Later Jun 23, 2023 61:25


Luciano Floridi is the Oxford Internet Institute's Professor of Philosophy and Ethics of Information at the University of Oxford, Distinguished Research Fellow of the Uehiro Centre for Practical Ethics of the Faculty of Philosophy, and Research Associate and Fellow in Information Policy of the Department of Computer Science. Beginning in the fall, he will be the Founding Director of the Digital Ethics Center and Professor of Cognitive Science at Yale University. For much of the past twenty-five years Luciano has been developing the philosophy of information as its own free-standing discipline within the philosophical world. In this episode he and Robinson delve into just one small corner of the subject. They talk about Luciano's view of artificial intelligence as a novel form of agency before turning to some future applications of AI and the novel ethical considerations its use raises in the modern world. Luciano's Website: https://www.philosophyofinformation.net Luciano's Twitter: https://twitter.com/Floridi Information: A Very Short Introduction: https://a.co/d/5Jgq1wS OUTLINE 00:00 In This Episode… 01:04 Introduction 04:58 Luciano's Tetralogy 09:27 Artificial Intelligence as a New Form of Agency 26:49 Future Applications of AI 32:50 Ethics and Levels of Explanation 46:09 The Ethics of AI Robinson's Website: http://robinsonerhardt.com Robinson Erhardt researches symbolic logic and the foundations of mathematics at Stanford University. Join him in conversations with philosophers, scientists, weightlifters, artists, and everyone in-between.  --- Support this podcast: https://podcasters.spotify.com/pod/show/robinson-erhardt/support

Geni invisibili
Il libro e ChatGPT - S2E1

Geni invisibili

Play Episode Listen Later Jun 5, 2023 28:08


Ebbene sì: anche la più importante invenzione culturale della storia, il libro, ha l'impronta del genio italiano. Il libro “tascabile”, dunque quello che consideriamo il libro moderno, è nato grazie ad Aldo Manuzio alla fine del Quattrocento a Venezia, dove si recava anche Erasmo da Rotterdam. Fu lo stesso Manuzio ad avere inventato l'italic, il carattere che solo in Italia si chiama corsivo. Come al solito siamo bizzarri, ma geniali. Le sue stampe, dette aldine, possono valere una piccola fortuna. Ma anche sulla stampa a caratteri mobili c'è un'altra storia dimenticata, un piccolo giallo da riscoprire, quello di Panfilo Castaldi, contemporaneo del Guttenberg. Del libro e dei suoi antenati, gli antichi e preziosi papiri egizi, ma anche della nascita della scrittura, parlo con Christian Greco, l'egittologo di fama internazionale direttore del Museo egizio di Torino. Ma anche con il filosofo Luciano Floridi che ci porterà dalla preistoria all'iperstoria fino a quella profezia che lo stesso Italo Calvino aveva fatto negli anni Sessanta: grazie alla cibernetica arriverà un software capace di scrivere libri. Oggi lo chiamiamo ChatGPT. Soppianterà Dante, lo stesso Calvino e le poesie di Andrea Zanzotto?

Thrivve Podcast
#47: Examining Regulation for ChatGPT: Dr. Luciano Floridi

Thrivve Podcast

Play Episode Listen Later May 31, 2023 54:22


The AI Asia Pacific Institute (AIAPI) is hosting a series of conversations with leading artificial intelligence (AI) experts to study ChatGPT and its risks, looking to arrive at tangible recommendations for regulators and policymakers. These experts include Dr. Toby Walsh, Dr. Stuart Russell, Dr. Pedro Domingos, and Dr. Luciano Floridi, as well as our internal advisory board and research affiliates. We have published a briefing note outlining some of the critical risks of generative AI and highlighting potential concerns.  The following is a conversation with Dr. Luciano Floridi.  Dr. Luciano Floridi holds a double appointment as professor of philosophy and ethics of information at the University of Oxford, Oxford Internet Institute where he is also Governing Body Fellow of Exeter College, Oxford, and as Professor of Sociology of Culture and Communication at the University of Bologna, Department of Legal Studies, where he is the director of the Centre for Digital Ethics. He is adjunct professor ("distinguished scholar in residence"), Department of Economics, American University, Washington D.C. Dr. Floridi is best known for his work on two areas of philosophical research: the philosophy of information, and information ethics (also known as digital ethics or computer ethics), for which he received many awards, including the Knight of the Grand Cross of the Order of Merit, Italy's most prestigious honour. According to Scopus, Floridi was the most cited living philosopher in the world in 2020.Between 2008 and 2013, he held the research chair in philosophy of information and the UNESCO Chair in Information and Computer Ethics at the University of Hertfordshire. He was the founder and director of the IEG, an interdepartmental research group on the philosophy of information at the University of Oxford, and of the GPI the research Group in Philosophy of Information at the University of Hertfordshire. He was the founder and director of the SWIF, the Italian e-journal of philosophy (1995–2008). He is a former Governing Body Fellow of St Cross College, Oxford. *** For show notes and past guests, please visit https://aiasiapacific.org/podcast/ For questions, please contact us at contact@aiasiapacific.org or follow us on Twitter or Instagram to stay in touch.

Thrivve Podcast
#46: Examining Regulation for ChatGPT: Dr. Pedro Domingos

Thrivve Podcast

Play Episode Listen Later May 23, 2023 72:41


The AI Asia Pacific Institute (AIAPI) is hosting a series of conversations with leading artificial intelligence (AI) experts to study ChatGPT and its risks, looking to arrive at tangible recommendations for regulators and policymakers. These experts include Dr. Toby Walsh, Dr. Stuart Russell, Dr. Pedro Domingos, and Dr. Luciano Floridi, as well as our internal advisory board and research affiliates. We have published a briefing note outlining some of the critical risks of generative AI and highlighting potential concerns. The following is a conversation with Dr. Pedro Domingos.  Dr. Pedro Domingos is a professor emeritus of computer science and engineering at the University of Washington and the author of The Master Algorithm. He is a winner of the SIGKDD Innovation Award and the IJCAI John McCarthy Award, two of the highest honors in data science and AI. He is a Fellow of the AAAS and AAAI, and has received an NSF CAREER Award, a Sloan Fellowship, a Fulbright Scholarship, an IBM Faculty Award, several best paper awards, and other distinctions. Dr. Domingos received an undergraduate degree (1988) and M.S. in Electrical Engineering and Computer Science (1992) from IST, in Lisbon, and an M.S. (1994) and Ph.D. (1997) in Information and Computer Science from the University of California at Irvine. He is the author or co-author of over 200 technical publications in machine learning, data mining, and other areas. He is a member of the editorial board of the Machine Learning journal, co-founder of the International Machine Learning Society, and past associate editor of JAIR. Dr. Domingos was program co-chair of KDD-2003 and SRL-2009, and served on the program committees of AAAI, ICML, IJCAI, KDD, NIPS, SIGMOD, UAI, WWW, and others. He has written for the Wall Street Journal, Spectator, Scientific American, Wired, and others. He helped start the fields of statistical relational AI, data stream mining, adversarial learning, machine learning for information integration, and influence maximization in social networks. *** For show notes and past guests, please visit https://aiasiapacific.org/podcast/ For questions, please contact us at contact@aiasiapacific.org or follow us on Twitter or Instagram to stay in touch.

Thrivve Podcast
#45: Examining Regulation for ChatGPT: Dr. Toby Walsh & Dr. Stuart Russell

Thrivve Podcast

Play Episode Listen Later May 16, 2023 75:14


The AI Asia Pacific Institute (AIAPI) has hosted a series of conversations with leading artificial intelligence (AI) experts to study ChatGPT and its risks, looking to arrive at tangible recommendations for regulators and policymakers. These experts include Dr. Toby Walsh, Dr. Stuart Russell, Dr. Pedro Domingos, and Dr. Luciano Floridi, as well as our internal advisory board and research affiliates. The following is a conversation with Dr. Toby Walsh and Dr. Stuart Russell.  Dr. Toby Walsh is Chief Scientist at UNSW.ai, UNSW's new AI Institute. He is a Laureate Fellow and Scientia Professor of Artificial Intelligence in the School of Computer Science and Engineering at UNSW Sydney, and he is also an adjunct fellow at CSIRO Data61. He was named by the Australian newspaper as a "rock star" of Australia's digital revolution. He has been elected a fellow of the Australian Academy of Science, a fellow of the ACM, the Association for the Advancement of Artificial Intelligence (AAAI) and of the European Association for Artificial Intelligence. He has won the prestigious Humboldt Prize as well as the NSW Premier's Prize for Excellence in Engineering and ICT, and the ACP Research Excellence award. He has previously held research positions in England, Scotland, France, Germany, Italy, Ireland and Sweden. He has played a leading role at the UN and elsewhere on the campaign to ban lethal autonomous weapons (aka "killer robots"). His advocacy in this area has led to him being "banned indefinitely" from Russia. Dr. Stuart Russell is a Professor of Computer Science at the University of California at Berkeley, holder of the Smith-Zadeh Chair in Engineering, and Director of the Center for Human-Compatible AI and the Kavli Center for Ethics, Science, and the Public. He is a recipient of the IJCAI Computers and Thought Award and Research Excellence Award and held the Chaire Blaise Pascal in Paris. In 2021 he received the OBE from Her Majesty Queen Elizabeth and gave the Reith Lectures. He is an Honorary Fellow of Wadham College, Oxford, an Andrew Carnegie Fellow, and a Fellow of the American Association for Artificial Intelligence, the Association for Computing Machinery, and the American Association for the Advancement of Science. His book "Artificial Intelligence: A Modern Approach" (with Peter Norvig) is the standard text in AI, used in 1500 universities in 135 countries. His research covers a wide range of topics in artificial intelligence, with a current emphasis on the long-term future of artificial intelligence and its relation to humanity. He has developed a new global seismic monitoring system for the nuclear-test-ban treaty and is currently working to ban lethal autonomous weapons. *** For show notes and past guests, please visit https://aiasiapacific.org/podcast/ For questions, please contact us at contact@aiasiapacific.org or follow us on Twitter or Instagram to stay in touch.

Thrivve Podcast
Season 5: Examining Regulation for ChatGPT

Thrivve Podcast

Play Episode Listen Later Apr 30, 2023 0:58


Generative Artificial Intelligence systems have significantly advanced in recent years, enabling machines to generate highly realistic content such as text, images, and audio. While these advancements offer numerous benefits, it is critical that we are aware of the associated risks. The AI Asia Pacific Institute has hosted a series of conversations with leading AI experts to study ChatGPT and its risks, looking to arrive at tangible recommendations for regulators and policymakers. These experts include Dr. Toby Walsh, Dr. Stuart Russell, Dr. Pedro Domingos, and Dr. Luciano Floridi. Join us for season 5 of this Podcast.Subscribe now, wherever you are listening to join these conversations.

Wonks and War Rooms
Meta Oversight Board with Julie Owono

Wonks and War Rooms

Play Episode Listen Later Mar 8, 2023 40:09 Transcription Available


Julie Owono is the executive director of Internet Sans Frontières (Internet Without Borders) and a fellow at the Berkman Klein Center at Harvard University. She is also an inaugural member of the Meta Oversight Board, an independent group of experts who review appeals of content moderation decisions on Facebook and Instagram, which is the topic of today's episode. Elizabeth and Julie talk about the background of the board and the appeals process, how cases are chosen, the possibilities and limits of what can be accomplished with content moderation, and the lesson Julie has learned in her time serving on the board. They also discuss what counts as content moderation and who gets to be involved in that process, the paradox of tolerance and where the line is drawn when it comes to limiting people's freedoms of expression.Additional resources:Off the top Elizabeth references two previous episodes that set the scene for this episode: Content Moderation with Andrew Straight and Regulating Big Tech with Taylor Owen.You can find the Meta Oversight Board website here, including a description of the appeals process, the decisions made to date, and board member bios.This 2022 article by David Wong and Luciano Floridi takes an academic look at the OB, assessing its strengths and weaknesses, and suggesting improvements.Julie explains some of the principles around how the board chooses which cases to review, and the Case Selection Committee that makes those decisions, which are documented in the Rulebook for Case Review and Policy Guidance.Julie mentions two specific cases: the Kurdistan Workers Party and the Taliban regime in Afghanistan.Elizabeth introduces Karl Popper's Paradox of Intolerance, introduced in his 1945 book The Open Society and its Enemies. We relied on this 2015 paper by Brett G. Johnson, which applies tolerance theory to extreme speech and social media platforms.Julie mentions the implementation committee, and the tracking being done to capture how the OB's recommendations are being operationalized. You can find out more in the Oversight Board's Annual Report, Meta's Quarterly Reports and on the Meta's Transparency Centre page. Check out www.polcommtech.ca for annotated transcripts of this episode in English and French.

Machine Learning Street Talk
#99 - CARLA CREMER & IGOR KRAWCZUK - X-Risk, Governance, Effective Altruism

Machine Learning Street Talk

Play Episode Listen Later Feb 5, 2023 99:45


YT version (with references): https://www.youtube.com/watch?v=lxaTinmKxs0 Support us! https://www.patreon.com/mlst MLST Discord: https://discord.gg/aNPkGUQtc5 Carla Cremer and Igor Krawczuk argue that AI risk should be understood as an old problem of politics, power and control with known solutions, and that threat models should be driven by empirical work. The interaction between FTX and the Effective Altruism community has sparked a lot of discussion about the dangers of optimization, and Carla's Vox article highlights the need for an institutional turn when taking on a responsibility like risk management for humanity. Carla's “Democratizing Risk” paper found that certain types of risks fall through the cracks if they are just categorized into climate change or biological risks. Deliberative democracy has been found to be a better way to make decisions, and AI tools can be used to scale this type of democracy and be used for good, but the transparency of these algorithms to the citizens using the platform must be taken into consideration. Aggregating people's diverse ways of thinking about a problem and creating a risk-averse procedure gives a likely, highly probable outcome for having converged on the best policy. There needs to be a good reason to trust one organization with the risk management of humanity and all the different ways of thinking about risk must be taken into account. AI tools can help to scale this type of deliberative democracy, but the transparency of these algorithms must be taken into consideration. The ambition of the EA community and Altruism Inc. is to protect and do risk management for the whole of humanity and this requires an institutional turn in order to do it effectively. The dangers of optimization are real, and it is essential to ensure that the risk management of humanity is done properly and ethically. By understanding the importance of aggregating people's diverse ways of thinking about a problem, and creating a risk-averse procedure, it is possible to create a likely, highly probable outcome for having converged on the best policy. Carla Zoe Cremer https://carlacremer.github.io/ Igor Krawczuk https://krawczuk.eu/ Interviewer: Dr. Tim Scarfe TOC: [00:00:00] Introduction: Vox article and effective altruism / FTX [00:11:12] Luciano Floridi on Governance and Risk [00:15:50] Connor Leahy on alignment [00:21:08] Ethan Caballero on scaling [00:23:23] Alignment, Values and politics [00:30:50] Singularitarians vs AI-thiests [00:41:56] Consequentialism [00:46:44] Does scale make a difference? [00:51:53] Carla's Democratising risk paper [01:04:03] Vox article - How effective altruists ignored risk [01:20:18] Does diversity breed complexity? [01:29:50] Collective rationality [01:35:16] Closing statements

Machine Learning Street Talk
#98 - Prof. LUCIANO FLORIDI - ChatGPT, Superintelligence, Ethics, Philosophy of Information

Machine Learning Street Talk

Play Episode Listen Later Feb 3, 2023 66:51


Support us! https://www.patreon.com/mlst MLST Discord: https://discord.gg/aNPkGUQtc5 YT version: https://youtu.be/YLNGvvgq3eg (If music annoying, skip to main interview @ 14:14) We are living in an age of rapid technological advancement, and with this growth comes a digital divide. Professor Luciano Floridi of the Oxford Internet Institute / Oxford University believes that this divide not only affects our understanding of the implications of this new age, but also the organization of a fair society. The Information Revolution has been transforming the global economy, with the majority of global GDP now relying on intangible goods, such as information-related services. This in turn has led to the generation of immense amounts of data, more than humanity has ever seen in its history. With 95% of this data being generated by the current generation, Professor Floridi believes that we are becoming overwhelmed by this data, and that our agency as humans is being eroded as a result. According to Professor Floridi, the digital divide has caused a lack of balance between technological growth and our understanding of this growth. He believes that the infosphere is becoming polluted and the manifold of the infosphere is increasingly determined by technology and AI. Identifying, anticipating and resolving these problems has become essential, and Professor Floridi has dedicated his research to the Philosophy of Information, Philosophy of Technology and Digital Ethics. We must equip ourselves with a viable philosophy of information to help us better understand and address the risks of this new information age. Professor Floridi is leading the charge, and his research on Digital Ethics, the Philosophy of Information and the Philosophy of Technology is helping us to better anticipate, identify and resolve problems caused by the digital divide. TOC: [00:00:00] Introduction to Luciano and his ideas [00:14:40] Chat GPT / language models [00:29:24] AI risk / "Singularitarians" [00:30:34] Re-ontologising the world [00:56:35] It from bit and Computationalism and philosophy without purpose [01:03:43] Getting into Digital Ethics References: GPT‐3: Its Nature, Scope, Limits, and Consequences [Floridi] https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3827044 Ultraintelligent Machines, Singularity, and Other Sci-fi Distractions about AI [Floridi] https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4222347 The Philosophy of Information [Floridi] https://www.amazon.co.uk/Philosophy-Information-Luciano-Floridi/dp/0199232393 Information: A Very Short Introduction [Floridi] https://www.amazon.co.uk/Information-Very-Short-Introduction-Introductions/dp/0199551375 https://en.wikipedia.org/wiki/Luciano_Floridi https://www.philosophyofinformation.net/

Machine Learning Street Talk
[NO MUSIC] #98 - Prof. LUCIANO FLORIDI - ChatGPT, Singularitarians, Ethics, Philosophy of Information

Machine Learning Street Talk

Play Episode Listen Later Feb 3, 2023 66:12


Support us! https://www.patreon.com/mlst MLST Discord: https://discord.gg/aNPkGUQtc5 YT version: https://youtu.be/YLNGvvgq3eg We are living in an age of rapid technological advancement, and with this growth comes a digital divide. Professor Luciano Floridi of the Oxford Internet Institute / Oxford University believes that this divide not only affects our understanding of the implications of this new age, but also the organization of a fair society. The Information Revolution has been transforming the global economy, with the majority of global GDP now relying on intangible goods, such as information-related services. This in turn has led to the generation of immense amounts of data, more than humanity has ever seen in its history. With 95% of this data being generated by the current generation, Professor Floridi believes that we are becoming overwhelmed by this data, and that our agency as humans is being eroded as a result. According to Professor Floridi, the digital divide has caused a lack of balance between technological growth and our understanding of this growth. He believes that the infosphere is becoming polluted and the manifold of the infosphere is increasingly determined by technology and AI. Identifying, anticipating and resolving these problems has become essential, and Professor Floridi has dedicated his research to the Philosophy of Information, Philosophy of Technology and Digital Ethics. We must equip ourselves with a viable philosophy of information to help us better understand and address the risks of this new information age. Professor Floridi is leading the charge, and his research on Digital Ethics, the Philosophy of Information and the Philosophy of Technology is helping us to better anticipate, identify and resolve problems caused by the digital divide. TOC: [00:00:00] Introduction to Luciano and his ideas [00:14:00] Chat GPT / language models [00:28:45] AI risk / "Singularitarians" [00:37:15] Forms of governance [00:43:56] Re-ontologising the world [00:55:56] It from bit and Computationalism and philosophy without purpose [01:03:05] Getting into Digital Ethics Interviewer: Dr. Tim Scarfe References: GPT‐3: Its Nature, Scope, Limits, and Consequences [Floridi] https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3827044 Ultraintelligent Machines, Singularity, and Other Sci-fi Distractions about AI [Floridi] https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4222347 The Philosophy of Information [Floridi] https://www.amazon.co.uk/Philosophy-Information-Luciano-Floridi/dp/0199232393 Information: A Very Short Introduction [Floridi] https://www.amazon.co.uk/Information-Very-Short-Introduction-Introductions/dp/0199551375 https://en.wikipedia.org/wiki/Luciano_Floridi https://www.philosophyofinformation.net/

FastLetter!
La Rivoluzione di Google con l'Intelligenza Artificiale: spariranno i siti web? E la SEO?

FastLetter!

Play Episode Listen Later Jan 30, 2023 17:36


FastLetter - Una fonte buona dalla quale aggiornarsia cura di Giorgio TavernitiN. 32 - 30 Gennaio 2023Di cosa parliamo* Spariranno i siti web? E la SEO?* ChatGPT è stupido* Google non ha paura di ChatGPT* La Rivoluzione di Google con l'AI* YouTube come Netflix: arriva la traccia audio multipla!* Da leggere* SalutiPremessa: oggi è il giorno della Super-Live sull'Intelligenza Artificiale. Vi aspetto su FastForward alle 16:00. La si può seguire anche sul canale YouTube del WMF o sul mio Linkedin.Queste live sono tutte targate WMF. Il WMF - We Make Future si impegna dal 2016 a portare il tema dell'Intelligenza Artificiale non solo nel nostro settore, ma in tutti quelli della società. Questa edizione sarà sicuramente ancora più centrale. E posso anche dirvi di tenere le antenne ben dritte: tante sono le iniziative sull'AI che vedrete. Durante la 3 giorni ci sarà un mega evento sull'AI, ma non sarà l'unica cosa. Restate collegati su questi canali perché se vi interessa formarvi in modo corretto su questi temi avrete presto news. Detto questo stiamo preparando altre due live sull'AI:* 6 Febbraio sulla Professione del Prompt Expert: live che potete seguire su FastForward, sul canale YouTube WMF o mio Linkedin.* 13 Febbraio sull'Intelligenza Artificiale per Content Creator: la potete seguire su FastForward, sul canale YouTube del WMF o mio Linkedin.Prima di addentrarci nella FastLetter una piccola comunicazione: lo scorso weekend ho tenuto le prime due lezioni sulla parte SEO del Master in Digital Strategy della nostra Digital Business School. A Ottobre del 2023 partirà la seconda edizione e se siete interessati potete compilare il form qui.SPARIRANNO I SITI WEB? E LA SEO?Non riesco a ricordare quanti anni sono passati dal giorno in cui Marco Quadrella mi disse: “Giorgio, appena arriverà l'AI, le piccole news Google potrebbe crearsele da sole”. Mi sono ritornate in mente queste parole appena ho letto l'intervista a Luciano Floridi dove dice: Ci sono cose che l'Ai può sostituire facilmente. Esistono dei programmini che sanno scrivere gli articoli. Articoli semplici magari. E un domani per un editore non ci sarà motivo che lo faccia un giornalista. Ma nessun programma può sostituire la profondità di analisi di un articolo per esempio dell'Economist. Anche se inizio a sospettare che forse non subito ma un domani un'intelligenza artificiale saprà fare anche quello. Come saprà fare un po' tutti i compiti, i lavori che oggi svolge una personaAggiungiamo un terzo tema. Lo apre Pietro Bonomo in un mio post su Facebook:Dubbio amletico. Perché e come dovrebbero esistere i motori di ricerca, quindi i siti e quindi i SEO, se si possono ottenere dei riassunti privi di fonti e collegamenti?Per fare un attimo chiarezza riassumo le grandi questioni in 5 punti:* Google può scrivere notizie con l'AI * I giornali possono scrivere articoli con l'AI* I sistemi come ChatGPT, di cui anche Google ne ha uno, offrono "risposte"* Le persone cercheranno solo su questi sistemi, quindi i siti non hanno senso* Di conseguenza nemmeno la SEO ha sensoVorrei un attimo tranquillizzare tutti. Non spariranno i siti, non sparirà la SEO.Però devo spiegare perché lo penso.Così come con TikTok: ve la ricordate l'edizione sulla Bufala che TikTok supera Google? Niente, TikTok sta portando un altro tipo di ricerca alla ribalta che ha poco a che fare con Google. E se volete fare SEO su TikTok lo potete fare, qui ho spiegato come. Perché TikTok sposta le vendite e di molto.Vi risulta Google morto? Siamo davanti allo stesso fenomeno: ovvero un nuovo tipo di ricerca a disposizione dell'essere umano. Lo spiega bene Alessio Pomaro in un commento sempre al mio post su Facebook.Visto che la discussione ricade in Modello di Linguaggio e Motori di Ricerca, vorrei ricordarci che sono due elementi ben diversi, con obiettivi diversi.Tuttavia, esistono ibridi molto interessanti che stanno nascendo che uniscono la precisione del motore di ricerca nel selezionare risultati pertinenti alla capacità del LM di riepilogare le informazioni. Un esempio: perplexity.ai Anche Mafe de Baggis segnala un sistema ibrido:You.com affianca già una chat alla SERP e spesso la sua risposta è risolutivaOra, ragioniamo insieme. Non è difficile, lo giuro.Questo nuovo tipo di ricerca a disposizione dell'essere umano non andrà a spazzare via tutti i modi che abbiamo di cercare attualmente. Si affiancherà. Porterà su Internet una quantità di nuove ricerche MAI fatte prima e potrà essere usato su alcune delle precedenti. Subito si pensa: non useremo più Google per cercare informazioni! Ed è qui un enorme errore: anche per le query informazionali continueremo a usare i motori di ricerca per tanti motivi. Il primo è perché, per le ricerche chiamate tecnicamente Know Simple, Google è troppo veloce ed affidabile.Il secondo motivo per il quale useremo ancora i motori di ricerca è perché integreranno sistemi simili.Google ci mette tre secondi a scalare questa cosa. Forse non ci rendiamo nemmeno conto che se è necessario intervenire per offrire questa possibilità, Google nel giro di pochi giorni la affianca immediatamente. Solo per metterla in numeri, stiamo parlando di miliardi di persone che ogni mese si collegano al solo motore di ricerca. E questi usano abitualmente qualsiasi parte dell'ecosistema. Si parla di 5-10 miliardi di query al giorno. Ma ci rendiamo conto della scalabilità delle decisioni di Google sul nostro mondo? Dell'affidabilità ne parliamo dopo.La questione numero 4 è quindi irrilevante: se un giorno le persone cercheranno su questi sistemi, cercheranno su Google.L'altra questione, sulla scrittura delle notizie da parte dell'AI lo è ugualmente: estremizziamo che gli editori licenzino tutti. A questo punto, i giornali hanno tutti gli articoli con l'AI. Eh, ma aspettate un attimo. Ci stiamo dimenticando di una cosa. Anche Google può farlo. Quindi Google licenza i siti.E l'intelligenza artificiale da dove prende le notizie? Ok, ci saranno robot in giro per il mondo ad osservare tutto ciò che accade e lo riportano. E va bene, saranno precisissimi senza errori. Con telecamere ovunque. Cade un meteorite e via, faranno un bel report sempre in tempo reale con morti e feriti.Credo che l'ubriacatura da ChatGPT stia facendo perdere il senno a molti. Questa cosa non avverrà e andremo verso un mondo dove le fonti saranno sempre più citate, dove qualsiasi sistema che diventi di massa sarà costretto per legge a citare le fonti. Dove il training degli algoritmi dovrà chiedere il permesso.Se non sarà una cosa così estrema si andrà comunque verso una integrazione con siti. Perché vogliamo sostenere che se una ricercatrice passa la sua vita a studiare i papiri e li traduce ed è l'unica fonte al mondo su quel tema l'AI non dovrebbe citarla? Non dovrebbe chiedere il permesso? Parliamone nelle live :)Ci rimane il quesito 5: è la SEO?La SEO giocherà un ruolo ancora più determinante per l'attribuzione della fonte.Mi ripeto ancora una volta, come oramai accade da più di 10 anni: I BRAND DEVONO PUNTARE A DIVENTARE LA FONTE DELLE INFORMAZIONI DEL LORO SETTORE.Ma perché diamine è così difficile capirlo?CHATGPT È STUPIDOLuciano Floridi lo ha detto:Strumenti come ChatGpt rimarcano la separazione tra agire con successo, come fa un'intelligenza artificiale, e la capacità di agire in modo intelligente per arrivare a quel successo, come fa generalmente una persona. ChatGpt ha una enorme capacità di agire, ma senza 'intelligereChatGPT è brutale dice. Non comprende il testo.Su Guerre di Rete si riporta il pare

FastForward: per un'Internet Migliore
La Rivoluzione di Google con l'Intelligenza Artificiale: spariranno i siti web? E la SEO?

FastForward: per un'Internet Migliore

Play Episode Listen Later Jan 30, 2023 17:36


FastLetter - Una fonte buona dalla quale aggiornarsia cura di Giorgio TavernitiN. 32 - 30 Gennaio 2023Di cosa parliamo* Spariranno i siti web? E la SEO?* ChatGPT è stupido* Google non ha paura di ChatGPT* La Rivoluzione di Google con l'AI* YouTube come Netflix: arriva la traccia audio multipla!* Da leggere* SalutiPremessa: oggi è il giorno della Super-Live sull'Intelligenza Artificiale. Vi aspetto su FastForward alle 16:00. La si può seguire anche sul canale YouTube del WMF o sul mio Linkedin.Queste live sono tutte targate WMF. Il WMF - We Make Future si impegna dal 2016 a portare il tema dell'Intelligenza Artificiale non solo nel nostro settore, ma in tutti quelli della società. Questa edizione sarà sicuramente ancora più centrale. E posso anche dirvi di tenere le antenne ben dritte: tante sono le iniziative sull'AI che vedrete. Durante la 3 giorni ci sarà un mega evento sull'AI, ma non sarà l'unica cosa. Restate collegati su questi canali perché se vi interessa formarvi in modo corretto su questi temi avrete presto news. Detto questo stiamo preparando altre due live sull'AI:* 6 Febbraio sulla Professione del Prompt Expert: live che potete seguire su FastForward, sul canale YouTube WMF o mio Linkedin.* 13 Febbraio sull'Intelligenza Artificiale per Content Creator: la potete seguire su FastForward, sul canale YouTube del WMF o mio Linkedin.Prima di addentrarci nella FastLetter una piccola comunicazione: lo scorso weekend ho tenuto le prime due lezioni sulla parte SEO del Master in Digital Strategy della nostra Digital Business School. A Ottobre del 2023 partirà la seconda edizione e se siete interessati potete compilare il form qui.SPARIRANNO I SITI WEB? E LA SEO?Non riesco a ricordare quanti anni sono passati dal giorno in cui Marco Quadrella mi disse: “Giorgio, appena arriverà l'AI, le piccole news Google potrebbe crearsele da sole”. Mi sono ritornate in mente queste parole appena ho letto l'intervista a Luciano Floridi dove dice: Ci sono cose che l'Ai può sostituire facilmente. Esistono dei programmini che sanno scrivere gli articoli. Articoli semplici magari. E un domani per un editore non ci sarà motivo che lo faccia un giornalista. Ma nessun programma può sostituire la profondità di analisi di un articolo per esempio dell'Economist. Anche se inizio a sospettare che forse non subito ma un domani un'intelligenza artificiale saprà fare anche quello. Come saprà fare un po' tutti i compiti, i lavori che oggi svolge una personaAggiungiamo un terzo tema. Lo apre Pietro Bonomo in un mio post su Facebook:Dubbio amletico. Perché e come dovrebbero esistere i motori di ricerca, quindi i siti e quindi i SEO, se si possono ottenere dei riassunti privi di fonti e collegamenti?Per fare un attimo chiarezza riassumo le grandi questioni in 5 punti:* Google può scrivere notizie con l'AI * I giornali possono scrivere articoli con l'AI* I sistemi come ChatGPT, di cui anche Google ne ha uno, offrono "risposte"* Le persone cercheranno solo su questi sistemi, quindi i siti non hanno senso* Di conseguenza nemmeno la SEO ha sensoVorrei un attimo tranquillizzare tutti. Non spariranno i siti, non sparirà la SEO.Però devo spiegare perché lo penso.Così come con TikTok: ve la ricordate l'edizione sulla Bufala che TikTok supera Google? Niente, TikTok sta portando un altro tipo di ricerca alla ribalta che ha poco a che fare con Google. E se volete fare SEO su TikTok lo potete fare, qui ho spiegato come. Perché TikTok sposta le vendite e di molto.Vi risulta Google morto? Siamo davanti allo stesso fenomeno: ovvero un nuovo tipo di ricerca a disposizione dell'essere umano. Lo spiega bene Alessio Pomaro in un commento sempre al mio post su Facebook.Visto che la discussione ricade in Modello di Linguaggio e Motori di Ricerca, vorrei ricordarci che sono due elementi ben diversi, con obiettivi diversi.Tuttavia, esistono ibridi molto interessanti che stanno nascendo che uniscono la precisione del motore di ricerca nel selezionare risultati pertinenti alla capacità del LM di riepilogare le informazioni. Un esempio: perplexity.ai Anche Mafe de Baggis segnala un sistema ibrido:You.com affianca già una chat alla SERP e spesso la sua risposta è risolutivaOra, ragioniamo insieme. Non è difficile, lo giuro.Questo nuovo tipo di ricerca a disposizione dell'essere umano non andrà a spazzare via tutti i modi che abbiamo di cercare attualmente. Si affiancherà. Porterà su Internet una quantità di nuove ricerche MAI fatte prima e potrà essere usato su alcune delle precedenti. Subito si pensa: non useremo più Google per cercare informazioni! Ed è qui un enorme errore: anche per le query informazionali continueremo a usare i motori di ricerca per tanti motivi. Il primo è perché, per le ricerche chiamate tecnicamente Know Simple, Google è troppo veloce ed affidabile.Il secondo motivo per il quale useremo ancora i motori di ricerca è perché integreranno sistemi simili.Google ci mette tre secondi a scalare questa cosa. Forse non ci rendiamo nemmeno conto che se è necessario intervenire per offrire questa possibilità, Google nel giro di pochi giorni la affianca immediatamente. Solo per metterla in numeri, stiamo parlando di miliardi di persone che ogni mese si collegano al solo motore di ricerca. E questi usano abitualmente qualsiasi parte dell'ecosistema. Si parla di 5-10 miliardi di query al giorno. Ma ci rendiamo conto della scalabilità delle decisioni di Google sul nostro mondo? Dell'affidabilità ne parliamo dopo.La questione numero 4 è quindi irrilevante: se un giorno le persone cercheranno su questi sistemi, cercheranno su Google.L'altra questione, sulla scrittura delle notizie da parte dell'AI lo è ugualmente: estremizziamo che gli editori licenzino tutti. A questo punto, i giornali hanno tutti gli articoli con l'AI. Eh, ma aspettate un attimo. Ci stiamo dimenticando di una cosa. Anche Google può farlo. Quindi Google licenza i siti.E l'intelligenza artificiale da dove prende le notizie? Ok, ci saranno robot in giro per il mondo ad osservare tutto ciò che accade e lo riportano. E va bene, saranno precisissimi senza errori. Con telecamere ovunque. Cade un meteorite e via, faranno un bel report sempre in tempo reale con morti e feriti.Credo che l'ubriacatura da ChatGPT stia facendo perdere il senno a molti. Questa cosa non avverrà e andremo verso un mondo dove le fonti saranno sempre più citate, dove qualsiasi sistema che diventi di massa sarà costretto per legge a citare le fonti. Dove il training degli algoritmi dovrà chiedere il permesso.Se non sarà una cosa così estrema si andrà comunque verso una integrazione con siti. Perché vogliamo sostenere che se una ricercatrice passa la sua vita a studiare i papiri e li traduce ed è l'unica fonte al mondo su quel tema l'AI non dovrebbe citarla? Non dovrebbe chiedere il permesso? Parliamone nelle live :)Ci rimane il quesito 5: è la SEO?La SEO giocherà un ruolo ancora più determinante per l'attribuzione della fonte.Mi ripeto ancora una volta, come oramai accade da più di 10 anni: I BRAND DEVONO PUNTARE A DIVENTARE LA FONTE DELLE INFORMAZIONI DEL LORO SETTORE.Ma perché diamine è così difficile capirlo?CHATGPT È STUPIDOLuciano Floridi lo ha detto:Strumenti come ChatGpt rimarcano la separazione tra agire con successo, come fa un'intelligenza artificiale, e la capacità di agire in modo intelligente per arrivare a quel successo, come fa generalmente una persona. ChatGpt ha una enorme capacità di agire, ma senza 'intelligereChatGPT è brutale dice. Non comprende il testo.Su Guerre di Rete si riporta il pare

Statistically Speaking
Trust in Data: The importance of ethics and privacy in producing statistics for the public good

Statistically Speaking

Play Episode Listen Later Aug 22, 2022 31:45


In this episode Miles is joined by Professor Luciano Floridi of Oxford University; Simon Whitworth of the UK Statistics Authority; and Pete Stokes from the ONS to talk about data ethics and public trust in official statistics.   TRANSCRIPT   MILES FLETCHER    Hello, I'm Miles Fletcher, and in this episode of Statistically Speaking we're exploring data ethics and public trust in official statistics. In 2007, 15 years ago to the very day we are recording this, the UK Parliament gave the Office for National Statistics the objective of promoting and safeguarding the production and publication of official statistics that serve the public good. But what does, or should, the “public good” mean? How does the ONS seek to deliver it in practice? Why should the public trust us to act in their interests at a time of exponential growth in data of all kinds? Where are the lines to be drawn between individual privacy and anonymity on the one hand, the potential of data science to improve public services and government policies to achieve better health outcomes, even saving lives, on the other.   Joining me to discuss these topics today are Simon Whitworth, Head of Data Ethics at the UK statistics authority, Pete Stokes, Director of the Integrated Data programme here at the ONS and Luciano Floridi, professor of philosophy and the ethics of information and director of the digital ethics lab at the Oxford Internet Institute.   Professor let's start this big concept with you. What do you think Parliament meant when it said that the ONS should serve the public good in this context?     LUCIANO FLORIDI     It might have meant many things, and I suspect that a couple of them must have been in their minds. First of all, we know that data or information, depending on the vocabulary, has an enormous value if you know how to use it. And, collecting it and using it properly for the future of the country, to implement the right policies, to avoid potential mistakes and to see things in advance - knowledge is power, information is power. So, this might have been one of the things that they probably meant by “public good”. The other meaning, it might be a little bit more specific...It's when we use the data appropriately, ethically, to make sure that some sector or some part of the population is not left behind, to learn who needs more help, to know what help and when to deliver it, and to whom. So, it's not just a matter of the whole nation doing better, or at least avoiding problems, but also specific sectors of the population being helped, and to make sure that the burden and the advantages are equally distributed among everybody. That's normally what we mean by public good and certainly, that analysis is there to serve it.    MF    So there's that dilemma between using the power of data to actually achieve positive outcomes. And for government, on the other hand, being seen as overbearing, or Orwellian, and spying on people through the use of data.    LF    That would be the risk that sometimes comes under the term “paternalism”, that knowing a lot about your citizens might lead to the temptation of manipulating their lives, their choices, their preferences. I wouldn't over-emphasise this though. The kind of legislation that we have and the constraints, the rules, the double checking, make sure that the advantage is always in view and can more easily be squeezed out of the data that we accumulate, and sometimes the potential abuses and mistakes, the inevitable temptation to do the wrong thing, are kept in check. So yes, the State might use the government's political power, might misuse data, and so we need to be careful, but I wouldn't list that as my primary worry. My primary worry perhaps, would be under-using the data that we have, or making mistakes inadvertently.    MF    Do you think then, perhaps as a country, the UK has been too cautious in this area in the past?    LF    I don't think it has been too cautious, either intellectually or strategically. There's been a lot of talking about doing the right thing. I think it's been slightly cautious, or insufficiently radical, in implementing policies that have been around for some time. But we now have seen several governments stating the importance of that analysis, statistical approaches to evidence, and so on. But I think that there is more ambition in words than in deeds, so I would like to see more implementations, more action and less statements. Then the ambition will be matched by the actions on the ground.    MF    One of the reasons perhaps there might have been caution in the past is of course concern about how the public would react to that use of data. What do we know of public attitudes now in 2022, to how government bodies utilise data?    LF    I think the impression is that, depending on whom you ask, whether it is the younger population or slightly older people my age, people who lived in the 50s versus my students, they have different attitudes. We're getting used to the fact that our data are going to be used. The question is no longer are they going to be used, but more like, how and who is using them? For what purposes? Am I in charge? Can I do something if something goes wrong? And I would add also, in terms of attitude, one particular feature which I don't see sufficiently stressed, is who is going to help me if something goes wrong? Because the whole discussion, or discourse, should look more at how we make people empowered, so that they can check, they have control, they can go do this, do that. Well, who has the time, the ability, the skills, and indeed the will, to do that? It's much easier to say, look, there will be someone, for example the government, who will protect your rights, who you can approach, and they will do the right thing for you. Now we're getting more used to that. And so, I believe that the attitude is slightly changing towards a more positive outlook, as long as everything is in place, we are seeing an increasingly positive attitude towards public use of public data.    MF    Pete, your role is to make this happen. In practice, to make sure that government bodies, including the ONS, are making ethical use of data and serving the public good. Just before we get into that though, explain if you would, what sort of data is being gathered now, and for what purposes?    PETE STOKES    So we've got a good track record of supporting research use of survey data, that we collect largely in ONS, but on other government departments as well. But over the last few years, there's been an acceleration and a real will to make use of data that have been collected for other purposes. We make a lot of use now of administrative data, these are data that are collected by government not for an analytical purpose but for an operational purpose. For example, data that are collected by HMRC from people when they're collecting tax, or from the Department of Work and Pensions when they're collecting benefits, or from local authorities when they're collecting council tax - all of those administrative data are collected and stored. There's an increasing case to make those data available for analysis which we're looking to support. And then the other new area is what's often called “faster data”, and these data that are typically readily available, usually in the public domain where you get a not so deep insight as you'd get from a survey of administrative data, but you could get a really quick answer. And a good example of that from within the ONS is that we calculate inflation. As a matter of routine, we collect prices from lots of organisations, but you can more quickly do some of that if you can pull some data that are readily available on the internet to give you those quicker indicators, faster information of where prices are rising quickly where they're dropping quickly. There's a place for all of these depending on the type of analysis that you want to do.    MF    This is another area where this ethical dilemma might arise though isn't it, because when you sit down with someone and they've agreed to take part in the survey, they know what they're going in for. But when it comes to other forms of information, perhaps tax information that you've mentioned already, some people might think, why do they want to know that?    PS    When people give their data to HMRC or to DWP as part of the process of receiving a service, like paying tax for example, I think people generally understand what they need to give that department for their specific purpose. When we then want to use this data for a different purpose, there is a larger onus on us to make sure that we are protecting those data, we're protecting the individual and that those data are only being used ethically and in areas of trust, specifically in the public interest. So, it's important that we absolutely protect the anonymity of the individuals, that we make sure where their data are used, and that we are not using the data of those data subjects as individuals, but instead as part of a large data-set to look for trends and patterns within those data. And finally, that the analysis that are then undertaken with them are explicitly and demonstrably in the public interest, that they serve the public good of all parts of society.    MF    And that's how you make the ethical side of this work in practice, by showing that it can be used to produce faster and more accurate statistics than we could possibly get from doing a sample survey?    PS    Yes, exactly, and sample surveys are very, very powerful when you want to know about a specific subject, but they're still relatively small. The largest sample survey that the ONS does is the Labour Force Survey, which collects data from around 90,000 people every quarter. Administrative datasets have got data from millions of people, which enables you to draw your insights not just at a national level and national patterns, but if you want to do some analysis on smaller geographic areas, administrative data gives you the power to do that when surveys simply don't. But, any and all use of data must go through a strict governance process to ensure that the confidentiality of the data subjects be preserved. And not only will the use be clearly and demonstrably in the public interest, but also, will be ethically sound and will stand up to scrutiny in that way as well.     MF    And who gets to see this stuff?    PS    The data are seen by the accredited researchers that apply to use it. So, a researcher applies to use the data, they're accredited, and they demonstrate their research competence and their trustworthiness. They can use those data in a secure lockdown environment, and they do their analysis. When they complete their analysis, those can then be published. Everybody in the country can see the results of those analyses. If you've taken part in a social survey, or you've contributed some data to one of the administrative sources that we make available, you can then see all the results of all the analysis that are done with those data.    MF    But when you say its data, this is where the whole process of anonymization is important, isn't it? Because if I'm an accredited researcher selling it to see names and addresses, or people's personal, sensitive personal information.    PS    No, absolutely not. And the researchers only get to see the data that they need for their analysis. And because we have this principle, that the data are being used as an aggregated dataset, you don't need to see people's names or people's addresses. You need to know where people live geographically, in a small or broad area, but not the specific address. You need to know someone's demographic characteristics, but you don't need to know their name, so you can't see their name in the data. And that principle of pseudonymisation, or the de-identification of data, before their used is really important. When the analyses are completed and the outputs are produced, those are then reviewed by an expert team at ONS, and so the data are managed by us to ensure that they are fully protected, wholly non-disclosive, and that it's impossible to identify a member of the public from the published outputs.    MF    Historically, government departments didn't have perhaps the best record in sharing data around other bodies for the public benefit in this way. But all that changed, didn't it? A few years back with a new piece of legislation which liberalised, to an extent, what the ONS is able to do.    PS    So, the Digital Economy Act, passed in 2017, effectively put on a standard footing the ability of other departments to make their data available for researchers in the same way that ONS had already been able to do since the 2007 System Registration Service Act. It gave us parity, which then gave other departments the ability to make their data available and allow us to help them to do so, to take the expertise that the ONS has in terms of managing these data securely, managing access to them appropriately, accrediting the researchers, checking all the outputs and so on, to give the benefit of our expertise to the rest of government. In order that the data that they hold, that has previously been underutilised arguably, could then be fully used for analyses to develop policies or deliver services, to improve understanding of the population or cohorts of the population or geographic areas of the country, or even sectors of industry or segments of businesses, for example, in a way that hasn't previously been possible, and clearly benefits the country overall.    MF    So the aim here is to make full use of a previously untapped reservoir, a vast reservoir, an ocean you might even say, of public data. But who decides what data gets brought in in this way?    PS    We work closely with the departments that control the data, but ultimately, those departments decide what use can be made of their data. So, it is for HMRC, DWP, the Department for Education, it's for them to decide which data they choose to make available through the Secure Research Service (SRS) or the Integrated Data Service (IDS) that we run in ONS. When they're supportive and recognise the analytical value of their data, we then manage the service where researchers apply to use those data. Those applications are then assessed by ONS first and foremost, we then discuss those requests and the use cases with the data owning departments and say, do you agree this would be a sensible use of your data?     MF    Is there an independent accreditation panel that reports to the UK statistics Authority Board, that assesses the request to use the data is in the public interest, that it serves the public good?    PS    The ethics of the proposal are also assessed by an independent ethics advisory committee, whether it's the national statistician's data ethics advisory committee or another. There's a lot of people involved in the process to make sure that any and every use of data is in the public interest.     MF    From what we know from the evidence available, certainly according to the latest public confidence and official statistics survey - that's a big biannual survey run by the UK Statistics Authority (UKSA) - I guess for that, and other reasons, public trust remains high. The Survey said 89% of people that gave a view trusted ONS, and 90% agreed that personal information provided to us would be kept confidential. But is there a chance that we could lose some of that trust now, given that there is much greater use, and much greater sharing, of admin data? It should be said that it doesn't give people the chance to opt out.    PS    I think one of the reasons that trust has remained high is because of the robust controls we have around the use of data. Because of the comprehensive set of controls and the framework that we put around use of data that protects confidentiality, that ensures that all uses are in the public interest. And another important component of it is that all use of data that we support is transparent by default. So, any analyst wanting to use data that are held by ONS, or from another department that we support, we publish the details of who those analysts are, which data they're using, what they're using them for, and then we require them to publish the outputs as well. And that transparency helps maintain public trust because if someone wants to know what their data is being used for, they can go to our website or directly to the analyst, and they can see the results tangibly for themselves. Now, they might not always agree that every use case is explicitly in the public interest, but they can see the thought process. They can see how the independent panel has reached that conclusion, and that helps us to retain the trust. There's a second half of your question around whether there is a risk of that changing. There is always a risk but we are very alive to that, which is why as we built the Integrated Data Service, and we look to make more and more government data available, that we don't take for granted the trust we've already got, and that we continue to work with the public, and with privacy groups, to make sure that as we build the new service and make more data available, we don't cross a line inadvertently, and we don't allow data to be used in a way that isn't publicly acceptable. We don't allow data to be combined in a way that would stretch that comfort. And this is that kind of proactive approach that we're trying to take, that we believe will help us retain public trust, despite making more and more data available.     MF     Professor Floridi, we gave you those survey results there, with people apparently having confidence in the system as it stands, but I guess it just takes a couple of negative episodes to change sentiment rapidly. What examples have we seen of that, and how have institutions responded?    LF    I think the typical examples are when data are lost, for example, inadvertently because of a breach and there is nobody at fault, but maybe someone introduced the wrong piece of software. It could be a USB, someone may be disgruntled, or someone else has found a way of entering the database - then the public gets very concerned immediately. The other case is when there is the impression, which I think is largely unjustified, but the impression remains, that the data in question are being used unjustly to favour maybe some businesses, or perhaps support some policies rather than others. And I agree with you, unfortunately, as in all cases, reputation is something very hard to build and can be easily lost. It's a bit unfair, but as always in life, building is very difficult but breaking down and destroying is very easy. I think that one important point here to consider is that there is a bit of a record as we move through the years. The work that we're talking about, as we heard, 2017 is only a few years ago, but as we build confidence and a good historical record, mistakes will happen, but they will be viewed as mistakes. In other words, there will be glitches and there will be forgiveness from the public built into the mechanism, because after say 10 or 15 years of good service, if something were to go wrong once or twice, I think the public will be able to understand that yes, things may go wrong, but they will go better next time and the problem will be repaired. So, I would like to see this fragility if you like, this brittle nature of trust, being counterbalanced by a reinforced sense of long-term good service that you know delivers, and delivers more and more and better and better, well then you can also build a little bit of tolerance for the occasional mistakes that are inevitable, as in everything human, they will occur once or twice.    MF    Okay, well, touching my mic for what would in effect be my desk, I can say that I don't think ONS has had an episode such as you describe, but of course, that all depends on the system holding up. And that seems a good point to bring in Simon Whitworth from the UK Statistics Authority, as kind of the overseeing body of all this.  Simon, how does the authority go about its work? One comment you see quite commonly on social media when these topics are discussed, is while I might trust the body I give my data to, I don't trust them not to go off and sell it, and there have been episodes of data being sold off in that way. I think it's important to state isn't it, that the ONS certainly never sells data for private gain. But if you could talk about some of the other safeguards that the authority seeks to build into the system.     SIMON WHITWORTH    The big one is around the ethical use of data. The authority, and Pete referred to this, previously back in 2017, established something called the National Statisticians Data Ethics Advisory Committee, and that's an independent committee of experts in research, ethics and data law. And we take uses of data to that committee for their independent consideration. And what's more, we're transparent about the advice that that committee provides. So, what we have done, what we've made publicly available, is a number of ethical principles which guide our work. And that committee provide independent guidance on a particular use of data, be they linking administrative data, doing new surveys, using survey data, whatever they may be, they consider projects from across this statistical system against those ethical principles and provide independent advice and guidance to ensure that we keep within those ethical principles. So that's one thing we do, but there's also a big programme of work that comes from something that we've set up called the UK Statistics Authority Centre for Applied Data Ethics, and what that centre is trying to do is to really empower analysts and data users to do that work in ethically appropriate ways, to do their work in ways that are consistent with those ethical principles. And that centres around trying to promote a culture of ethics by design, throughout the lifecycle of different uses of data, be they the collection of data or the uses of administrative data. We've provided lots of guidance pieces recently, which are available on our website, around particular uses of data - geospatial data, uses of machine learning - we've provided guidance on public good, and we're providing training to support all of those guidance pieces. And the aim there is, as I say, to empower analysts from across the analytical system, to be able to think about ethics in their work and identify ethical risks and then mitigate those ethical risks.     MF    You mentioned the Ethics Committee, which is probably not a well-known body, independent experts though you say, these are not civil servants. These are academics and experts in the field. Typically, when do they caution researchers and statisticians, when do they send people back to think again, typically?     SW    It's not so much around what people do, it's about making sure how we do it is in line with those ethical principles. So, for example, they may want better articulations of the public good and consideration of potential harms. Public good for one section of society might equal public harm to another section of society. It's very often navigating that and asking for consideration of what can be done to mitigate those potential public harms and therefore increase the public good of a piece of research. The other thing I would say is being transparent. Peter alluded to this earlier, being transparent around data usage and taking on board wherever possible, the views of the public throughout the research process. Encouraging researchers as they're developing the research, speaking to the public about what they're doing, being clear and being transparent about that and taking on board feedback that they receive from the public whose data they're using. I would say that they're the two biggest areas where an estate provides comments and really useful and valuable feedback to the analytical community.     MF    Everyone can go online and see the work of the committee, to get the papers and minutes and so forth. And this is all happening openly and in a comfortable way?    SW    Yes, absolutely. We publish minutes of the meetings and outcomes from those meetings on the UK Statistics Authority's website. We also make a range of presentations over the course of the year around the work of the committee and the supporting infrastructure that supports the work because we have developed a self-assessment tool which allows analysts at the research design phase to consider those ethical principles, and different components of the ethical principles, against what they're trying to do. And that's proved to be extremely popular as a useful framework to enable analysts to think through some of these issues, and I suppose move ethics from theory to something a bit more applied. In terms of their work last year, over 300 projects from across the analytical community, both within government and academia, used that ethics self-assessment tool, and the guidance and training that sits behind it is again available on our website.    MF    I'm conscious of sounding just a little bit sceptical, and putting you through your paces to explain how the accountability and ethical oversight works, but can you think of some examples where there's been ethical scrutiny, and research outcomes having satisfied that process, have gone on to produce some really valuable benefits?    SW    ONS has done a number of surveys with victims of child sex abuse to inform various inquiries and various government policies. They have some very sensitive ethical issues that require real thinking about and careful handling. You know, the benefits of that research has been hugely important in showing the extent of child sex abuse that perhaps previously was unreported and providing statistics to both policymakers and charities around experiences of child sex abuse. In terms of administrative data, yes, there are numerous big data linkage projects that have come to ONS and have been considered by ONS, in particular, linkage surveys that follow people over time. Linkages done over time provide tremendous analytical value, but of course need some careful handling to ensure that access to that data is provided in an ethically appropriate way, and that we're being transparent. So those are the two I think of, big things we are thinking about in an ethically appropriate way. And being able to do them in an ethically appropriate way has really allowed us to unleash the analytical value of those particular methods, but in a way that takes the public with us and generates that public trust.    MF    Pete, you are part of the organisation that in fact runs an award scheme to recognise some of the outstanding examples of the secure use of data?    PS    We do, and it's another part of promoting the public benefit that comes from use of data. Every year we invite the analysts who use the Secure Research Service (SRS), or other similar services around the country, to put themselves forward for research excellence awards. So that we can genuinely showcase the best projects from across the country, but then also pick up these real examples of where people have made fantastic use of data, and innovative use of data, really demonstrating the public good. We've got the latest of those award ceremonies in October this year, and it's an open event so anybody who is interested in seeing the results of that, the use of data in that way, they would be very welcome to attend.    MF    Give us a couple of examples of recent winners, what they've delivered.    PS    One of the first award winners was looking at the efficacy of testing that was done for men who may or may not have been suffering from prostate cancer, and it analysed when if a person was given this test, what was the likelihood of its accuracy, and therefore whether they should start treatment, and the research was able to demonstrate that actually, given the efficacy, that it wasn't appropriate to treat everyone who got a positive test, because there was risk of doing more harm than good if it had persisted, which is really valuable. But this year, we'll be seeing really good uses of data in response to the pandemic, for example, tying this back to the ethics, when you talk about the use of data made during the pandemic in retrospect, it's clearly ethical, it's clearly in the public interest. But, at the start of the pandemic, we had to link together data from the NHS on who was suffering from COVID which was really good in terms of the basic details of who had COVID and how seriously and sadly, whether they died, but it missed a lot of other detail that helps us to understand why.   We then linked those data with data from the 2011 Census where you can get data on people's ethnic group, on their occupation, on their living conditions, on the type and size of the family they live with, which enable much richer insights, but most importantly, enabled government to be able to target its policy at those groups who were reluctant to get the vaccination to understand whether people were suffering from COVID due to their ethnicity, or whether it was actually more likely to be linked to the type of occupation they did. Really, really valuable insights that came from being able to link these data together, which now sounds sensible, but at the time did have those serious ethical questions. Can we take these two big datasets that people didn't imagine we could link together and and keep the analyses ethically sound and in the public interest. What's what we were able to do.     MF    That's certainly a powerful example. But before we pat ourselves on the back too much for that survey I mentioned, some of the research we've been doing at the ONS does suggest that there is nevertheless a hardcore cohort of sceptics on all of this.  Particularly, it is suggested, among the older age groups, the over 55's in particular. I mentioned the social media reaction you see as well. Kind of ironic you might think, given the amount of data that big social media platforms and other private organisations hold on people.   Professor, do you think there's a paradox at work there? People are apparently inclined not to trust public bodies, accountable public bodies, but will trust the big social media and internet giants? Or is it just a question of knowledge, do you think?    LF    I think it might be partly knowledge, the better you know the system, who is doing what, and also the ability to differentiate between the different organisations and how they operate, under what kind of constraints, how reliable they are, etc, versus for example, commercial uses, advertisement driven, etc.   The more you know, and it happens to be almost inevitably the younger you are, the more you might be able to see with a different kind of degree of trust, but also almost indifference, toward the fact that the data are being collected and what kind of data are being collected. I think the statistics that you were mentioning seem to be having an overlapping feature. A less young population, a less knowledgeable population, is also the population that is less used to social media, sharing, using data daily, etc. And is also almost inevitably a little bit more sceptical when it comes to giving the data for public good, or knowing that something is going to be done by, for example, cross referencing different databases.  On the other side, you find the slightly younger, the more socially active, the kids who have been growing with social media - and they are not even on Facebook these days anymore, as my students remind me, Facebook is for people like me - so let's get things right now, when it comes to Tiktok, they know that they are being monitored, they know that the data is going to be used all over the place. There is a mix of inevitability, a sense of who cares, but also a sense of, that's okay. I mean data is the air you breathe, the energy you must have, it's like electricity. We don't get worried every time we turn on the electricity on in the house because we might die if someone has unreliably connected the wires, we just turn it on and trust that everything is going to be okay. So, I think that as we move on with our population becoming more and more well acquainted with technology, and who does work with the data and what rules are in place, as we heard before, from Simon and Pete, I mean, there are plenty of frameworks and robust ways of double checking that nothing goes wrong, and if something goes wrong, it gets rectified as quickly as possible. But the more we have that, I think the less the sceptics will have a real chance of being any more than people who subscribe to the flat earth theory. But we need to consider that the point you made is relevant. A bit of extra education on the digital divide, which we mentioned implicitly in our conversation today. Who is benefiting from what? And on which side of the digital innovation are these people placed? I think that needs to be addressed precisely now, to avoid scepticism which might be not grounded.    MF    I hope through this interesting discussion we've managed to go some way to explaining how it's all done, and why it's so very important. Simon Whitworth, Pete Stokes, Professor Luciano Floridi, thank you very much indeed for taking part in Statistically Speaking today.   I'm Miles Fletcher and thanks for listening. You can subscribe to new episodes of this podcast on Spotify, Apple podcasts and all the other major podcast platforms. You can comment or ask us a question on Twitter at @ONSFocus. Our producer at the ONS is Julia Short. Until next time, goodbye    

Umanisti Digitali
Formatore professionale - Intervista con Andrea Cartotto

Umanisti Digitali

Play Episode Listen Later Jun 23, 2022 57:20


Esplora con passione il digitale per proporlo ai suoi studenti. Docente e Formatore IT, per Andrea Cartotto il digitale al servizio della didattica non ha segreti. Consigli per la lettura il codice segreto del linguaggio di Paolo Borsacchiello [2021] Potere alle parole di Vera Gheno [2019] La strada di San Giovanni di Italo Calvino [2019] Il barone rampante di Italo Calvino [2010] Lezioni americane di Italio Calvino [2016] Lettera a una professoressa di Don Milani [1990] La quarta rivoluzione. Come l'infosfera sta trasformando il mondo di Luciano Floridi [2017] Ero un bullo di Andrea Franzoso [2022] Condivide et impera #reloaded: Reti sociali, influencer e digital PR. Come si costruisce la reputazione online di Rudi Bandiera [2021] Riferimenti Andrea Cartotto http://www.andreacartotto.education/ Note dell'episodio n. 76 grazie ai produttori di Umanisti Digitali Unisciti al canale Telegram di Umanisti Digitali per scoprire tutti gli aggiornamenti Diventa produttore di Umanisti Digitali Grazie a Young Rich Pixies con la traccia Funster, distribuita con licenza Royalty Free da Artlist.io per la sigla del podcast. https://artlist.io/song/12640/funster

TechnoSlipstream
Living in the Infosphere

TechnoSlipstream

Play Episode Listen Later Jun 22, 2022 26:18


In Episode 28 we'll be looking at what philosopher Luciano Floridi calls the "infosphere". You may have heard of the "biosphere"--all the ecosystems on earth that support biological life. The infosphere then is the environment that supports information, which is another term for reality, if you look at today's reality from an informational perspective. Thus, in The Fourth Revolution: How the Infosphere is Reshaping Human Reality we'll investigate how ICTs (information and computing technologies) are blurring our online and offline worlds.Follow on Twitter: https://twitter.com/kendallgilesJoin to support the show and for exclusive content, including episode notes, scripts, and other writings: https://patreon.com/kendallgiles

MONDOFUTURO
S04E03 - Luciano Floridi: etica dell'intelligenza artificiale

MONDOFUTURO

Play Episode Listen Later Jun 2, 2022 28:53


MONDOFUTURO continua con il filosofo del digitale Luciano Floridi, che dirige il Digital Ethics Lab dell'Oxford Internet Institute all'Università di Oxford ed è professore di Sociologia della cultura e della comunicazione all'Università di Bologna.Sfoglieremo insieme il suo ultimo libro Etica dell'intelligenza artificiale (Raffaello Cortina Editore) e rifletteremo sulla rivoluzione digitale in corso che sta scrivendo un nuovo capitolo della storia dell'umanità. L'intelligenza artificiale sta disegnando un mondo nuovo: quali le sfide etiche innescate da questo sviluppo dirompente?

Valigia Blu
La Rete è di tutti / Come pensare una infosfera a misura di democrazia

Valigia Blu

Play Episode Listen Later May 5, 2022 49:24


Serie "La Rete è di tutti" ideata e curata da Fabio Chiusi. Incontro con Luciano Floridi, direttore del Digital Ethics Lab e docente di Filosofia ed Etica dell'Informazione a Oxford, e di Sociologia della Cultura e della Comunicazione a Bologna. In questo nuovo appuntamento di ‘La Rete è di tutti', il format di Valigia Blu per riflettere — insieme — su come rendere il futuro tecnologico a misura di uomo, diritti umani e democrazia, ci interroghiamo su come dovremmo (ri)pensare la tecnologia e il nostro rapporto con la tecnologia — a partire dai suoi effetti più fondamentali: come concepiamo noi stessi e il mondo (ontologico) e come possiamo conoscere noi stessi e il mondo (epistemologico/gnoseologico).

Out Of The Blank
#1078 - Luciano Floridi

Out Of The Blank

Play Episode Listen Later Apr 17, 2022 62:24


Luciano Floridi is an Italian and British philosopher. He holds a double appointment as Professor of Philosophy and Ethics of Information at the University of Oxford. Floridi is best known for his work on two areas of philosophical research: the philosophy of information, and information ethics. Floridi is deeply engaged with emerging policy initiatives on the socio-ethical value and implications of digital technologies and their applications. --- Support this podcast: https://anchor.fm/out-of-the-blank-podcast/support

Periscritto
Etica dell'intelligenza artificiale - Luciano Floridi

Periscritto

Play Episode Listen Later Apr 13, 2022 39:59


Luciano Floridi è l'autore di “Etica dell'intelligenza artificiale. Sviluppi, opportunità, sfide” Raffaello Cortina Editore. Luciano Floridi è professore ordinario di Filosofia ed Etica dell'Informazione all'Università di Oxford e di Sociologia della Cultura e della Comunicazione all'Alma Mater Studiorum Università di Bologna. La rivoluzione digitale in corso pervade le nostre vite in modo sempre più rilevante ma ha bisogno di essere modellata affinché sia a servizio del benessere dell'umanità e del pianeta. In questo quadro l'intelligenza artificiale pone questioni sempre più importanti come quelle etiche che vanno affrontate. Nel libro il professor Floridi indica cinque principi per un'intelligenza artificiale etica e mette in evidenza i rischi derivanti da comportamenti contrari all'etica stessa. www.periscritto.itwww.utopiaimpresa.it

Bridging the Gaps: A Portal for Curious Minds
On Public Communication of Science and Technology with Professor Bruce Lewenstein

Bridging the Gaps: A Portal for Curious Minds

Play Episode Listen Later Feb 12, 2022 69:30


From the museums of the fifteenth century, to the public lectures of Michael Faraday in the nineteenth century, and to various science fairs & festivals of the twenty-first century, public engagement of science has evolved immensely. Public engagement of science in this age of hyper connectivity is “a multidimensional and multi-directional activity”. In this episode of Bridging the Gaps I speak with professor Bruce Lewenstien, a widely-known authority on public communication of science and technology. Bruce Lewenstein is a professor of science communication at Cornell University. He has done extensive work on how science and technology are reported to the public and how the public understands complex and sometimes contested scientific issues. He studies and documents the ways that public communication of science is fundamental to the process of producing reliable knowledge about the natural world. We begin by discussing the “multidimensional” and “multidirectional” nature of science communication. We then focus on the evolution of science communication from the early days of science to present time. We touch upon the huge impact on the public understanding of science that few books published in the mid-twentieth century had. We discuss in detail documentaries such as “The Ascent of Man” and “Cosmos” and the emergence of the phenomenon of “celebrity scientists”. The effectiveness of science communication in the age of information overload and in the age of misinformation and disinformation is an important topic that we discuss. We then discuss the challenges faced by the process of science communication and the societal challenges that effective science communication can help us to deal with. Complement this discussion with “A Passion for Ignorance” and for Denials and Negations with Professor Renata Salecl” available at: https://www.bridgingthegaps.ie/2020/10/a-passion-for-ignorance-and-for-denials-and-negations-with-professor-renata-salecl/ and then listen to “Philosophy of Information” and “Ethics of Information” with Professor Luciano Floridi” available at: https://www.bridgingthegaps.ie/2020/07/philosophy-of-information-and-ethics-of-information-with-professor-luciano-floridi/

Kvantum ideí
Prečo je svet dobré miesto pre život?

Kvantum ideí

Play Episode Listen Later Jan 29, 2022 56:08


Dnes rozdiskutujeme tzv. antropický princíp. O čom presne hovorí, ako súvisí s Koperníkom, a prečo ide o nedávnu vec? Dá sa podľa antropického princípu dokázať existencia Boha, teda že svet "niekto" stvoril a veľmi presne nastavil tak, aby sme v ňom mohli žiť práve my? Aké sú najčastejšie námietky voči takémuto teistickému záveru? Aj dnes vás do diskusie pozýva vedec Jaro a filozof Jakub.----more---- + + + EXTRA ČASTI za 2 odrieknuté kávy mesačne

Radio Next
Come è andata a IAB Forum 2021? Ce lo racconta Carlo Noseda

Radio Next

Play Episode Listen Later Nov 21, 2021


La diciannovesima edizione dell'evento dedicato ai professionisti della comunicazione digitale si è appena concluso. Un nuovo formato, in parte in presenza con un palco selezionato a Milano in via Tortona e una diffusione capillare online con lo streaming. Abbiamo chiesto un resoconto a porte chiuse a Carlo Noseda, presidente di IAB Italia. Tre le direttrici seguite: Zero Emission Digital, il progetto di IAB sul carbon footprint del digitale. Ed è la prima volta in Italia che si parla di sostenibilità dei bit da parte degli addetti ai lavori; connected TV, cosa cambia, come si integra e quali opportunità all'orizzonte. E, per concludere, 65 workshop formativi dedicati alle aziende e ai professionisti. Il tutto condotto grazie alla regia di Sergio Amati. Nomi eccellenti, italiani ed esteri, quelli che hanno calcato il palco: da Scott Brinker a Luciano Floridi; da Andrea Santagata a Katia Bassi; dalla ministra Messa (l'unica che ho citato senza un profilo linkedin... vorrà mica dire qualcosa??) a Federico Capeci; da Carlo Botto Poala a Roald Van Wik. E tanti, tanti altri ospiti, aziende, speaker. Un parterre ricchissimo. Da ascoltare o riascoltare. Direttamente sul sito del forum. E il 2022? Sempre più commistione tra on e offline, sempre maggiore integrazione crossmediale e spinta incisiva verso la facilitazione alla creazione di valore condiviso. Ma manca ancora un anno, avremo tempo per arrivarci preparati. Buon ascolto! P.S. Volete maggiori informazioni o approfondire un argomento specifico? O ancora, siete curiosi di una case history? Inviateci le vostre richieste a radionext@radio24.it

The StartUp to ScaleUp Game Plan
Migration – a powerful driver of sustainable growth?

The StartUp to ScaleUp Game Plan

Play Episode Listen Later Nov 17, 2021 29:00


Judith Dada is a General Partner at La Famiglia -  a European VC investing in early stage digital disruptors like buynomics and y42. We explored a wide-range of topics including: “Learning the craft of VC” is more important than a business school education Migration should be viewed as a powerful driver of growth - hence society's perceptions need to change Migration and remote working can help startups overcome some of their talent scarcity & diversity challenges Augmentation may have more long-term impact on productivity than automation technologies Ethical & philosophical considerations are important for the future of AI - the research of experts like Oxford University's Luciano Floridi provides thought-provoking insights For more information on La Famiglia check out  https://lafamiglia.vc/ & for advice on hiring leadership talent at software ventures head over to https://alpinasearch.com/      

Festivalfilosofia | Lezioni magistrali
Luciano Floridi | Sovranità digitale | festivalfilosofia 2021

Festivalfilosofia | Lezioni magistrali

Play Episode Listen Later Sep 17, 2021 49:23


Qual è l'impatto etico delle tecnologie digitali? Chi controlla le informazioni nell'infosfera? Luciano Floridi Sovranità digitale. Uso dei dati e accountability festivalfilosofia 2021 | libertà Venerdì 17 settembre 2021 Modena

il posto delle parole
Luciano Floridi "Festival Filosofia"

il posto delle parole

Play Episode Listen Later Sep 14, 2021 30:37


Luciano Floridi"Festival Filosofia"https://www.festivalfilosofia.it/Festival FilosofiaVenerdì 17 settembre 2021, ore 16:00lezioni magistraliLuciano FloridiSovranità digitaleprenota il tuo posto: https://www.festivalfilosofia.it/Qual è l'impatto etico delle tecnologie digitali? Chi controlla le informazioni nell'infosfera?Luciano Floridi, Federico Cabitza"L'intelligenza artificiale"L'etica necessariaBompiani Editorehttps://www.bompiani.it/Una sera d'autunno del 1998, nell'Aula Magna dell'Università degli Studi di Milano, Carlo Maria Martini presentava con trepidazione il tema della decima Cattedra dei non credenti, dal titolo "Orizzonti e limiti della scienza". Martini esprimeva il desiderio di ascoltare da persone coinvolte in vario modo nell'impresa scientifica come vivessero le frontiere della loro conoscenza. Cercava una riflessione che si collocasse sull'orlo della scienza, una testimonianza sul conoscere al limite del non conoscere e sul credere al limite del non credere. La nuova edizione della Martini Lecture Bicocca vuole raccogliere l'eco di quella trepidazione. Luciano Floridi, una delle voci più autorevoli della filosofia contemporanea, e Federico Cabitza, tra i maggiori esperti di intelligenza artificiale, ci aiutano a scrutare un orizzonte che sembra sconfinato, ma davanti al quale ci si sente smarriti. Mentre si celebrano le "magnifiche sorti e progressive" dell'intelligenza artificiale una domanda si fa pressante: concorrerà alla costruzione di una nuova umanità o a un ecosistema nel quale l'uomo sarà ai margini?"Il mosaico della fraternità"Pensieri sull'enciclica "Fratelli Tutti"Antoine Courbain, Luciano Floridi, Roberto Repole, Rosanna VirgiliEdizioni QiqajonComunità di Bosehttps://www.monasterodibose.it/edizioni-qiqajonL'enciclica Fratelli tutti, impiantata nel “vangelo della creazione”, non lascia fuori nessuno. Siamo fratelli e sorelle perché condividiamo un anelito, una speranza, e perché siamo coinvolti tutti nel dinamismo della carità, dell'amore gratuito e oblativo che resta il segreto del mondo. Il cuore della fraternità è sentirci noi fratelli del creato e di ogni uomo e di ogni donna. Una fraternità universale perché uno solo è il Padre che è nei cieli e che tutti ha creato e tutti mantiene in vita con il suo infinito amore.(dalla “Prefazione” di Corrado LoreficeLuciano Floridi è professore di Filosofia ed Etica dell'Informazione, Direttore del Digital Ethics Lab dell'Oxford Internet Institute, all'Università di Oxford, e Turing Fellow presso l'Alan Turing Institute, nonché professore di Sociologia della comunicazione presso l'Università di Bologna. La sua ricerca riguarda principalmente l'etica dell'informazione e del computer, la filosofia dell'informazione e la filosofia della tecnologia. È presidente dell'Ethics Advisory Board dell'European Medical Information Framework. Tra le sue opere più recenti tradotte in lingua italiana: Infosfera. Filosofia e etica dell'informazione (Torino 2009); La rivoluzione dell'informazione (Torino 2012); La quarta rivoluzione. Come l'infosfera sta trasformando il mondo (Milano 2017); Pensare l'infosfera. La filosofia come design concettuale (Milano 2020); Il verde e il blu. Idee ingenue per migliorare la politica (Milano 2020); L'intelligenza artificiale. L'etica necessaria (con F. Cabitza, in pubblicazione, Milano 2021).IL POSTO DELLE PAROLEascoltare fa pensarehttps://ilpostodelleparole.it/

il posto delle parole
Maria Cristina Origlia "Questione di merito"

il posto delle parole

Play Episode Listen Later Sep 2, 2021 11:59


Maria Cristina Origlia"Questione di merito"Fuori Luogo Festival, BiellaSabato 4 settembre 2021"Siamo tutti femministi"Perché la piena partecipazione delle donne alla ripresa socio-economica del paese conviene a tuttiMarianna Aprile, giornalista, dialoga con Maria Cristina Origlia.Domenica 5 settembre 2021"Ripresa, una questione di fiducia"L'Italia alla ricerca del difficile equilibrio tra il contenimento del debito pubblico e la valorizzazione del Made in Italy nel mondo.Incontro con Oscar Farinetti, Maria Cristina Origlia, Carlo CottarelliMaria Cristina Origlia"Questione di merito"Guerini e Associatihttps://www.guerini.it/Il declino dell'Italia è un destino inevitabile? Le dieci storie qui raccolte, con competenza, intelligenza e curiosità, da Maria Cristina Origlia, giornalista economica e presidente del Forum della Meritocrazia (prima associazione no profit nata in Italia per diffondere la cultura del merito nel paese), dimostrano che non è così. In Italia e all'estero – dall'Italia partiti e, spesso, in Italia tornati – ci sono scienziati, filosofi, economisti che hanno costruito le loro carriere sull'impegno, sulla serietà e sul rispetto verso se stessi e le proprie scelte. Dalla virologa Ilaria Capua, con il suo rivoluzionario approccio alla salute, a Leonardo Becchetti, tra le principali voci dell'economia civile, a Daniela Del Boca, pioniera della partecipazione delle donne al mercato del lavoro. E ancora: dal sindacalista controcorrente Marco Bentivogli, apripista del dibattito 4.0, alla presidente del Maxxi Giovanna Melandri, impegnata a promuovere la finanza d'impatto, dall'artefice dell'Istituto italiano di tecnologia Roberto Cingolani ad Alessandra Perrazzelli, vicedirettrice della Banca d'Italia capace di affermare la visione femminile nel business, da Carlo Cottarelli, impegnato nella missione di diffondere la cultura della spesa pubblica nel paese, a Federica Saliola, che dalla Word Bank lavora per elaborare policy dedicate alla crescita sostenibile. Per finire, il filosofo Luciano Floridi che, con la sua visione utile a comprendere i risvolti etici del digitale, va ad aggiungersi alle altre «storie di merito» di questo libro che è anche un manifesto corale, pieno di idee, proposte, esperienze di persone che possono essere d'ispirazione per il nostro presente.IL POSTO DELLE PAROLEascoltare fa pensarehttps://ilpostodelleparole.it/

Memos
Memos di venerdì 26/02/2021

Memos

Play Episode Listen Later Feb 26, 2021 29:33


Vaccini, transizione ecologica e digitale, ambiente e democrazia, centralità delle relazioni sulle cose. Luciano Floridi, docente di filosofia ed etica dell'informazione all'università di Oxford, riprende a Memos alcuni temi della sua ricerca scientifica. La centralità degli esseri umani che vacilla, messa in discussione da quattro secoli di rivoluzioni da Copernico a Turing, passando per Galileo e Freud, rappresenta uno spartiacque nella storia dal XVI secolo ad oggi. Lo spazio lasciato vuoto dall'individualità, secondo Floridi, può essere riempito da un nuovo paradigma, più adeguato al XXI secolo, che privilegia le relazioni alle cose.

Memos
Memos di giovedì 15/02/2018

Memos

Play Episode Listen Later Feb 15, 2018 30:01


La quarta rivoluzione, il mondo digitale e la nostra vita nell'infosfera. Luciano Floridi è professore di filosofia ed etica dell'informazione all'università di Oxford. Dirige il laboratorio di Etica digitale, sempre ad Oxford. E' autore di “La Quarta Rivoluzione. Come l'infosfera sta trasformando il mondo” (Raffaello Cortina, 2017). Il professor Floridi è stato ospite oggi a Memos. “Le tecnologie dell'informazione e della comunicazione – scrive il filosofo Floridi - stanno cambiando la concezione che abbiamo di noi stessi. Siamo nel bel mezzo di una quarta rivoluzione, non meno profonda e radicale di quelle a suo tempo avviate da Copernico, Darwin e Freud”. Le prime tre rivoluzioni hanno avuto una caratteristica comune: spostare la centralità dell'umano (rispetto all'universo, al mondo animale, allo spazio mentale). E la stessa cosa, sostiene il professor Floridi, accade nella quarta rivoluzione: l'umano non è più centrale nel mondo dell'informazione; le tecnologie digitali sono spesso più brave di noi a fare ciò che facevamo in passato.

re:publica 17 - All Sessions
Das Kulturelle Gedächtnis und die digitalen Geisteswissenschaften

re:publica 17 - All Sessions

Play Episode Listen Later May 8, 2017 58:37


Ellen Euler, Anne Klammt, Luciano Floridi, Luca Giuliani, Johannes Theurer Wo das Internet zu einem Ort der blitzschnellen Vernetzung, des Austauschs von Nachrichten, der barrierefreien Interaktivität, des Kommentierens und Plauderns, aber auch des schnellen Zugriffs auf Information im beziehungslosen Nebeneinander geworden ist, bleiben die Gedächtnisinstitutionen (Bibliotheken, Archive, Museen und Mediatheken sowie Denkmal- und Städtebauliches Erbe) zuverlässige Räume des kulturellen Gedächtnisses und wirken je nach Bedarf als stabiler Vorratsspeicher von Informationen und als authentischer Echoraum und Ausgangspunkt für die Kommunikation mit vorangegangen Generationen. Vor allem sind sie physische Orte, an denen sich Menschen real begegnen und direkt austauschen können und an denen nicht nur der über eine kulturelle Objektiviation transportierte Inhalt, sondern auch die Materialität der kulturellen Äußerung erfahrbar ist. Im Digitalen fällt das weg. Aber auch das Digitale hat viele Vorzüge auch und insbesondere für die Wissenschaften. Die STM Wissenschaften brauchen eigentlich keine Bücher mehr und funktionieren ausschließlich digital. Die Geisteswissenschaften sind noch auf eine hybride Mediennutzung angewiesen. Viele Fragen stellen sich an der Schwelle und sollen mit Verantwortlichen für das Kulturelle Gedächtnis und Wissenschaftlern der Digital Humanities diskutiert werden. Macht mit und ergänzt die Liste der kontroversen Fragen! Bitte an: @elleneuler #rp17 Wie lassen sich die Vorzüge der digitalen und vernetzten Medien nachhaltig nutzbar machen und kulturelle Nachhaltigkeit auch im Digitalen schaffen? Wie garantieren wir, dass wir die richtige Auswahl an Inhalten für das Kulturelle Gedächtnis im Digitalen treffen und nicht außerhalb gedächtnisstrategischer Gesichtspunkte z.B. rechtliche oder finanzielle Gesichtspunkte den Inhalt der Sammlung definieren? Wie werden Gedächtnisinstitutionen mit Hilfe digitaler Medien von „Schatzhütern“ zu „Ermöglichern“? Was bedeutet es, wenn wir nicht mehr Eigentum an materiellen kulturellen Objektiviationen, sondern nur noch Zugangsrechte zu flüchtigen, digital aufgezeichneten Inhalten erwerben? Wie ist die Rückbesinnung auf materielle Körper (Schellackplatte, gebundene Bücher etc.) erklären? Braucht es spezielle weitere „digitale Gedächtnisinstitutionen“ neben der klassischen Trias Museum, Archiv und Bibliothek, oder übernehmen diese auch das Digitale? Welche Anforderungen haben die digitalen Geisteswissenschaften an das Kulturelle Gedächtnis? Wie entwickeln wir unser Kulturelles Gedächtnis fort, wenn es nicht digital zur Verfügung steht? Wie kann Kultur fortgeschrieben werden, wenn sie technisch aus der digitalen Neuverhandlung durch das samplen, anreichern und umdeuten fällt? Was bedeutet es, dass wir unsere eigenen Bilder über zahlreiche Netzwerke mit der Welt teilen, Gedächtnisinstitutionen unser kulturelles Erbe aber nur hinter einer Glaswand (mit Wasserzeichen und restriktiven Lizenzen) zeigen und teilen? Was sind die Folgen eines solchen Ungleichgewichts? Wie kann unsere analoge Wirklichkeit mit ihren komplexen kulturellen Deutungsmustern in die vernetzte virtuelle Welt hineinreichen, wenn wir sie nicht verknüpfen können? Wer will, kann über Twitter bis zum Termin weitere mögliche kontroverse Fragen senden! Bitte an @elleneuler #rp17

Mindalia.com-Salud,Espiritualidad,Conocimiento
Ciberpolítica, política en la tercera revolución de la informática mediática por Luciano Floridi

Mindalia.com-Salud,Espiritualidad,Conocimiento

Play Episode Listen Later Jul 15, 2015 65:35


Ciberpolítica; política en la tercera revolución de la informática mediática por Luciano Floridi, que tuvo lugar en el Ateneo de Madrid el 23 de Junio 2015. --------------------------- http://www.ateneodemadrid.com http://www.mindalia.com - La Red Social de Ayuda a través del Pensamiento http://www.mindaliaradio.com - La Radio del Pensamiento Positivo http://www.circulosdeayuda.com Los videos de esta y otras conferencias y entrevistas de interés en http://www.mindaliatelevision.com Puedes escuchar este y otros audios en http://mindaliacomradio.ivoox.com