Il corso di laurea in Informatica umanistica è pensato per formare figure professionali richieste dalla società dell’informazione in cui viviamo. Gli studenti da un lato acquisiscono una formazione umanistica, dall’altro imparano a padroneggiare professionalmente gli strumenti informatici pertinenti…
Luca Rosati - L'architettura dell'informazione come antidoto all'information overload
Carlo Traverso (Università di Pisa)
Marco Guerini (RISE, Trento) - Le reazioni del pubblico, come gli "applausi", forniscono indicazioni fondamentali sul linguaggio persuasivo e i momenti salienti di un discorso politico, permettendo di scoprire fenomeni retorici che gli approcci classici di linguistica computazionale non riescono a cogliere.
Francesco Varanini -La cultura letteraria e umanistica ci propongono un modo di intendere il codice. La cultura del computing e dell’informatica ci propone un altro modo di intendere il codice. Ma i due modi, in fondo, appartengono alla stessa storia, alla stessa linea evolutiva: la codifica ‘occidentale’ è strettamente legata alla tecnologia della scrittura. E’ quindi interessante ragionare attorno a una differente codifica, del tutto ‘altra’ rispetto alla ‘scrittura’ e alla ‘codifica occidentale’.
Enrica Salvatori - Il seminario intende porre l'attenzione sui principali cambiamenti che le tecnologie e il web hanno portato al modo in cui si studia e si condivide la storia e sui nuovi ruoli che si possono aprire nel settore della public history.
Fabio Paternò - Il nostro modo di interagire con i computer sta cambiando continuamente per la pervasività degli strumenti informatici, evidenziata anche dal successo dei dispositivi mobili. Il contesto in cui ci troviamo ad usarli può variare per diversi aspetti: l’utente (con le sue preferenze, obiettivi, compiti, emozioni, ..); la tecnologia (in termini di dispositivo di accesso, modalità di interazione, connettività, …); l’ambiente circostante (luce, suoni, …); e le relazioni sociali (che possono avere influenza sulle modalità di collaborazione e di condivisione di informazioni). Fornire sempre la stessa interfaccia utente di un applicazione interattiva in tutti questi contesti di uso può essere molto limitativo in termini di usabilità e user experience. L’adattamento delle interfacce utenti diventa quindi fondamentale per meglio supportare le attività umane tramite applicazioni software interattive. Il seminario mira a fornire una discussione di che cosa si può adattare nelle interfacce utenti, quali aspetti si possono considerare per attivare l’adattamento, in che modo tali adattamenti possono avere luogo, secondo quali tipi di regole, mostrando esempi concreti presi da vari tipi di applicazioni e discutendone anche vantaggi e svantaggi in termini usabilità.
Federica Bressan - documenti sonori, sistemi di fissazione della memoria sociale imprescindibili per la comprensione del Novecento, sono oggi oggetto sia di riflessione teorica da parte di ricercatori in diversi settori scientifici, sia di interessanti investimenti privati e istituzionali per la loro conservazione e il loro restauro. Il seminario intende mettere a confronto una pluralità di esperienze maturate in settori diversi, ponendo in primo piano le questioni connesse all’influenza delle nuove tecnologie audio sui criteri di conservazione e di fruizione dei documenti sonori. A differenza delle informazioni di tipo grafico, che risalgono talvolta alle prime testimonianze dell'attività umana (sono ancora conservate molte incisioni rupestri risalenti all’Epipaleolitico), le prime informazioni di tipo acustico sono state memorizzate (su carta) da Édouard-Léon Scott de Martinville mediante fonoautografo nel 1860 (data a cui risale Au Clair de la Lune, la più antica registrazione audio di cui ci è stato tramandato il supporto), cioè 150 anni or sono. In questo periodo di tempo relativamente breve le tecnologie adottate per conservare segnali acustici (parola, musica, suoni ambientali) hanno subìto continue trasformazioni e innovazioni. Anche a causa della grande varietà delle tecnologie impiegate – e nonostante il loro continuo perfezionamento – le informazioni acustiche hanno dimostrato di essere estremamente labili. La conservazione deve quindi diventare attiva: dalla fine del Ventesimo secolo, il tradizionale paradigma di conservare l’originale si sposta verso il distribuire è conservare, che accoglie l’idea che è necessario digitalizzare le informazioni acustiche e renderle quindi disponibili attraverso la tecnologia propria delle digital libraries. Il trasferimento delle informazioni acustiche nel dominio digitale oltre a permettere (potenzialmente) una maggiore resistenza all’usura del tempo, consente una più efficace ricerca dei contenuti, sulla base di melodie fischiettate dall’utente (query by humming) o di esempi sonori tratti da altri file audio (query by example).
Martin Blazeby - King's College Visualization Lab Data: 1/4/2009
M. Bani, F. Orsi - King's College Visualization Lab Data: 1/4/2009
Silvana Vassallo - Docente di Informatica Umanistica Data: 25/03/2009
Francesco Varanini - consulente di organizzazione aziendale, scrittore, docente di Informatica Umanistica Data: 4/3/2009
Alessandro Lenci - Dipartimento di Linguistica Data: 25/02/2009
Linda Pagli - Dipartimento di Informatica Data: 10/12/2009
Daniele Rizzo - L'informatica in azienda: da gerarchia a mercato - Dalla sua nascita alla fine del secolo scorso, l'infomatica ha trovato nell'impresa il piu' ampio e redditizio campo di applicazione ed in questo contesto i sistemi transazionali hanno rappresentato per decenni la vera "killer application" del mercato digitale. Un successo determinato dagli evidenti vantaggi che questi sistemi hanno offerto alle organizzazioni ed ai comparti che li hanno adottati (si pensi ad es. ai sistemi di prenotazione nel trasporto aereo). Un successo tuttavia non privo di un suo lato oscuro. La resistenza da parte di lavoratori o di intere porzioni di organizzazioni all'adozione non facoltativa di sistemi non graditi, a volte poco "sexy", e' stata spesso superata tramite azioni organizzative -a volte disposizioni- fondate su relazioni di natura gerarchica. Con qualche decennio di ritardo la nascita del mercato IT consumer (a partire dai primi personal computers) e poi lo sviluppo di internet e delle sue start-up ribalta per la prima volta su larga scala il rapporto tra la tecnonogia informatica ed il suo utilizzatore, che diventa un target da attrarre e convincere. La caccia ad un pubblico distratto di potenziali utenti da catturare viene praticata puntando sul valore dell'esperienza d'uso e regolata da comportamenti di mercato, diventando la chiave di successo di alcuni casi imprenditoriali di portata planetaria (apple, google, facebook, etc.) La nuova informatica che ne risulta, fatta di informazioni destrutturate, tag, html, apps, etc. sta ora rientrando con la forza di un ciclone nelle organizzazioni e nel loro modo di fare IT, portando con se' il proprio stile che sfida canoni tradizionali, comportamenti, modelli di competenza e schemi organizzativi consolidati.
Alessandro Cristofori - La relativa scarsità , la natura composita e i notevoli problemi interpretativi posti dalla documentazione per la ricostruzione della storia antica hanno fatto sì che il problema delle fonti fosse il problema centrale di questa branca degli studi storici, fin dalle sue origini. Questa situazione ha trovato riflesso anche nell’applicazione degli strumenti digitali alle Scienze dell’Antichità : i primi esperimenti di informatizzazione relativi alle discipline antichistice hanno riguardato proprio la digitalizzazione di corpora di fonti, segnatamente di fonti letterarie, e anche oggi questo è il settore sul quale si concentrano maggiormente gli sforzi dei ricercatori e gli investimenti degli organismi di ricerca. Ciò dipende probabilmente anche da un importante dato strutturale: gli strumenti digitali possono offrirci corpora delle fonti sul mondo antico che presentano una copertura assai significativa e che in alcuni casi sono addirittura vicini alla completezza, almeno per quanto riguarda le fonti scritte; in questo il periodo antico è indubbiamente favorito rispetto ad altre età , per il numero relativamente limitato dei documenti ad esso relativi giunti fino a noi. Nella presente lezione cercheremo dunque di individuare alcuni dei nodi problematici fondamentali che oggi si presentano a proposito della digitalizzazione delle fonti per la storia antica, anche attraverso il richiamo ad alcune esperienze concrete particolarmente significative. Tra tali nodi problematici si possono ricordare, in estrema sintesi: 1. Il generalizzato passaggio dal supporto ottico alla Rete come mezzo di diffusione delle banche dati di fonti. 2. L’altrettanto caratteristico passaggio dai tanti progetti individuali del periodo delle origini dell’antichistica digitale, fondati su una pluralità di linguaggi, ad un numero di progetti più limitato, frutto di un’ampia collaborazione, anche internazionale, basati su standard riconosciuti, anche se non sempre aperti e pubblici. 3. In connessione con il punto precedente, il tentativo di sfruttare in pieno le possibilità di lavoro collaborativo e a distanza assicurate dalla Rete, anche con un coinvolgimento degli studenti. 4. La tendenza verso una sempre più sofisticata marcatura delle fonti di natura testuale che ne espanda le potenzialità semantiche, facendone anche strumento per un approfondimento dell’indagine storica. 5. Per quanto concerne le fonti documentarie (iscrizioni e papiri), la sempre maggiore attenzione nei confronti dei dati di contesto (in particolare le forme del supporto che ha tramandato il testo, i caratteri della scrittura), essenziali per comprendere nella sua pienezza queste classi di fonti. 6. Le notevoli difficoltà che ancora devono affrontare i progetti di digitalizzazione della documentazione numismatica e archeologica, legate alla natura assai varia di queste fonti (il documento archeologico, che può essere sia un singolo oggetto, sia un’intera città , come Pompei), alla loro produzione in serie (le monete, ma anche alcune classi di oggetti della cultura materiale), ai problemi di rappresentazione in qualche misura standardizzata di una documentazione che è soprattutto visiva.
Marco Grandi e Vincenzo Gervasi - Secoli di tradizione tipografica hanno portato al progressivo perfezionamento della composizione di manoscritti di contenuto matematico. In questo tipo di manoscritti, la pagina stampata perde il suo carattere di sequenza lineare di parole in un linguaggio, e assume sempre più quello di tavolozza in cui formule e diagrammi (spesso, realizzati con simboli inventati per l'occasione) sono disposti seguendo logiche strutturali non lineari su tutta la pagina. L'alfabeto utilizzato per esprimere contenuti matematici, lungi dall'essere limitato a poche decine di simboli che poi vengono composti in parole, diventa amplissimo: la notazione matematica è molto più pittografica di quanto non siano i linguaggi naturali, e l'esatta disposizione, scala, stile usato per questi simboli diventa fondamentale per trasmettere il significato inteso in maniera efficiente -- e, perché no, esteticamente gradevole (all'occhio allenato). Paradossalmente, di questi concetti si è sempre fatto poco uso nel campo della programmazione. I programmi per calcolatore sono praticamente sempre scritti con un alfabeto ridottissimo (molti linguaggi non accettano neanche lettere accentate), e sono composti da lunghe sequenze di codici, a cui solo l'occasionale cambio di margine conferisce un po' di vivacità. Questa situazione non è passata inosservata, e molti ricercatori (primo fra tutti, Donald Knuth) hanno proposto di utilizzare il cosiddetto "literate programming": scrivere programmi come se si scrivesse un libro, o almeno un articolo scientifico. Questa idea si è però scontrata, fino ad oggi, con i limiti della tecnologia tradizionale. In questo seminario esploreremo il problema dell'uso della notazione tipografica matematica durante la programmazione, mostreremo quali vantaggi può portare alla comprensibilità dei programmi, e mostreremo alcuni sviluppi recenti in questo campo.
Luca Rosati - Attraverso esempi e casi studio, il seminario mostrerà come sia possibile migliorare l’interazione uomo-informazione e uomo-ambiente sfruttando la convergenza mondo fisico e mondo digitale. L’analisi evidenzierà alcuni principi-chiave di architettura dell’informazione pervasiva (intesa come design strutturale di qualunque ambiente informativo condiviso), validi trasversalmente (per ogni canale o medium) e capaci pertanto di fungere da ponte fra atomi e bit...
Dino Pedreschi - Oggi siamo di fronte ad una svolta, un cambio di paradigma che sta trasformando profondamente la scienza e la società. Per la prima volta nella storia, la nostra società sta diventando “misurabile”: le attività umane, tutte ormai mediate dalle tecnologie dell’informazione e della comunicazione, lasciano tracce digitali. BIG DATA, registrazioni su scala sociale delle tracce dei nostri interessi, dei nostri acquisti, delle nostre comunicazioni, dei nostri affari, delle nostre relazioni, dei nostri movimenti. Non semplicemente campioni statistici, rilevati in base ad una indagine pianificata a tavolino, ma pezzi interi della società, che riportano la nuda verità delle attività umane di milioni di persone. I big data sono il nuovo microscopio sociale, che crea le basi per una sociologia quantitativa, computazionale, di una nuova scienza dei dati, o statistica 2.0, in grado di misurare e predire crisi economiche, epidemie e pandemie, diffusione di opinioni, distribuzione delle risorse economiche o energetiche, bisogni di mobilità. In questo seminario mostreremo come con i big data si possa rispondere a vecchie domande in attesa di risposta, o si possa formulare domande del tutto nuove; discuteremo come, in questo scenario di grandi opportunità ma anche di nuovi rischi, occorrano tecnologie a sostegno della nostra privacy, capaci di difenderci dalle intrusioni nella sfera privata dei donatori di questi big data, ovvero tutti noi. La sfida, per la nuova scienza dei dati, è quella di far coesistere il diritto individuale alla protezione di questa sfera privata con il diritto collettivo di accesso alla conoscenza che questi dati possono dischiuderci.
Francesco Varanini - Guardando in avanti, non possiamo limitarci a ragionare di app e di e-book. Il concetto informatico di dato -in estrema sintesi: ‘rappresentazioni finita di informazioni’-, letto in chiave filosofica, apre la strada a un ragionamento sull’edizione, sull’autore e sulla pubblicazione. Per questa via si arriva a ripensare -in ambito critico-letterario- il modo intendere il testo e l’edizione. E a prospettare l’evoluzione futura della complessiva industria editoriale.
Matteo Dellepiane - Le tecnologie 3D hanno avuto un grande sviluppo negli ultimi 10 anni: uno dei principali campi di applicazione è da sempre il settore dei Beni Culturali. In aggiunta alle tecniche di modellazione manuale, il ventaglio di possibilità nei metodi di acquisizione della geometria permette ormai di bilanciare costi, accuratezza e tempo di acquisizione. Mentre i costi delle tecnologie di alto livello (Scansione 3D) stanno scendendo, si presentano interessanti alternative "low-cost" (modellazione e generazione di geometria da immagini). Il seminario si occuperà di offrire una breve panoramica dei metodi di acquisizione 3D, e di delineare i possibili campi di applicazione nell'ambito dei Beni Culturali. Alcune "success stories" e progetti in corso saranno presentati.
Marco Calvo (Liber Liber) - Grazie a Internet libri, film, musica, ecc. si possono duplicare all'infinito, e trasmettere ovunque ci sia una connessione, a costi tendenti a zero. La cultura così diventa potenzialmente molto più accessibile che in passato. Ma manca qualcosa alla rivoluzione: se un gruppo musicale emergente vuole sopravvivere, se una testata di informazione libera vuole crescere, c'è bisogno di sistemi di pagamento evoluti ed economici. Se vogliamo garantire indipendenza a chi fa cultura, i sistemi di pagamento devono essere liberi, standard e interoperabili.
Francesco Romani
Carlo Bordoni - L’editoria elettronica, prima ancora di annunciare la nascita dell’e-book, ha determinato la morte di una figura professionale che era indispensabile alla produzione a stampa: il tipografo grafico-compositore. Già con l’introduzione dei primi Mac l’informatica, fino ad allora tecnologia accessibile solo agli specialisti, cambiava radicalmente il modo di comporre le pagine tipografiche, rendendo possibile l’impaginazione “fai da te”. Quando poi i due mondi, Mac e Windows, iniziarono a dialogare, promuovendo la compatibilità tra sistemi operativi diversi, il miracolo diventò possibile: redazione e impaginazione hanno iniziato il loro cammino assieme, per approdare oggi alla pubblicazione del testo finito direttamente in rete o scaricabile su i-pad o i-phone. Il testo giornalistico, così come lo conosciamo, ci sembra sempre lo stesso, un insieme di lettere e spazi costretto in una gabbia preordinata. Ma è proprio così? L’adattabilità ai nuovi supporti ha condizionato la qualità dei prodotti editoriali e lo stesso modo di scrivere?
Hugh Denard - King's College Visualization Lab Data: 1/4/2009
Elena Franchini - Biblioteca di Filosofia e Storia Data: 29/4/2009
Alfio Ferrara, Massimo Parodi, Chiara Selogna - Università di Milano Data: 9/10/2009
Diana Ibba - Studentessa Informatica Umanistica Data: maggio/giugno 2010
Simonetta Montemagni - Istituto di Linguistica Computazionale - CNR Data: 2/12/2009
Elvira Todaro - Scuola Superiore di Studi Universitari e Perfezionamento S.Anna Pisa Data: 14/4/2010
Enrica Salvatori - Dipartimento di Storia, Università di Pisa Data: maggio/giugno 2010
Giulia Lombardi - Studentessa Informatica Umanistica Data: maggio/giugno 2010
Romina Giselle Valdez - Studentessa Informatica Umanistica Data: maggio/giugno 2010
Elisa Bianchi e Francesca Bonin - Università di Pisa Nel seminario verrà presentato il progetto di ricerca FIRB "Piattaforma di servizi integrati per l'accesso semantico e plurilingue ai contenuti culturali italiani nel web", il cui obiettivo principale è l'elaborazione di strumenti di selezione e classificazione dei contenuti relativi ai domini della Linguistica, dell'Arte e della Letteratura. Dopo una panoramica generale sul progetto di ricerca verranno presentate in dettaglio le fasi dell'estrazione terminologica automatica e della successiva validazione, operata dagli esperti di settore. Verrà mostrato il procedimento dell'estrazione terminologica a partire da corpora testuali di dominio e verrà illustrata una proposta di classificazione delle unità lessicali estratte, sulla base dei concetti di "termine", "quasi-termine" e "non termine". Verranno infine illustrate le prospettive di ricerca, con particolare riferimento alla costruzione di una base di conoscenza per ciascun dominio a partire dalle liste di termini validati. Data: 10/12/2010
Maria Accarino - Studentessa Informatica Umanistica Data: maggio/giugno 2010
Silvia Greco - Studentessa Informatica Umanistica Data: maggio/giugno 2010
La nuova e potente rivoluzione culturale nel passaggio dei saperi: gli e-book. I nuovi tablet e gli e-reader: metodi di lettura (lean back, lean move, e lean forward). Caratteristiche del nuovo mercato editoriale degli e-book e paragone con l'editoria tradizionale. L'aspetto economico e dei diritti di riproduzione. Gli illustratori tradizionali e quelli digitali e le loro procedure nel creare le immagini. La nuova generazione di "digital born". Gli e-drawing e le loro caratteristiche. Dinamicità, rapporto immagine con il testo, rapporto con il suono Interazioni delle immagini nei nuovi dispositivi di lettura. Ruolo delle immagini nel nuovo contesto editoriale. Il primato delle immagini sullo scritto. Nuova generazione dei tablet: 2D e 3D differenza tra 3D percettivo e 3D effettivo. Il problema degli originali: il cloud computing. Giulio Peranzoni nato a Milano, è stato presidente dell'Associazione Illustratori dal 1992 al 1998. Ha collaborato come vignettista (la Repubblica) e illustratore per i maggiori quotidiani e periodici italiani (l'Unità, Il Corriere della Sera) e per diverse agenzie di pubblicità. Attualmente collabora con le principali case editrici italiane del settore scolastico, di formazione e nel settore pubblicitario. È stato docente di illustrazione realistica all'Istituto Europeo di Design e alla Scuola del Fumetto di Milano e docente di computer graphic alla scuola del Castello Sforzesco. Nel 2010 ha pubblicato per l'editore Area51 l'e-book "E-Drawing Il nuovo paradigma dell'illustrazione". Oltre all'attività di illustratore si dedica alla pittura e alla scultura. Vive e lavora in Toscana a Massa Carrara.
Il ruolo di produttore musicale, da estremamente definito nell'era dell'ingegnere del suono, si è sempre più confuso fra produttore, compositore ed ingegnere con l'avanzare della tecnologia software. Al tempo corrente le possibilità delle Digital Audio Workstation sono illimitate e la distinzione fra hardware e software è sempre più una scelta espressiva che non una necessità. Gli strumenti sono ancora gli stessi: compressione, equalizzazione, distorsione e delay ma le possibilità espressive non hanno limite grazie anche ad avanzate tecniche di modellazione basate su convoluzione (Impulse Response). L'obiettivo del seminario è quello di fornire una introduzione agli strumenti ed alle tipologie di specializzazione professionali nel settore della produzione musicale.
Il seminario sarà dedicato alla presentazione delle dinamiche generali per realizzare business attraverso i social network e di alcuni esempi concreti delle realizzazioni di Net7 in questo settore. Sarà presentato, inoltre, il progetto di sviluppo dell'applicazione "Semantic Social Dashboard" che Net7 sta realizzando per conto di COOP Italia.