SABATO 12 OTTOBRE 2013
Palazzo dei Congressi
via Matteotti 1
Pisa
www.internetfestival.it

L'età della Parola

Introduzione

Riguardando il capolavoro di Kubrick “2001 Odissea nello Spazio”, ci rendiamo conto che in 40 anni siamo riusciti a superare gran parte delle nostre previsioni tecnologiche, fatta eccezione per i computer che parlano e capiscono il linguaggio umano. Il fatto è che il linguaggio è così complesso che non sappiamo ancora spiegare in modo soddisfacente come funziona o come le nostre menti sono in grado di dominarlo. Eppure i bambini imparano a padroneggiare la lingua a circa tre anni, semplicemente ascoltando e dialogando con gli adulti.
Quanto manca ai computer per raggiungere l'età della parola?
Decisivi passi avanti nelle capacità di analizzare il linguaggio, combinate a sistemi ad apprendimento automatico che operano su immense quantità di testi, rendono oggi ravvicinata la prospettiva di computer in grado di comprendere e interagire in linguaggio naturale.
La comprensione del linguaggio resta comunque una delle sfide scientifiche e tecnologiche informatiche più affascinanti, perché è la chiave di volta per dei veri sistemi intelligenti.
Faremo il punto dei risultati e delle ricerche nel settore con la presenza di due keynote speaker.

Apertura

9:30
Benvenuto
9:45
Ricordo di Leonardo Lesmo

Keynote

10:00
Open the Pod Bay Doors, Siri!

Roberto Pieraccini, ICSI, Berkeley

La tecnologia che abbiamo inventato nel 1970 e perfezionato nel corso degli ultimi 40 anni, ha portato a significativi successi dell'industria di oggi. Tuttavia, i sistemi di riconoscimento e comprensione del parlato ancora funzionano bene solo in ambiti limitati, e degradano rapidamente quando si esula dalle condizioni ottimali. Alle persone non succede. Anche se l'industria e la ricerca hanno fatto passi da gigante, siamo ancora lontani da raggiungere le capacità umane, secondo le nostre visioni e aspettative. Quali sono gli anelli mancanti? Cosa stiamo facendo di sbagliato? Di quali problemi si stanno occupando i ricercatori di tutto il mondo? Che cosa possiamo aspettarci nei prossimi anni? Roberto Pieraccini è l’autore di “The Voice in the Machine” (MIT Press, 2012), un libro divulgativo sulla storia dei computer che comprendono la voce.

11:00
Traduzione Automatica

Marcello Federico, Fondazione Bruno Kessler, Trento

Negli ultimi dieci anni la traduzione automatica ha fatto notevoli progressi, grazie sopratutto allo sviluppo di modelli statistici e all'utilizzo di sofisticate tecniche di apprendimento automatico. Tuttavia, l'obiettivo di ottenere una qualità di traduzione paragonabile a quella di un traduttore professionista, per ogni tipo di testo e coppia di lingue, sembra sempre meno raggiungibile e realistico. Di recente è emersa e si sta affermando una nuova prospettiva riguardo allo scopo della traduzione automatica: agevolare il lavoro dei traduttori piuttosto che sostituirlo. Una nuova frontiera della ricerca studia oggi l'integrazione ottimale della traduzione automatica nei sistemi di ausilio alla traduzione usati dai traduttori professionisti. In particolare, un progetto europeo guidato da FBK sta sviluppando e sperimentando sistemi di traduzione automatica innovativi, che si adattano al documento da tradurre e alle correzioni del traduttore, per fornire suggerimenti sempre più utili e affidabili.

11:15
Apprendimento Automatico per il Linguaggio

Roberto Basili, Università di Tor Vergata, Roma

La capacità linguistica caratterizza la specie umana in modo tuttora sorprendente per la flessibilità ed efficienza che le lingue esibiscono a sostegno della comunicazione interpersonale, scientifica e sociale. La possibilità di sviluppare conoscenze linguistiche in un tempo relativamente breve è proprio di ogni bambino e certamente è lo stimolo principale allo studio di meccanismi induttivi analoghi nelle macchine. Tuttavia, l'applicazione di algoritmi complessi che la matematica ci offre in ambiti diversi, come la statistica, la geometria o l'algebra, permette di progettare rigorosamente processi nuovi per la acquisizione di conoscenze linguistiche dai dati. Per le applicazioni basate su informazioni linguistiche ciò rappresenta una opportunità immensa nell'era dei Social Media. Descriveremo le sfide e le soluzioni più recenti al problema dell'apprendimento di competenze linguistiche da parte di agenti software capaci di accedere alla ricchezza e varietà dei dati del Web e valorizzarne i contenuti.

11:30

Giorgio Satta, Università di Padova

Gran parte delle applicazioni di elaborazione del linguaggio naturale assumono, in diverso grado, una analisi sintattica automatica del testo, un processo che gli specialisti chiamano 'parsing'. Il parsing del linguaggio naturale emula l'analisi lessicale delle parole e l'analisi grammaticale e logica della frase che tutti noi abbiamo imparato a svolgere sin dai primi anni di scuola. Secondo le moderne teorie cognitive, il parsing è anche strettamente correlato a un processo mentale che ogni parlante svolge, pur non essendone consapevole, quando usa la propria madrelingua. Verranno descritte le moderne tecnologie utilizzate nel campo del parsing, e verranno riassunti i risultati più recenti in questo campo.

11:45

Paola Merlo, Université de Genève e ACL

“Ieri sono andato al ristorante e ho ordinato un piatto molto buono ma costoso.” Come si fa a insegnare a un computer che piatto è in realtà il cibo e non un pezzo del servizio buono della nonna? Come si fa a insegnare a un computer che se dico “Voglio prenotare un volo per New York”, New York è la destinazione del mio viaggio? Come fa il computer a sapere che se dico “Gianni è arrivato in ufficio alle otto”, alle sette e mezza non era in ufficio ma alle otto e mezza probabilmente era ancora li? Questi sono solo alcuni dei problemi da risolvere in semantica computazionale (ambiguità del senso delle parole, i ruoli delle funzioni semantiche delle parole nella frase, l'estensione temporale delle azioni espressa e sottintesa) che si risolvono per mezzo di metodi logici et statistici.

12:00
Text Mining e Information Extraction nell'era di Twitter

Paola Velardi, Università La Sapienza, Roma

Information Extraction (IE) è un’area dell’elaborazione del linguaggio naturale più complessa rispetto all’Information Retrieval (IR). Nell’IR, l’utente digita delle parole chiave ed il sistema restituisce una lista di pagine web, cosa di cui tutti abbiamo esperienza con Google. È compito dell’utente cercare ciò che gli interessa, esplorando le pagine. Nell’IE invece, i testi rilevanti rispetto agli interessi dell’utente vengono analizzati dal sistema, e presentati all’utente in forma strutturata (ad esempio una base di dati o un grafico). Esamineremo brevemente l’evoluzione dei sistemi di IE negli ultimi anni, con particolare enfasi sull’esplorazione dei contenuti nei social media (Twitter, Facebook, blogs..). Analizzare e riassumere i contenuti delle comunicazioni sociali ha una serie di importanti ed affascinanti applicazioni quali le previsioni di mercato e finanziarie, la sorveglianza sindromica della popolazione, l’analisi di opinioni su prodotti, programmi televisivi, partiti politici, ecc.

12:15
Sentiment Analysis e Opinion Mining

Danilo Croce, Università di Tor Vergata, Roma

Il Web è ormai una piazza virtuale in cui gli utenti si scambiano opinioni e impressioni riguardo a qualsiasi argomento. Sebbene queste preziose informazioni vengano catturate attraverso forme di interazione artificiale, come i pulsanti "Thumbs Up"/"Thumbs Down", la maggior parte degli utenti tende ancora ad esprimersi attraverso lo strumento ad essi più congeniale: il linguaggio. Saranno introdotti alcuni approcci per l'Analisi delle Opinioni all'interno dei testi nel Web e, in particolare, sarà discusso lo stato dell'arte relativo alla Analisi dei Sentimenti nei moderni servizi di microblogging.

12:15

Alessandro Fiori, Politecnico di Torino

La generazione automatica di riassunti, detta anche sommarizzazione, può aiutare in modo significativo a districarsi tra la moltitudine di informazione di cui siamo circondati oggi presentando in modo conciso le informazioni di interesse. Negli ultimi anni, sia la ricerca di base che quella industriale hanno sviluppato nuove metodologie per generare riassunti che rispecchiassero le tematiche trattate nei documenti. Nonostante ciò la strada per ottenere riassunti simili a quelli umani è ancora lunga. Inoltre, con la diffusione dei social networks e di apps per dispositivi mobili si sono aperte nuove frontiere per lo sviluppo e la ricerca quali l’inclusione delle opinioni degli utenti, la dinamicità delle informazioni e la generazione in tempo reale dei riassunti. Alessandro Fiori, editore di un libro sulla sommarizzazione, presenterà le tecniche attuali e le prossime sfide in questo campo.

Keynote

15:00
When are robots going to talk like you and me?

Luc Steels, VUB e Sony Laboratory Paris

The field of autonomous, life-like robots has made tremendous progress during the past decade, thanks to advances in material science, computing, mechanical engineering and Artificial Intelligence. We now have humanoid robots that walk on two legs, flying robots, swimming robots that are as versatile as fish, etc. But what about language? Here we find still very deep scientific problems that need to be solved before robots will be able to understand us sufficiently in order to reliably execute our instructions, let alone engage with us in useful conversations. There are basically three problems: (i) how can the representations needed for language communication be grounded in the perception and motor capacities of a robot, (ii) how can the language systems of robots be made adaptive, so that they can cope with new words or new uses of grammar, and (iii) how can language processing systems be made more robust so that they can handle ungrammatical sentences, sentence fragments, vague descriptions and errors. The talk is illustrated with concrete robotic experiments of robots playing language games. They show the beginnings of how robots can learn and invent language in situated embodied interactions.

Sessione Industriale

16:00

Nico Lavarini

16:00

Alessandro Tescari

16:00

Carlo Aliprandi

Tavola Rotonda

17:00
L'età della parola: come arrivarci e cosa cambierà

Giuseppe Attardi

Andrea Bozzi, Paola Merlo, Roberto Pieraccini, Luc Steels, Alessandro Tescari

Demo

SpeechScribe
Synthema

Computer che Parla, che Scrive, che Traduce. Smartphone che capisce e dialoga.

BabelNet
Università La Sapienza

BabelNet è un dizionario enciclopedico che fornisce conoscenza su tutti gli aspetti dello scibile umano in 50 lingue. In BabelNet i concetti formano una rete semantica tutta da esplorare!

Parole nello spazio
Università di Pisa

Navigheremo spazi di parole italiane e inglesi. Conosceremo politici e personalità del mondo dello spettacolo attraverso l’analisi del loro modo di parlare. Scopriremo come il computer impara e rappresenta il significato delle parole.

ATLAS
Università di Torino

Tradurre da Italiano a lingua dei segni italiana (LIS).

Opener
ILC-CNR

La reputazione sul web: riconoscere, analizzare commenti e recensioni su prodotti e servizi grazie ad un pacchetto software open-source per l'estrazione automatica di opinioni da testi multilingui.

WikiQuiz
Università di Pisa

Da una voce della Wikipedia si estraggono domande da usare nei test scolastici di comprensione dei testi.

Divino
Reveal

Information Extraction e Language Learning in processi avanzati di Real-time Marketing per il dominio eno-gastonomico.

Genio
Expert System

READ-It
ILC-CNR

Cosa rende un testo facile o difficile? Può il computer aiutare le persone con uno svantaggio linguistico? Mostreremo come il computer può aiutare a costruire una società più inclusiva.

WikiEdi
Question Cube

Un giocatore virtuale per il quiz "Chi vuol essere milionario?" che conosce a memoria tutta Wikipedia, capisce la lingua e comprende il significato delle domande.

Ringraziamenti