Giovedì 25 gennaio, ore 17:30

Guido Vetere

L’apprendimento automatico

L’idea che un automa possa imparare a svolgere le proprie attività attraverso l’osservazione di esempi e dati nasce assieme all’idea che tali attività possano essere programmate in forma di esplicite istruzioni. Nei suoi 70 anni di storia, l’Intelligenza Artificiale ha sviluppato entrambe queste idee, ma oggi si tende a identificarla soltanto con una di queste, cioè con l’apprendimento automatico (machine learning), in particolare condotto mediante reti neurali (neural networks). Vedremo quindi come funzionano le rete neurali e le architetture nelle quali si possono impiegare, con riferimento a quelle particolarmente adatte a lavorare con il materiale linguistico.

Giovedì 8 febbraio, ore 17:30

Guido Vetere

Apprendere modelli linguistici e generare testi

Nella storia delle tecnologie del linguaggio, che rappresenta una grossa parte dell’Intelligenza Artificiale, c’è un prima e un dopo, e la linea di demarcazione sono i cosiddetti “Large Language Model” (LLM). Introdotti intorno al 2020, essi consistono in gigantesche reti neurali che riescono ad apprendere “conoscenza linguistica” e usarla non solo per “capire” i testi, ma anche per generarli. Vedremo come vengono costruiti questi modelli, che genere di “conoscenza” riescano ad acquisire, e come possano produrre testi verosimili, come ad esempio risposte alle domande più varie, pur non avendo alcuna nozione di verità.

Giovedì 29 febbraio, ore 17:30

Daniela Tafani

Le proprietà politiche dei sistemi di Intelligenza Artificiale

Sistemi di apprendimento automatico sono utilizzati oggi per prevedere il futuro di singoli individui, e assumere decisioni conseguenti: gli studenti vengono valutati sulla base del voto che si prevede riceverebbero se sostenessero l’esame, i candidati a un posto di lavoro vengono assunti o scartati sulla base di una previsione della loro futura produttività e la polizia si affida a statistiche automatizzate per prevedere chi commetterà un crimine o dove un crimine verrà commesso, e agire di conseguenza.

Tali sistemi non sono in realtà in grado di prevedere il futuro di singole persone, per la semplice ragione che ciò non è possibile.

Si tratta di sistemi che hanno proprietà politiche intrinseche: sono incompatibili con lo Stato di diritto, perché fanno sì che le persone siano trattate come oggetti, anziché come soggetti in grado di autodeterminarsi, che non possano prevedere quale legge verrà loro applicata, che siano tutte sorvegliate come “sospette” e che siano o no in grado di esercitare diritti a seconda del loro contingente e variabile status economico, sociale, emotivo, di salute o religioso.

Giovedì 6 marzo, ore 17:30

Guido Vetere

Applicazioni possibili, usi consapevoli, modelli di sviluppo dell’AI

Le capacità dei nuovi automi linguistici sono impressionanti, e su di esse si è scatenata una “corsa all’oro” da parte delle grandi multinazionali informatiche. Ma anche le comunità “aperte”, sia accademiche sia dell’industria di nicchia, sono al lavoro per sottrarre questi sistemi al monopolio e abilitare modelli decentralizzati di sviluppo. L’obiettivo non è solo quello della riduzione della “forza lavoro” umana in alcune attività cognitive, ma anche quello di sviluppare applicazioni e servizi che non sarebbero possibili senza l’impiego di queste capacità, inclusi sistemi socialmente utili. I “Large Language Model” dunque sono qui per restare, e oggi si discute su come governarne lo sviluppo e il dispiegamento, sempre che una governance sia in effetti possibile.

Qui la locandina

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *