mercoledì 10 giugno 2020

Ippolito Nievo e i robot - articolo proposto a "La repubblica"

E’ notizia recente la costituzione di un comitato nazionale per la robotica. L’iniziativa arriva con grande ritardo rispetto a quanto è accaduto in altri paesi, ma è sicuramente necessaria per competere in un’economia globale. Secondo la corrente visione neoliberista, infatti, i “robot” ridurranno i costi del lavoro rendendoci competitivi con i paesi emergenti e , grazie a loro, si creeranno nuove tipologie di prodotti e si apriranno nuovi mercati. Per i transumanisti, l’Uomo sarà finalmente libero dalla punizione biblica del doversi guadagnare il pane con il sudore della fronte, avrà più tempo da dedicare alle arti, al miglioramento di sé stesso, alle attività ludiche.

Molti, però, sembrano dimenticare che il prezzo da pagare sarà alto e, forse, i membri del comitato farebbero bene a leggere il breve romanzo “storia filosofica dei secoli futuri” scritto nel 1860 da Ippolito Nievo. Quando apparve, questo breve scritto fu etichettato come racconto umoristico dai disdegnosi eruditi dell’epoca e, in quanto tale, fu presto dimenticato. In realtà, in esso, Nievo anticipava con grande sagacia e ironia i più importanti fenomeni sociali dei secoli successivi: l’apertura del canale di Suez, la fine del colonialismo, la rivoluzione proletaria in Russia, la comune di Parigi, la perdita del potere temporale della chiesa, la catastrofe ambientale, il neoliberismo,  l’Europa unita e il suo declino a favore di un’Asia sempre più ricca e più colta. Nelle ultime pagine, Nievo si sofferma a lungo su quella che  intuisce essere “la più grande rivoluzione scientifica che operò nel consorzio umano il maggior cambiamento che si sia mai operato”: la costruzione degli omuncoli, degli uomini di seconda mano o, come diremmo oggi, dei robot. Gli “omuncoli” non sono automata, non sono cioè i dispositivi meccanici affascinanti ma stupidi che divertivano le corti rinascimentali, ma vere e proprie macchine intelligenti, in grado ci comunicare e di pensare in modo autonomo.  Nievo identifica nelle banche e negli industriali i principali artefici e sostenitori della scoperta: gli omuncoli sono infatti garanzia di grandi profitti e poco conta che il benessere di pochi porti la società alla noia, all’apatia e a gravi turbe psicologiche. Va detto che, a differenza di altri, Nievo non era un neo-luddista e non credeva che il progresso scientifico e l’innovazione tecnologica fossero necessariamente un fatto negativo. Per lui, quella posta dagli omuncoli sarà solo l’ultimo atto di una battaglia che dura da millenni.

Una sfida in cui l’Uomo dovrà finalmente sciogliere una volta per tutte il nodo della sua doppia natura sempre oscillante tra utopia o distopia, dovrà decidere se essere un Prometeo destinato a creare un mondo a propria immagine e somiglianza o, piuttosto, un Ipometeo, destinato a essere vittima inconsapevole del cambiamento. La posta in gioco è alta: da un lato il rifiuto dell’innovazione e il conseguente decadimento ad uno stato di barbarie, oppure la sua accettazione inconsapevole ed un lento scivolare verso l’insignificanza sociale.

Anche il grande fisico inglese Steven Hawking, da molti ritenuto uno dei massimi pensatori del nostro secolo e che di certo non può essere tacciato di anti-scientismo, nel 2016 pubblicò  su “The Guardian” un articolo in cui ribadiva come l’accettazione acritica dell’automazione a tutti i costi, avrebbe accelerato la distruzione di posti di lavoro anche nel cuore della classe media e lasciato sopravvivere solo pochi lavori  di alta responsabilità e creatività. Il risultato sarebbe stato “l’incremento della più vistosa forbice di ineguaglianza” mai sperimentata dall’Uomo. Un mondo in cui pochissimi addetti in grado di usare sofisticati programmi, possono trarre enormi profitti in un’economia globalizzata e interconnessa dalle reti informatiche.  Un mondo nei fatti inevitabile, ma socialmente devastante.

Ed è per questo che si può solo sperare che questa nuova commissione governativa non sia costituita solo da tecnici ma anche da sociologi, filosofi e umanisti e che non abbia come unico fine la promozione a tutti i costi delle nuove tecnologie ma, soprattutto, il benessere della società nel suo complesso.

domenica 31 maggio 2020

Big Data: Croci e Delizie, 2019, Scienza & Società, 33-34, pp.49-59

Di: Giuseppe Longo

Estratto dall'Introduzione:

Le rivoluzioni più profonde sono spesso quelle che si verificano senza che ce ne si accorga.
Iniziano in modo sommesso e poi rapidamente si propagano fino a cambiare in modo
irreversibile il mondo e la società. A partire dalla seconda metà degli anni '80 del secolo
scorso, lo sviluppo di una nuova generazione di sensori, sempre più piccoli, potenti e
flessibili nelle modalità d'uso, unito alla crescita esplosiva delle reti telematiche e di
telecomunicazione, ha fatto sì che una quantità sempre crescente di dati eterogenei venisse
prodotta, immagazzinata e resa accessibile attraverso la "rete" a comunità sempre più ampie
di utenti. Da alcune decine di esabyte accessibili nel 2009 si è giunti oggi agli oltre 40.000
previsti per il 2020. Una crescita esponenziale che di certo continuerà anche negli anni a
venire. Descrivere nella sua interezza la portata del fenomeno che in un'estrema
banalizzazione viene etichettato come "big data" è quindi pressoché impossibile.
La vita di ognuno di noi si traduce ormai in una sorta di "scia elettronica" in cui viene
registrata ogni singola interazione con la rete: dalle richieste fatte ai motori di ricerca, ai
social network, dalle transazioni economiche alla messaggistica, dai film guardati sulle
pay-tv alla musica più ascoltata. Attraverso le carte fedeltà e le carte di credito, i nostri
acquisti vengono continuamente monitorati, registrati e analizzati. I telefonini e i social
registrano i nostri movimenti, le nostre modalità di interazione con il web. Analogamente, i
data base clinici si arricchiscono delle nostre analisi cliniche, delle diagnosi, dei medicinali
che acquistiamo in farmacia. Dati eterogenei e apparentemente scollegati tra loro, dalla cui
fusione nasce una nostra identità virtuale con i nostri stessi gusti, orientamenti politici ed
ideologici, e persino con le nostre stesse paure. A ciò occorre aggiungere che quasi ogni
aspetto del mondo che ci circonda è continuamente monitorato: immagini da satellite e da
telecamere a terra si combinano con sensori meteo, misuratori di inquinamento. A queste
informazioni si aggiungono i mille sensori dell'Internet of things", cioè dei sensori posti su
oggetti di uso quotidiano che, scambiando informazioni tra loro e con altre fonti di dati,
dovrebbero ottimizzare ogni aspetto della vita quotidiana: da sveglie intelligenti che suonano
prima in caso di traffico lungo il percorso abituale, ai bit fit che trasmettono le condizioni del
nostro organismo ai vasetti delle medicine che avvisano i familiari se un paziente dimentica di
prendere il farmaco. .Persino la ricerca di base è stata profondamente modificata dai
cosiddetti "big data". I telescopi di nuova generazione che scandagliano il cosmo, o gli
acceleratori di particelle, per citare solo alcuni esempi, producono flussi ininterrotti di
informazioni che l'Uomo non può più analizzare in modo diretto e che vanno a contribuire a
quest' oceano di dati. .... Per continuare la lettura .... 




sabato 30 maggio 2020

Statistical characterization and classification of astronomical transients with Machine Learning in the era of the VRST


By: Marco Vicedomini, Massimo Brescia, Stefano Cavuoti, Giuseppe Riccio, Giuseppe
Longo (DS LAB - UNINA), 2020, Springer, in press
arXiv: 

Abstract 
Astronomy has entered the multi-messenger data era and Machine Learning has found widespread use in a large variety of applications. The exploitation of present and future synoptic (multi-band and multi-epoch) surveys, like LSST (VRST), requires an extensive use of automatic methods for data processing and interpretation. With data volumes in the petabyte domain, the discrimination of time-critical information has already exceeded the capabilities of human operators and even crowds of scientists have extreme difficulty to manage such amounts of data in multi-dimensional domains. This work is focused on an analysis of critical aspects related to the approach, based on Machine Learning, to variable sky sources classification, with special care to the various types of Supernovae, one of the most. important subjects of Time Domain Astronomy, due to their crucial role in Cosmology. The work is based on a test campaign, with incremental complexity, performed on simulated data. The classification was carried out by comparing the performances among several Machine Learning algorithms on statistical parameters extracted from the light curves. The results show some critical aspects related to the data quality and their parameter space characterization, propaedeutic to the preparation of processing machinery for the real data exploitation in the incoming decade.