25 Feb2014
Con il direttore del nostro corso, il professo Federico Neresini, sabato 22 febbraio
Big Data, bolle e libertà di scegliere.
Un diluivo di dati, di informazioni, di pagine fb, di social, di siti, foto.
Ma se ci chiedono di ricordare almeno tre eventi accaduti appena 4, 5, 6 anni fa (provare per credere), non ci viene nulla in mente. Il deserto.
Sepolti da un diluvio di informazioni, ne restiamo schiacciati. Come diceva Sherlock Holmes, il nostro cervello è come una soffitta piena di mobili ed oggetti, per quanto ampia essa sia, ha dei limiti e ad un certo punto se si vuole farvi entrare ancora qualcosa è necessario prima svuotarla. O come una brocca, che non può essere riempita all'infinito senza traboccare.
Il risultato è uno schiacciamento sul presente della percezione che noi abbiamo della realtà. Ma se la nostra percezione del mondo e la coscienza che ne abbiamo è schiacciata sul presente, il passato si sgretola appena esce dalla nostra attenzione, scacciato dal diluvio incessante di dati. E assieme al passato si dissocia e svanisce la possibilità di elaborare un futuro, di proiettare la nostra vinta in avanti.
Affrontare, catalogare, selezionare un numero tanto grande di dati, averne cioè il controllo puntuale, è impossibile.
Di fronte a numeri talmente grandi da risultare inconcepibili, si è iniziato a ragionare in termini di correlazione anzicchè in termini di causalità. Poiché infatti è impossibile collegare con nessi causali un numero tanto grande di dati, ci si è accontentati di analizzare le correlazioni che si possono osservare nella variazione quantitativa di classi differenti di dati. Al variare di un dato si osserva che varia proporzionalmente un altro dato. Ci si accontenta...
A ben guardare, nella difficoltà forse insormontabile di definire cosa sia la Verità, da sempre si è intesa per vera una correlazione plausibile di dati: senza aver individuato il vero nesso causale, si dice che accade questo ogni volta (=perché) che avviene quest'altro. Il fatto nuovo è che questa approssimazione, come ci racconta Alessandro Baricco ne "I Barbari", nell'epoca della rete è diventato il solo criterio di verità.
I dati non sono mattoncini di un gioco di costruzioni, pacchetti di informazioni che possono essere accumulati, spostati, trasferiti e messi in magazzino. I dati, e non da oggi ma da sempre, sono un processo.
Questo un tempo significava che c'era un racconto (Cantami, o Diva, del Pelìde Achille l'ira funesta ...) e c'era il suo canto e poi il ricordo del canto e poi la sua celebrazione ... e da quel canto sgorgava e si alimentava un flusso di memoria e di significati. Come dire che se nessuno canta il Canto ed esso viene seppellito in una biblioteca per 2000 anni (come è accaduto per la Villa dei Papiri a Ercolano), quel canto non risuona più e in definitiva non agisce, non esiste. I dati, se non vengono processati, non esistono. Ieri come oggi.
Oggi, potenziato, moltiplicato e accelerato a dismisura dalle macchine, abbiamo un dato, una pagina su internet, che viene visitata, linkata, i cui termini chiave vengono rimbalzati su altra pagine, messi in relazione, in un addensarsi e sciogliersi e riaddensarsi come le figure create degli stormi di storni nei cieli di Roma. Ogni nostra interrogazione di Google, ogni nostra interazione con la rete non si limita a gestire dati statici, ma contribuisce e metterli in relazione, ne crea di nuovi, alimenta la rete stessa. E senza questo processo i dati perderebbero di significato, cesserebbero di esistere. Informazione e struttura non sono distinguibili.
Ma perché è così importante poter padroneggiare i dati? Per ridurre l'incertezza. Evidentemente nel modo premoderno, a bassissimo tasso di informazioni e per lo più imposte dall'autorità e dalla tradizione, questa esigenza era minima. Perché le informazioni ci servono per abbassare il tasso di incertezza. Pioverà o no domani? Prendo la prima o la seconda a destra? Evidentemente maggiori sono le informazioni e maggiori sono le variabili e quindi maggiore il tasso di incertezza che cerchiamo di placare con ulteriori informazioni, in un processo che si autoalimenta.
Cercare il dato, selezionarlo e renderlo disponibile. Il criterio di verità è la velocità di condivisione, non il contenuto. Un dato viene messo a disposizione non perché giudicato migliore di un altro (e da chi poi? chi potrebbe anche solo pensare di analizzare e valutare e mettere in un elenco gerarchico miliardi di dati?) ma perché maggiormente condiviso.
E la fiducia negli esperti, nella autorità ? la ricerca della profondità? Ha ragione Alessandro Baricco, siamo di fronte ad una mutazione antropologica irreversibile e sconvolgente, che cominciamo solo ora non a comprendere (forse anche comprendere in profondità è inutile e appartiene al passato) ma a cogliere nelle sue sconvolgenti proporzioni.
Un diluivo di dati, di informazioni, di pagine fb, di social, di siti, foto.
Ma se ci chiedono di ricordare almeno tre eventi accaduti appena 4, 5, 6 anni fa (provare per credere), non ci viene nulla in mente. Il deserto.
Sepolti da un diluvio di informazioni, ne restiamo schiacciati. Come diceva Sherlock Holmes, il nostro cervello è come una soffitta piena di mobili ed oggetti, per quanto ampia essa sia, ha dei limiti e ad un certo punto se si vuole farvi entrare ancora qualcosa è necessario prima svuotarla. O come una brocca, che non può essere riempita all'infinito senza traboccare.
Il risultato è uno schiacciamento sul presente della percezione che noi abbiamo della realtà. Ma se la nostra percezione del mondo e la coscienza che ne abbiamo è schiacciata sul presente, il passato si sgretola appena esce dalla nostra attenzione, scacciato dal diluvio incessante di dati. E assieme al passato si dissocia e svanisce la possibilità di elaborare un futuro, di proiettare la nostra vinta in avanti.
Affrontare, catalogare, selezionare un numero tanto grande di dati, averne cioè il controllo puntuale, è impossibile.
Di fronte a numeri talmente grandi da risultare inconcepibili, si è iniziato a ragionare in termini di correlazione anzicchè in termini di causalità. Poiché infatti è impossibile collegare con nessi causali un numero tanto grande di dati, ci si è accontentati di analizzare le correlazioni che si possono osservare nella variazione quantitativa di classi differenti di dati. Al variare di un dato si osserva che varia proporzionalmente un altro dato. Ci si accontenta...
A ben guardare, nella difficoltà forse insormontabile di definire cosa sia la Verità, da sempre si è intesa per vera una correlazione plausibile di dati: senza aver individuato il vero nesso causale, si dice che accade questo ogni volta (=perché) che avviene quest'altro. Il fatto nuovo è che questa approssimazione, come ci racconta Alessandro Baricco ne "I Barbari", nell'epoca della rete è diventato il solo criterio di verità.
I dati non sono mattoncini di un gioco di costruzioni, pacchetti di informazioni che possono essere accumulati, spostati, trasferiti e messi in magazzino. I dati, e non da oggi ma da sempre, sono un processo.
Questo un tempo significava che c'era un racconto (Cantami, o Diva, del Pelìde Achille l'ira funesta ...) e c'era il suo canto e poi il ricordo del canto e poi la sua celebrazione ... e da quel canto sgorgava e si alimentava un flusso di memoria e di significati. Come dire che se nessuno canta il Canto ed esso viene seppellito in una biblioteca per 2000 anni (come è accaduto per la Villa dei Papiri a Ercolano), quel canto non risuona più e in definitiva non agisce, non esiste. I dati, se non vengono processati, non esistono. Ieri come oggi.
Oggi, potenziato, moltiplicato e accelerato a dismisura dalle macchine, abbiamo un dato, una pagina su internet, che viene visitata, linkata, i cui termini chiave vengono rimbalzati su altra pagine, messi in relazione, in un addensarsi e sciogliersi e riaddensarsi come le figure create degli stormi di storni nei cieli di Roma. Ogni nostra interrogazione di Google, ogni nostra interazione con la rete non si limita a gestire dati statici, ma contribuisce e metterli in relazione, ne crea di nuovi, alimenta la rete stessa. E senza questo processo i dati perderebbero di significato, cesserebbero di esistere. Informazione e struttura non sono distinguibili.
Ma perché è così importante poter padroneggiare i dati? Per ridurre l'incertezza. Evidentemente nel modo premoderno, a bassissimo tasso di informazioni e per lo più imposte dall'autorità e dalla tradizione, questa esigenza era minima. Perché le informazioni ci servono per abbassare il tasso di incertezza. Pioverà o no domani? Prendo la prima o la seconda a destra? Evidentemente maggiori sono le informazioni e maggiori sono le variabili e quindi maggiore il tasso di incertezza che cerchiamo di placare con ulteriori informazioni, in un processo che si autoalimenta.
Cercare il dato, selezionarlo e renderlo disponibile. Il criterio di verità è la velocità di condivisione, non il contenuto. Un dato viene messo a disposizione non perché giudicato migliore di un altro (e da chi poi? chi potrebbe anche solo pensare di analizzare e valutare e mettere in un elenco gerarchico miliardi di dati?) ma perché maggiormente condiviso.
E la fiducia negli esperti, nella autorità ? la ricerca della profondità? Ha ragione Alessandro Baricco, siamo di fronte ad una mutazione antropologica irreversibile e sconvolgente, che cominciamo solo ora non a comprendere (forse anche comprendere in profondità è inutile e appartiene al passato) ma a cogliere nelle sue sconvolgenti proporzioni.