ANTROPOLOGIA, BIGDATA, CULTURA, DIVULGAZIONE, PERCEZIONE

SMALL data

Un articolo del «Guardian» mette in luce quanto il comune uso dei dati sia distorto da cattive interpretazioni. Prendendo in considerazione statistiche su temi quali religione, diritto di voto, immigrazione, disoccupazione, maternità in età minore, l’inchiesta mostra come dal confronto fra nazioni diverse emerga una altrettanto differente tendenza a sopravvalutare o sottovalutare alcuni dati. La media fra le varie stime corrette o scorrette dà modo di calcolare, secondo l’interpretazione del quotidiano inglese, un peculiare “indice di accuratezza e ignoranza” nazionale. Su 14 stati presi in esame, la Svezia si posiziona al primo posto come nazione più accurata. L’Inghilterra, ovviamente presa di mira dal «Guardian», non se la cava male, situandosi in quinta posizione. E l’Italia? Manco a dirlo, finisce al 14° posto, conquistando il podio di nazione più ignorante. In poche parole, noi italiani saremmo i peggiori nel far uso di dati, finendo vittima di pregiudizi che, nel nostro particolare caso, soffrirebbero di un costante orientamento a una visione più nera e funesta di quella offerta dai dati “corretti”. Niente di nuovo, verrebbe da dire.

Ma che dire di una statistica che pretende di essere comprensiva e risulta arbitrariamente basata su sole quattordici nazioni? Sono forse – da una prospettiva strettamente eurocentrica – le più importanti del mondo? E dove sono allora Cina e Russia? E come – e perché, e da chi – sono state scelte le categorie di osservazione? È curioso che un’indagine volta a mettere in discussione i pregiudizi culturali legati all’interpretazione di dati resti così platealmente – e inconsapevolmente – vittima di una cieca fiducia in dati altrettanto pregiudizievolmente selezionati e commentati. Per una volta, forse, essere finiti in coda a una classifica non dovrebbe farci preoccupare troppo.

[ illustrazione: fotogramma dal clip Qualcuno Vota 5Stelle de Il Terzo Segreto di Satira – trasmesso da LA7 ]

BIGDATA, INNOVAZIONE, LAVORO, MANAGEMENT, SOCIETÀ, TECNOLOGIA, UFFICI

Ancora sul taylorismo 2.0: ecco il physiolytics e gli strumenti del “cottimo digitale”

Il sostantivo “cottimo”, termine dalla dubbia origine etimologica, suona oggi passatista e distante dalla realtà dei lavoratori del nuovo millennio. Peccato che, nota in un recente articolo Evgeny Morozov, proprio questi ultimi saranno le probabili vittime di una sua nuova e tecnologica versione.

Se Google e Apple si stanno affacciando sul mercato delle dimore automatizzate (evoluzione di quanto fino a ieri si etichettava come domotica), il fronte aziendale non sta a guardare e conia un termine – comparso per la prima volta a fine 2013 sulle pagine di «Harvard Business Review» – che suona decisamente sinistro: physiolytics. Crasi del suffisso physio- e della parola anaylitcs, la parola rappresenta il processo di integrazione tra dispositivi indossabili e analisi dei dati da essi raccolti, a tutto beneficio delle pratiche di gestione delle risorse umane e della performance.

Per godere di qualche anticipazione sui prodotti che prima o poi invaderanno uffici e officine basta fare un giro su Kickstarter e i siti web di alcune startup. Per esempio, XOEye Technologies produce occhiali “smart” simili ai celebri Google Glass, salvo il fatto che non sono pensati per essere indossati da geek californiani ma da operai. Rilevano il comportamento e i movimenti dei lavoratori, con particolare attenzione per quanto riguarda postura e sicurezza. Come nota Morozov, questi apparecchi possono essere estremamente ben recepiti dalle aziende: meglio investire in strumenti di controllo che permettano la prevenzione di infortuni che dover pagare – a fronte dell’assenza di un lavoratore – per assicurazioni e spese mediche.

Altri esempi? Robin, produce sensori orientati agli “smart offices” che monitorano gli spostamenti da un ufficio all’altro, tenendo sempre sotto controllo dove ci si trova e quel che si fa. Melon sta per immettere nel mercato una fascia che monitora l’attività celebrale in cerca di picchi cognitivi, ottimizzando di conseguenza il lavoro. L’orologio Spark promette di impedire che le persone prendano sonno nei momenti più importanti del loro lavoro, mentre il braccialetto Pavlok (il nome vi ricorda qualcosa?) ci punisce con una scossa quando manchiamo di completare un’attività programmata.

Il lato maggiormente critico della questione riguarda, poiché si tratta di dispositivi che vengono indossati, la progressiva estensione delle logiche di quantificazione proprie del lavoro ad aspetti della vita che in precedenza ne erano al riparo. Detto in altri termini, l’espressione “portarsi il lavoro a casa” è probabilmente destinata ad assumere un significato tutto nuovo.

[ illustrazione: fotogramma dal film Escape from New York di John Carpenter, 1981 ]

BIGDATA, CONCETTI, ECONOMIA, LAVORO, MANAGEMENT, TECNOLOGIA

Benvenuti nell’era del taylorismo 2.0

Fra le varie ipotesi di reviviscenza del taylorismo emerse dal dibattito manageriale degli ultimi anni, ve ne è una dotata di particolare concretezza. Se è vero che alla base dello scientific management è, da sempre, il progressivo perfezionamento nella gestione di dati, il fenomeno tecno/sociale noto come “big data” sembra offrire la possibilità di una nuova, aggiornata incarnazione dello spirito tayloristico.

La reincarnazione è resa possibile dalla quasi perfetta comunanza di intenti tra un elemento tecnologico – l’enorme, pervasivo potere delle attuali infrastrutture tecnologiche – e un tratto culturale, cioè l’ideologia cyber-ottimista diffusa nel mondo dal modello delle startup americane. È la congiunzione fra questi due fattori – nota un recente articolo della rivista «Pop Matters» – a dar vita al taylorismo 2.0.

La rinascita di un’attitudine al continuo perfezionamento individuale, ben rappresentata sul web da «Life Hacker», dalla rubrica Work Smart di «Fast Company» e da molti articoli di Linkedin Pulse – testimonia della completa internalizzazione dei principi di controllo del taylorismo fatta propria da orde di “knowledge worker”. In altri termini, mettersi al servizio dell’efficientismo della macchina taylorista non è mai stato così cool.

Se questa indole rappresenta bene il colletto bianco medio, dalle organizzazioni d’impresa e dai dipartimenti HR sembra provenire una consonante risposta, riassunta dalle sperimentazioni in termini di raccolta e valutazione dati identificate dalla sigla “people analytics”. Misurare è tornato dunque decisamente di moda, con buona pace di vent’anni di letteratura manageriale spesi ad affiancare l’aggettivo “emotivo” al mondo del business.

[ illustrazione: fotogramma dal film Modern Times di Charles Chaplin, 1936 ]

APPRENDIMENTO, BIGDATA, LAVORO, SCIENZA, TECNOLOGIA

Perché i computer non saranno mai all’altezza degli uomini? Perché non sanno essere infantili

Durante gli anni ’80, gli studi sull’intelligenza artificiale hanno iniziato a scontrarsi contro un’evidenza: se simulare con un computer un livello “adulto” di intelligenza è relativamente semplice, risulta praticamente impossibile trasferirgli le abilità di un bambino di un anno.

Il “paradosso di Moravec” (dal nome dell’esperto di robotica austriaco Hans Moravec) descrive la difficoltà – attualmente irrisolta – di condurre un elaboratore elettronico a impadronirsi di capacità umane primordiali. Come ha notato lo studioso americano – e co-fondatore del MIT – Marvin Minsky, le facoltà umane su cui è più difficile applicare processi di “reverse engineering” finalizzati alla loro simulazione sono proprio quelle più basiche e, per molti versi, inconsce.

C’è un aspetto controintuitivo che rende preziosa questa scoperta: mentre ci immagineremmo arduo simulare abilità che per noi comportano un apprendimento faticoso (relativo per esempio a cognizioni ingegneristiche, matematiche e in generale a tutto ciò che etichettiamo come “scienza”), queste risultano in realtà molto più facili da trasferire a un computer rispetto a facoltà “innate” legate alla percezione, all’attenzione, alle capacità motorie e sociali.

Le abilità più recenti sulla linea temporale dell’evoluzione umana comportano per noi maggiori difficoltà di apprendimento proprio perché relativamente nuove e non interiorizzate; quelle più remote, benché molto più complesse, ci appaiono semplici perché agite in maniera trasparente e spontanea. I computer, privi del nostro background biologico e ben lontani da qualsiasi forma si spontaneità, incontrano grandi difficoltà nel simulare le seconde mentre ottengono buoni risultati nelle prime.

Secondo lo studioso cognitivo Steve Pinker, tutto questo ha un risvolto che dovrebbe tranquillizzare quanti sentono il proprio posto di lavoro minacciato da computer sempre più potenti. Se alcune professioni risultano effettivamente a rischio, altre non lo saranno mai, o quasi, proprio per via del paradosso di Moravec: i posti di lavoro di analisti finanziari e ingegneri petrolchimici saranno forse assunti da macchine nel giro di pochi anni; quelli di giardinieri, receptionist e cuochi non lo saranno verosimilmente ancora per moltissimo tempo.

[ illustrazione: fotogramma dal film Artificial Intelligence di Steven Spielberg, 2001 ]

BIGDATA, CAMBIAMENTO, CULTURA, ECONOMIA, INTERNET, LAVORO, TECNOLOGIA

L’utopia del “lavoro digitale”

In Who Owns the Future? (2013) Jaron Lanier affronta il tema dell’impatto della tecnologia sulle classi medie da un punto di vista non scontato. Per l’autore americano la questione non è chiedersi se l’automazione stia rubando o meno posti di lavoro, ma piuttosto rendersi conto che la diffusa pretesa di accedere gratuitamente (in maniera più o meno legale) a servizi e contenuti si sta trasformando in un circolo vizioso che danneggia un numero crescente attività lavorative. In altri termini: siccome pretendiamo di avere tutto gratis, accettiamo di buon grado di mettere a disposizione altrettanto gratuitamente quanto disseminiamo nella rete, senza realizzare che questo significa privare di valore il nostro contributo intellettuale. Questa è per sommi capi la tesi di Lanier, il quale paventa una disgregazione sociale di ampie proporzioni: anche ammesso che si possa sopravvivere continuando a deprezzare il lavoro della classe media “creativa” (giornalisti, musicisti, fotografi), sarà difficile farlo se un simile deprezzamento colpirà anche attività considerate primarie dal punto di vista industriale e sociale.

L’utopico antidoto proposto da Lanier è quello di un sistema di micro-pagamenti esteso a ogni nostra attività on-line, dalla ricerca su Google alla recensione di un libro su Amazon. In questo modo, un inedito meccanismo economico a due vie premierebbe di continuo tanto produttori quanto consumatori, permettendo un più adeguato ammortizzamento delle dinamiche dell’economia “informale” diffusa da internet. Quel che la pur affascinante ipotesi di Lanier tralascia di chiedersi è quanti servizi attualmente gratuiti potranno davvero funzionare e sopravvivere all’interno di un simile sistema. E soprattutto: siamo davvero sicuri che la mera produzione e diffusione sul web di dati e informazioni – ché le conoscenze sono ben altro – meriti di essere retribuita? Dare una risposta affermativa significherebbe, oltre che assumere una posizione piuttosto semplicistica e demagogica, accettare implicitamente che la soluzione al deprezzamento del lavoro culturale possa coincidere con un suo livellamento verso il basso. Il che suona come l’argomentazione più preoccupante contenuta nell’intero discorso di Lanier.

[ illustrazione: fotogramma dal film The Invisible Boy di Herman Hoffman (1957)]

BIGDATA, IRONIA, LETTERATURA, LIBRI, TECNOLOGIA

La lettura digitale e le vicine/lontane sorti di Italo Svevo e Steve Jobs

Difficile immaginare personaggi meno compatibili di Italo Svevo (1861-1928) e Steve Jobs (1955-2011). A differenziarli sono il tempo e il luogo in cui hanno vissuto, la professione, il ruolo sociale. Ad avvicinarli sono oggi, inaspettatamente, i dati di lettura raccolti in Italia da Amazon: sui dispositivi Kindle i due libri maggiormente “sottolineati” sono La coscienza di Zeno (1923) e Steve Jobs di Walter Isaacson (2011).

Le citazioni più estratte da Svevo sono queste:

«È un modo comodo di vivere quello di credersi grande di una grandezza latente».
«Il pianto offusca le proprie colpe e permette di accusare, senz’obiezioni, il destino».
«È proprio la religione vera quella che non occorre professare ad alta voce per averne il conforto di cui qualche volta — raramente — non si può fare a meno».

Quelle tratte dal libro di Isaacson le seguenti:

«Gli insegnai che, se si agisce come se si fosse in grado di fare qualcosa, quel qualcosa si realizza. Gli dissi: fa’ finta di avere il controllo assoluto della situazione e la gente penserà che tu ce l’abbia davvero».
«Ripeteva che non bisogna mai fondare un’azienda con l’obiettivo di diventare ricchi. L’obiettivo dev’essere produrre qualcosa in cui si crede e creare un’industria che duri nel tempo».
«Siccome non sapevo che non si poteva fare, mi sentivo in grado di farlo».

Se l’accostamento tra i due personaggi è già di per sé curioso, giustapporre le citazioni tratte dai libri dà vita a un bizzarro mash-up in cui profonde riflessioni sul destino dell’uomo si mescolando a spunti motivazionali di stampo aziendale. E viene da chiedersi: Svevo sta in cima alla classifica solo perché è scaricabile gratuitamente o perché in fondo gli italiani, pur leggendo poco, leggono bene? E con Isaacson come la mettiamo? E ancora: saranno in molti ad avere entrambi i libri sul Kindle? Al di là del piacere di gusto “pop” del trovare accostati mondi così lontani, interpretare i dati di Amazon è praticamente impossibile. Il futuro degli studi sulla “letteratura digitale” è destinato a essere caratterizzato molto più da curiose casualità che dalla possibilità di indagini critiche.

[ illustrazione: Henri Matisse, Natura morta con libri e candela, 1890 ]

BIGDATA, LETTERATURA, LIBRI, MARKETING, TECNOLOGIA

I big data non svelano il libro perfetto, solo il lettore imperfetto

Far uso di un dispositivo e-book significa, in modo più o meno consapevole, acconsentire al fatto che il gestore del servizio possa raccogliere – senza fatica e a titolo gratuito – un certo numero di dati relativi all’esperienza di lettura. Parliamo di preferenze di scelta, tempi di fruizione, brani evidenziati perché interessanti: avere a disposizione dati di questa natura rappresenta per autori e case editrici un’inedita opportunità per produrre testi che rispondano esattamente alle preferenze dei lettori. La via per il libro perfetto sembra dunque tracciata, e se è innegabile che pensare di percorrerla evoca una disposizione etica che si avvicina a quella di chi propaganda neonati perfetti coltivati in vitro, va da sé che sono già in molti a paventarne le peggiori conseguenze.

Un recente articolo del New Yorker cerca di portare la questione su binari interpretativi meno assolutistici. Anzitutto, poiché si è sempre inteso scrivere per qualcuno, cercare di intercettare i gusti del proprio pubblico non è certo cosa nuova. Le tecnologie digitali, dunque, possono solo rendere la raccolta dati più semplice. Ma quanto significativa? Rispondere a questa domanda non è facile. Per esempio: i dati di diversi store e-book indicano che solo l’1% dei lettori conclude la lettura del classico romanzo di Jane Austen Orgoglio e pregiudizio (1813). Peccato che non sappiano spiegare perché. Questo deficit conoscitivo – tipico dell’era big data – certo non favorisce la creazione in vitro del “libro perfetto” di cui sopra.

La raccolta di precisi e freddi dati di lettura, lungi dall’illuminare sul futuro della scrittura e della narrazione, rischia di servire solo a smascherare la verità celata dietro a tante letture millantate ma mai compiute. Il che ci fa sentire tutti un po’ in colpa. A questo proposito, a chi come il sottoscritto non è mai riuscito a finire – fra gli altri – Infinite Jest (1996) di David Foster Wallace, consiglio di dare un’occhiata a un libro dal titolo più che azzeccato: Come parlare di un libro senza averlo mai letto (2009) di Pierre Bayard.

[ illustrazione: Woman reading, National Media Museum – Kodak Gallery Collection, circa 1890 ]

BIGDATA, EPISTEMOLOGIA, SCIENZA

Google Flu Trends e la fallibilità dei big data

Il libro Big Data (2013) di Viktor Mayer-Schönberger e Kenneth Cukier dedica un significativo numero di pagine al momento in cui, qualche anno fa, Google ha scoperto che possedere la più grande concentrazione al mondo di stringhe di ricerca – quel che ognuno di noi digita nel campo “cerca” del browser – equivale a poter esercitare un enorme potere predittivo sullo sviluppo di alcuni trend, fra cui quelli influenzali. Da allora, Google Flu Trends è diventato l’esempio portabandiera del movimento dei big data.

Un articolo di «Science» sembra oggi mettere in crisi questo ruolo. Anzitutto, nota l’articolo, Google Flu Trends ha completamente mancato di rilevare una influenza di non secondaria importanza, l’A-HIN1 del 2009. In secondo luogo, in seguito alla revisione del software avvenuta nello stesso 2009, i successivi risultati dell’algoritmo hanno continuato – e continuano – a generare previsioni dei flussi influenzali che risultano sovrastimate in termini di diffusione e durata.

Attestare la fallibilità di Google Flu Trends è per «Science» ghiotta occasione per mettere in luce quella che definisce la “hubris” dell’ideologia dei big data, cioè la pretesa che essi possano giungere a sostituire completamente i tradizionali metodi di raccolta e analisi di dati. Ridimensionare i big data, considerandoli strumento integrativo ad altri e non la “palla di cristallo” su cui molti entusiasti hanno creduto di poter mettere le mani, rappresenta senz’altro un modo più sensato per farne uso.

[ illustrazione: pubblicità Kleenex della fine degli anni ’20 ]

BIGDATA, CAMBIAMENTO, ECONOMIA, LAVORO, MANAGEMENT, SOCIETÀ, TECNOLOGIA

La tecnologia ucciderà la middle class?

In Average Is over: Powering America Beyond the Age of the Great Stagnation (2013) l’economista americano Tyler Cowen immagina una feroce polarizzazione della società, causata dall’influenza delle nuove tecnologie sulle attività lavorative. Il mondo verrà a trovarsi diviso, secondo Cowen, tra coloro il cui lavoro sarà reso obsoleto dalla tecnologia e chi invece riuscirà a sopravviverle. Ricollegandosi idealmente ad alcune delle tesi contenute in La fine del lavoro di Jeremy Rifkin (1995), Cowen immagina una middle class largamente composta da “bohémien” che saranno sempre meglio istruiti, soprattutto grazie a risorse on-line  gratuite, ma si accontenteranno di salari medio-bassi.

Fra gli altri temi trattati nel testo, Cowen riflette anche sul concetto di meritocrazia. Il monitoraggio del lavoro e la sua visibilità on-line permetteranno, secondo l’autore americano, un controllo trasparente sulla produttività di ogni lavoratore e dunque l’opportunità per le aziende – e in generale per il sistema economico – di premiare chi merita di esserlo (e viceversa).

[ illustrazione: Futurama di Matt Groening ]

APPRENDIMENTO, BIGDATA, COMPLESSITÀ, CONCETTI, EPISTEMOLOGIA

Postmoderno e big data: “mode” diverse, simili fallacie

Un recente articolo del magazine on-line The New Inquiry mette in relazione le modalità conoscitive della logica del postmodernismo e quelle dei big data. Il tratto comune attribuito ai due modelli – oltre a quello di essersi proposti come “mode” epistemologiche –  è un approccio critico nei confronti dei dati empirici e della costruzione di senso. Entrambi i modelli sono inoltre figli di periodi storici caratterizzati da incertezza e messa in discussione di valori tradizionali. Quanto alle differenze, emerge quanto segue:

«Whereas Big Data sees a plurality of data points contributing to a singular definition of the individual, postmodernism negates the idea that a single definition of any entity could outweigh its contingent relations».

Quanto sfugge all’articolo è che, a fronte del costitutivo relativismo tipico della logica postmoderna, la forma mentis dei big data non offre di certo un paradigma conoscitivo più saldo. Detto altrimenti: la grande, spesso cieca fiducia nella potenza di calcolo dei big data nasconde una netta ammissione di ignoranza. La complessità che i big data sembrano essere in grado di abbracciare e fotografare non può essere spiegata risalendo ai suoi elementi primi, che se isolati restano dati insignificanti. Un osservatore non potrà dunque mai comprendere esattamente le ragioni di quel che accade. Sarà costretto a limitarsi ad applicare interpretazioni soggettive a dati la cui stessa evidenza è un atto di fiducia nei confronti di una macchina. Da questo punto di vista, dunque, i big data appaiono tanto relativisti ed epistemologicamente negativi quanto lo è stato il postmodernismo.

[ illustrazione: particolare da un’illustrazione del gruppo di pixel art eBoy ]