BIGDATA, LAVORO, LETTERATURA, SOCIETÀ, TECNOLOGIA

“Il cerchio” di Dave Eggers e il pericoloso potere dei dati

«But my point is, what if we all behaved as if we were being watched? It would lead to a more moral way of life. Who would do something unethical or immoral or illegal if they were being watched?»

Così si esprime uno dei personaggi principali di Il cerchio (2013) di Dave Eggers. Pur non contraddistinto da grande valore letterario, il romanzo rappresenta una puntuale riflessione sulla direzione in cui lo sviluppo delle tecnologie “social” ci sta conducendo, sia dal punto di vista della creazione di monopoli economici (su tutti: Google e Facebook) che da quello della tutela della privacy. Quanto Eggers descrive nel suo libro ha ben poco di fantascientifico e potrebbe tranquillamente realizzarsi nel giro di pochi anni.

Un sotto-tema che emerge con forza dal testo è quello dei “big data”, intesi tanto come strumento di personal tracking quanto come risorsa economica a disposizione dei colossi informatici. Per quanto riguarda quest’ultimo aspetto, l’enorme potere delle informazioni aggregate rappresenta un inedito strumento di controllo che si sta progressivamente concentrando nelle mani di pochi decisori. Le riflessioni di Eggers qui si avvicinano molto a quelle di uno dei più attenti osservatori dei fenomeni mediatici, cioè Evgeny Morozov.

Sul fronte dell’impatto dei social media sugli individui, Eggers si allinea con quanti sostengono che la tensione a controllare e rendere pubblico praticamente ogni aspetto della propria vita rischi di condurre a pericolose derive dei rapporti sociali e a nuove psicopatologie. Un interessante spunto su questo tema ha a che fare con i cambiamenti delle modalità lavorative: se quasi venti anni fa Jeremy Rifkin parlava di La fine del lavoro (1995), quanto The Circle preconizza è un abbattimento delle barriere tra vita lavorativa e privata in cui la spettacolarizzazione e pubblicità di entrambe le sfere diventa un potentissimo driver di “conversioni economiche” all’interno di qualsiasi momento dell’esistenza.

[ illustrazione: particolare dalla copertina di The Circle di Dave Eggers ]

Standard
BIGDATA, FOTOGRAFIA, PERCEZIONE, RAPPRESENTAZIONE, TECNOLOGIA

I limiti della percezione e il ruolo della fotografia

Il curatore americano Marvin Heiferman riflette in un suo articolo sull’irritazione che a volte la fotografia finisce, suo malgrado, per generare. Dagli anni ’70 a oggi, lo status della fotografia come “arte” è stato progressivamente accettato a livello collettivo, non senza reazioni negative. Se è vero che a disturbare molte persone è la sensazione di essere privi di conoscenze e strumenti utili per comprendere la fotografica, ad Heiferman interessa partire da una caratteristica essenziale della fotografia, vale a dire la sua indicalità. La fototografia è catalogabile, fra i diversi tipi di segno, come un indice, vale a dire una traccia che ha un rapporto estremamente diretto e materiale con il suo referente, proprio come accade per un’impronta. La foto-grafia è traccia del reale scritta grazie alla luce, che riproduce su un medium analogico o digitale una enorme quantità di dati e informazioni che spesso facciamo fatica a processare.

Come cita la teoria della “gist of the scene” (essenza della scena) elaborata dalla studiosa cognitiva Aude Oliva, la nostra percezione generale di quel che ci passa davanti agli occhi prende forma in appena 1/20 di secondo. Questa visione di insieme è estremamente schematica e carente dal punto di vista dei dettagli. Citando il classico esempio della percezione della foresta e di un singolo albero, la teoria della “gist of the scene” conferma che siamo naturalmente portati a percepire la forma generale della foresta e non a identificarne singolarmente un albero. È per questo motivo che l’osservazione della fotografia può continuare a metterci in difficoltà; oggi, in tempi di foto “sgranate” fatte con smartphone, quanto all’epoca del celebre gruppo f/64 (la cui cifra stilistica era la massima definizione ottenibile tramite il medium fotografico), il tema resta quello del colpo d’occhio.

[ illustrazione: Tokyo Stock Exchange di Andreas Gursky ]

Standard
BIGDATA, LAVORO, TECNOLOGIA

Usi e abusi del personal tracking

Il movimento del “quantified self”, fondato nel 2007 dai guru di «Wired» Gary Wolf e Kevin Kelly, lavora sulle opportunità conoscitive offerte dalla raccolta di dati personali. Secondo le parole dello stesso Wolf, i personal traker praticano in modo del tutto nuovo l’antica massima greca del “conosci te stesso”:

«Instead of interrogating their inner worlds through talking and writing, they are using numbers. They are constructing a quantified self».

Secondo un articolo dello studioso di tecnologie Nicholas Carr, il personal tracking a 360°, cioè applicato alle più svariate attività della vita quotidiana (dai ritmi di sonno e veglia ai regimi dietetici), sarebbe in realtà un fenomeno molto limitato e appannaggio di un ristretto numero di fanatici del dato. Per il restante 90% delle persone, andare al di là dell’orologio sportivo che misura passi e calorie è semplicemente troppo.

A suscitare interesse – e inquietudine – è oggi l’adozione del traking da parte delle aziende. Queste ultime stanno iniziando a far indossare ai propri addetti device in grado di raccogliere dati riguardo ad azioni, interazioni con il contesto, conversazioni con i colleghi. Come Carr osserva, questa concentrazione sulla misurazione della performance ricorda molto da vicino l’approccio dello scientific management di Taylor, riletto tuttavia alla luce della knowledge economy. La prospettiva della raccolta di dati – e la conseguente tensione verso un’ottimizzazione del lavoro – si sposta dalle concrete azioni un tempo svolte in fabbrica alle astratte occupazioni oggi agite dai lavoratori della conoscenza.

[ illustrazione: dettaglio da Power House Mechanic di Lewis Hine, 1920 ]

Standard
ARTE, BIGDATA, INDUSTRIA, TECNOLOGIA, VIDEOGIOCHI

Il valore “mistico” dei big data

I Big Data stanno entrando in moltissimi aspetti della nostra vita. Anche nei videogiochi, nota un articolo della rivista KillScreen, e non con esiti esaltanti. L’output delle nuove applicazioni come Fuseboxx, che monitora e analizza l’esperienza di chi gioca per poter poi offrire nuovi prodotti conformati su quanto raccolto, rischia di assomigliare agli esiti di un bizzarro esperimento condotto a partire dal 1993 da due artisti di nome Vitaly Komar e Alexander Melamid. Questi ultimi condussero in diverse nazioni una ricerca volta a identificare l’opera d’arte visiva “più desiderata”, elaborando un numero molto alto di fattori di preferenza espressi da cittadini. Si cominciò dagli USA, dove l’output – poi realizzato tramite un elaborazione digitale – risultò quanto meno “pittoresco”:

«Most people polled thought that blue was the color they would like to see most in a painting so the painting is mostly blue. Most people wanted natural outdoor scenes featuring bodies of water, so that’s the landscape. Most people wanted to see animals, people and historical figures, so there is a few people, some deer, and George Washington. It’s a terrible painting and a great joke».

Il raffronto tra videogiochi e arte visiva serve a tenere a mente, casomai ce ne fosse bisogno, due certezze relative alla realizzazione di qualsiasi prodotto culturale: il pubblico è sovrano, ma meglio non fidarsi troppo dei suoi gusti (ne parlava già Karel Teige nel 1936 ne Il Mercato dell’arte); l’opera di inventiva e creatività di un progettista (meglio questo termine del troppo connotato “artista”) non è sostituibile da alcun computer o algoritmo, per quanto preciso esso possa essere.

A queste considerazioni la rivista affianca un’osservazione dello studioso di videogiochi italiano Matteo Bittanti:

«The problem, he said, is the almost mystical value we attribute to big data, the illusion that science provides all the answers. He compares it to our ongoing obsession with neural science, brain imagery that can supposedly teach us everything there is to know about human behavior».

La fiducia nei big data è il più delle volte cieca, semplicemente perché essi ci spiegano i “cosa” ma non i “perché” di quel che accade. Il parallelismo con l’ossessione per lo studio delle neuroscienze è molto calzante: il sapere quale area del cervello si attiva quando prendiamo un certo tipo di decisione ci spiega forse perché lo facciamo? Ironicamente, tutto questo ricorda la  storia di Kaspar Hauser, “freak” vissuto a inizio Ottocento e studiato con forzato zelo dalla scienza di allora, impegnata a educarlo e a comprendere i meccanismi biologici legati alla sua devianza. Che rimasero misteriosi anche a fronte dell’autopsia che permise loro di esaminare il suo cervello.

[ illustrazione: Most Wanted Painting, America, elaborazione grafica di Vitaly Komar e Alexander Melamid, 1995 ]

Standard
BIGDATA, COLLABORAZIONE, CULTURA, DIVULGAZIONE, LAVORO, SOCIETÀ, TECNOLOGIA

BuzzFeed e l’uso tayloristico dei dati

Il claim del sito web BuzzFeed descrive la sua offerta come “the hottest, most social content on the web”. È probabile che sia stato proprio questo proclama a convincere lo studioso di nuovi media Evgeny Morozov a sottoporre il popolare sito, che nell’agosto 2013 ha registrato 85 milioni di visitatori, all’analisi della sua critica lente indagatrice.

Morozov nota anzitutto come la specializzazione di BuzzFeed non sia semplicemente quella di produrre contenuti, bensì di costruirli con una ricetta che li rende istantaneamente “virali”. In questo senso, il sito lavora molto più come una startup tecnologica di Silicon Valley che come una tradizionale testata giornalistica: il rigore del contenuto è in secondo piano rispetto a “share” e “like” da ottenere tramite l’ingegnerizzazione di precisi algoritmi. A questo proposito, Morozov evidenzia il sapiente – e “tayloristico” – uso dei dati messo in atto dal sito:

«Thanks to advanced analytics and tools of Big Data, they know exactly what needs to be said—and how—to get the story shared by most people. Its approach is best described as Taylorism of the viral: Just like Frederick Taylor knew how to design the factory floor to maximize efficiency, BuzzFeed knows how to design its articles to produce most clicks and shares. The content of the article is secondary to its viral performance».

Se già tutto questo evoca una prospettiva inedita per la diffusione di notizie via web, BuzzFeed risulta un caso interessante anche rispetto ai suoi contenuti. Questi ultimi sono oggi “english only”, ma saranno presto tradotti in molte lingue, raggiungendo un obiettivo di “viralità localizzata” perfettamente coniugabile con la globalizzazione dei contenuti. Tutto ciò è possibile da una partnership con Duolingo, startup dell’apprendimento di lingue via web.

Duolingo è stata fondata da Luis von Ahn, giovane professore di matematica divenuto celebre per il suo lavoro sui “captcha”, i codici di controllo che i siti web usano per verificare che l’utente sia davvero una persona (e non un robot che diffonde “spam”). Uno degli aspetti meno noti dei “captcha” riguarda la loro evoluzione nel corso del tempo: alle stringhe di testo casuali hanno cominciato ad affiancarsi parole scansite da libri che, in questo modo, vengono digitalizzati parola per parola grazie al contributo degli utenti. Questa dinamica di utilizzo incrociato di dati e del contributo gratuito – e spesso ignaro degli utenti rappresenta un tratto tipico dell’era “big data”.

Un meccanismo simile a quello dei “capctha” guida il rapporto tra Duolingo e BuzzFeed: la prima azienda offre gratuitamente corsi di lingue a studenti cui verranno sottoposti, parola per parola, i contenuti che la seconda ha bisogno di tradurre. Sistema perfetto, che Morozov non manca di criticare rispetto alla sua dinamica globalizzata: la diffusione globale delle news “americanocentriche” di BuzzFeed finirà probabilmente per sovrastare news locali dotate di scarsa forza “virale”.

[ illustrazione: staff della rivista studentesca “Aurora” della Eastern Michigan University, 1907]

Standard
APPRENDIMENTO, BIGDATA, TECNOLOGIA

Gordon Bell e l’arte di ricordare tutto con la tecnologia

Gordon Bell è un signore americano ottantenne. Come ingegnere elettrico e imprenditore riveste, da cinquant’anni a questa parte, un ruolo centrale nello sviluppo di tecnologie informatiche. A partire dagli anni ’90, Bell è protagonista di MyLifeBits, progetto promosso da Microsoft e orientato alla completa digitalizzazione di esperienze e memorie. L’ispirazione di MyLifeBits risale a Vannevar Bush (1890-1974), scienziato americano che in un articolo del 1945 per «The Atlantic» immaginò che in futuro potesse essere realizzato uno strumento – da lui chiamato “memex” (abbreviazione di memory expansion) – in grado di immagazzinare tutta la conoscenza raccolta da un individuo.

Come testimoniato dalla centralità di computer e smartphone nella nostra quotidianità – e  in particolare dai fenomeni big data e personal tracking –  quanto immaginato da Vannevar Bush è ormai parte del presente. Per comprenderlo, le riflessioni messe in atto da Gordon Bell nel corso dei suoi esperimenti sono estremamente utili. C’è in particolare una frase di Bell, posta in chiusura a un articolo lui dedicato dal New Yorker nel 2007, che ben esprime la sua – e forse anche nostra – tensione all’accrescimento di conoscenze tramite strumenti tecnologici:

«Your aspirations go up with every new tool. You’ve got all this content there and you want to use it, but there’s always this problem of wanting more».

A queste parole ben si relaziona un’osservazione della studiosa americana Sherry Turkle (dal testo Insieme ma soli. Perché ci aspettiamo sempre più dalla tecnologia e sempre meno dagli altri2012) riferita a un incontro con lo stesso Bell:

«One senses a new dynamic: when you depend on the computer to remember the past, you focus on whatever past is kept on the computer. And you learn to favor whatever past is easiest to find».

Il “volere di più” di cui parla Bell è alimentato dalle crescenti potenzialità delle memorie artificiali, che ci obbligano tuttavia a una scelta: a chi vogliamo attribuire la responsabilità di quel che ricordiamo, alla nostra memoria o a quella della tecnologia? Posto in questi termini, il tema non è per nulla nuovo, è anzi uno dei più antichi in assoluto. Facendo un salto indietro nel tempo fino al IV secolo a.C., nel Fedro di Platone si trovano queste considerazioni sul rapporto tra memoria e scrittura:

«Essi cesseranno di esercitarsi la memoria perché fidandosi dello scritto richiameranno le cose alla mente non più dall’interno di se stessi, ma dal di fuori, attraverso segni estranei: ciò che tu hai trovato non è una ricetta per la memoria ma per richiamare alla mente. Né tu offri vera sapienza ai tuoi scolari, ma ne dai solo l’apparenza».

[ illustrazione: fotogramma tratto dal film Tron di Steven Lisberger, 1982 ]

Standard
BIGDATA, EPISTEMOLOGIA, LAVORO, TECNOLOGIA

Big data: di che diavolo si tratta?

Big data (2013) di Viktor Mayer-Schönberger e Kenneth Cukier fa chiarezza su un tema tanto chiacchierato quanto di fatto poco conosciuto. Che si voglia o meno descriverlo con la parola “rivoluzione” usata nel sottotitolo del libro, il fenomeno big data sta influenzando il nostro rapporto con la tecnologia. Sul fronte individuale, questo è testimoniato dalla grande diffusione di dispositivi e app di “personal tracking”; su quello business, dalla potenza dell’aggregazione di dati sfoderata da colossi come Google o Facebook e ora in corso di diffusione a più livelli in un insieme di imprese più ampio e diversificato.

Come Mayer-Schönberger e Cukier mettono in luce, l’efficacia predittiva dei big data rispetto a sistemi di indagine più tradizionali pare essere oggettivamente provata. Altrettanto certa pare la loro incapacità di dotare le previsioni di una motivazione. In altri termini, i big data danno risposte sul “cosa” ma non sul “perché” di quel che sta per accadere. Se confrontato con il classico paradigma causa-effetto, che guida tanto il decision-making più ponderato quanto le nostre scelte più intuitive – cioè i “blink”, come li definisce l’americano Malcolm Gladwell nel suo In un batter di ciglia – , un simile approccio risulta davvero sconvolgente.

La direzione verso cui l’uso dei big data sembra spingerci è quella in cui la certezza del poter dar ragione di un fenomeno analizzandone le evidenze e studiandone le cause viene sostituita da una piena – e spesso cieca – fiducia nelle capacità della tecnologia di prevedere quel che sta per accadere. Come Mayer-Schönberger e Cukier spesso ripetono nel loro libro, sapere “cosa” (e non “perché”) è il più delle volte sufficiente per prendere la decisione giusta al momento giusto. Ma quando la posta in gioco riguarda anche temi di innovazione, il discorso si fa diverso:

«Se Henry Ford si fosse affidato agli algoritmi di ricerca per sapere cosa voleva la gente, probabilmente avrebbe scoperto che tutti desideravano solo ‘un cavallo più veloce’ […]. In un mondo di dati dovranno essere incoraggiati gli aspetti più umani: la creatività, l’intuizione e l’ambizione intellettuale, perché la principale fonte di progresso è l’ingegno umano».

[ illustrazione: composizione grafica di autore ignoto ]

Standard