BIGDATA, LAVORO, TECNOLOGIA

Usi e abusi del personal tracking

Il movimento del “quantified self”, fondato nel 2007 dai guru di «Wired» Gary Wolf e Kevin Kelly, lavora sulle opportunità conoscitive offerte dalla raccolta di dati personali. Secondo le parole dello stesso Wolf, i personal traker praticano in modo del tutto nuovo l’antica massima greca del “conosci te stesso”:

«Instead of interrogating their inner worlds through talking and writing, they are using numbers. They are constructing a quantified self».

Secondo un articolo dello studioso di tecnologie Nicholas Carr, il personal tracking a 360°, cioè applicato alle più svariate attività della vita quotidiana (dai ritmi di sonno e veglia ai regimi dietetici), sarebbe in realtà un fenomeno molto limitato e appannaggio di un ristretto numero di fanatici del dato. Per il restante 90% delle persone, andare al di là dell’orologio sportivo che misura passi e calorie è semplicemente troppo.

A suscitare interesse – e inquietudine – è oggi l’adozione del traking da parte delle aziende. Queste ultime stanno iniziando a far indossare ai propri addetti device in grado di raccogliere dati riguardo ad azioni, interazioni con il contesto, conversazioni con i colleghi. Come Carr osserva, questa concentrazione sulla misurazione della performance ricorda molto da vicino l’approccio dello scientific management di Taylor, riletto tuttavia alla luce della knowledge economy. La prospettiva della raccolta di dati – e la conseguente tensione verso un’ottimizzazione del lavoro – si sposta dalle concrete azioni un tempo svolte in fabbrica alle astratte occupazioni oggi agite dai lavoratori della conoscenza.

[ illustrazione: dettaglio da Power House Mechanic di Lewis Hine, 1920 ]

Standard
APPRENDIMENTO, CULTURA, TECNOLOGIA

“Nativi digitali”: ma siamo sicuri?

I mass media ci raccontano che i “nativi digitali” (la cui identificazione solitamente coincide con le generazioni Y e Z) hanno una naturale disposizione all’uso del computer. Se il fatto che siano venuti al mondo contestualmente alla diffusione di massa del personal computer è indubitabile, molto più discutibili sono i motivi per cui i “nativi digitali” dovrebbero essere in grado di usare questi strumenti con particolare maestria. A ben vedere, tutto sembra mostrare il contrario. Citando un articolo del “disinformatico” Paolo Attivissimo:

«Una recente indagine dell’Università di Milano-Bicocca sull’uso dei nuovi media tra gli studenti delle scuole superiori lombarde indica che due su tre non sanno come funziona Wikipedia, non sanno riconoscere una pagina di login fasulla guardandone l’URL (e non chiamatelo URL, se non volete che vi guardino basiti) e non hanno idea di come si reggano in piedi economicamente i siti commerciali più popolari».

Queste generazioni sono “nate con il computer” ed è proprio per questo motivo, per quanto controintuitivo possa sembrare, che ne hanno così poca padronanza tecnica. Non è una colpa ma un fatto piuttosto logico, riscontrabile anche su altre tecnologie in raffronto a diverse generazioni. Per fare una verifica basterebbe provare a chiedere a un individuo della generazione X se sa come funzionano l’interruttore che dà luce alla sua stanza e il motore della propria automobile. In media la risposta sarebbe negativa, anche se si tratta di strumenti di uso altrettanto quotidiano.

Il tema in gioco è quello della pervasività, immediatezza – e dunque trasparenza – di una tecnologia. La familiarità e quotidianità di uno strumento coincide con il suo essere dato per scontato e diventare “invisibile”. Questo significa, almeno in teoria, che molto più tempo e impegno possono essere dedicati a questioni di contenuto e non di metodo. Il lato negativo della questione riguarda la consapevolezza e padronanza con cui ci volgiamo a questi  strumenti e chiama in causa la relazione tra tecnica e libertà: dipendiamo quotidianamente dall’uso di strumenti che diventano sempre più indispensabili e, al tempo stesso, sempre meno comprensibili e controllabili.

[ illustrazione: il Commodore 64, il personal computer più venduto di sempre ]

Standard
ARTE, BIGDATA, INDUSTRIA, TECNOLOGIA, VIDEOGIOCHI

Il valore “mistico” dei big data

I Big Data stanno entrando in moltissimi aspetti della nostra vita. Anche nei videogiochi, nota un articolo della rivista KillScreen, e non con esiti esaltanti. L’output delle nuove applicazioni come Fuseboxx, che monitora e analizza l’esperienza di chi gioca per poter poi offrire nuovi prodotti conformati su quanto raccolto, rischia di assomigliare agli esiti di un bizzarro esperimento condotto a partire dal 1993 da due artisti di nome Vitaly Komar e Alexander Melamid. Questi ultimi condussero in diverse nazioni una ricerca volta a identificare l’opera d’arte visiva “più desiderata”, elaborando un numero molto alto di fattori di preferenza espressi da cittadini. Si cominciò dagli USA, dove l’output – poi realizzato tramite un elaborazione digitale – risultò quanto meno “pittoresco”:

«Most people polled thought that blue was the color they would like to see most in a painting so the painting is mostly blue. Most people wanted natural outdoor scenes featuring bodies of water, so that’s the landscape. Most people wanted to see animals, people and historical figures, so there is a few people, some deer, and George Washington. It’s a terrible painting and a great joke».

Il raffronto tra videogiochi e arte visiva serve a tenere a mente, casomai ce ne fosse bisogno, due certezze relative alla realizzazione di qualsiasi prodotto culturale: il pubblico è sovrano, ma meglio non fidarsi troppo dei suoi gusti (ne parlava già Karel Teige nel 1936 ne Il Mercato dell’arte); l’opera di inventiva e creatività di un progettista (meglio questo termine del troppo connotato “artista”) non è sostituibile da alcun computer o algoritmo, per quanto preciso esso possa essere.

A queste considerazioni la rivista affianca un’osservazione dello studioso di videogiochi italiano Matteo Bittanti:

«The problem, he said, is the almost mystical value we attribute to big data, the illusion that science provides all the answers. He compares it to our ongoing obsession with neural science, brain imagery that can supposedly teach us everything there is to know about human behavior».

La fiducia nei big data è il più delle volte cieca, semplicemente perché essi ci spiegano i “cosa” ma non i “perché” di quel che accade. Il parallelismo con l’ossessione per lo studio delle neuroscienze è molto calzante: il sapere quale area del cervello si attiva quando prendiamo un certo tipo di decisione ci spiega forse perché lo facciamo? Ironicamente, tutto questo ricorda la  storia di Kaspar Hauser, “freak” vissuto a inizio Ottocento e studiato con forzato zelo dalla scienza di allora, impegnata a educarlo e a comprendere i meccanismi biologici legati alla sua devianza. Che rimasero misteriosi anche a fronte dell’autopsia che permise loro di esaminare il suo cervello.

[ illustrazione: Most Wanted Painting, America, elaborazione grafica di Vitaly Komar e Alexander Melamid, 1995 ]

Standard
BIGDATA, COLLABORAZIONE, CULTURA, DIVULGAZIONE, LAVORO, SOCIETÀ, TECNOLOGIA

BuzzFeed e l’uso tayloristico dei dati

Il claim del sito web BuzzFeed descrive la sua offerta come “the hottest, most social content on the web”. È probabile che sia stato proprio questo proclama a convincere lo studioso di nuovi media Evgeny Morozov a sottoporre il popolare sito, che nell’agosto 2013 ha registrato 85 milioni di visitatori, all’analisi della sua critica lente indagatrice.

Morozov nota anzitutto come la specializzazione di BuzzFeed non sia semplicemente quella di produrre contenuti, bensì di costruirli con una ricetta che li rende istantaneamente “virali”. In questo senso, il sito lavora molto più come una startup tecnologica di Silicon Valley che come una tradizionale testata giornalistica: il rigore del contenuto è in secondo piano rispetto a “share” e “like” da ottenere tramite l’ingegnerizzazione di precisi algoritmi. A questo proposito, Morozov evidenzia il sapiente – e “tayloristico” – uso dei dati messo in atto dal sito:

«Thanks to advanced analytics and tools of Big Data, they know exactly what needs to be said—and how—to get the story shared by most people. Its approach is best described as Taylorism of the viral: Just like Frederick Taylor knew how to design the factory floor to maximize efficiency, BuzzFeed knows how to design its articles to produce most clicks and shares. The content of the article is secondary to its viral performance».

Se già tutto questo evoca una prospettiva inedita per la diffusione di notizie via web, BuzzFeed risulta un caso interessante anche rispetto ai suoi contenuti. Questi ultimi sono oggi “english only”, ma saranno presto tradotti in molte lingue, raggiungendo un obiettivo di “viralità localizzata” perfettamente coniugabile con la globalizzazione dei contenuti. Tutto ciò è possibile da una partnership con Duolingo, startup dell’apprendimento di lingue via web.

Duolingo è stata fondata da Luis von Ahn, giovane professore di matematica divenuto celebre per il suo lavoro sui “captcha”, i codici di controllo che i siti web usano per verificare che l’utente sia davvero una persona (e non un robot che diffonde “spam”). Uno degli aspetti meno noti dei “captcha” riguarda la loro evoluzione nel corso del tempo: alle stringhe di testo casuali hanno cominciato ad affiancarsi parole scansite da libri che, in questo modo, vengono digitalizzati parola per parola grazie al contributo degli utenti. Questa dinamica di utilizzo incrociato di dati e del contributo gratuito – e spesso ignaro degli utenti rappresenta un tratto tipico dell’era “big data”.

Un meccanismo simile a quello dei “capctha” guida il rapporto tra Duolingo e BuzzFeed: la prima azienda offre gratuitamente corsi di lingue a studenti cui verranno sottoposti, parola per parola, i contenuti che la seconda ha bisogno di tradurre. Sistema perfetto, che Morozov non manca di criticare rispetto alla sua dinamica globalizzata: la diffusione globale delle news “americanocentriche” di BuzzFeed finirà probabilmente per sovrastare news locali dotate di scarsa forza “virale”.

[ illustrazione: staff della rivista studentesca “Aurora” della Eastern Michigan University, 1907]

Standard
APPRENDIMENTO, DIVULGAZIONE, TECNOLOGIA

Il destino di Wikipedia (e del sapere on-line?)

Wikipedia, la cui fondazione risale al 2001, ha a lungo rappresentato la più contemporanea incarnazione del progetto enciclopedico illuminista, riletto alla luce dell’aura di democratizzazione conoscitiva che internet ha portato con sé. Pensata come progetto aperto e su base volontaristica, Wikipedia ha raggiunto il suo picco di popolarità nel 2005, anno in cui la sola versione inglese del sito contava 750.000 voci. Lo sviluppo è nel corso degli anni continuato: gli articoli in inglese sono oggi più di 4 milioni, quelli italiani un milione circa.

I contributori sono l’anima di Wikipedia e dunque il fatto che dal 2007 a oggi si sia registrata una loro diminuzione di circa un terzo suona particolarmente strano. A cosa è dovuto questo calo? Per quanto possa sembrare paradossale per uno strumento digitale aperto, immediato e veloce (del resto in hawaiano “wiki” significa “rapido”), la causa del continuo esodo di contributori è l’estrema burocratizzazione del sistema di gestione dei contenuti del sito.

Il rifiuto di un approccio specialistico e la scelta di non dotarsi di una struttura gerarchica di tipo tradizionale hanno fin dall’inizio costretto i fondatori di Wikipedia a sviluppare un sistema di linee guida e strumenti di controllo estremamente complesso. Come conseguenza di queste scelte, inserire nuovi contenuti in Wikipedia è diventato tanto lento quanto faticoso; d’altro canto, vederseli cancellare da un anonimo “bot” perché non idonei risulta estremamente rapido (e frustrante).

Il calo del numero di contributori non sta a ogni modo avendo un impatto diretto sulla fruizione dello strumento. Nel corso degli anni Wikipedia ha sbaragliato la concorrenza e può oggi far conto su una stretta rete di partner software e hardware che fa sì che la maggior parte delle nostre ricerche via computer e smartphone finisca per essere indirizzata proprio a Wikipedia. Anche sul fronte economico il bilancio è molto positivo: Wikimedia Foundation è arrivata a raccogliere nell’ultimo anno ben 45 milioni di dollari per supportare l’attività del sito. A fronte di questi elementi di sicurezza, Wikipedia di sicuro continuerà a sopravvivere. Le perplessità riguardo la reale apertura dello strumento e la bontà dei suoi contenuti sono tuttavia molte. Come sintetizza un articolo del MIT Technology Review:

«Wikipedia’s community built a system and resource unique in the history of civilization. It proved a worthy, perhaps fatal, match for conventional ways of building encyclopedias. But that community also constructed barriers that deter the newcomers needed to finish the job. Perhaps it was too much to expect that a crowd of Internet strangers would truly democratize knowledge. Today’s Wikipedia, even with its middling quality and poor representation of the world’s diversity, could be the best encyclopedia we will get».

[ illustrazione: particolare di una tavola astronomica tratta dalla Cyclopaedia di Ephraim Chambers, 1728 ]

Standard
ANTROPOLOGIA, CONCETTI, CULTURA, TECNOLOGIA

Intellettuali e “teste d’uovo” in America, dal 1900 a oggi

In Inventing the Egghead: The Battle over Brainpower in American Culture (2013), lo storico Aaron Lecklider ricostruisce la curiosa evoluzione del termine “egghead” all’interno del contesto culturale americano. Questa espressione, che letteralmente significa “testa d’uovo”, inizia a essere usata a partire dagli anni ’50 per stigmatizzare – e sostanzialmente deridere – un’attitudine intellettuale estremamente tecnica e scientifica che oggi definiremmo da “nerd”.

Il racconto di Lecklider prende le mosse dall’inizio del Novecento, quando in America essere intellettuali non era affatto considerato “nerd”. Un buon esempio della considerazione popolare e democratizzata di cui in quegli anni godeva la cura dell’intelletto è rappresentato dal circolo Chautauqua, una sorta di equivalente ante litteram degli odierni TED Talks. Una visione “dispregiativa” dell’intellettuale tuttavia esisteva anche allora e faceva riferimento all’uso del termine “long-hair”, che può forse tradursi, senza cogliere particolarmente nel segno, con “capellone”. Questo tipo di intellettuale era criticato per un certo narcisismo e un’attitudine alla cultura di stampo prettamente umanistico, dunque lontana dal pragmatismo dell’uomo comune. Quando si arriva agli anni ’50 e al termine “egghead”, una significativa inversione di rotta viene compiuta, perché l’approccio intellettuale preso di mira diviene, come detto, quello scientifico.

Come mette bene in luce un articolo della rivista «The Point» a firma di Evan Kindley , questo passaggio è fondamentale per capire la reale portata critica espressa dai sostantivi “long-hair” e “egghead”. Se è vero che in entrambi i casi stigmatizzazione e derisione nascono da una mancata comprensione da parte degli “incolti”, la critica agli umanisti ha luogo proprio nel momento in cui questi passano loro malgrado agli scienziati il testimone di una corsa particolarmente importante, quella che guida lo sviluppo del sapere – e dell’economia – occidentale. In mezzo ci sono stati l’emergere e l’affermarsi dello Scientific Management ideato da Frederick Taylor e il ruolo centrale rivestito dal sapere scientifico tanto nell’uscire dalla Grande Depressione del 1919 quanto nel determinare le sorti della Seconda Guerra Mondiale. Quando la massa inizia a deridere gli “egghead”, lo fa dunque con una più o meno esplicita consapevolezza del loro strapotere nel determinare le sorti del progresso (a questo proposito, utile anche ricordare che il celebre Le due culture di C.P. Snow è del 1959).

Tutto ciò ci conduce all’oggi e a leggere prospetticamente un percorso che allinea i termini “long-hair” e “egghead” con il più neutro e contemporaneo “geek”. Secondo Kindley infatti:

«If the paradigmatic intellectual of the 20s was the artist and of the 50s the scientist, today it’s the tech CEO (it seems worth noting that, in our own time, there has been little to no populist resentment of Silicon Valley or the tech industry)».

[ illustrazione: Bill Gates in una foto del 1985 ]

Standard
COMUNICAZIONE, POLITICA, SOCIETÀ, TECNOLOGIA

La critica di Evgeny Morozov al cyber-ottimismo

Nel suo testo L’ingenuità della rete. Il lato oscuro della libertà di internet (2011) l’esperto di nuovi media Evgeny Morozov indaga i molteplici aspetti critici dell’apparente democratizzazione di strumenti e contenuti prodotta dalle nuove tecnologie. Opponendosi alle opinioni di quanti bolla come “cyber-utopisti”, Morozov rilegge criticamente alcuni momenti della recente storia politica mondiale – dal crollo del muro di Berlino alle proteste post elettorali in Iran del 2009 – mostrando come il tanto acclamato ruolo rivestito in questi eventi dalle tecnologie (da Radio Free Europe a Twitter) sia stato molto più marginale di quanto una certa propaganda occidentale abbia voluto farci credere.

Rispetto al ruolo di internet, strumento apparentemente in grado di offrire a chiunque libertà di parola e informazione, Morozov svela la facilità con cui i regimi autoritari, in maniera molto più tecnologicamente efficace di quanto si potrebbe pensare, riescono a controllare i flussi telematici delle rispettive nazioni. In particolare, i meccanismi di profilazione personale della cosiddetta internet 2.0 risultano perfetti a questo scopo.

Ma quel che forse più colpisce delle analisi di Morozov è quanto egli osserva sull’atteggiamento di chi utilizza internet, con particolare riferimento al bilanciamento tra divertimento e noia e ai suoi influssi sull’impegno sociale e politico:

«I nuovi media e internet sono eccellenti nell’eliminare la noia. Prima la noia era uno dei modi più efficaci per politicizzare un popolo a cui erano state negate valvole di sfogo per incanalare lo scontento, ma oggi non è più così. In un certo senso, internet ha reso molto simili le esperienze di intrattenimento di coloro che vivono in uno stato autoritario e di coloro che vivono in una democrazia. I cechi di oggi guardano gli stessi film hollywoodiani dei bielorussi di oggi, molti probabilmente li scaricano dagli stessi server gestiti illegalmente in Serbia o Ucraina. L’unica differenza è che i cechi hanno già avuto una rivoluzione democratica, il cui risultato, fortunatamente per loro, è diventato irreversibile quando la Repubblica Ceca è entrata nell’Unione Europea. I bielorussi non sono stati altrettanto fortunati; e la prospettiva di una rivoluzione democratica nell’era di YouTube appare molto sinistra».

[ illustrazione: fotogramma dal film Nineteen-Eighty-Four di Michael Radford, 1984)

Standard
APPRENDIMENTO, BIGDATA, TECNOLOGIA

Gordon Bell e l’arte di ricordare tutto con la tecnologia

Gordon Bell è un signore americano ottantenne. Come ingegnere elettrico e imprenditore riveste, da cinquant’anni a questa parte, un ruolo centrale nello sviluppo di tecnologie informatiche. A partire dagli anni ’90, Bell è protagonista di MyLifeBits, progetto promosso da Microsoft e orientato alla completa digitalizzazione di esperienze e memorie. L’ispirazione di MyLifeBits risale a Vannevar Bush (1890-1974), scienziato americano che in un articolo del 1945 per «The Atlantic» immaginò che in futuro potesse essere realizzato uno strumento – da lui chiamato “memex” (abbreviazione di memory expansion) – in grado di immagazzinare tutta la conoscenza raccolta da un individuo.

Come testimoniato dalla centralità di computer e smartphone nella nostra quotidianità – e  in particolare dai fenomeni big data e personal tracking –  quanto immaginato da Vannevar Bush è ormai parte del presente. Per comprenderlo, le riflessioni messe in atto da Gordon Bell nel corso dei suoi esperimenti sono estremamente utili. C’è in particolare una frase di Bell, posta in chiusura a un articolo lui dedicato dal New Yorker nel 2007, che ben esprime la sua – e forse anche nostra – tensione all’accrescimento di conoscenze tramite strumenti tecnologici:

«Your aspirations go up with every new tool. You’ve got all this content there and you want to use it, but there’s always this problem of wanting more».

A queste parole ben si relaziona un’osservazione della studiosa americana Sherry Turkle (dal testo Insieme ma soli. Perché ci aspettiamo sempre più dalla tecnologia e sempre meno dagli altri2012) riferita a un incontro con lo stesso Bell:

«One senses a new dynamic: when you depend on the computer to remember the past, you focus on whatever past is kept on the computer. And you learn to favor whatever past is easiest to find».

Il “volere di più” di cui parla Bell è alimentato dalle crescenti potenzialità delle memorie artificiali, che ci obbligano tuttavia a una scelta: a chi vogliamo attribuire la responsabilità di quel che ricordiamo, alla nostra memoria o a quella della tecnologia? Posto in questi termini, il tema non è per nulla nuovo, è anzi uno dei più antichi in assoluto. Facendo un salto indietro nel tempo fino al IV secolo a.C., nel Fedro di Platone si trovano queste considerazioni sul rapporto tra memoria e scrittura:

«Essi cesseranno di esercitarsi la memoria perché fidandosi dello scritto richiameranno le cose alla mente non più dall’interno di se stessi, ma dal di fuori, attraverso segni estranei: ciò che tu hai trovato non è una ricetta per la memoria ma per richiamare alla mente. Né tu offri vera sapienza ai tuoi scolari, ma ne dai solo l’apparenza».

[ illustrazione: fotogramma tratto dal film Tron di Steven Lisberger, 1982 ]

Standard
COMPLESSITÀ, PERCEZIONE, TECNOLOGIA, UFFICI

Semafori, termostati, bancomat. Ovvero: gli effetti placebo intorno a noi

Un articolo del blog di David McRaney, specialista di tranelli cognitivi e autore di You Are Not So Smart (2012) e You Are Now Less Dumb (2013), riflette sul cosiddetto “effetto placebo” osservandolo da un particolare punto di vista.

Fra le esperienze comuni ai pedoni di tutto il mondo rientra quella dei pulsanti che permettono, quando si aspetta che il semaforo diventi verde, di rendere l’attesa meno lunga. Ogni qual volta premiamo con fiducia uno di questi bottoni, stiamo facendo – almeno secondo McrRaney – una cosa probabilmente inutile. In quasi tutto il mondo i semafori stradali sono infatti gestiti da sistemi computerizzati e nella maggior parte dei casi i pulsanti per “chiamare il verde” si trovano ancora al loro posto – ormai inattivi – semplicemente per via degli alti costi legati alla loro disintallazione.

Sempre secondo McRaney, l’effetto generato da questi bottoni sarebbe quello di rassicurarci e farci sentire padroni della situazione, arrivando a credere in relazioni causa-effetto che sono in realtà inesistenti:

«Your brain doesn’t like randomness, and so it tries to connect a cause to every effect; when it can’t, you make one up».

Forse ancor più interessante è il caso di pulsanti il cui effetto placebo non è casuale ma deliberatamente indotto. Fra questi rientrerebbero i falsi termostati presenti in molti uffici americani. Come è noto, la percezione del calore ambientale è estremamente soggettiva e in un ufficio mediamente numeroso è molto probabile che la temperatura venga alzata e abbassata più volte nell’arco della giornata. I cambiamenti frequenti, oltre a essere fonte di possibili discordie, comportano per le aziende un significativo costo di gestione. Da qui sarebbe nata l’idea di falsi termostati – in certi casi accompagnati da suoni operativi altrettanto fasulli – capaci di accontentare le esigenze di ognuno senza in realtà modificare mai la temperatura ambientale. In tema di effetti placebo indotti, simile è il caso dei rumori prodotti dai distributori di denaro bancomat (ATM nel resto del mondo). Più fonti sostengono che anche questi suoni sarebbero studiati ad arte e finalizzati a rassicurare l’utente del fatto che il suo denaro è “in arrivo”.

La veridicità di questi esempi – o quantomeno la loro applicazione su larga scala e al di fuori dagli USA, contesto cui McRaney fa riferimento – resta tutta da verificare. Indubbia è la loro capacità di farci riflettere su quanto la presenza o assenza di un risposta positiva a un’azione sia in grado di influenzare la nostra soddisfazione. In secondo luogo, questi esempi mettono bene in luce quanto la mediazione di una “macchina” (categoria che include tanto semafori quanto termostati e bancomat) rispetto a un processo di feedback renda quest’ultimo ambiguo, opaco e altamente manipolabile.

[ illustrazione: foto di Berni Andrew ]

Standard
ARCHITETTURA, LAVORO, TECNOLOGIA, UFFICI

Alle origini dell’open space: il Larkin Building

Il Larkin Administrative Building venne edificato nel 1906 a Buffalo (stato di New York) su progetto di Frank Lloyd Wright (1867-1959). L’edificio – dalla struttura introversa a cinque piani – nacque di fianco alla fabbrica di saponi fondata da John Larkin (1845-1926) per assumerne il ruolo di quartier generale amministrativo, con una particolare focalizzazione sui sistemi di mail-order rispetto ai quali l’azienda rivestì un ruolo pionieristico.

Si trattò di un edificio per molti versi rivoluzionario, completamente a prova di incendio e dotato di un tecnologico impianto di aria condizionata. L’innovazione dell’edificio riguardò anche il suo dichiarato valore simbolico rispetto all’etica del lavoro. Sui parapetti delle sue gallerie erano incisi trittici di parole quali: “generosity altruism sacrifice; integrity loyalty fidelity; imagination judgement initiative; intelligence enthusiasm control; co-operation economy industry”.

L’aspetto più interessante del Larkin Administrative Building, nonché dell’organizzazione del lavoro da esso ospitata, fu l’eliminazione del concetto di stanza privata in favore di un’ottica di “open space” decisamente all’avanguardia. La valenza del progetto messo in atto da Wright fu, ancor prima che architettonica, ideologica. Come nota in proposito Imma Forino nel suo eccellente testo Uffici. Interni arredi oggetti (2011):

«La stanza non ha più senso: cristallizzerebbe le persone in assetti senza via d’uscita, limiterebbe l’autentico scambio, visualizzerebbe con evidenza i rapporti di subordinazione. Se libero, lo sguardo deve invece poter riandare al cielo, sotto la cui comune ala ogni impiegato può sentirsi a proprio agio con il datore di lavoro».

Durante gli anni ’40 l’azienda Larkin subì una progressiva decadenza che portò anche, nel 1950, alla demolizione del proprio edificio amministrativo.

[ illustrazione: esterno e interni del Larkin Administrative Building nel 1906 ]

Standard