FOTOGRAFIA, INDUSTRIA, MANAGEMENT, TECNOLOGIA

Kodak e Fuji, due casi studio di fronte al cambiamento

Fra i casi business più interessanti degli ultimi anni spicca un confronto, quello fra due “big” dell’industria fotografica: Kodak e Fujifilm.

Nel 1881 l’imprenditore americano George Eastman (1854-1932) fonda a Rochester (stato di New York) la sua azienda produttrice di pellicole fotografiche e nel 1888 lancia il primo apparecchio Kodak (neologismo senza significato che suona bene in tutte le lingue), che viene venduto carico di pellicola e accompagnato dal celebre slogan “you press the button, we do the rest”. Facciamo un salto di qualche anno e spostiamoci dall’altra parte del mondo: nel 1932 nasce a Tokyo Fujifilm Photo Film Co. , inserendosi da subito nel mercato delle pellicole fotografiche per uso domestico e iniziando a produrre fotocamere dal 1948.

Kodak e Fujifilm possono essere considerate aziende competitor a livello paritario (ognuna con le proprie pellicole caratterizzanti e “best seller”) per lo meno fino al 1975. Questa data è estremamente importante per la storia della fotografia perché segna la messa a punto da parte di Kodak, nella persona dell’ingegnere Steven Sasson, della prima macchina fotografica digitale della storia. L’enorme potenziale competitivo offerto dall’invenzione non venne tuttavia capitalizzato a dovere da Kodak, che aspettò il 1991 per mettere sul mercato la gamma DCS di dorsi digitali dedicati ai fotografi professionisti, facendosi battere sul tempo da Sony con la sua Mavica del 1981.

Dagli anni ’90 a oggi, è nel segno del digitale che si è giocato il destino delle principali aziende fotografiche. Nel caso di Kodak, gli esiti sono noti: l’azienda ha dichiarato bancarotta nel corso del 2012 ed è oggi in una difficoltosa fase di rinnovamento. Il suo fallimento è stato causato dall’incapacità di inserirsi a dovere – nonostante l’invenzione del 1975 – nel mercato digitale, di cui non ha mai realmente saputo cogliere le potenzialità. Al caso Kodak si applica molto bene la parabola della “rana bollita”, resa celebre dal guru del pensiero sistemico Peter Senge nel suo La quinta disciplina (1990). L’incapacità dell’azienda di leggere i segnali deboli di un contesto business in lento ma inesorabile cambiamento, unita alla sicurezza conferitale dai successi per lunghissimo tempo ottenuti dal suo core business, ne ha segnato l’inevitabile declino.

Altrettanto interessante – in questo caso in chiave positiva – l’approccio al cambiamento agito da Fujifilm. Anzitutto, l’azienda ha saputo cavalcare l’onda del digitale grazie a una strategia distintiva che l’ha condotta a essere oggi più che competitiva nel settore delle compatte prosumer, giocando sul rapporto tra soluzioni tecnologiche innovative ed estetica retrò. Ancora più significativa è stata la scelta di Fujifilm di convertire asset e tecnologie legate alla produzione delle pellicole – attività ormai ridotta pressoché a zero – a un mercato del tutto inaspettato e lontano dal core business dell’azienda: quello della cosmetica. È così nata, a partire dal 2007, la produzione di Astalift, brand di prodotti di bellezza facente capo alla holding Fujifilm e distribuito in tutto il mondo. Questa brillante svolta aziendale, basata su una expertise in tema di collagene e antiossidanti maturata in oltre 70 anni di attività, dimostra la destrezza con cui l’azienda ha saputo evitare di finire “bollita” innovando grazie a una lungimirante riconversione delle proprie risorse.

[ illustrazione: pellicola Kodak, foto di paperplanepilot ]

Standard
ANTROPOLOGIA, APPRENDIMENTO, MUSICA, TECNOLOGIA

Per un rapporto più sano con la tecnologia

Il fatto che la nostra relazione con la tecnologia sia spesso problematica, in bilico tra i poli della frustrazione e della dipendenza, ha molto a che fare con una scarsa consapevolezza e padronanza degli strumenti che essa ci offre. Benché computer e smartphone siano una presenza costante e ormai “naturale” nella nostra vita, spesso non riusciamo a usarli per quel che sono, cioè strumenti al nostro servizio. Al contrario, nonostante la loro pervasività, essi restano presenze estranee e opache da cui finiamo paradossalmente per essere dominati.

Questa è la tesi dello studioso Alex Soojungkim Pang, che nel suo The Distraction Addiction (2013) – di prossima traduzione in italiano – propone come antidoto l’approccio del “contemplative computing”. Questo consiste nel volgersi agli strumenti tecnologici in modo che diventino un’estensione “naturale” del corpo, al fine di usarli in maniera più efficace e non restare vittima di un loro uso compulsivo e distratto.

Poiché la chiave di questo traguardo è, secondo Soojungkim Pang, un approccio consapevole e trasparente alla tecnologia, egli instaura un raffronto con la pratica di uno strumento musicale:

«A clumsy awareness of strings and valves and chord positions eventually gives way to a sense that the instrument effectively becomes a natural extension of yourself, as one jazz musician put it».

L’idea dello strumento musicale come estensione del corpo parte da uno studio approfondito dello strumento stesso, che culmina nel far sì che il suo utilizzo diventi del tutto automatico e trasparente. Quando un musicista – soprattutto un jazzista – suona una nota sul suo strumento, non ha bisogno di pensare all’azione che permette al suo corpo di farlo. Possiamo dire lo stesso del modo in cui usiamo i computer? Finché non conosceremo a fondo gli hardware e i software che utilizziamo (per esempio: quanti di noi sanno digitare al computer con due mani e senza guardare la tastiera?), difficilmente raggiungeremo il rapporto sano con la tecnologia cui tanto aspiriamo.

[ illustrazione: fotogramma da 2001. Odissea nello spazio di Stanley Kubrick, 1968 ]

Standard
BIGDATA, EPISTEMOLOGIA, LAVORO, TECNOLOGIA

Big data: di che diavolo si tratta?

Big data (2013) di Viktor Mayer-Schönberger e Kenneth Cukier fa chiarezza su un tema tanto chiacchierato quanto di fatto poco conosciuto. Che si voglia o meno descriverlo con la parola “rivoluzione” usata nel sottotitolo del libro, il fenomeno big data sta influenzando il nostro rapporto con la tecnologia. Sul fronte individuale, questo è testimoniato dalla grande diffusione di dispositivi e app di “personal tracking”; su quello business, dalla potenza dell’aggregazione di dati sfoderata da colossi come Google o Facebook e ora in corso di diffusione a più livelli in un insieme di imprese più ampio e diversificato.

Come Mayer-Schönberger e Cukier mettono in luce, l’efficacia predittiva dei big data rispetto a sistemi di indagine più tradizionali pare essere oggettivamente provata. Altrettanto certa pare la loro incapacità di dotare le previsioni di una motivazione. In altri termini, i big data danno risposte sul “cosa” ma non sul “perché” di quel che sta per accadere. Se confrontato con il classico paradigma causa-effetto, che guida tanto il decision-making più ponderato quanto le nostre scelte più intuitive – cioè i “blink”, come li definisce l’americano Malcolm Gladwell nel suo In un batter di ciglia – , un simile approccio risulta davvero sconvolgente.

La direzione verso cui l’uso dei big data sembra spingerci è quella in cui la certezza del poter dar ragione di un fenomeno analizzandone le evidenze e studiandone le cause viene sostituita da una piena – e spesso cieca – fiducia nelle capacità della tecnologia di prevedere quel che sta per accadere. Come Mayer-Schönberger e Cukier spesso ripetono nel loro libro, sapere “cosa” (e non “perché”) è il più delle volte sufficiente per prendere la decisione giusta al momento giusto. Ma quando la posta in gioco riguarda anche temi di innovazione, il discorso si fa diverso:

«Se Henry Ford si fosse affidato agli algoritmi di ricerca per sapere cosa voleva la gente, probabilmente avrebbe scoperto che tutti desideravano solo ‘un cavallo più veloce’ […]. In un mondo di dati dovranno essere incoraggiati gli aspetti più umani: la creatività, l’intuizione e l’ambizione intellettuale, perché la principale fonte di progresso è l’ingegno umano».

[ illustrazione: composizione grafica di autore ignoto ]

Standard
LAVORO, TECNOLOGIA

Siamo proprio sicuri che il multitasking funzioni?

Praticate il multitasking? Forse può interessarvi il punto di vista con cui lo analizza la studiosa americana Sherry Turkle nel suo eccellente Insieme ma soli. Perché ci aspettiamo sempre più dalla tecnologia e sempre meno dagli altri (2012), uno dei migliori testi sul nostro rapporto con computer e affini.

Anche se moltissime persone sono convinte del contrario, gli psicologi cognitivi ci insegnano da tempo che il multitasking, molto semplicemente, non funziona. Su questo tema, uno dei migliori contributi è contenuto in Pensieri lenti e veloci del premio Nobel Daniel Kahneman. Pur allineandosi alle  tesi di Kahneman e altri studiosi, Turkle nota qualcosa di tanto evidente quanto, per certi versi, antiaccademico: anche se non funziona, il multitasking riscuote comunque molto successo, soprattutto nelle frenetiche pratiche d’ufficio quotidiane. Qual è il motivo di questo successo?  Secondo Turkle, le cose stanno così:

«Multitasking feels good because the body rewards it with neurochemicals that induce a multitasking “high.” The high deceives multitaskers into thinking they are being especially productive. In search of the high, they want to do even more. In the years ahead, there will be a lot to sort out. We fell in love with what technology made easy. Our bodies colluded».

I computer fanno molte cose insieme, apparentemente con facilità: perché noi non dovremmo? Il fenomeno del multitasking mostra quanto la frequentazione quotidiana di strumenti informatici possa distorcere la nostra percezione e portarci a sopravvalutare le capacità cognitive di cui disponiamo. L’aspetto più interessante – e insieme paradossale – messo in luce da Turkle è che l’estensione della metafora informatica alle capacità umane, fenomeno del tutto intellettuale, ha finito per generare un illusorio “star bene” del tutto fisico.

[ illustrazione: Wesley Adams ]

Standard
APPRENDIMENTO, TECNOLOGIA

Del prendere appunti, dagli amanuensi a oggi

Dalla nascita della scrittura a oggi, prendere appunti continua a confermarsi la pratica di costruzione e preservazione di conoscenze più capace di relazionare mano, occhio e mente. La più estesa formalizzazione dell’arte del prendere appunti risale al 1700, tramite la pratica del “commonplace book” diffusasi in territorio inglese. Charles Darwin, i filosofi Francis Bacon, John Milton e, soprattutto, John Locke – che nel 1706 pubblicò il testo A New Method of Making a Common Place Book – erano soliti compilare un taccuino in cui alle note di studio si mescolavano osservazioni tratte dalla vita quotidiana.

L’utilità del commonplace book era rafforzata dall’abitudine quotidiana alla scrittura, ma non soggetta a regole troppo vincolanti. Per esempio, leggere più testi in parallelo e in maniera apparentemente frammentaria era considerato tutt’altro che controproducente, il che mette in luce la non-linearità di pensiero praticata da questi intellettuali. Lo storico americano Robert Darnton in Il futuro del libro (2000) nota quanto segue:

«Unlike modern readers, who follow the flow of a narrative from beginning to end, early modern Englishmen read in fits and starts and jumped from book to book. They broke texts into fragments and assembled them into new patterns by transcribing them in different sections of their notebooks. Then they reread the copies and rearranged the patterns while adding more excerpts. Reading and writing were therefore inseparable activities».

La consustanzialità tra lettura e scrittura praticata dagli intellettuali inglesi del Settecento ricorda da vicino il “rimasticare testi” dei monaci benedettini del XII secolo descritta dal filosofo Ivan Illich in Nella vigna del testo (1994). In tempi precedenti alla nascita della stampa, la lettura ad alta voce dei monaci permetteva di far proprio un testo per poi copiarlo per iscritto impartendogli leggere modificazioni di forma e sostanza.

Pensando all’impatto sulla cultura dell’invenzione di Gutenberg, che da molti punti di vista ha standardizzato la conoscenza tramite la sua fissazione in una forma scritta “definitiva”, la pratica del prendere appunti, che prima dei commonplace book inglese troviamo nello Zibaldone italiano del XV secolo e che oggi mutatis mutandis sopravvive tanto nei taccuini  Moleskine quanto in software come Evernote, porta con sé un piacevole senso di eversione legato all’opportunità di continuare a potersi riappropriare di qualsiasi contenuto in modi del tutto personali.

[ illustrazione: Harvey Cushing, Harvard Medical School – 1891 ]

Standard