APPRENDIMENTO, CAMBIAMENTO, IRONIA, LAVORO, SCUOLA, TECNOLOGIA

Apprendimento a distanza: ecco perché non è proprio una novità

Da qualche tempo si parla moltissimo di MOOC, Massive Open Online Courses, cioè corsi para-universitari on-line cui chiunque può accedere gratuitamente. Le più note istituzioni a offrirli sono le americane Khan Academy e Coursera, la seconda delle quali ospita anche alcuni corsi sperimentali delle università italiane Sapienza e Bocconi.

I MOOC sono una delle più aggiornate declinazioni dell’apprendimento via web (o, per usare un altro acronimo, della FAD, Formazione A Distanza). Il giornalista americano Thomas Friedman ha descritto i MOOC come una “rivoluzione nell’educazione universitaria”, mentre il guru della disruptive innovation Clayton Christensen è giunto a predire che causeranno l’imminente bancarotta delle università tradizionali. Che l’istruzione universitaria si trovi in uno stato di inadeguatezza tale da motivare una sua ristrutturazione è fuor di dubbio. Pensare che sia possibile attuarla abbandonando le aule e affidandosi al solo apprendimento a distanza è non solo demagogico e velleitario ma, molto più semplicemente, sbagliato. Un simile discorso vale, mutatis mutandis, per la formazione post-universitaria e lavorativa.

Per riflettere sull’insostituibilità dell’imparare in presenza – di cui è da sempre alleato quel fantastico strumento di “apprendimento a distanza” che si chiama libro – è utile confrontarsi con un articolo dello studioso di tecnologie Nicholas Carr. Dall’ironico testo emerge come l’idea di una rivoluzione educativa legata agli strumenti della formazione a distanza sia un miraggio di cui l’entusiasmo per le nuove tecnologie ci porta ciclicamente a essere vittime.

L’indagine può partire dal 1878 e dalla nascita del fonografo: un entusiastico articolo del «New York Times» vide nell’opportunità di registrare e riascoltare lezioni la prefigurazione di una scuola “interamente condotta da macchine”. Le registrazioni audio sono certo diventate un prezioso ausilio per percorsi di apprendimento di vario tipo (basti pensare allo studio delle lingue straniere), ma per fortuna nessuna macchina parlante ha mai sostituito gli insegnanti in carne e ossa. Passando al 1885, il docente di Yale William Rainey Harper si fece propugnatore di un insegnamento “per posta” che avrebbe sostituito le normali scuole e università. In questo caso, l’insegnamento per corrispondenza ha avuto nel corso degli anni un discreto successo, ma nessun diploma di questo tipo può essere minimamente comparato nei suoi esiti a quello di una vera università.

Nel 1913 Thomas Edison dichiarò che il cinema avrebbe “completamente cambiato l’istruzione nell’arco di 10 anni”. Così non è stato: il più concreto esperimento volto in questa direzione, quello dei “cinegiornali”, si è avvicinato molto più alla propaganda che non all’educazione. Un simile discorso vale per la radio (nel 1927 l’Università dello Iowa immaginò che essa avrebbe reso la scuola completamente diversa) e per la televisione, da cui tra gli anni ’50 e ’60 ci si aspettava una rivoluzione in chiave educativa che non ha mai realmente avuto luogo (su questo tema utile ricordare le riflessioni di Neil Postman e Carlo Freccero).

Nel 1984, anno di lancio del Macintosh, lo studioso del MIT Seymour Papert affermò che i computer avrebbero fatto “esplodere” la scuola. Per comprendere come non sia stato così, è sufficiente guardare agli alterni risultati delle lavagne interattive multimediali (LIM) nelle nostre scuole. Poco ha aggiunto lo sviluppo di quanto oggi si etichetta come web 1.0, prefigurato in un articolo del «Times» di fine anni ’90 come la killer application in ambito educativo, sia per le università che per le imprese. Internet non ci ha certo resi più bravi ad apprendere: la stessa Wikipedia funziona il più delle volte come un semplice sostituto dei “bigini” che erano in voga prima dell’era di internet, con un tema di attendibilità dei contenuti spesso controverso. Su questa linea si iscrivono anche i più recenti sviluppi del web 2.0, che conducono direttamente ai MOOC.

In somma: dal 1878 a oggi (e forse si potrebbe andare ancora più a ritroso di quanto fatto da Carr), le innovazioni improntate alla formazione a distanza sono state innumerevoli, in molti casi accompagnate da buoni successi economici per i loro sostenitori. Per quanto riguarda la messa in luce di un riconoscibile valore legato all’apprendimento, gli esempi passati in rassegna mostrano di essere tutt’altro che rivoluzionari.

[ illustrazione: l’inventore americano Hugo Gernsback indossa un paio di “television eyeglasses”, 1963 ]

Standard
ANTROPOLOGIA, CAMBIAMENTO, ECONOMIA, IRONIA, LAVORO, METAFORE, SOCIETÀ

Chi ha paura della barba manageriale?

È probabile siano in molti ad aver notato sul volto di Sergey Brin, co-fondatore di Google, lo spuntare di una barba; quasi certo è che Stephen Mihn, collaboratore del «New York Times», sia il solo ad aver pensato di tratteggiare un’analisi manageriale ispirata a questa emergenza pilifera.

Assecondando il punto di vista di Mihn, la storia degli intrecci fra capitale e irsutismo facciale può essere riassunta da un’opposizione binaria: quando a primeggiare è l’idiosincratica affermazione imprenditoriale del singolo, le barbe germogliano; nei periodi in cui il mercato impone la lingua spersonalizzata e inglobante delle corporation, sono invece schiuma e rasoio a dettar legge.

Per gran parte dell’età moderna, i rappresentanti di spicco del mondo economico – tanto in Europa quanto negli USA – hanno dato prova di avere a cuore un volto ben rasato. Attorno alla prima metà dell’800, questo trend è stato ulteriormente rafforzato dalle scelte estetiche dell’élite intellettuale socialista: le barbe di Marx ed Engels si sono rapidamente imposte come simbolo della lotta al capitalismo, spingendo chi stava dall’altra parte della barricata, terrorizzato, ad ancor più frequenti visite al barbiere di fiducia.

I moti nazionali del 1848 in Europa, così come la guerra civile in terra americana, segnarono un’inversione di rotta, associando i peli facciali all’affermazione di un patriottico e borghese senso di mascolinità. In seguito a questo rivolgimento sociale, la barba diventa tratto essenziale della classe capitalista. Titanici uomini d’impresa come Andrew Carnegie o Henry Clay Frick – peraltro passato alla storia come “peggior amministratore delegato di sempre” – fecero della loro barba larger than life un amuleto di individualismo e dominio sul mercato.

Le cose cambiarono di nuovo a fine ‘800: la ribellione della forza lavoro mondiale generò leader operai contraddistinti da lunghe, spettinate barbe. Il vello facciale tornò a spaventare il capitalismo, che non poté fare a meno di riprendere a rasarsi con cura (in suo aiuto giunse, nel 1901, il primo rasoio di sicurezza Gillette). Negli corso del Novecento barba e baffi sparirono, lasciando campo al dominio del liscio, inespressivo volto del dirigente delle grandi multinazionali.

Negli anni 2000, la barba appare priva di particolari connotazioni ideologiche e non spaventa più nessuno. Ecco perché sembra così adatta – al netto della moda hipster, secondo molti ormai in calo – per il volto del capitalismo geek rappresentato da Sergey Brin.

[ illustrazione: Robert Taylor, Dictionary of Beards,  2010 ]

Standard
ANTROPOLOGIA, COMPLESSITÀ, CONOSCENZA, CREATIVITÀ, INTERNET, IRONIA, SCUOLA, TECNOLOGIA, TEMPO

Perdere tempo su internet, guida all’uso

Kenneth Goldsmith è poeta, agitatore web e profeta della scrittura non creativa. La sua ultima trovata, sperimentata nelle vesti di docente universitario presso la University of Pennsylvania, è un corso dal sorprendente titolo “Wasting Time on the Internet”. L’insegnamento, lungi dal criticare il fenomeno della continua perdita di tempo sul web, lo eleva a fonte di ispirazione per la produzione di testi letterari.

Nella storia della cultura, le provocazioni offrono quasi sempre un doppio livello di lettura. C’è quello più superficiale, cui spesso si fermano i media di massa. Secondo quest’ottica, Goldsmith fa scalpore perché nobilita qualcosa di cui tutti si lamentano quotidianamente, scovando – proprio come faceva Baudelaire a metà ‘800 – il bello nell’effimero. C’è poi un senso più elevato, che si spoglia di valenze ironiche e riflette su mutamenti antropologici profondi. A ben vedere, Goldsmith non ci parla tanto di distrazione e passività (che del resto non sono certo invenzione di internet), ma della crisi di un modello di pensiero – quello della “cultura occidentale” – che continua a non riuscire a fare i conti con il susseguirsi dei mutamenti tecnologici.

La questione non è dunque demonizzare internet, ma sviluppare competenze che portino a saperlo usare con maggiore consapevolezza, nella vita personale e in quella lavorativa. E ben venga dunque un corso che aiuta i giovani universitari – una delle fasce di età che vivono il web con più immediatezza – a esplorare le potenzialità creative di un medium tanto ricco quanto spesso inestricabile. Questo è quanto è davvero in gioco; il resto è mero sensazionalismo da prima pagina.

[ illustrazione: il meme di internet noto come Nyan Cat ]

Standard
IRONIA, LAVORO, MANAGEMENT

Ecco perché il test di Myers-Briggs non serve a nulla

Nel 1921 lo psicanalista svizzero Carl Gustav Jung (1875-1971) pubblica il suo lavoro Tipi psicologici. Qui formalizza alcune teorie sugli atteggiamenti umani, frutto della propria percezione e dichiaratamente prive di riferimenti empirici. Jung classifica i suoi “tipi” partendo dall’opposizione tra attitudine estroversa/introversa, relaziona quest’ultima a quattro “funzioni psichiche” (sentimento, pensiero, sensazione e intuizione) e giunge all’identificazione di otto profili psicologici, per esempio “sentimentale estroverso” o “sentimentale introverso”. Negli anni ’40, due signore americane prive di formazione psicologica si confrontano in modo inaspettato con i tipi junghiani. Si tratta di Katherine Cook Briggs e di sua figlia Isabel Briggs Myers. Lavorando nel nascente mondo della gestione delle relazioni umane, le due giungono all’idea di sviluppare il lavoro di Jung in modo da trasformarlo in un test attitudinale. Cambiano leggermente la terminologia e arrivano a confezionare ben 16 diversi profili. Nasce così, nel 1942, il “Type Indicator”, più comunemente noto come test Myers-Briggs o MBTI. Il test ottiene un immediato successo e la sua popolarità cresce ulteriormente nel 1975, quando l’azienda CPP ne acquista i diritti e lo rende quello che è oggi, cioè il test psicologico più usato nelle organizzazioni di impresa, somministrato a circa due milioni di persone all’anno nel mondo. C’è solo un problema: il test non ha alcun fondamento scientifico e non serve quindi a nulla, o quasi.

Per dimostrare l’infondatezza del test sarebbero forse sufficienti due elementi: la dichiarata mancanza di basi empiriche dei tipi junghiani e l’estraneità a temi psicologici del duo Myers-Briggs. Ma un recente articolo della rivista «Vox» va oltre, mostrando tutti i punti di debolezza inerenti al test. Anzitutto, il MBTI si basa su risposte binarie del tipo “sì” o “no”. Per esempio, cosa rispondereste – ammesso che non lo abbiate già fatto – a una domanda del tipo: “tendi a simpatizzare con altre persone?”. L’impossibilità di una risposta netta e deconstualizzata, a questa e alle altre domande del test, inficia immediatamente qualsiasi pretesa “scientifica” e mette in luce un tipico difetto del test, cioè quello di tendere a posizionare le persone fra due categorie, riducendo i risultati a un più o meno soddisfacente “mi riconosco / non mi riconosco”. In seconda battuta, il test fornisce risultati privi di ripetibilità. Esperimenti sul campo mostrano che il 50% degli utilizzatori ottiene un diverso risultato alla seconda compilazione, anche a distanza di poche settimane. Come può essere considerato affidabile un simile test? A rincarare la dose ci si mette la comunità psicologica internazionale, che considera unanimemente il MBTI uno pseudo-test privo di alcuna valenza e non si sognerebbe mai di utilizzarlo.

A cosa serve, dunque, il test di Myers-Briggs e perché continua a essere utilizzato in maniera massiccia? Difficile, dati gli elementi riportati, affrontare la prima domanda. L’articolo di«Vox» trova un’unica possibile risposta: intrattenimento. Se si trasforma la domanda in un “a chi serve?”, rispondere diventa più facile: CPP, l’azienda che gestisce e commercializza il test, guadagna tra i 15$ e i 40$ per ciascuna copia venduta e $1700 per ogni certificazione da “esaminatore”. Tutto ciò conduce a un guadagno annuale di circa 20 milioni di dollari. Quanto al perché il test continui a essere universalmente utilizzato, forse i dipartimenti HR dovrebbero iniziare a chiedersi, soprattutto in tempi di recessione economica, come investire meglio i propri budget.

[ illustrazione: schema che illustra i profili del test di Myers-Briggs ]

Standard
CONCETTI, IRONIA, LAVORO, MANAGEMENT, MARKETING, PAROLE, SOCIETÀ, TEORIE

Alle origini dell’aziendalese

Nelle imprese italiane si parla una lingua semplicistica, meccanica e frammentaria – un vernacolo riduzionista, verrebbe da dire – , che tratta in maniera sprezzante l’idioma nazionale malmenandolo con sferzate di inglese mal masticato. Il linguaggio del management (in Italia rigorosamente pronunciato “manàgement”) denuncia in maniera impietosa una generale – e ahinoi diffusa ben oltre il mondo delle aziende – sudditanza nei confronti della cultura made in USA, alla quale certo si deve l’origine del management stesso ma cui si poteva forse evitare di pagare un così oneroso tributo linguistico. Indagare la nascita di questo parlare – il più delle volte uno straparlare – conduce a ripercorrere le tappe dello sviluppo del linguaggio aziendale americano. Un ricco e divertente articolo appena pubblicato da «The Atlantic» a firma di Emma Green si cimenta esattamente con questa impresa, ricostruendo le origini dell’office talk.

Si parte da Frederick Taylor (1856-1915), ovviamente, grazie al quale termini come “accuracy”, “precision”, incentives”, “maximed production” (per ovvi motivi d’ora innanzi riporterò le parole nella loro lingua originaria) iniziano a diffondersi nel linguaggio aziendale di inizio Novecento. In seguito, tanto accademici quanto consulenti contribuiscono, con ondate legate ai decenni successivi e a corrispondenti correnti di pensiero, ad arricchire il vocabolario del business.

Negli anni ’50 e ’60, durante i quali si sviluppano le teorie degli studiosi della Carnegie Mellon e del MIT, a lasciare il segno è soprattutto la “hierarchy of needs” di Abraham Maslow (1908-1970), cui si deve anche la pronunciata e duratura attenzione per la “self-actualization”.

Negli anni ’80 le parole chiave aziendali si dividono in due filoni. Il primo è rappresentato dal pensiero organizzativo ispirato a Peter Drucker (1909-2005) – padre del “management by objectives” – e al suo lavoro di consulenza per aziende come General Electric. Si parla di espressioni come “task cycle”, “operational efficiency”, “80-20” (richiamo a Vilfredo Pareto). Il secondo filone nasce dalla finanza aggressiva di Wall Street – idealmente identificabile con il Gordon Gekko interpretato da Michel Douglas nell’omonimo film di Oliver Stone – e fa sue parole a oggi ancora usatissime quali “leverage” o “added-value”.

Negli anni novanta il mondo del marketing non manca di dire la sua, diffondendo l’uso di espressioni quali “hard-sell”, “mind share” e il diffusissimo “ideation”. A metà del decennio fa la sua comparsa, associata all’idea di innovazione, una parola destinata a essere estremamente influente negli anni a venire. Si tratta della “disruption”, e il suo apostolo è il docente di Harvard Clayton Christensen. Negli stessi anni, la cultura di Silicon Valley diffonde nuove espressioni quali “top-down” e “bottom-up”, senza mancare di rivitalizzarne di antiche, come “entrepreneur” e “venture capitalist”.

Gli anni 2000 segnano la comparsa del movimento dei life-hackers (si veda il sito omonimo), che mette in circolo termini legati alla crescita personale come “journey”, “passion”, “energy”, “purpose”, insieme a una grande attenzione per il “work-life balance”.

La storia del linguaggio aziendale è destinata a non si fermarsi qui. Ripercorrerla fa sorridere – soprattutto pensando al suo passaggio dalla cultura americana a quella di altre nazioni, fra cui l’Italia – ma al tempo stesso spaventa per la sua capacità di influenzare in maniera sorprendentemente diretta pensiero e pratiche lavorative. Come si nota in chiusura dell’articolo del «The Atlantic»:

«Tutti trovano questo linguaggio un po’ ridicolo, ma i manager lo amano, le aziende dipendono da esso e in media i lavoratori finiscono per assorbirlo».

[ illustrazione: striscia di Dilbert del 1994 – © Scott Adams ]

Standard
CINEMA, INDUSTRIA, IRONIA, LAVORO, LIBRI, POLITICA, SOCIETÀ, STORIA

Gasparazzo, il fumetto della lotta operaia italiana

Gasparazzo è un personaggio nato nel 1971 dalla matita del compianto fumettista Roberto Zamarin (1940-1972 ) e comparso sulle pagine di «Lotta Continua» e in un libretto dal semplice titolo Gasparazzo (1972).

Gasparazzo – il cui nome rimanda a quello di Calogero Ciraldo Gasparazzo, carbonaio che partecipò alla rivolta di Bronte del 1860 – è un immaginario lavoratore meridionale che emigra a Torino come addetto alle linee di montaggio della Fiat. L’operaio Gasparazzo è vittima del tempo che vive e, insieme, del suo inevitabile radicamento nella cultura italiana. La sua lotta è contro la macchina, lo sfruttamento, le dinamiche di potere e di mafia, la nuova cultura aziendale importata dagli USA. E tuttavia il suo personaggio non è privo di aspetti qualunquisti, violenti e maschilisti espressione dello stesso sistema contro cui lotta. Gasparazzo, secondo le parole del suo creatore Zamarin:

«La politica la scopre giorno per giorno buttando la sua ribellione istintiva dentro al meccanismo disciplinato della grande fabbrica moderna. Per il resto vive come tanti altri come lui, segue lo sport, guarda la televisione, pensa alle donne».

Per comprendere il ruolo di Gasparazzo nella cultura italiana bisogna pensare, più che al romanzo industriale degli anni ’50 e ’60, a riferimenti contemporanei a Zamarin, per esempio i film La classe operaia va in Paradiso di Elio Petri e Mimì metallurgico ferito nell’onore di Lina Wertmüller, entrambi risalenti al biennio 1971-1972. Lette oggi, le strisce del fumetto aiutano a ricordare un preciso momento della storia italiana – quando ancora esisteva una classe proletaria in senso proprio – e a interpretare la successiva evoluzione dell’ethos impiegatizio nazionale.

[ illustrazione: una tavola tratta da Gasparazzo di Roberto Zamarin, 1972 ]

Standard
CIBO, DECISION MAKING, FOTOGRAFIA, IRONIA, SOCIETÀ

Instagram, selfie, food (ovvero: quanto tempo passiamo al ristorante?)

Si è già parlato qui di rapporti tra cibo e fotografia, o – per dirla in termini coerenti con il fenomeno – di chi si fa selfie di food. Se è vero che ormai esistono esercizi di ristorazione che vietano di scattare fotografie a quanto viene servito in tavola, grazie al blog di Alex Soojungkim Pang (autore di The Distraction Addiction) scopro che un ristorante newyorkese è riuscito ad attuare – con modalità di per sé curiose, come si vedrà – un piccolo studio statistico sul deterioramento della relazione esercente-cliente causato dal diffondersi della moda della “fotografia gastronomica”.

Il suddetto ristorante, dotato come molti negozi di un servizio di sicurezza con telecamere a circuito chiuso, ha raffrontato un nastro risalente all’inizio della propria attività – aperta nel 2004 – con una registrazione attuale, al fine di analizzare il comportamento della propria clientela. Il motivo da cui è scaturita questa curiosa indagine? La constatazione di una crescita dei tempi di permanenza dei clienti presso il ristorante, pur a fronte di un aumento di personale e di uno snellimento del menu. Dal confronto tra i due campioni raccolti a distanza di dieci anni emergono evidenze per le quali non sono particolarmente necessari commenti. In gioco vi è non solo la relazione esercente-cliente; qui si tratta anche di dinamiche decisionali, del nostro rapporto con la tecnologia e, più in generale, il modo in cui impieghiamo il nostro tempo.

Nel 2004 i clienti del ristorante passavano in media 8 minuti a osservare il menu. Il cibo veniva loro servito dopo circa 6 minuti. Dopo il pasto, in genere i clienti pagavano e lasciavano il locale 5 minuti dopo aver ricevuto il conto. Il tempo medio passato al ristorante dall’inizio alla fine del pasto era di cerca 65 minuti.

Nel 2014 i clienti impiegano in media circa 21 minuti per ordinare. Menu alla mano, restano attaccati al loro telefono facendo fotografie o altro finché il cameriere (spesso invocato perché il wireless non funziona a dovere) non passa da loro una seconda volta. Finalmente, aprono il menu e ordinano. Una volta fatto, ricevono il loro pasto dopo circa 6 minuti. A quel punto, il 57% dei clienti scatta una fotografia del cibo. In caso di due o più persone, le fotografie aumentano, richiedendo circa 3 minuti per scatto (e gli eventuali selfie non abbisognano di meno tempo). Questo comporta, nel 20% dei casi, che il cibo si raffreddi e venga mandato in cucina per essere riscaldato. Durante il pasto, il 60% dei clienti chiede l’intervento del cameriere per una foto di gruppo (spesso ripetuta, fino a un risultato soddisfacente). A pasto finito, i clienti impiegano in media 20 minuti per chiedere il conto e infine altri 20 per pagare e andarsene. Tempo complessivo da inizio a fine pasto: in media, 115 minuti.

[ illustrazione: Daniel Spoerri, Tableau piège n° 57, 1972 ]

Standard