Prequel

Correva l’anno 2000. Internet era nella propria fase infantile e in Italia solo alcuni temerari e coraggiosi si erano avvicinati a questa tecnologia, per lo più sconosciuta alla maggior parte della popolazione. Nel 1998 ero rimasto folgorato dalla lettura del libro Net Gain che considero ancora a distanza di quindici anni dalla sua pubblicazione una vera fonte di ispirazione e di anticipazione delle potenzialità del Web nella comunicazione interpersonale, del marketing digitale, nelle evoluzioni dei media (conteneva a lettere cubitali l’epitaffio dei quotidiani) e negli strumenti pubblicitari. Le connessioni a banda larga semplicemente un’utopia.

Nell’era post Buon Senso ogni fenomeno merita un’osservazione e un’analisi differente.

In quegli anni totalmente pionieristici e quasi ridicoli nella loro semplicità tecnologica, c’era già chi operava con una visione scardinante rispetto ai tempi e ai modelli comportamentali in vigore, di fatto anticipando una logica che oggi consideriamo consolidata e accettata dopo anni di diffusione capillare di Internet. Alle spalle di queste decisioni i seguenti presupposti di fondo:

  • La consapevolezza dell’esistenza di una competenza distribuita in tutto il pianeta e facilmente raggiungibile attraverso il Web;
  • Il ricorso all’elaborazione di grandi quantità di dati per scoprire aspetti sconosciuti del proprio business potendo fare affidamento su capacità di calcolo incrementali, distribuite e a basso costo;
  • Il coraggio di aprire il proprio business all’esterno, esponendone componenti ritenute in quel momento come fondamentali e da preservare e proteggere.

Due esempi a distanza di oltre dieci anni uno dall’altro sono utili per descrivere i cambiamenti in atto nel nostro modo di pensare e di operare. Come illustrato tra poco, i punti sopraccitati si ritrovano nell’operato svolto dal CEO di GoldCorp, un’azienda canadese operante nel settore minerario, di sicuro alquanto protettivo e riservato per natura. Questo esempio è stato ampiamente documentato, ma mantiene sempre un suo fascino ed è per questo che l’ho inserito. Passando invece ai nostri giorni, la città di New York ha sviluppato un modello matematico applicato alle scuole cittadine con lo scopo di elevare il livello del sistema educativo locale attraverso un’attenta misurazione dei risultati conseguiti da studenti e insegnanti in un’arco temporale di diversi anni. Anche questo un approccio innovativo e per alcuni versi rivoluzionario. Iniziamo da una miniera canadese.

GoldCorp Challenge

Nell’anno 2000 il CEO di GoldCorp, azienda mineraria canadese che ha prodotto nel 2011 due milioni e mezzo di once di oro e che intende incrementare l’estrazione del 70% nei prossimi cinque anni, ha intrapreso un’iniziativa ritenuta quasi folle da parte degli addetti del settore.

Apertura del proprio business model, elaborazione di grandi quantità di dati, collaborazione con terze parti e forte spirito di innovazione: questi gli elementi alle spalle della GoldCorp Challenge. Non sono un esperto in materia, ma la sensazione è che le variabili economiche per chi gestisce una miniera d’oro non si differenziano molto da quelle di un qualsiasi altro business. Occorre tenere i costi di produzione bassi, sperando allo stesso tempo in un’elevata quotazione del metallo sui mercati internazionali per ampliare lo spread e liberare profitti consistenti. Individuare in modo economico ed efficiente nuovi filoni all’interno della miniera la sfida principale per quanto concerne la fase produttiva. Come appreso dai libri di storia relativi all’Alaska Gold Rush del 1897, questo esercizio non è mai stato particolarmente semplice e anche ai nostri giorni è caratterizzato da una certa dose di aleatorietà nonostante tutti i progressi tecnologici registrati nel tempo. Nell’anno 2000 il CEO di GoldCorp, azienda mineraria canadese che ha prodotto nel 2011 due milioni e mezzo di once di oro e che intende incrementare l’estrazione del 70% nei prossimi cinque anni, ha intrapreso un’iniziativa ritenuta quasi folle da parte degli addetti del settore. Frustrato dalla limitata efficienza dei criteri adottati per individuare nuovi filoni all’interno di una miniera in Ontario, il CEO dell’azienda a quell’epoca – Rob McEwen – decise di rendere pubbliche su Internet tutte le informazioni geologiche degli ultimi 50 anni dando di fatto trasparenza totale al proprio patrimonio informativo. Il suo obiettivo consisteva nello stimolare la comunità internazionale di esperti e non a produrre soluzioni economicamente efficienti per determinare dove effettuare le prossime trivellazioni. Per rendere l’iniziativa più stimolante e avvincente, fu presa la decisione di aggiungere un incentivo economico di poco superiore al mezzo milione di dollari destinato al progetto ritenuto più promettente e interessante. Questa sorta di bando di gara alquanto anomalo, ha attratto contributi provenienti da tutto il mondo e anche da soggetti non appartenenti all’industria mineraria, di fatto aggiungendo da parte di questi ultimi creatività e innovazione per mancanza di evidenti condizionamenti da parte di chi opera nel settore.

Il risultato finale di questa iniziativa è stato sbalorditivo per l’azienda e gli azionisti. Attraverso nuove metodologie suggerite da un consorzio di due realtà australiane sono stati individuati 110 nuove aree di scavo di cui oltre il 50% aggiuntive rispetto a quelle già considerate. Di queste, oltre l’80% ha generato significative quantità di oro. Il riflesso sui mercati è stato tangibile visto che il valore dell’azienda è passato da poco più di mezzo milione di dollari a oltre sei miliardi con grande soddisfazione di tutte le persone coinvolte. In questo caso andare contro il buon senso ha generato i risultati sperati.

Insegnanti a valore aggiunto

Passiamo al 2012, l’era di Facebook, Instagram, Zynga e Pinterest, così come di 500px e Angry Birds. In un contesto molto diverso per diffusione e accettazione della tecnologia oltre che per la presenza di collegamenti wireless di quarta generazione, il provveditorato agli studi della città di New York ha reso disponibile uno studio condotto sulla popolazione dei propri insegnanti. Obiettivo ultimo, cercare di capire il valore incrementale trasferito agli studenti dall’azione didattica dei singoli maestri e stabilire come migliorare nel complesso il processo di insegnamento nelle scuole. Intento alquanto  ambizioso e non privo di criticità considerando la sensitività del tema e i rischi a cui potenzialmente esponeva l’intero sistema e I singoli professori. Non a caso, una serie infinita di scontri legali ha rallentato per oltre un anno la pubblicazione dei dati raccolti, un perfetto esempio dell’impatto dirompente che sempre più spesso la tecnologia esercita sullo status quo.

Il provveditorato agli studi della città di New York City ha condotto uno studio sulla popolazione dei propri insegnanti per determinare l’efficacia del modello didattico in essere.

Procedendo con ordine. A fine febbraio 2012 sono stati resi disponibili i dati relativi a 18.000 insegnati delle scuole di New York organizzati sulla base delle misurazione dell’efficacia di ciascuno di loro misurando i risultati dei test standard in matematica e inglese generati da parte di decine di migliaia di studenti. Già da questa sintetica introduzione si riesce a comprendere la particolarità dello studio e le aree a rischio per i diretti interessati. Inoltre, il distretto scolastico si è esposto a un metodo valutativo innovativo, oggetto di aspre critiche e attacchi concentrati soprattutto sulla validità e sull’attendibilità dei dati raccolti. Non avendo alcun interesse specifico nella questione, l’argomento rappresenta un’ottima prospettiva della misurazione di fenomeni e comportamenti attraverso la raccolta e l’elaborazione di grandi quantità di dati, uno dei temi di questo libro.

Come anticipato, l’impianto concettuale della ricerca è consistito nell’analizzare i risultati prodotti dagli studenti nei test di inglese e di matematica, raggruppandoli via via per insegnante, classe, scuola, quartieri fino ad avere un quadro completo della città. Secondo questo approccio, voti alti significano insegnanti a elevato valore aggiunto. In realtà, l’algoritmo adottato prevedeva dapprima la stima delle potenzialità di ogni singolo studente sulla base dell’analisi di una moltitudine di parametri raccolti in precedenza. Un po’ come le prestazioni indicate da una casa automobilistica per un proprio modello. Quindi, la bontà o meno dell’azione didattica di ogni singolo insegnante non è stata indicata dal punteggio degli esami dei singoli alunni, quanto dallo scostamento dei voti rispetto al potenziale di ciascuno. Un approccio ancora più analitico, ma foriero di possibili critiche visto che il termine di riferimento di partenza veniva attribuito a ogni singolo studente.

Si è trattato quindi di consolidare per ogni professore il delta tra la valutazione finale di ogni singolo studente e quanto stimato originariamente sulla base delle potenzialità individuali e di considerare questo valore come l’impatto esercitato dall’azione didattica dell’insegnante. Studenti capaci di prendere ottimi voti e di distanziarsi parecchio dal loro potenziale teorico avrebbero beneficiato dell’azione propulsiva di insegnanti dotati e qualificati: questo l’assunto su cui si è basata questa ricerca, nel bene e nel male. Due i pilastri di questo studio:

  • Aver individuato un meccanismo di valutazione preventiva del potenziale di ogni singolo studente;
  • Considerare che le variazioni rispetto a questa proiezione rappresentino effettivamente una misurazione dell’impatto – del valore aggiunto in caso positivo – dell’azione didattica di ciascun insegnate.

L’impianto concettuale, come anticipato, è suscettibile di molte critiche non tanto per la rigorosità del metodo seguito nel raccogliere i dati, quanto per la loro limitata capacità di determinare il valore aggiunto imputabile all’azione di insegnamento. Le tabelle riportate dal Wall Street Journal forniscono un’indicazione dei risultati misurati distinguendo tra professori sotto e sopra la media cittadina. Come sempre, c’è chi ne è uscito bene e chi è rimasto deluso.

Indipendentemente dai contrasti emersi in questa prima versione della misurazione, è evidente come quanto sviluppato a New York rappresenti un interessante modello per introdurre delle valutazioni progressivamente più oggettive e capaci di fornire suggerimenti utili a tutti gli operatori del settore della formazione e dell’istruzione. L’intento finale è comunque condivisibile: migliorare il sistema nel suo complesso analizzando più in profondità il sistema didattico in tutte le sue componente e introducendo anche una misurazione del fattore umano. Mi aspetto che da questo momento in poi il numero di esperimenti mirati a conoscere meglio l’impatto esercitato dall’azione didattica e la determinazione degli ingredienti più efficaci all’insegnamento continui ad aumentare identificando anche criteri e meccanismi più sofisticati e meno controversi.

Come pensare dopo la fine dell’Era del Buon Senso

I due prossimi esempi hanno lo scopo di condividere approcci diversi – li definirei in entrambi i casi “creativi” – alla risoluzione di problemi di tutti i giorni e nell’accesso alle informazioni. Inizio da quest’ultimo ripercorrendo la storia delle connessioni wireless a bordo degli aerei di linea per poi prendere in esame un aspetto simpatico e non molto noto della viabilità stradale. Entrambi i casi forniscono una chiave di lettura nuova e particolare di come comportarsi in questo nuovo e affascinante mondo di dati e informazioni digitali.

WiFi in the air

Prevedere il prevedibile: questo il messaggio di fondo di quando mi accingo a descrivere e raccontare. All’inizio di questo secolo Boeing Corporation ha dato origine a un’azienda denominata Connexion By Boeing (CBB) il cui compito era quello di rendere accessibile Internet anche a bordo di velivoli di linea. L’iniziativa ha trovato da subito il supporto di alcune compagnie aeree che si sono adoperate anche nell’installare sedili in grado di offrire prese di corrente per alimentare computer portatili e sostenere altri interventi strutturali stimati in $500.000 per singolo aereo. La proposizione era molto semplice e lineare: prospettare ai viaggiatori di tutte le classi – soprattutto per viaggi di lunga durata – l’accesso a Internet avendo come target primario la comunità business, potenzialmente i più desiderosi di continuare a scambiare email con l’ufficio e anche quelli meno sensibili  al costo del servizio. Il servizio CBB ha cessato di operare il 31 dicembre 2006 essenzialmente per mancanza di clienti. Io ero uno di questi e posso testimoniare che il livello di connessione era decisamente modesto, alquanto instabile oltre che decisamente caro. Ricordo di aver fatto delle conversazioni con MSN Messenger da 30mila piedi di altezza, ma nel complesso l’esperienza offerta era modesta. Dopo un paio di viaggi, ho abbandonato l’idea di collegarmi quando in volo.

A distanza di alcuni anni, nuove soluzioni tecnologiche sono state installate a bordo delle principali flotte aeree del mondo e la connessione WiFi ha raggiunto livelli medi di adesione pari all’8% con punte del 25% su alcune tratte frequentate da businessmen.

La prima morale che si può trarre da questo breve racconto è come l’anticipazione rispetto all’effettivo bisogno spesso possa risultare penalizzante, se non addirittura deleterio. Nel 2000 l’utenza Internet era prevalentemente business, oggi massicciamente consumer come testimonia il fatto che l’applicazione più utilizzata in volo sia proprio Facebook. Quindi divertimento e intrattenimento piuttosto che lavoro.

WiFi gratuito in luoghi pubblici come centri commerciali, alberghi, bar, ristoranti e negozi ormai una realtà diffusa.

C’è qualcosa d’altro che possiamo derivare da questo esempio? Partendo da una prospettiva molto diversa, si potrebbe arrivare alla conclusione che la predizione sulla progressiva e ineluttabile scomparsa dei quotidiani cartacei trovi nei collegamenti in aereo un’ulteriore conferma. Qualora il nesso sfuggisse o non fosse così evidente, ecco la spiegazione. Nel wireless a bordo colgo un ulteriore segnale della progressiva scomparsa di un luogo dove il consumo di quotidiani è stato storicamente rimarcato, addirittura un segno distintivo da parte di molte compagnie che presentavano un’ampia scelta sia nei lounge che a bordo. Se già oggi un passeggero su dieci è disposto a pagare costi anche di $12.95 per tre ore di collegamento a Internet quando vola tra le nuvole, è realistico considerare che le normali abitudini di consumo di notizie verranno estese anche agli abitacoli degli aerei. E siccome un numero sempre crescente di persone si informa online, è evidente che il numero di copie cartacee stampate subirà un’ulteriore riduzione anche per questo motivo. Se poi si considera che in molte catene alberghiere l’accesso a WiFi è gratuito da anni, un’altra roccaforte della distribuzione di giornali viene a decadere. Aggiungete i bar, i ristoranti e altri punti di ritrovo e il quadro è completo.

Personalmente adoro questo modo di ragionare che identifico con l’espressione end game. Definire dapprima il risultato finale e poi eseguire un percorso a ritroso fino ai giorni correnti per capire la distanza tra i due momenti e definire come si intende percorrere questo tragitto di avvicinamento. Riprendendo l’esempio dei quotidiani, è evidente come la dimensione temporale di questa finestra sia variabile da prodotto a prodotto, concedendo a volte anche diversi anni di tempo per attrezzarsi e prepararsi all’esito finale. In un contesto in costante evoluzione, affrontare le sfide tecnologiche del presente e ipotizzare le successive è quasi un imperativo categorico per chi desidera proteggere i propri assets o addirittura puntare a una condizione di vantaggio competitivo rispetto alla concorrenza.

Più in generale, l’end game che ci aspetta come individui, famiglie, collettività, organizzazioni e aziende ruota attorno al livello di accettazione e di delega da attribuire alla tecnologia nella vita di tutti i giorni e di desiderio di condivisione di informazioni personali con terze parti, siano esse brand, catene commerciali, servizi Internet o istituzioni. Su questo piano si gioca l’evoluzione tecnologica dei prossimi due-tre anni, avendo Internet come elemento infrastrutturale portante.

Poche svolte a sinistra

Rimanere bloccati nel traffico è particolarmente scocciante e noioso, così come procedere lentamente per alta concentrazione di vetture e scorrimento limitato. Svoltare è poi un’attività dispendiosa su tutti i fronti, soprattutto quando si deve girare a sinistra. Non so se l’avete mai notato, ma è così. La differenziazione sui due lati è ancor di più evidente negli USA dove quasi sempre è consentito svoltare a destra anche in presenza del rosso. Al guidatore è ovviamente richiesto di verificare che non sopraggiungano veicoli dalla sinistra per procedere nella svolta. Molto saggio e conveniente perché in questo modo l’incrocio risulta automaticamente decongestionato di parte delle vetture. Nulla di tutto ciò è ipotizzabile per le svolte a sinistra per evidenti motivi di sicurezza e di viabilità. In aggiunta, una svolta a sinistra implica anche tempi di attesa e maggior consumo di carburante. Di questa cosa se ne è accorto tra i primi UPS, che già nel 2007 ha varato un programma mirato alla riduzione dei consumi, un migliore rispetto dell’ambiente e maggiore efficienza nel servizio di consegna dei pacchi. Il lavoro svolto ha generato i seguenti risultati:

  • Riduzione dei percorsi per l’intera flotta su base annuale pari a 30 milioni di miglia, oltre 45 milioni di chilometri. Questo risultato è stato conseguito grazie a una ridefinizione dei tragitti di consegna cercando di ottimizzare il tutto escludendo la svolte a sinistra;
  • Risparmio di 3 milioni di galloni di carburante, cioè di 5.4 milioni di litri di diesel;
  • Contenimento delle emissioni di CO2 per 32.000 tonnellate, valore equivalente a rimuovere dal traffico 5.300 auto per un intero anno.

Più complicato stimare il vantaggio in termini di tempo, visto che l’eliminazione di una curva a sinistra spesso comporta soluzioni alternative. Nel complesso oggi per UPS sul totale di svolte effettuate, il 90% sono a destra e solo il 10% a sinistra. Un ulteriore esempio di come l’ottimizzazione dei processi decisionali possa apportare benefici al business e alla collettività. Da questo momento in poi, quindi, occorre prestare grande attenzione a quanto suggerisce il navigatore di bordo!

La Fine dell’Era del Buon Senso

Quello che avete appena letto è un’aggiunta al contenuto del libro. I temi sono gli stessi, ma in questa anticipazione ho voluto trattare argomenti ed esempi differenti per arricchire ulteriormente l’esperienza di lettura. Purtroppo il genere umano è ed è stato capace di nefandezze incredibili, ma anche di punte di genialità che spesso portano a innovazioni rivoluzionarie. Ne La Fine dell’Era del Buon Senso mi sono focalizzato su una moltitudine di casi per illustrare quanto sta accadendo nella vita di tutti i giorni grazie all’impiego di tecnologie di vario genere che ci aiutano a migliorare e, potenzialmente, a essere delle persone migliori. Il mio obiettivo è di ispirare, incuriosire e di stimolare la riflessione fornendo una prospettiva differente di pensiero illustrando situazioni e casi dove la creatività e l’ingegno si sposano con la tecnologia con l’intento di innovare. La lettura del libro dovrebbe aiutarti a raggiungere I seguenti obiettivi:

  • Informare sulle innovazioni di oggi e di domani, comprendendo meglio la nuova realtà che ci circonda, The New Normal o Il Nuovo Normale;
  • Ispirare giovani, imprenditori, aziende e organizzazioni nel guardare il mondo da un angolo differente per cogliere le opportunità e le possibilità intrinsecamente garantite dalla rivoluzione tecnologica che ruota attorno alla progressiva digitalizzazione di dati e contenuto in generale;
  • Offrire una prospettiva fresca e differente sulla tecnologia e l’innovazione, smitizzando alcuni aspetti ed enfatizzando sempre la semplicità con cui chiunque può beneficiare di prodotti e servizi per migliorare la propria vita;
  • Fornire dati e fatti concreti per analizzare in profondità nuovi scenari di business;
  • Rivalutare l’ovvio, l’abituale e lo status quo sapendo che spesso il limite all’innovazione e al cambiamento consiste solo nella fantasia e nell’ingegno di immaginare uno scenario diverso;
  • Condividere una valanga di dati e di informazioni in modo romanzato e piacevole per estrarre gli apprendimenti e gli insegnamenti utili per ispirare nuova innovazione;
  • Incuriosire e anche divertire attraverso storie in alcuni casi veramente particolari e uniche che dovrebbero aiutare a comprendere come molte persone abbiano già forzato il cambiamento traendo beneficio dagli strumenti messi a disposizione da Internet in particolare;
  • Ipotizzare scenari futuri cercando di mettere insieme pezzi e ragionando su come l’evoluzione potrebbe manifestarsi nel prossimo futuro per deliziare i consumatori e creare nuove opportunità di business.

Il settore tecnologico è da sempre concepito e strutturato attorno al concetto di costante rinnovamento dell’offerta e delle soluzioni. Lo sappiamo molto bene visto che l’obsolescenza tecnica di un telefono cellulare è dell’ordine di sei mesi al massimo. Per un numero sempre crescente di persone il ricorso alla tecnologia è ormai un’abitudine quotidiana, una costante. Ne consegue quasi per proprietà transitiva come il maggior consumo di tecnologia forzi un’intensificazione del cambiamento, questo sia in ambito personale, familiare, collettivo e anche professionale. L’innovazione è conseguenza di idee e di pensieri organizzati in modo differente grazie alle mutate condizioni a contorno. Ne La Fine dell’Era del Buon Senso ho cercato di condensare una serie di elementi per informare, incuriosire e ispirare per accelerare il passaggio verso un nuovo modo di pensare e di operare. Visita il sito Amazon.it per acquistare una copia del libro.