Il tuo lavoro verrà rubato da una macchina?

Posted on 21 November 2017 by Paolo Bernardi

Il mondo industriale ha sempre cercato di migliorare la produttività e di emarginare il fattore umano nei livelli più bassi dei processi produttivi, tuttavia gli sviluppi dell’ingegneria informatica e della robotica nei primi anni del ventunesimo secolo minacciano di estendere l’incubo luddista anche in numerosi ed insospettabili ambiti del terziario. Secondo l’Automation Report 2017 del McKinsey Global Institute, quando le tecnologie già sviluppate e la cui efficacia è stata dimostrata verranno adottate su scala globale, il 49% dei lavori svolti attualmente da persone fisiche potrà essere automatizzato. In generale, gli ambiti con il più alto potenziale di automazione sono le attività fisiche predicibili e la raccolta ed elaborazione di dati. Tuttavia il rapporto va molto in dettaglio, arrivando ad elencare i settori più suscettibili all’automazione: alberghiero e ristorazione, manifatturiero, agricoltura, trasporti e logistica, estrattivo e commercio (sia al dettaglio che all’ingrosso).

Le tre tipologie di attività con il maggior potenziale di automazione (raccolta ed elaborazione dati, attività fisiche predicibili), coprono più del 51% dell’occupazione totale.

Le tre tipologie di attività con il maggior potenziale di automazione (raccolta ed elaborazione dati, attività fisiche predicibili), coprono più del 51% dell’occupazione totale.

Il settore con il più alto potenziale di automazione è quello dei servizi alberghieri e di ristorazione. Anche manifattura, trasporti e logistica, estrattivo e commercio sono settori ad alto potenziale.

Il settore con il più alto potenziale di automazione è quello dei servizi alberghieri e di ristorazione. Anche manifattura, trasporti e logistica, estrattivo e commercio sono settori ad alto potenziale.

Intelligenza artificiale

Come si è arrivati a questo punto? L’intelligenza artificiale (A.I., abbreviazione di Artificial Intelligence), il fattore decisivo per l’estensione dell’automazione ai settori del terziario, è nata nella seconda metà degli anni ‘50 tra grandi aspettative. Nel 1956 si tenne un convegno al Dartmouth College dove John McCarthy usò per la prima volta la locuzione “intelligenza artificiale”. Lo stesso McCarthy espresse l’opinione che ogni aspetto dell’intelligenza può essere descritto in termini talmente rigorosi da poter programmare una macchina per simularli e per svolgere compiti complessi senza l’aiuto umano (“intelligenza artificiale forte”). Già Alan Turing negli anni ‘30, in realtà, aveva concepito la sua macchina ideale come simulatore della componente razionale della mente umana.

Tra la fine degli anni ‘50 e la fine degli anni ‘60 le ricerche sull’intelligenza artificiale vennero portate avanti con grande entusiasmo (e con relativi finanziamenti): i risultati dei primi dimostratori di teoremi e dei programmi per simulare azioni complesse nel mondo reale sembravano molto promettenti. Tuttavia agli inizi degli anni ‘70 arrivarono le prime cocenti delusioni: sono famosi, ad esempio, i risultati grotteschi dei programmi di traduzione automatica su cui il DARPA aveva investito molto, con la speranza di poter tradurre automaticamente articoli scientifici russi in inglese (es. l’equivalente russo di “Lo spirito è forte ma la carne è debole” veniva reso come “La vodka è buona ma la carne è andata a male”).

La ricerca nel campo dell’A.I. si spostò quindi sulla progettazione di sistemi esperti, in grado di supportare gli umani nello svolgimento di compiti specifici particolarmente difficili e di aumentare la loro produttività (“intelligenza artificiale debole”).

Con il passare del tempo le risorse computazionali (processori, supporti di memorizzazione dati, reti) hanno conosciuto uno sviluppo esplosivo, ben descritto dalla legge di Moore (una delle sue formulazioni, ad esempio, è “il numero di transistor integrati in un chip raddoppia ogni 18 mesi”). Unitamente all’immensa mole di dati messa a disposizione dalla diffusione dei sistemi informatici, questo sviluppo tecnologico ha dato nuova spinta all’A.I. sotto forma dello sviluppo dell’apprendimento automatico (Machine Learning): i più efficaci sistemi di A.I. disponibili non hanno molti comportamenti cablati (programmati direttamente dagli sviluppatori) ma li apprendono sulla base dei moltissimi dati di esempio che sono in grado di analizzare grazie agli algoritmi di apprendimento (questi ultimi, invece, programmati direttamente da esseri umani). Dai filtri anti spam alle automobili a guida automatica, il Machine Learning è alla base dei più moderni sistemi “intelligenti”.

Quale futuro?

Siamo nuovamente di fronte ad un ottimismo infondato, come negli anni ‘60? Probabilmente no. La comprensione dei sistemi automatici è migliorata moltissimo e la prima, ingenua ondata di entusiasmo relativo all’A.I. ha avuto il merito di insegnare la prudenza in quest’ambito. In effetti, sebbene sia alla base dell’imminente ondata di automazione, l’intelligenza artificiale è raramente menzionata con questo nome: anche i divulgatori più sensazionalistici preferiscono ricorrere a termini più specifici.

Questa rivoluzione tecnologica porterà inevitabilmente a questioni etiche che saranno centrali nel dibattito dei prossimi anni. La disoccupazione causata dallo sviluppo tecnologico e le sue conseguenze sono argomenti discussi da almeno due secoli (l’espressione “disoccupazione tecnologica”, in particolare, è stata coniata da Keynes). Diversamente, i sistemi ad apprendimento automatico tendono a sviluppare delle regole di comportamento complesse ed opache, difficilmente analizzabili, che pongono problemi del tutto nuovi: un esempio noto è l’automobile a guida automatica che si trova di fronte all’alternativa di schiantarsi contro un muro, nuocendo al conducente, o di travolgere dei pedoni. In termini meno drammatici, già oggi gli algoritmi dei motori di ricerca e dei social network, che favoriscono alcuni contenuti a scapito di altri, sono oggetto di scrutinio: in questo caso, all’opacità del comportamento auto-appreso si aggiunge l’impossibilità di verificare eventuali forzature da parte degli sviluppatori.

La definizione di criteri per affrontare le problematiche poste da questi nuovi sistemi richiederà molti anni; di sicuro non è auspicabile che venga demandata esclusivamente ai comportamenti generati dagli algoritmi di apprendimento né ai loro produttori che, giustamente, portano avanti i propri interessi economici e politici.

Get in touch

Thank you for contacting me, I will be in touch with you as soon as possible.
There was an error while trying to send the comment, please try again later.