Riepilogo

Credo che, nonostante il potenziale dell’intelligenza artificiale, non possa sostituire il giudizio e le competenze umane in molte professioni, tra cui l’insegnamento, la medicina e la contabilità.

L’intelligenza artificiale potrebbe automatizzare determinati compiti, ma non è in grado di interpretare segnali non verbali e di comprendere problemi complessi del mondo reale.

Gaby Hinsliff del Guardian ha affermato in una rubrica pubblicata ieri:

L’idea di usare la tecnologia come una specie di bacchetta magica che consente allo Stato di fare di più con meno è diventata sempre più centrale nei piani del partito laburista per rilanciare i servizi pubblici britannici con quello che Rachel Reeves suggerisce sarà un budget dolorosamente risicato. In una serie di interventi di ritorno a scuola questa settimana,  Keir Starmer ha promesso  di “andare avanti sfruttando il pieno potenziale dell’intelligenza artificiale”, mentre il segretario alla scienza, Peter Kyle, ha sostenuto che l’automazione di alcune attività di routine, come la correzione, potrebbe liberare tempo prezioso per gli insegnanti da dedicare all’insegnamento.

Ha ragione: questa è un’ossessione del Labour. La spinta sembra provenire dal Tony Blair Institute, il cui leader omonimo ha una lunga storia di cattiva interpretazione delle capacità della tecnologia, di cui sembra non capire mai molto.

Il problema specifico a cui si riferiva era l’uso dell’IA per scopi didattici. Gli appassionati di IA pensano che offra l’opportunità di creare un programma su misura per ogni bambino. Come sottolinea Gaby Hinsliff, l’idea sta fallendo, finora.

Sono, naturalmente, consapevole del fatto che la maggior parte delle innovazioni deve fallire prima di poter avere successo: questo è, in generale, il modo in cui funzionano queste cose. Sarebbe poco saggio dire di conseguenza che, poiché l’IA non ha ancora risolto questo problema, non lo farà. Ma, anche come qualcuno che sta attivamente abbracciando l’IA nel mio flusso di lavoro, vedo grossi problemi in gran parte di ciò che il lavoro e altri stanno facendo.

La reazione immediata del mercato del lavoro all’IA sembrerebbe essere quella di abbassare la qualità delle reclute ricercate ora, poiché i datori di lavoro pensano che l’IA ridurrà la domanda di persone con competenze in futuro. E sì, hai sentito bene: si suppone che le competenze specialistiche saranno sostituite dall’IA in moltissimi settori. I laureati sono duramente colpiti da questo atteggiamento in questo momento.

In contabilità, ad esempio, questo avviene perché si presume che saranno necessarie molte meno competenze fiscali, poiché l’IA sarà in grado di rispondere a domande complesse. Allo stesso modo, si presume che l’IA si occuperà della produzione di conti complessi , come i conti consolidati di gruppi di aziende.

https://www.asterios.it/catalogo/la-mente-umana-e-la-mente-artificiale

Chi fa simili supposizioni è incredibilmente ingenuo. Anche se l’IA potesse intraprendere alcune parti di questi processi, si creerebbero enormi problemi di conseguenza, il più grande dei quali è di gran lunga che nessuno avrebbe più le competenze per sapere se ciò che l’IA ha fatto è giusto.

Il modo in cui si diventa bravi in ​​materia fiscale è leggere molto sull’argomento; scrivere molto sull’argomento (di solito per consigliare un cliente); e dover correggere il proprio lavoro quando qualcuno superiore a te dice che non lo hai fatto bene. C’è un processo profondamente iterativo nell’apprendimento umano.

I datori di lavoro sembrano pensare al momento di poter fare a meno di gran parte di questo. Lo fanno perché coloro che decidono che è possibile eliminare i posti di formazione li hanno già sperimentati e, di conseguenza, hanno acquisito le competenze per comprendere la loro materia. In altre parole, sanno cosa dovrebbe fare l’IA. Ma quando quelle poche persone che saranno ora reclutate raggiungeranno un punto di autorità simile, non sapranno cosa sta facendo l’IA. Dovranno semplicemente supporre che sia giusto perché non avranno le competenze per sapere se è vero o no.

La logica dei sostenitori dell’IA è, in quel caso, la stessa usata da gente come Wes Streeitng quando propugnano l’uso di medici associati, che sono decisamente clinici parzialmente formati che ora lavorano nel NHS, e che persino eseguono operazioni, senza avere nulla a che vedere con la profondità di conoscenza richiesta per svolgere i compiti loro richiesti. Sono addestrati a rispondere alle domande che vengono loro poste. Il problema è che potrebbe essere stata posta la domanda sbagliata, e poi entrambi arrancano e causano danni.

Lo stesso vale per l’IA. Risponde alla domanda che le viene posta. Il problema è come risolve il problema che non viene posto, e molto raramente un cliente pone la domanda giusta quando si tratta di tasse. La vera competenza professionale deriva, in primo luogo, dall’elaborare ciò che vogliono veramente, in secondo luogo, dall’elaborare se ciò che vogliono è anche saggio e, in terzo luogo, dal riformulare la domanda in modo che possa soddisfare le loro esigenze.

Il problema nel fare ciò è che si tratta di una questione che riguarda interamente l’interazione umana, ma che richiede anche che l’intero aspetto tecnico delle questioni prese in esame (che di solito riguardano più tasse, più un po’ di contabilità e molto spesso anche un po’ di legge) sia compreso in modo che possa aver luogo la riformulazione appropriata, il che richiede un notevole giudizio.

Penso che l’intelligenza artificiale sia lontanamente vicina a svolgere questo compito? No, non lo penso.

Sono convinto che l’IA possa mai svolgere questo compito? Ne dubito anch’io, così come dubito della sua capacità di affrontare molti problemi medici e professionali.

Perché? Perché rispondere a queste domande richiede la capacità di leggere il cliente, compresi tutti i suoi segnali non verbali e di altro tipo. La parte tecnica è una piccola parte del lavoro, ma senza conoscere l’elemento tecnico, il professionista, in qualsiasi campo, e includo tutte le occupazioni qualificate di ogni tipo in questa categoria, non ha alcuna possibilità di formulare correttamente la sua domanda o di sapere se la risposta che fornisce è giusta o meno.

https://www.asterios.it/catalogo/la-scuola-digitale

In altre parole, se al giovane professionista viene negata la possibilità di commettere tutti gli errori del libro, come accadrebbe se l’intelligenza artificiale lo sostituisse, allora la possibilità che sappia davvero abbastanza per risolvere problemi del mondo reale posti da persone del mondo reale è davvero molto bassa, anche perché quasi nessuno di coloro che cercano aiuto da un professionista desidera una risposta tecnica a una domanda.

Vogliono che le luci funzionino.

Vogliono che il dolore passi.

Vogliono pagare la giusta quantità di tasse senza correre il rischio di errore.

Vogliono divorziare con il minimo stress.

Il lavoro del professionista non è dire loro come fare queste cose. È fornire soluzioni umane a problemi umani. E non possono farlo se non capiscono l’umano che hanno di fronte e il problema tecnico. Usa l’IA per fare la parte tecnica, e ciò che rimane è un sorriso caldo, vuoto e insignificante che non dà conforto a nessuno.

Non sto dicendo che non dovremmo usare l’IA. So che lo faremo. Ma chiunque pensi che possa sostituire gran parte dell’interazione umana si sbaglia di grosso: non credo che possa, proprio perché gli umani pongono domande del tutto illogiche che richiedono che un essere umano capisca cosa intendono.

Ed è anche per questo che penso che Gaby Hinsliff abbia ragione nel dire che l’intelligenza artificiale può avere solo un ruolo limitato in classe quando conclude:

È vero che l’IA, se gestita bene, ha un’enorme capacità di fare del bene. Ma come continua a dire lo stesso Starmer, non ci sono risposte facili in politica, nemmeno, a quanto pare, se lo chiedi a ChatGPT.

Autore: Richard Murphy, professore part-time di Accounting Practice alla Sheffield University Management School, direttore del Corporate Accountability Network, membro di Finance for the Future LLP e direttore di Tax Research LLP.

Fonte: Fund the Future


Commenti

  1. «La catastrofe dell’errore dell’invecchiamento, proposta originariamente da Leslie Orgel nel 1963, sostiene che gli errori di copiatura nel DNA e il posizionamento errato degli amminoacidi nella sintesi proteica potrebbero accumularsi nel corso della vita di un organismo e alla fine causare un crollo catastrofico sotto forma di un evidente invecchiamento.»
    https://www.allthescience.org/what-is-error-catastrophe-of-aging.htm
    È come se ogni “progresso” nella tecnologia AI fosse un altro segno dell’avanzare dell’era tecnologica. Ogni anno, più errori di copia passano inosservati, finché non c’è più speranza di correggerli.
    (Gram)
    2. Sembra che la complessità sia il nemico dell’IA. Ho vissuto e lavorato a Singapore in passato, e lì il governo calcola praticamente le tasse di tutti alla fine di ogni anno, e tutto quello che devi fare è accedere al sito web dell’autorità fiscale per vedere la tua bolletta. La soluzione alla complessità è la semplicità, ma questo elimina anche la necessità di costosi commercialisti e consulenti fiscali. Non sto sostenendo l’idea che l’IA possa risolvere tutto, ma sto percependo forse solo un piccolo pizzico di NIMBY dall’articolo?Il problema qui non è l’intelligenza artificiale, ma piuttosto il fatto che non è possibile risolvere la complessità con maggiore complessità in quasi tutti i campi, così come non è possibile riempire una buca scavandone una più grande.
    (Jim)