L'illusione dell'automazione totale: perché la "fame" di AI sta rischiando di distruggere la produttività
Non è sufficiente che l'intelligenza artificiale ci aiuti a lavorare meglio.
Il vero pericolo non è la tecnologia in sé, ma la tentazione di delegare
tutto, ignorando che il "10% di stupidità" dell'AI può essere più distruttivo
di un errore umano.
Recentemente, è emersa una notizia inquietante: alcune aziende stanno
pianificando di monitorare ogni movimento del mouse e ogni pressione di tasto
dei propri dipendenti. Lo scopo? Raccogliere dati per addestrare modelli di
AI sempre più sofisticati. Ma dietro questa visione distopica di sorveglianza
si cela un problema molto più pratico e, per certi versi, paradossale: la
ricerca ossessiva dell'automazione completa.
L'errore del "tutto o niente"
L'intelligenza artificiale, in particolare i Large Language Models (LLM), è
uno strumento incredibile. Può recuperare file corrotti dopo ore di
elaborazione, analizzare migliaia di ticket di assistenza in pochi secondi o
trascrivere e analizzare conversazioni telefoniche per capire chi ha ragione
in una disputa.
Il punto di forza dell'AI è l'augmenting (l'aumento delle capacità umane):
l'AI fa il lavoro sporco, filtra le informazioni e ti presenta una sintesi.
Tu, l'esperto, prendi la decisione finale. In questo scenario, l'AI ti rende
più veloce, più intelligente e meno stanco.
Tuttavia, stiamo assistendo a una deriva pericolosa. Molte aziende non si
accontentano che l'AI sia un assistente; vogliono che sia il sostituto.
Vogliono che l'AI faccia il lavoro al posto tuo, senza la tua supervisione.
Questo è ciò che potremmo definire "avidità algoritmica".
Il paradosso del 90/10
Il problema tecnico è fondamentale: gli LLM sono, essenzialmente, dei
"super-autocompletamenti". Sono incredibilmente precisi il 90% delle volte,
ma quel restante 10% è un territorio selvaggio.
Quando l'AI sbaglia, non commette errori comuni o comprensibili come farebbe
un essere umano. L'AI può produrre risultati che sembrano usciti dalla mente
di qualcuno con una grave disfunzione cognitiva: errori assurdi,
allucinazioni logiche o azioni che sembrano progettate apposta per sabotare
un'attività commerciale.
Se usi l'AI per filtrare i ticket più urgenti, anche se sbaglia una volta su
dieci, risparmi comunque ore di lavoro. Ma se permetti all'AI di rispondere
automaticamente ai clienti senza controllo, quel 10% di errore può
distruggere la reputazione del tuo brand o causare danni economici
irreparabili in pochi minuti.
Il rischio dell'assuefazione (e il parallelismo con la guida autonoma)
C'è un rischio psicologico che spesso sottovalutiamo: l'assuefazione. Esiste
un fenomeno per cui il nostro cervello, quando si trova in un ambiente
ripetitivo e sicuro, tende a "spegnere" la percezione degli stimoli non
rilevanti. È ciò che accade con i sistemi di guida assistita delle auto: se
l'auto guida bene per 500 miglia, il tuo cervello smetterà di monitorare la
strada con attenzione.
Lo stesso accadrà con l'AI nel lavoro. Se un sistema funziona bene per mesi,
smetteremo di controllare i suoi output. E proprio in quel momento, quando
abbassiamo la guardia, l'AI commetterà quell'errore "stupido" che non avremmo
mai accettato se avessimo stato attivi nel processo.
Conclusione: dove tracciamo la linea?
La tecnologia dovrebbe liberarci dalle mansioni ripetitive per permetterci di
concentrarci su ciò che richiede giudizio, empatia e strategia. Se invece
usiamo l'AI per eliminare l'elemento umano dal processo decisionale, finiremo
per creare sistemi fragili, inefficienti e potenzialmente catastrofici.
La domanda che dobbiamo porci, come lavoratori e come società, è semplice:
vogliamo un mondo in cui l'AI ci rende super-umani, o un mondo in cui
cerchiamo disperatamente di adattarci a un'automazione che, nel tentativo di
eliminarci, finisce per danneggiarci?