Senza dati, spesso le notizie perdono valore, concretezza e credibilità, ma come si possono misurare un malcontento e una preoccupazione diffusa e anonima, tra i lavoratori del settore su cui oggi tutti giurano di voler scommettere? Come possono, i singoli, trovare il modo e il coraggio di esporsi in modo personale, senza sentirsi terrorizzati delle eventuali conseguenze? E allora ecco perché il reportage della CNBC fa comunque notizia e merita di avere risonanza in ogni parte del mondo, anche se riporta “solo” voci e testimonianze senza nome. Ma sono voci che provengono “dai motori” che fanno funzionare il giocattolo chatGPT, e i suoi simili, alimentando sogni di grandi e piccole imprese.
Le voci di corridoio che minano le fondamenta
Quello che denunciano ingegneri e tecnici che si occupano di intelligenza artificiale è l’inedita pressione a cui sono sottoposti perché l’innovazione in tale tecnologia possa continuare al ritmo folle con cui ha esordito. Una pretesa delle aziende che ci hanno investito e che detterebbero i tempi di consegna e rilascio, mentre le big che li hanno assunti li fanno correre per non deludere le aspettative, senza minimamente occuparsi della loro qualità di lavoro. E nemmeno, così parrebbe, della qualità del proprio lavoro, per lo meno in termini di sostenibilità ambientale e di rispetto dei valori e dei principi etici che affermano in altri luoghi di custodire come guida.
Il burnout è un tema sempre più comune e non è legato al puro aumento del ritmo di lavoro o allo stress da consegna. Non solo: ciò che davvero turba i lavoratori del mondo AI è il totale disinteresse dei loro capi rispetto all’effetto della tecnologia sul cambiamento climatico, sulla sorveglianza e su altri potenziali danni.
I pain point di tutto il settore riguarderebbero quindi le tempistiche accelerate per rincorrere gli annunci di intelligenza artificiale dei rivali, ma soprattutto la generale mancanza di preoccupazione da parte dei loro superiori per gli effetti sul mondo reale.
Non solo le big: la fretta è cattiva consigliera per tutti
Chi pensa si tratti di un problema delle sole big tech e di chi ci lavora, sbaglia. Per lo meno a quanto la testata statunitense ha potuto indagare nel suo fondamentale lavoro di ascolto. Anche le istituzioni pubbliche, seppur con un ritmo meno elevato, replicano il mindset delle grandi aziende, facendosi guidare da una nervosa fretta di innovare, di adottare l’AI come tutti, di non restare indietro ed essere tacciare di essere “le solite realtà pubbliche a rilento”.
Il trend coinvolgerebbe poi anche il mondo delle startup che sono sottoposte allo “stress da investitori” più di ogni altra categoria. In questo caso, dalle testimonianze raccolte, emerge la mancanza di ascolto e la continua richiesta di occuparsi di AI anche senza alcuna preparazione in merito. Ci si deve improvvisare esperti in materia, per poter dire di aver sviluppato un’offerta AI ad hoc prima di altre e conquistare visibilità. Mentre vengono lanciati sul mercato – questo è il rischio- prodotti e servizi imperfetti ma soprattutto anche rischiosi.
Se si “gioca” con l’AI senza conoscerne i rischi etici e legati alla sicurezza, infatti, la corsa all’innovazione diventa fortemente pericolosa e non solo per le aziende, di ogni dimensione, ma anche per gli utenti. Persone, singoli, che si fidano di ciò che esce sul mercato, ignare dello stress subito da chi le ha sviluppate ma anche delle imperfezioni che vi può avervi inserito inavvertitamente, causa fretta o mancanza di competenze.
Ma sembrerebbe non esserci il tempo per pensare di fermarsi a pensare che sarebbe meglio fermarsi. Bisogna continuare a correre, fino a quando chi è costretto a farlo ha le forze e la pazienza di non dire la propria. Come stanno iniziando a fare in anonimato molti essenziali lavoratori, in USA. Lì dove è partita la “follia AI” potrebbe innescarsi anche un effetto frenante.