Dopo l’innamoramento iniziale per “le meraviglie prodotte dall’intelligenza artificiale generativa”, oggi, con mente più lucida, si cerca di esplorarne le tante opportunità, vigilando perché siano accessibili a tutti in modo omogeneo. Dalla tecnologia, la sfida si è spostata all’etica, alla sociologia e all’ambito normativo, ma gli esperti IT non sono rimasti senza lavoro. Un ambito che ne sta offrendo tanto è quello relativo ai casi di avvelenamento di LLM (Large Language Model). Si tratta di un campo ancora poco noto, ma che ha tutta l’aria di poter diventare il terreno dove i criminali informatici possono coltivare minacce dagli impatti detonanti. Non è pessimismo e nemmeno allarmismo per “rovinare” la fama della genAI, ma uno scenario sempre più possibile e dimostrabile. Un dato di fatto che da un lato fa tremare, ma dall’altro fa pensare: meglio conoscere per primi, e subito, questi rischi piuttosto che scoprirli dopo il cybercrime.
News
Codice avvelenato a “scoppio” ritardato: nuovo rischio cyber nascosto negli LLM
Scoperta la possibilità di nascondere “frasi pericolose” in Internet, perché scatenino un attacco cyber dopo un certo arco di tempo. Scoperta anche la attuale mancanza di protezione per questo genere di crimine: le tecniche di sicurezza tradizionali non lo intercettano
Giornalista

Continua a leggere questo articolo
Argomenti
Canali
Con o Senza – Galaxy AI per il business

VITA DA CIO
-

Cosa hanno raccontato i CIO nel 2025
26 Dic 2025 -

«Rimettere la “T” al centro dell’IT»: la visione di Enrico Andrini, CIO di Bonfiglioli
16 Dic 2025 -

Dal supercalcolo al pensiero critico: la figura del CIO secondo Dario Pagani (Eni)
27 Nov 2025 -

Modernità e rapidità d’esecuzione: l’IT di Hyundai come ponte tra culture e innovazione
06 Nov 2025 -

Liberi dai lock-in: la vision di Erika Barausse, CIO di Replay, per un’IT che sceglie
30 Ott 2025













