Attualità

Volatilità mercato agrifood: l’UE punta su big data e IT e si guarda attorno

L’Europa sta pensando di mettere mano al proprio sistema informativo per la filiera agroalimentare, aggiornandolo alla nuova “pazzia” dei mercati. Inizia studiando le potenzialità delle nuove tecnologie ma deve tener conto anche degli scogli rappresentati da compliance, governance, confidenzialità e mindset. L’AI non la potrà aiutare, nemmeno se generativa: per lo studio di base è l’italiana Areté a darle una mano

Pubblicato il 23 Nov 2023

Immagine di Crovik Media su Shutterstock

Anche nel settore dell’agrifood i mercati sono diventati più che mai imprevedibili e dipendenti da un crescente numero di fattori uno più critico dell’altro. Di fronte a questo scenario, l’Unione Europea ha pensato di chiedere aiuto alla tecnologia, partendo con il chiedersi come tutte quelle soluzioni che girano attorno ai big data potrebbero migliorare il suo attuale sistema informativo, dalla fase fornitura prezzi fino a quella della distribuzione finale.

Le prime risposte le ha chieste ad Areté, affidandole attraverso un bando uno studio di 18 mesi che provi a suggerire come muoversi in tal senso, a beneficio della filiera agroalimentare Europea.

Domare la volatilità dei prezzi non sarà però l’unico obiettivo di questa agrifood intelligence company italiana. Assieme alle altre aziende del consorzio vincitore del bando, si andranno ad approfondire diversi aspetti critici di un mercato dalle caratteristiche uniche: come capire le attese di produzione, per esempio, oppure stimare l’impatto dello shortage di certi prodotti, fino alle possibilità di identificare i principali fattori che oggi determinano i picchi più inattesi.

Cercasi tecnologie, attenti a governance e confidenzialità

Si inizia “guardandosi attorno”, ma non lo si fa in modo improvvisato. Come spiega Mario Gentile, Senior Analyst di Areté, ci si muove attorno ad alcune aree di miglioramento più urgenti individuate dalla Commissione Europea stessa guardando all’attuale sistema. La velocità di trasmissione delle informazioni, per esempio, e la capacità dei sistemi di identificare e gestire eventuali errori o outlier. E poi c’è l’interesse ad allargare lo scope coperto dal dataset, sia a monte sia a valle. Ciò significa includere anche informazioni sugli input produttivi e sui prezzi al consumo disponibili in Europa, per lo meno fino al punto in cui le normative europee lo consentono. “È infatti esplicitamente richiesto – nell’ambito della nostra analisi – non trascurare gli aspetti di governance che possono rendere alcune azioni non applicabili nei fatti senza una profonda revisione dell’attuale impianto normativo. Ci sono informazioni oggi non obbligatorie da condividere, per esempio, e non è detto che le cose possano cambiare” spiega Gentile. Un altro tema importante è quello della confidenzialità: “va trovato il corretto equilibrio che garantisca trasparenza, salvaguardia delle informazioni commercialmente sensibili e tutela della concorrenza. È questione dibattuta se troppa trasparenza su prezzi e volumi possa avere implicazioni indesiderate, soprattutto a scapito delle aziende più piccole”.

Dal punto di vista tecnico, la vera sfida per l’Unione Europea sarà comprendere fino a che punto valga la pena di correggere o di rivedere il sistema informativo attuale nella sua interezza, tenendo conto che, come dichiara Gentile, “si tratta di una rivoluzione da compiere non solo a Bruxelles ma – almeno in parte – anche nei 27 Stati Membri, ciascuno con le proprie peculiarità culturali, economiche e legislative”.

Per combattere la volatilità ci vorranno presumibilmente più dati da inserire e più di frequente. “Siamo nelle primissime fasi dello studio – aggiunge Gentile – pertanto non è dato sapere quali risultati emergeranno: in linea generale si può “obbligare” tutti i soggetti a seguire una nuova direzione, ma tale scelta non sarebbe a costo zero e non è detto che tutti gli stakeholder restino a bordo. Oppure si può mediare tra l’ideale e ciò che è fattibile nell’attuale contesto normativo, senza rivoluzionare gli attuali obblighi informativi degli Stati Membri. Esiste quasi certamente un buffer di miglioramento possibile nel sistema attuale e va capito se questo basti per ottenere un reale beneficio per gli operatori”.

Domande, case study e best practices: tre azioni per un sistema

Si procede ora un passo alla volta, su tre linee parallele: una serie di quesiti, dei case study ispiranti e lo studio di soluzioni messe in campo dai vicini.

Nel primo caso si parte da un set di domande concordate con la Commissione Europea, su 4 macrotemi: qual è la qualità dei dati; come le soluzioni IT potrebbero portare sviluppo, efficienza e opportunità di integrazione con mercati connessi o di creazione di nuovi mercati; come si può espandere la copertura del sistema sia a valle che a monte e come si comportano i sistemi informativi di mercato in periodo crisi.

Per quanto riguarda i casi studio, sono 10 quelli che Areté intende presentare a fine progetto e racconteranno eccellenze o sperimentazioni da cui potenzialmente “copiare” nuove strategie. Quanto alle soluzioni già messe in campo altrove, l’attenzione si concentrerà soprattutto su Stati Uniti, Canada, UK e Australia.

L’output finale di questo triplice lavoro sarà un report ricco di informazioni, “che spiegherà cosa funziona, cosa non funziona e cosa non è ottimale nel sistema attuale, ma non c’è urgenza di migliorarlo. Sarà un punto base per intervenire sul sistema informativo attuale, senza però nessun obbligo di farlo”.

Attuare la tecnologia attuale

In attesa che il mercato agroalimentare diventi più “prevedibile”, o perlomeno comprensibile, grazie all’UE, le aziende di settore stanno a loro modo sfruttando la tecnologia per difendersi da una volatilità a tratti fuori controllo. Le più grandi hanno team specializzati ma comincia ormai a essere diffuso l’utilizzo di servizi esterni specializzati per il monitoraggio e il forecasting dei prezzi. Tutte possono contare sul fatto che, come osserva Gentile, “i modelli oggi ci consentono di realizzare previsioni estremamente efficaci sui mercati delle commodities, con orizzonti fino a 18 mesi in avanti, dando alle aziende strumenti ed informazioni per coprirsi sulla crescente volatilità dei prezzi”.

Anche su temi più strettamente connessi ai big data in ambito agri-food esistono degli spazi di miglioramento. Secondo Gentile, “un possibile importante cambiamento, confidenzialità permettendo, sarebbe rappresentato dalla possibilità di poter raccogliere una ampia mole di prezzi al consumo da siti nazionali e internazionali, per avere un termometro aggiornato in tempo reale e capire cosa succede al di là degli indici inflativi calcolati su base meno puntuale. Questo è già tecnicamente fattibile, ma le normative non sempre lo permettono. In alcuni singoli Paesi europei lo fanno e sarà interessante capire se sarebbe un vantaggio implementarlo a livello UE. Altro aspetto sicuramente interessante è la crescente disponibilità di dati informatizzati dal settore agricolo attraverso i DSS”. Un tema ancora una volta di compliance e di sistema, di armonizzazione di contesti diversi. Nemmeno l’AI generativa potrebbe risolvere tali scogli. “Come detto – conclude Gentile – siamo ancora agli inizi della nostra indagine, ma per ora questa innovazione non sembra emergere in maniera evidente nell’analisi e gestione dei dati in ambito agrifood. La tecnologia in generale non manca, se si riuscisse a sfruttare appieno tutta quella già a disposizione, si potrebbero ottenere miglioramenti decisivi”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4