Il Business Process Management (BPM) è una metodologia di modellazione dei processi organizzativi ai fini del loro miglioramento che utilizza una notazione standard Business Process Model and Notation (BPMN) per la formalizzazione dei diagrammi che li rappresentano.
Essendo un sistema di diffusione della conoscenza del funzionamento delle procedure operative verso l’interno e anche l’esterno delle organizzazioni, nel BPM, in un determinato momento, la rappresentazione del processo è statica: è una “fotografia” di come il processo si svolge in quel preciso istante.
In realtà, il suo utilizzo è ritenuto essenziale per analizzare e modificare i processi al fine del loro miglioramento, ma in definitiva tale analisi avviene attraverso la revisione dei flussi delle attività, con la generazione di diagrammi differenti, e non l’osservazione degli stessi.
Nel 2006, nel mio libro e-facility scrivevo: “L’impatto della tecnologia sui sistemi organizzativi non può essere sottovalutato se si considera quale cambiamento ha subito la stessa nomenclatura nel descriverne il passaggio innovativo nel tempo. Seguendo la terminologia anglosassone, infatti, la tecnologia informatica definita con il termine information technology (IT), si è inizialmente evoluta in tecnologia dell’informazione e della comunicazione definendosi information and communication technology (ICT), nell’enfatizzare la sua capacità di diffusione dell’informazione e non più solo di produzione e, successivamente, più propriamente in tecnologia del flusso informativo, information flow (IF), proprio per evidenziare al meglio la sua capacità di governare processi di attività”1.
Ora che siamo tutti immersi nell’hype dell’intelligenza artificiale la necessità di comprendere esattamente come osservare i flussi informativi diviene una delle necessità imperative di qualsiasi organizzazione.
La mia posizione di fronte a questa novità del mondo IT è netta. Il fenomeno artificiale di intelligente non ha proprio nulla mentre è evidente che si tratti di potenti sistemi di conoscenza artificiale. La capacità di accumulare la conoscenza che per anni gli umani hanno distribuito sulla rete Internet consente oggi alle macchine una conoscenza che nessun umano potrebbe avere nemmeno in parte.
Ma la questione fondamentale è piuttosto un’altra.
La nozione di agente: dal dato all’informazione
L’intelligenza artificiale, infatti, introduce nelle organizzazioni una nuova figura quella dell’agente che cambia completamente lo sviluppo dei processi organizzativi.
Infatti, un agente, sia umano che digitale, è colui che agisce. Produce effetti compiendo azioni.
Ed ecco che finalmente ognuno sarà obbligato a comprendere l’esatto significato di termini come “dato” e “informazione” che ancora oggi vengono utilizzati come sinonimi.
Possiamo affermare semplicemente che ogni trattamento digitale di dati (ricerca, estrazione, elaborazione, computazione, etc.), rimane un dato, per chi riceve il risultato di tale trattamento, fino a quando il soggetto ricevente non attiva un’azione.
Quando il ricevente si attiva per una decisione o direttamente una azione allora siamo di fronte ad una informazione. Non è un caso se il significato stesso del termine, spesso completamente ignorato, è dare forma a qualcosa.
Ma c’è un ulteriore motivo che sancisce definitivamente la necessità di aver ben chiaro il significato dei termini dato e informazione e questo consiste nell’esigenza di una corretta attribuzione di significato semantico come caratteristica sottostante al funzionamento degli algoritmi di intelligenza artificiale.
Per funzionare come agenti capaci di perturbare i sistemi umani le macchine hanno necessità di comprendere esattamente il significato delle parole. In questo ambito si stanno diffondendo a macchia d’olio gli investimenti per la costituzione di ontologie: classificazioni delle entità e delle relazioni che definiscono i diversi domini della conoscenza.
Robotic Process Automation e il machine learning
Sotto un altro punto di vista possiamo affermare anche che in realtà algoritmi che oggi vengono definiti di AI sono esistiti anche in passato, noti con il termine di “sistemi esperti”. Sistemi fondamentalmente basati sull’indagine statistica e progettati affinché le stesse elaborazioni fossero sempre più precise all’aumentare del numero dei casi osservati.
Per questo quando si tratta del cosiddetto machine learning, l’apprendimento automatico, è possibile affermare con certezza che non esiste di fatto alcuna novità perché si tratterebbe proprio di quella parte robotica dell’automazione dei processi già diffusa da diverso tempo.
La Robotic Process Automation (RPA) è la parte dei sistemi IT che realizzano le cosiddette inferenze: azioni automatiche dalle condizioni esplicitate dai dati che producono la generazione di altri dati o invocano nuove azioni da parte delle risorse umane.
La differenza sostanziale è ora l’agente a cui è destinata l’elaborazione del sistema. Prima questo era solamente un umano ora, invece, può essere anche una macchina.
È per questo che ora, che un agente artificiale potrà gestire informazioni e generare effetti, diviene ancor di più necessario avere ben chiari i flussi informativi che rispondono ai processi organizzativi.
La standardizzazione delle procedure
Di fronte a questo scenario, avendo cura di comprendere esattamente cosa sta succedendo, si dovrebbe osservare come tutti questi sviluppi stiano conducendo ad una progressiva standardizzazione dei processi organizzativi.
Tale tendenza era già particolarmente evidente con la Business Process Automation (BPA): tutti gli strumenti software che rendono automatiche alcune operazioni digitali sottostanti alle fasi operative dei processi.
Quando i processi aziendali vengono automatizzati attraverso sistemi informativi è difficile che l’azienda possa modificarli agevolmente e flessibilmente. Questo vale soprattutto in quelle situazioni sottostanti a prodotti noti come ERP per i quali i costi di modifica dei processi gestiti sono così ingenti da scoraggiare ogni possibile cambiamento.
Ora che all’interno dei processi saranno introdotti anche agenti artificiali, capaci di generare autonomamente risposte organizzative, la questione si fa ancor più rigida. E ciò avviene a maggior ragione quando i diversi contesti sono dominati da classificazioni semantiche predefinite al fine della loro interazione con le macchine e i loro algoritmi.
Eppure, dovrebbe essere evidente che la standardizzazione è una pratica valida nei contesti governati dalla semplicità, cioè in tutti quei domini nei quali le relazioni di causa/effetto dei fenomeni sono ben note e comprese da tutti gli attori dei processi.
Ma la realtà delle organizzazioni oggi è totalmente diversa: complessa e in molti casi addirittura caotica e per questo necessita di una costante azione tesa alla generazione continua di nuove pratiche sempre più rispondenti alle esigenze di dinamicità e cambiamento.
Serve una visione sistemica
L’adozione di un nuovo paradigma di pensiero per interpretare la complessità è una delle possibili strade da percorrere per immaginare un futuro dove i sistemi, di qualsiasi natura essi siano, funzionino realmente insieme.
Si tratta di prendere atto del fatto che, nonostante la straordinaria abbondanza di tecnologia, in realtà sono pochi i sistemi sul quale funzionamento si può fare riferimento e soprattutto che la strada per il simultaneo funzionamento di più sistemi sembra di fatto ancora un miraggio.
Il pensiero sistemico viene in aiuto.
Contrapposto al diffuso paradigma riduzionista, quello nel quale siamo culturalmente immersi, il pensiero sistemico si basa sull’osservazione dei sistemi ovvero proprio su quel flusso informativo espresso con il termine information flow.
Come è noto il riduzionismo è un paradigma meccanicistico che risale a periodi storici nei quali si immaginava l’uomo dominatore al centro dell’universo. Tale rappresentazione piace così tanto che si continua a diffonderlo culturalmente in ogni contesto della conoscenza come se fosse l’unica modalità di interpretazione dei fenomeni. In realtà il riduzionismo meccanicistico è espressione della superbia dell’uomo. Infatti, l’azione di scomposizione dei sistemi in parti sempre più piccole fino a quelle che possono essere conosciute compiutamente, porta l’uomo ad affermare la sua capacità di conoscenza dell’intero sistema, cosa che non è affatto vera.
Una simile modalità di pensiero, infatti, trascura un aspetto fondamentale che necessariamente deve essere considerato al fine della conoscenza di un sistema, che è quello delle relazioni tra le parti, senza la quale il sistema di fatto non è conoscibile.
Il pensiero sistemico basandosi fondamentalmente sulle relazioni consente di osservare i processi in modo completamente diverso e, al tempo stesso, richiede di fatto una nuova modalità di generazione dei sistemi IT molto più orientata alla flessibilità e alla peculiarità e sempre più lontana dalla standardizzazione.
La risposta data dal pensiero sistemico è quella di osservare il sistema. Secondo i pensatori sistemici un sistema reagisce ad una perturbazione con reazioni definite feedback che possono condurre anche a risultati completamente imprevedibili.
Nei sistemi complessi l’agente fonda il suo operato su di una successione ben diversa da quella dei sistemi semplici basati su best practices: analizzare, pianificare, agire e controllare perché, la dinamicità spesso irruenta dei sistemi non consente di attingere in nessun modo dalle previsioni passate. Per questo la successione è azione, apprendimento e adattamento.
Nuovi strumenti
Le aziende oramai sono sottoposte ad un grado di complessità della gestione senza precedenti. Tale condizione dipende dal contesto di riferimento che in poco tempo per tutte, indipendentemente dalla loro dimensione, è divenuto globale.
La realtà è sotto gli occhi di tutti. Per semplificare è possibile affermare che il fenomeno della globalizzazione unitamente alla crisi ambientale e conseguentemente climatica hanno condotto il mondo intero a rappresentarsi in un unico ecosistema globale, mix di sistemi sociali, politici, economici, ambientali, oltre altri, che unisce ogni fenomeno organizzativo ad un unico “tutto” completamente disordinato.
In questo, diversamente da quanto accadeva fino a poco tempo fa, la mutazione generale di tutte le variabili di fondo è un fenomeno continuo. Questa condizione, modificando completamente il contesto di riferimento, annulla di fatto ogni precedente azione definita per una realtà diversa da quella ora esistente.
Per affrontare tale complessità il paradigma sistemico suggerisce il cosiddetto effetto leva che molti ritengono erroneamente come intervento massimamente efficiente attraverso l’utilizzo dello slogan “minimo sforzo massimo risultato”.
In realtà l’effetto leva è suggerito come azione capace di produrre benefici risultati e questi, nel caso specifico delle organizzazioni, devono risultare al di fuori dei cosiddetti archetipi sistemici e, in particolare, di quelli dell’omeostasi e del ritardo. Questi rappresentano quei fenomeni perversi che portano moltissime organizzazioni non solo a fallire nel raggiungimento dei propri obiettivi, ma soprattutto a verso forme distruttive che possono condurre anche a minare la loro stessa sopravvivenza.
Normalmente i sistemi informativi per l’automazione dei processi organizzativi nascono dalla mappatura dei dati da gestire e, attraverso la loro accumulazione, convergono nel tempo alla produzione di tutta una serie di informazioni utili ai processi decisionali.
Più recentemente questo percorso viene realizzato attraverso l’applicazione di sistemi di business intelligence che attraverso sofisticate riclassificazioni dei dati producono i cosiddetti cruscotti vere e proprie consolle di sintesi delle diverse risultanze e andamenti.
Ora, di fronte alla manifesta incapacità di questi sistemi di generare soluzioni capaci di affrontare la complessità dell’ecosistema in continua evoluzione, sono necessari nuovi strumenti.
Co-creazione dei sistemi informativi, il “metodo al contrario”
Alla ricerca di base condotta con l’obiettivo di investigare la realtà per generare nuova conoscenza, deve sempre seguire la sua applicazione pratica volta a risolvere necessità specifiche, e/o viceversa.
Questo percorso è noto oggi come il “metodo al contrario”, una metodologia per una nuova modalità di co-creazione di sistemi informativi che, attraverso il pieno coinvolgimento delle persone genera soluzioni endogene, in netta contrapposizione alle normali procedure di acquisizione dei sistemi.
Lo scopo primario della metodologia è la generazione dell’organizzazione che apprende. Si tratta di creare una realtà capace di superare la modalità consueta di reazione agli effetti dei sistemi attraverso lo sviluppo della capacità di imparare a scoprire, a partire da quel disordine nel quale ogni sistema è immerso, le loro cause e a saperle trasmettere a tutti i portatori di interesse al fine di una evoluzione consapevole.
Il “metodo al contrario” è una metodologia che, proprio per il suo nome, parte dalle informazioni da fornire per arrivare ai dati necessari alla loro elaborazione, sviluppando così sistemi informativi esattamente e completamente al contrario rispetto al consueto.
Nel “metodo al contrario”, la fase convergente della tecnica del design thinking, utilizzata per il coinvolgimento attivo, primario delle persone, si esaurisce con la mappatura dei processi to be in notazione BPMN standard 2.0 attraverso l’utilizzo di un tool apposito. Questa diviene successivo input per lo sviluppo prototipale e incrementale dell’automazione dei processi.
La vera innovazione che rivoluziona la capacità di rappresentazione dei processi organizzativi del BPM è derivata dalla possibilità di interpretare nei diagrammi BPMN gli oggetti e le loro relazioni come stock e flussi del pensiero sistemico.
I concetti di omeostasi e di archetipo del ritardo
Nel grafo sono poi visibili le “azioni” realizzate al fine della perturbazione che vengono posizionate nel tempo della loro applicazione. Lo scopo della soluzione è consentire di monitorare il sistema per verificare quale reazione subisce rispetto alla sua perturbazione tramite la volontà del decisore. In particolare, lo strumento serve, come anticipato, per evitare due effetti ben noti nella pratica del pensiero sistemico.
Il primo è l’omeostasi ovvero il fenomeno per il quale ogni sistema tende spontaneamente a tornare alla situazione precedente la perturbazione come segno di resilienza. L’omeostasi come fenomeno da solo dovrebbe far intuire i limiti della stessa idea di un miglioramento idealizzato come continuo, quando non sia apportata una corrispondente attività di perturbazione dell’omeostasi stessa.
Il secondo invece è definito archetipo del ritardo e si riferisce alla tendenza del sistema di manifestare il cambiamento con un certo ritardo rispetto all’azione compiuta. Tale ritardo comporta grandi squilibri che rappresentano le principali minacce della stessa sopravvivenza delle organizzazioni. Quello della rinuncia, dovuta all’incapacità di attendere i cambiamenti attesi dalle azioni che determina l’impossibilità di comprendere le dinamiche poi verificatesi perché considerate come non esistenti. E il vero e proprio archetipo che si verifica quando, proprio a causa del ritardo negli effetti, si compiono azioni aggressive e insistenti che necessitano di successivi aggiustamenti opposti tanto da generare la totale assenza di controllo nell’oscillazione della grandezza di riferimento.
Esempio dell’andamento nel tempo di una variabile fuori controllo come effetto dell’archetipo del ritardo 2
L’archetipo del ritardo spiega come spesso le aziende possano ridursi in gravi difficoltà a causa di veri e propri collassi organizzativi dovuti all’incapacità di controllo dei flussi dei processi.
E così indefinitiva, uno strumento di controllo dei flussi dei processi diviene di vitale importanza per imparare ad osservare i sistemi e in particolare ad operare con significato sfruttando le indicazioni corrispondenti alle azioni di intervento organizzativo compiute.
Molte organizzazioni non saranno in grado di utilizzare simili sistemi innovativi.
Molte, infatti, utilizzano software basati su best practices, acquisiti sul mercato per effetto modale. Si tratta di soluzioni diffuse acquisite per impulso commerciale dell’offerta, una azione spesse volte decisamente aggressiva e realizzata con risorse ben superiori a quelle tecniche destinate allo sviluppo e supporto del Cliente.
Altre saranno impedite da simili modalità di lavoro che necessitano momenti di condivisione dell’esperienza costituiti da vere e proprie aperture di delega operativa verso tutti i livelli organizzativi anche quelli strettamente operativi.
Ma esistono anche organizzazioni che, non operano sopravvivendo sul mercato della guerra dei prezzi ma realizzando capacità distintive di competizione. Queste realtà hanno la necessità di comprendere come interpretare la complessità e imparare ad osservare le relazioni tra gli elementi dei sistemi come unica via per “cercare” di comprenderne il funzionamento. È quanto spiega perfettamente Donella Meadows, scienziata esperta di pensiero sistemico applicato alle questioni ambientali, quando afferma che non è possibile “controllare i sistemi o capirli” ma è possibile “danzare con loro”3