Non vi sono dubbi che la Business Intelligence sia ormai considerata un investimento strategico da parte delle aziende. Né che per generare l”insight’ necessario a risolvere i problemi sempre più complessi che queste devono affrontare, non siano più sufficienti i tradizionali strumenti di ‘query e reporting’, ma si debba far ricorso alle più potenti applicazioni della cosiddetta Business Intelligence analitica, e in particolare di quelle predittive, poiché più delle altre sono in grado di garantire quell’elevato livello di ‘intelligenza’ che si traduce in decisioni di business efficaci.
Tuttavia, affinché l’uso della Bi possa diventare realmente strategico, è indispensabile che le aziende siano messe nelle condizioni di sviluppare una visione la più completa possibile di tutto ciò che può essere effettivamente rilevante per il loro business, allargando l’area di indagine anche alla parte non strutturata dei dati a loro disposizione.
Le applicazioni tradizionali della Bi utilizzano infatti come input solo dati strutturati. Quelli che non lo sono, pur costituendo una fonte potenzialmente ricca di informazioni interessanti, non vengono presi in considerazione, mentre è evidente che buona parte delle attività del mondo in cui viviamo, per poter essere svolte, richiedono sempre più spesso la lettura e la comprensione di quantità crescenti di documenti testuali.
D’altra parte molti di coloro che hanno la necessità di individuare trend, fare previsioni, prendere decisioni anche sulla base dei documenti testuali di cui dispongono, spesso non hanno il tempo di leggerli con la dovuta attenzione, né tanto meno quello di esaminarli in dettaglio o di classificarli, e quindi, nella maggior parte dei casi, sono incapaci di sfruttarne i contenuti, perché le informazioni ‘sepolte’ nei testi sono più ambigue e meno facilmente analizzabili di quelle strutturate.
Si presenta dunque in modo molto chiaro l’esigenza di estrarre informazioni utili per le aziende dalla componente non strutturata dei loro dati, da tutta la documentazione prodotta e accumulata da chi vi lavora, da quella ricevuta (e-mail, relazioni, verbali, reclami, richieste ai call center), da quella che potrebbe comunque essere opportuno esaminare (pagine Web, agenzie di stampa, brevetti, interviste e quant’altro).
Per cercare di risolvere il problema – anche perché la crescente quantità di documenti elettronici prodotti sta rendendo sempre meno affrontabile, anche dal punto di vista economico, la loro classificazione manuale – negli anni più recenti, hanno incominciato ad essere proposte da alcuni vendor specifiche tecnologie di categorizzazione, di sommarizzazione e di creazione di tassonomie, capaci di rendere automatici questi processi. Tra esse emergono come più efficaci quelle di ‘Text Mining’, così chiamate perché si basano sull’applicazione ai testi delle tecniche proprie del Data Mining, lo strumento statistico forse più potente della Bi analitica.
I Text Miner sono infatti in grado di leggere documenti memorizzati nei più diversi formati (Ascii, Word, Html, Xml, Pdf, Excel, Lotus e PowerPoint) e applicare ad essi tecniche di analisi del tutto simili a quelle che permettono di estrarre conoscenza da insiemi anche molto complessi di dati strutturati, nonché di scoprire relazioni non identificabili in altro modo e spesso inattese.
Analitical team manager di Sas
Come funzionano i Text Miner….
Il Text Mining è una tecnologia piuttosto recente che si trova ancora in piena fase evolutiva. Tuttavia, anche se non tutti i prodotti proposti dai diversi vendor presentano le stesse funzionalità, è possibile identificarne alcune che possono essere considerate punti fermi. Anche se si può essere tentati di pensarlo, i Text Miner non sono applicazioni di ‘information retrieval’, né motori di ricerca e nemmeno sistemi per la comprensione del linguaggio naturale, mentre sono invece strumenti per la classificazione e il ‘clustering’ dei testi.
La classificazione, attraverso l’utilizzo di algoritmi capaci di valutare i loro contenuti, permette di assegnare in modo automatico i documenti presi in esame a categorie predefinite; il ‘clustering’ invece consente di creare sotto-insiemi di documenti, aventi caratteristiche simili, ricorrendo ad analisi statistiche multi-variate (in grado cioè di prendere contemporaneamente in considerazione un numero anche molto elevato di variabili) del loro contenuti. La differenza tra le due metodologie consiste in definitiva nel fatto che, al contrario della pura classificazione, il clustering’ non richiede, per raggruppare i documenti, che vengano preventivamente definite le possibili categorie di assegnazione.
“Per giungere a questo risultato – spiega Cinzia Amandonico, Analitical Team Manager di Sas – i set di documenti presi in considerazione devono essere sottoposti a un trattamento iniziale che, attraverso una serie di passi, di cui il ‘cleaning’, il ‘match dei pattern’ e l’analisi morfologica delle parole sono i principali, porta alla creazione di enormi matrici che hanno in riga i documenti e in colonna le loro parole. Matrici che vengono a questo punto alimentate da un algoritmo detto Svd (Singular Value Decomposition) che le comprime, le condensa e, alla fine, le rende numeriche. Diventati insiemi di numeri, i documenti possono essere analizzati con qualunque tecnica di data mining, possono persino essere inseriti in modelli predittivi, anche se l’utilizzo più comune, nelle applicazioni di text-mining è appunto il clustering.”
“Questa, che è la parte analitica del processo, – prosegue Amandonico – consiste di due fasi distinte. La prima permette di ‘scoprire le regole’, ovvero serve a identificare i migliori modelli da utilizzare per lo studio di un determinato fenomeno. Il risultato è costituito da una serie di algoritmi, detti di ‘scoring’, costituiti da regole ‘if – then – else’, che verranno utilizzati per assegnare l’unità statistica elementare di osservazione (ovvero il documento), al cluster di appartenenza. La seconda fase è invece quella riguardante la produzione vera e propria, nel corso della quale si può analizzare anche un documento per volta, secondo modalità che si potrebbero definire di ‘near real-time’. Nel caso, ad esempio, in cui si vogliano esaminare delle e-mail, ciascuna di esse viene letta da un particolare programma il quale, dopo averne estratto un record di sintesi, lo passa agli algoritmi di scoring che la catalogano nel cluster dove sono memorizzate tutte le e-mail simili.”
… e quali sono le loro applicazioni
Poiché è stato quello del marketing il settore aziendale che ha mostrato nel tempo il maggiore interesse per le applicazioni più tradizionali della Bi, non deve stupire che un interesse paragonabile lo stia suscitando anche il Text-Mining, che viene utilizzato, a un livello base, per effettuare analisi delle e-mail o delle telefonate che giungono ai call center e, a un livello più elevato, anche in applicazioni di Crm strategico. In effetti, se quello del cliente deve essere, per quanto possibile, un profilo a 360 gradi, è evidente che anche le informazioni derivanti dall’analisi dei dati non strutturati che ad esso fanno riferimento (dove si afferma sia contenuto oltre l’80% di queste informazioni) contribuiscano ad arricchire ulteriormente il suo profilo. “Negli Stati Uniti – osserva Amandonico – due casi molto interessanti di impiego del Text Minig Sas nel settore del Crm strategico sono quelli riguardanti Honda e Hewlett Packard”. Integrando le informazioni di tipo strutturato provenienti dalla produzione e dall’assistenza tecnica con quelle ricavate dagli interventi in garanzia e dai reclami dei clienti che si rivolgono ai call center, la Honda ha messo a punto un sistema di ‘early-warning’ che le permette non solo di affrontare e risolvere in tempi estremamente rapidi i problemi di qualità e di affidabilità dei propri prodotti in un’ottica di ‘customer satisfaction’, ma di capire altrettanto rapidamente quali sono i loro punti deboli e le richieste di miglioramento fatte dai clienti in modo da orientare nel modo più proficuo le spese di ricerca e sviluppo.”
“Qualcosa di analogo viene fatto anche in Hp – aggiunge Amandonico – dove tuttavia il numero e le tipologie dei prodotti considerati è nettamente superiore. Qui l’insieme dei dati di tipo strutturato e ‘statico’ (gli anagrafici cioè e i ‘comportamentali’) dei clienti viene arricchito con quelli non strutturati provenienti dalle diverse forme di contatto che l’azienda intrattiene con loro. In questo modo Hp è riuscita a raffinare sensibilmente la comprensione delle effettive attitudini suoi clienti, portando cosi l’efficacia del proprio Crm a livelli mai raggiunti in precedenza.”
“Altri importanti settori di applicazione del text mining – conclude Amandonico – sono la prevenzione delle frodi (particolarmente in ambito assicurativo), l’analisi della letteratura biomedica e le applicazioni di ‘intelligence’ militare e civile (dove l’obiettivo non è tanto quello di sostituire l’attività dell’analista quanto di automatizzarne i suoi aspetti più ripetitivi e di minor valore aggiunto), il supporto alle attività antiterroristiche (come ad esempio quelle riguardanti l’antiriciclaggio). A questo proposito, il’Patriot Act’, la nuova versione delle norme anti-terrorismo introdotte negli Stati Uniti a seguito dei fatti dell’11 settembre 2001 stabilisce delle regole molto severe ai cui principi anche l’Europa si sta adeguando”.