Home Blog Text Mining: utilit ...

Text Mining: utilità e stato della tecnologia per la Finanza

Marco Belmondo

Le banche e le più grandi compagnie di investimento stanno sviluppando modelli di natural language processing o di text mining per poter sfruttare dati aziendali o relativi ai consumatori. I campi applicativi variano dal continuo monitoraggio delle opinioni dei clienti (relativamente, ad esempio, a campagne pubblicitarie o customer care) alla enterprise search.

Storicamente, questi player del mercato hanno collezionato enormi quantità di dati relativi ai clienti e alle loro operazioni. Una importante porzione di questi dati è interamente testuale, non aggregabile e memorizzata spesso solo per motivi di compliance.

Questi dati potrebbero quindi essere “stoccati” per diversi utilizzi (internamente alla stessa azienda): in particolare, l’AI può portare a search e discovery finalizzate all’ottenimento di preziosissimi business insight.

Ma quali sono le tecniche utilizzate per l’estrapolazione di informazioni? Scopriamolo in questo articolo.

Cos’è il text mining

Il Text mining è una tecnica afferente alla branca dell’artificial intelligence che sfrutta il natural language processing (NLP) o altre metodologie per estrarre ed analizzare informazioni da enormi agglomerati di documenti in modo automatizzato, risparmiando a team di analisti umani molti task ripetitivi.

In particolare, con text mining ci si riferisce ad un derivato di tecniche (prevalentemente data mining, machine learning e linguistica computazionale) atte ad estrarre dei pattern dai dati, soprattutto quelli non strutturati.

Infatti, spesso non si elaborano solo di sole fonti testuali in linguaggio naturale, ma anche formati multimediali (foto, audio, video) e formati strutturati (come quelli di pagine web o grandi dataset pubblici).

Come risultato si ottengono dati normalizzati, strutturati e utilizzabili per presentazione diretta (con grafici e mind map) o per ulteriori analisi (ad esempio tramite metodologie di Machine Learning).

Come viene applicato il text mining alla finanza

Per poter conoscere i principali campi applicativi, partiamo con una overview delle principali tecniche di text-mining, tracciando quindi alcuni esempi più esplicativi.

Una delle più note tecniche è sicuramente la Sentiment Analysis, anche detta opinion mining. Come suggerisce il nome, è utilizzata (spesso su dati ricavati da piattaforme e-commerce, blog e social media) per cercare di categorizzare il tono o l’emozione provata da cui produce il contenuto. L’outcome sarà una label in un certo sottoinsieme oppure un più generico esito negativo o positivo.
Questa prima tecnica – applicata al dominio finanziario – è tendenzialmente usata per ricavare la percezione esterna di aziende e per alimentare modelli di Machine Learning per poter predire prezzi e trend del mercato azionario.

Altro approccio, usato a scopo di standardizzazione, è l’information extraction. Quanti sono i metodi diversi per poter registrare movimenti e investimenti? Buona parte di questi mezzi, in formato digitale o cartaceo, non sono caratterizzati da uno schema fisso. Per poter ovviare a questo problema e costruire strutture dati standard viene utilizzata la information extraction.

Altra branca nota del text mining è il natural language processing. Questo viene spesso utilizzato per poter condensare enormi moli di informazioni dai dati aziendali, estraendo indicazioni su performance, raggiungimento di obiettivi, compliance e profili utente.
Le informazioni possono essere usate da analisti o contact center per poter ricavare informazioni:
– sui clienti registrati
– sui prodotti che trattano o vendono
– sui prodotti consigliati a specifici target di clienti

Infine, più recenti metodologie basate su deep learning hanno dimostrato – nonostante la loro natura general purpose rispetto a quella degli altri algoritmi elencati – di poter ottenere sorprendenti performance sia in task di classificazione che di predizione dei trend.

La sovrapposizione di svariati layer nelle reti neurali permette infatti di poter cogliere non linearità e correlazioni tra i dati forniti in input. Sostituendo e ri-addestrando solo la parte finale di una rete neurale è addirittura possibile ottenere, con minore costo computazionale, un modello quasi perfetto per dati anche radicalmente diversi rispetto a quelli usati per il modello di partenza.

In conclusione, sono molteplici le strategie applicabili per processare i nostri dati. La differenza molto spesso non è tanto l’algoritmo, quanto la qualità della nostra base dati. Fortunatamente, con le tecniche di text mining descritte è possibile pulire e normalizzare i nostri dati, rendendoli fruibili ad analizzatori automatici.
L’approccio di analisi con bot non è più infatti una scelta, ma una vera e propria necessità, data l’enorme mole di dati a disposizione.