Nell’era della trasformazione digitale, due tecnologie, i Big Data e l'Intelligenza Artificiale (IA), emergono come potenti catalizzatori di innovazione in diversi settori, dalla ricerca, all’industria, all’amministrazione pubblica, alla formazione. Il termine Big Data descrive gli enormi volumi di dati strutturati e non strutturati generati da individui, organizzazioni e macchine, mentre l'IA si riferisce allo sviluppo di sistemi intelligenti, in grado di eseguire automaticamente operazioni e inferenze sofisticate che tradizionalmente richiedevano competenze professionali specialistiche. La sinergia fra le potenzialità dei Big Data e dell'IA può migliorare i processi decisionali e guidare l'innovazione o il cambiamento socioeconomico in modi mai immaginati prima, tuttavia, la complessità di questa intersezione necessita, per funzionare, di potenti infrastrutture di supercalcolo e di rete, oltre a una decisa spinta all’innovazione tecnologica da parte del legislatore e dei principali attori pubblici ed economici. I Big Data si riferiscono a insiemi di dati estremamente vasti e spesso poco strutturati, che richiedono approcci specifici per essere sistematizzati, gestiti, elaborati e analizzati in modo efficiente e utile. Similmente, l'IA, anche riferibile come informatica cognitiva, si riferisce allo sviluppo di sistemi software avanzati, tra cui le reti neurali, che possiedono il notevole potenziale di abilitare processi logici, di ragionamento e decisionali in infiniti campi applicativi. L’IA possiede, inoltre, la capacità di essere agile, di apprendere e di adattarsi, anche utilizzando tecniche come la percezione visiva, il riconoscimento delle emozioni e la traduzione linguistica. Diversi modelli di calcolo cognitivo abilitati dal Machine Learning (ML) possono essere utilizzati per estrarre informazioni significative dai Big Data, superando grandemente per efficienza i metodi tradizionali. Tuttavia, a causa delle loro enormi dimensioni e della scarsa organizzazione strutturale, i Big Data non possono essere gestiti con i tradizionali metodi di elaborazione abilitati da data center standard e hanno, invece, bisogno di grandi capacità di calcolo. Lo stesso vale anche per i processi di apprendimento delle applicazioni di IA. Si stima che la produzione globale di dati nel 2025 raggiungerà i 175 zettabytes . Un numero enorme: basti pensare che se immagazzinassimo tutti questi dati in tablet da 512 GB di memoria e impilassimo i tablet uno sopra l’altro, realizzeremmo una torre alta 5 volte la distanza tra la terra e la luna! Per dirlo in maniera più semplice, i big data sono paragonabili a un vastissimo deposito di libri, ma quale sarebbe l’utilità di avere accesso a un deposito così sterminato, senza nessun archivista in grado di trasformare il deposito in una biblioteca per riconoscere e trovare velocemente il libro che cerchiamo? Il supercalcolo è, dunque, lo strumento in grado di analizzare le enormi quantità di dati di cui disponiamo con rapidità e precisione, rendendo i big data davvero utili e trasformandoli da un indefinito e infinito bacino di dati grezzi in una serie di informazioni sistematizzate, comprensibile e azionabili secondo uno scopo predefinito. Il supercalcolo è il sistema che rende possibile e veloce l’analisi e la sistematizzazione rapida dei big data, permettendo di estrarre interrelazioni e informazioni strategiche da enormi quantità di dati grezzi e disorganizzati, per abilitare decisioni intelligenti e informate. La straordinaria potenza computazionale dei sistemi HPC (High Performance Computing) consente di eseguire rapidamente analisi complesse su dataset di dimensioni enormi, ottimizzando algoritmi di analisi dei dati e migliorando l'efficienza e l'accuratezza delle analisi, oltre a rendere più rapidi e sostenibili i processi di ingestion e apprendimento necessari alle applicazioni di IA. In sintesi, il supercalcolo fornisce la potenza computazionale necessaria per eseguire analisi avanzate su grandi dataset, ed è l’interdipendenza fra Supercalcolo e Big Data che è fondamentale per affrontare le sfide complesse che ci troviamo davanti in ambito scientifico e tecnologico nell’era della trasformazione digitale, oltre che per rendere sempre più “concreta”, percorribile e sostenibile la frontiera dell’Intelligenza Artificiale.
Francesco Ubertini, A.P. (2024). I big data in Italia. La realtà attuale e le idee per il prossimo futuro.. Bologna : il Mulino.
I big data in Italia. La realtà attuale e le idee per il prossimo futuro.
Francesco Ubertini
Primo
;
2024
Abstract
Nell’era della trasformazione digitale, due tecnologie, i Big Data e l'Intelligenza Artificiale (IA), emergono come potenti catalizzatori di innovazione in diversi settori, dalla ricerca, all’industria, all’amministrazione pubblica, alla formazione. Il termine Big Data descrive gli enormi volumi di dati strutturati e non strutturati generati da individui, organizzazioni e macchine, mentre l'IA si riferisce allo sviluppo di sistemi intelligenti, in grado di eseguire automaticamente operazioni e inferenze sofisticate che tradizionalmente richiedevano competenze professionali specialistiche. La sinergia fra le potenzialità dei Big Data e dell'IA può migliorare i processi decisionali e guidare l'innovazione o il cambiamento socioeconomico in modi mai immaginati prima, tuttavia, la complessità di questa intersezione necessita, per funzionare, di potenti infrastrutture di supercalcolo e di rete, oltre a una decisa spinta all’innovazione tecnologica da parte del legislatore e dei principali attori pubblici ed economici. I Big Data si riferiscono a insiemi di dati estremamente vasti e spesso poco strutturati, che richiedono approcci specifici per essere sistematizzati, gestiti, elaborati e analizzati in modo efficiente e utile. Similmente, l'IA, anche riferibile come informatica cognitiva, si riferisce allo sviluppo di sistemi software avanzati, tra cui le reti neurali, che possiedono il notevole potenziale di abilitare processi logici, di ragionamento e decisionali in infiniti campi applicativi. L’IA possiede, inoltre, la capacità di essere agile, di apprendere e di adattarsi, anche utilizzando tecniche come la percezione visiva, il riconoscimento delle emozioni e la traduzione linguistica. Diversi modelli di calcolo cognitivo abilitati dal Machine Learning (ML) possono essere utilizzati per estrarre informazioni significative dai Big Data, superando grandemente per efficienza i metodi tradizionali. Tuttavia, a causa delle loro enormi dimensioni e della scarsa organizzazione strutturale, i Big Data non possono essere gestiti con i tradizionali metodi di elaborazione abilitati da data center standard e hanno, invece, bisogno di grandi capacità di calcolo. Lo stesso vale anche per i processi di apprendimento delle applicazioni di IA. Si stima che la produzione globale di dati nel 2025 raggiungerà i 175 zettabytes . Un numero enorme: basti pensare che se immagazzinassimo tutti questi dati in tablet da 512 GB di memoria e impilassimo i tablet uno sopra l’altro, realizzeremmo una torre alta 5 volte la distanza tra la terra e la luna! Per dirlo in maniera più semplice, i big data sono paragonabili a un vastissimo deposito di libri, ma quale sarebbe l’utilità di avere accesso a un deposito così sterminato, senza nessun archivista in grado di trasformare il deposito in una biblioteca per riconoscere e trovare velocemente il libro che cerchiamo? Il supercalcolo è, dunque, lo strumento in grado di analizzare le enormi quantità di dati di cui disponiamo con rapidità e precisione, rendendo i big data davvero utili e trasformandoli da un indefinito e infinito bacino di dati grezzi in una serie di informazioni sistematizzate, comprensibile e azionabili secondo uno scopo predefinito. Il supercalcolo è il sistema che rende possibile e veloce l’analisi e la sistematizzazione rapida dei big data, permettendo di estrarre interrelazioni e informazioni strategiche da enormi quantità di dati grezzi e disorganizzati, per abilitare decisioni intelligenti e informate. La straordinaria potenza computazionale dei sistemi HPC (High Performance Computing) consente di eseguire rapidamente analisi complesse su dataset di dimensioni enormi, ottimizzando algoritmi di analisi dei dati e migliorando l'efficienza e l'accuratezza delle analisi, oltre a rendere più rapidi e sostenibili i processi di ingestion e apprendimento necessari alle applicazioni di IA. In sintesi, il supercalcolo fornisce la potenza computazionale necessaria per eseguire analisi avanzate su grandi dataset, ed è l’interdipendenza fra Supercalcolo e Big Data che è fondamentale per affrontare le sfide complesse che ci troviamo davanti in ambito scientifico e tecnologico nell’era della trasformazione digitale, oltre che per rendere sempre più “concreta”, percorribile e sostenibile la frontiera dell’Intelligenza Artificiale.I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.