Vai al contenuto principale
BlogBasi di datiMontagne di dati: Grandi contro piccoli e ampi

Montagne di dati: big data o piccoli set di dati

Montagne di dati: big data o piccoli set di dati<br>

Se siete nel settore tecnologico (e probabilmente anche se non lo siete), avete sentito parlare molto di IA. Non parlo solo dell'IA di tipo "Skynet sta conquistando la terra" che abbiamo visto nella fantascienza, ma dell'applicazione pratica dell'intelligenza artificiale e dell'apprendimento automatico nella vita di tutti i giorni.

La linfa vitale e il sostentamento dell'AI/ML sono i big data. Dati enormi. Quantità enormi di dati. O forse sì? I Big Data sono stati il motore dell'AI/ML di oggi e, anche se abbiamo sempre bisogno di grandi quantità di dati, negli ultimi anni le organizzazioni hanno iniziato a passare dai Big Data a Small and Wide

Confrontiamo le due cose.

Mucchi di dati 

I Big Data possono essere suddivisi in due modi.

Il primo è quello di raccogliere e organizzare un grande insieme di dati, un concetto semplice che può essere difficile da eseguire bene. Questo processo richiede un elevato volume di dati che si popolano rapidamente e che in genere non sono strutturati. L'infrastruttura di back-end per accogliere questo flusso di dati è ad alta intensità di risorse e comporta larghezza di banda di rete, spazio di archiviazione e potenza di elaborazione per supportare distribuzioni massicce di database. Ed è costosa.

Il secondo metodo è più complicato. Una volta che si dispone di un'enorme mole di dati, è necessario estrarne intuizioni e valore. Le tecnologie si sono evolute per adattarsi alle dimensioni dei big data, ma i progressi sono stati minori nel determinare cosa si può ricavare da queste montagne di informazioni.

È questo il momento di diventare più intelligenti. Anche in ambienti con spazio di archiviazione infinito e un'implementazione NoSQL perfetta, tutti i dati del mondo non significano nulla se non si dispone dei modelli giusti da abbinare. 

Anche qui c'è un'opportunità. Le aziende stanno trovando casi d'uso in cui meno dati da più fonti sono più pratici e stanno traendo conclusioni e correlazioni migliori dai set di dati.

Piccolo e ampio

Con un approccio piccolo e ampio, si guarda a una maggiore varietà di fonti, alla ricerca di correlazioni e non solo all'aumento della quantità grezza. Questo approccio più tattico richiede meno dati e quindi meno risorse informatiche. La varietà è la parola d'ordine, e l'approccio piccolo e ampio significa cercare diversi formati di dati, strutturati e non strutturati, e trovare collegamenti tra di essi.

Secondo un rapporto di Gartner del 2021: "Learee potenziali in cui possono essere utilizzati i dati di piccole e grandi dimensioni sono la previsione della domanda nella vendita al dettaglio, l'intelligenza comportamentale ed emotiva in tempo reale nel servizio clienti applicata all'iper-personalizzazione e il miglioramento dell'esperienza del cliente."

Il potenziale è notevole, ma come si presenta nella pratica? Le grandi serie di dati possono diventare rapidamente ingombranti o obsolete. Le tendenze e i comportamenti umani possono cambiare da un momento all'altro nell'era dell'informazione, a causa dei cambiamenti culturali ed economici. C'è spazio per modelli più agili che utilizzano insiemi di dati più piccoli e che possono adattarsi dinamicamente a questi cambiamenti.

Un rapporto dell'Harvard Business Review spiega che "molti degli insiemi di dati più preziosi nelle organizzazioni sono piuttosto piccoli: pensate a kilobyte o megabyte piuttosto che a exabyte. Poiché questi dati non hanno il volume e la velocità dei big data, vengono spesso trascurati, languendo in PC e database funzionali e non collegati alle iniziative di innovazione IT a livello aziendale".

Il rapporto descrive un esperimento condotto con i codificatori medici che ha evidenziato i fattori umani nell'addestramento dell'intelligenza artificiale con dati di piccole dimensioni. Consiglio di leggere questo studio, ma la conclusione finale è che, oltre ai piccoli dati, considerare l'elemento umano può migliorare i modelli e dare alle organizzazioni un vantaggio competitivo nella corsa agli armamenti dei big data.

In altre parole, stiamo parlando di dati piccoli, ampi e intelligenti come combinazione vincente.

Tracciare le conclusioni

Che cosa significa tutto questo? Su questo argomento si potrebbero scrivere molti volumi, e sono stati scritti, ma diamo un'occhiata veloce e olistica per trovare un messaggio da cogliere. Mi piace che il mio PC sia abbastanza potente da servire come fonte di riscaldamento per il mio ufficio a casa, ma arriva un momento in cui "di più" ha un limite. Un software può essere mal ottimizzato e funzionare male anche con la workstation di fascia più alta. 

In molti casi, investire più risorse in un problema è poco pratico e non tiene conto dei problemi reali. Più spesso, c'è una grande opportunità di miglioramento, e questo è qualcosa che stiamo iniziando a vedere con i big data oggi. Ci sono ancora casi d'uso in cui è veramente necessario un volume enorme di dati, ma è anche importante progettare modelli per ottenere il miglior uso dei dati e non solo progettare metodi per avere il maggior numero di dati.

Commenti

Lascia una risposta

Il vostro indirizzo e-mail non sarà pubblicato. I campi obbligatori sono contrassegnati da *