Costruite aggregation pipeline per interrogare, analizzare e React in modo continuo i dati in streaming senza i ritardi inerenti all'elaborazione batch.
Eseguire la convalida continua dello schema per verificare che gli eventi siano formati correttamente prima dell'elaborazione, rilevare la corruzione dei messaggi e individuare i dati in arrivo in ritardo che hanno perso una finestra di elaborazione.
Materializzare continuamente le viste nel database Atlas collection o in sistemi di streaming come Apache Kafka per mantenere nuove viste analitiche dei dati a supporto del processo decisionale e dell'azione.
Inizia con il servizio di database multi-cloud creato per soddisfare le esigenze di resilienza e scalabilità e i massimi livelli di privacy e sicurezza dei dati.
Eseguite automaticamente codice in risposta a modifiche del database, eventi utente o intervalli preimpostati.
Integrate in modo nativo i dati MongoDB all'interno dell'ecosistema Kafka.
I dati in streaming risiedono all'interno di piattaforme di event streaming (come Apache Kafka), in sistemi che fondamentalmente sono un log distribuito immutabile. I dati degli eventi vengono pubblicati e consumati da piattaforme di streaming di eventi tramite API.
Per eseguire elaborazioni più avanzate, come aggregazioni stateful, operazioni su finestre, mutazioni e creazione di viste materializzate, gli sviluppatori devono utilizzare uno stream processor. Le operazioni sono simili a quelle che si svolgono quando si eseguono delle query su un database, con la differenza che l'elaborazione dei flussi interroga continuamente un flusso infinito di dati. È un ambito dello streaming ancora agli albori, anche se tecnologie come Apache Flink e Spark Streaming stanno rapidamente prendendo piede.
Con Atlas Stream Processing, MongoDB offre agli sviluppatori una soluzione migliore per elaborare i flussi da utilizzare nelle proprie applicazioni, basata sull'utilizzo dell'aggregation framework.
Lo stream processing avviene in modo continuo. Nell'ambito della creazione di applicazioni basate su eventi, consente esperienze reattive e accattivanti come notifiche in tempo reale, personalizzazione, pianificazione del percorso o manutenzione predittiva.
L'elaborazione in batch non funziona su dati prodotti in modo continuo. Al contrario, raccoglie i dati relativi a un periodo di tempo specifico ed elabora i dati statici in base alle esigenze. Un esempio di elaborazione in batch è quello di un'azienda di vendita al dettaglio che raccoglie i dati sulle vendite alla chiusura dell'attività ogni giorno per creare report e/o aggiornare i livelli di inventario.