En av de senaste Azure-produkterna Microsoft har lanserat är Azure Cosmos DB. Cosmos DB är en databas anpassad för ostrukturerat data och har inbyggt stöd för API:er för NoSQL och OSS som MongoDB, Cassandra, Gremlin och SQL.

Sessionen jag var på hade rubriken Azure Cosmos DB – Accelerate a Real-Time Big Data Solution.
Ett franskt bolag jobbade på en lösning där syftet var att med hjälp av en mängd sensorer, just nu endast i Frankrike men skulle kunna vara över hela världen, styra elproduktionen i landet baserat på information från sensorer som känner av väder, vind, soltimmar, nuvarande elproduktion, överproduktion etc. och koppla ihop det med försäljningspris. Med lösningen möjliggör man att i realtid kunna styra vilken anläggning som skall gå på högvarv kopplat till de här parametrarna. Är det blåsigt är det troligen mest lämpligt att vindkraftverken på franska västkusten står för majoriteten av elproduktionen och att man under en sån period helt enkelt stänger av ex. kolkraftverken. Är det vindstilla, mulet, etc. skall förmodligen elen komma från någon källa lämpat för den väderleken. Den stora effekten skulle uppnås med just synkroniseringen mellan alla olika el-genererande anläggningar runt om i landet och att det sker i realtid. Det finns säkert en viss uppstartstid och säkert ”avstängningstid” också innan glöden lagt sig i ett kolkraftverk, men ni fattar poängen. En riktig cool och miljömedveten tillämpning som man hoppas att fler tar efter.

Lösningen

För att lösa det här hade man först en Azure IoT Hub som tar emot data från sensorerna, till den kopplar man Azure Stream Analytics för att i realtid leverera data från sensorerna till Azure Cosmos DB. Cosmos DB levererar i sin tur datat dels till en realtid mobilapp där man kan följa sensordatat men även via Azure Databricks till PowerBI för att kunna följa, analysera data i realtid. För att spetsa till det ytterligare kan man koppla på ERP och CRM system för att förbättra analysmöjligheterna. Då behöver man komplettera med Azure Data Factory för att orkestrera dataladdningarna från CRM, ERP systemen via ett Azure Blob Storage till Polybase och vidare till Azure SQL Data Warehouse. Där bygger man ett traditionellt DW för den avancerade analysen och mer den batchvisa laddningen. På Azure SQL DW kopplar man på Azure Analysis Services och kopplar Power BI på det. Voila! Så har man rapportering och analys på både ostrukturerat och strukturerat data. Data i realtid på den data som behöver vara i realtid och icke realtidsdata från ex. CRM-systemen. Rätt coolt och tiden att snurra upp de här olika delarna i Azure är i stort sett noll. Sen skall de olika delarna såklart konfigureras så att de kan prata med varandra, men nu mer än någonsin känns det som att det bara är fantasin som sätter stopp för vad man kan göra.

SQL-Server

Jo just det, i morse på dagens keynote fick vi en historiklektion i SQL Server. Alla som varit ansvariga för SQL Server sedan starten 1993 kom upp på scen och blev intervjuade. En och annan anekdot fick vi ta del av. Första versionen av SQL server rymdes på en diskett och man trodde aldrig att en databas skulle bli så enorm som en gigabyte. Det var bättre förr, eller? SQL Server 2000 var första versionen för min del, det betyder att jag jobbat med SQL Server i mer än 2/3 av dess liv så här långt och jag är då säker på att det inte var bättre förr även om DTS-paketen alltid kommer ha en speciell plats.

Nu rundar vi av dag 2 och ser fram emot sista konferensdagens spännande sessions.

/Thomas