Under 2 dagar samlades cirka 1.000 personer, som på ett eller annat sätt arbetar med data och analys, för att lyssna till Gartner och vad de tror om framtiden. Attollo var, tillsammans med vårt dotterbolag Capmill, på plats för att få ta del av det allra senaste tankarna och idéerna.

Efter att ha spenderat nästan 20 timmar på ett 15-tal olika sessioner, ska vi försöka sammanfatta budskapen om framtiden i detta inlägg.

Området som Attollo verkar inom, beslutstöd och datalager, kommer att genomgå en fundamental skiftning genom att den kommer att innehålla allt mer AI, jämfört med klassisk BI. Begreppet AI är brett och kan ha många betydelser, men det som står klart är att de verktygen som finns och de systemen som utvecklas kommer i allt större utsträckning att hjälpa till med att förstå den data som analyseras.

För att en sådan förändring ska ske lyckosamt ställs det höga krav på mycket mer än bara tekniken. Det kräver att organisationerna hanteras fyra nyckelfrågor: mångfald, tillit, komplexitet och kunskap om data.

Datalagrets framtid

Ett tydligt budskap om framtiden för datalager och analyslösningar är en sammansättning av integrationsmekanismer, lagringsmetoder och analysverktyg som samlas under begreppet det logiska datalagret – LDW. Med detta menar man att de framtida plattformarna för rapportering och analys är en kombination av olika tekniker som samlas under ett och samma paraply – ett LDW. Här har det klassiska väl-modellerade datalagret en självklar plats, tillsammans med ostrukturerade datakällor som lagras enligt en Data Lake-princip.

De olika användargrupperna av ett LDW kommer att nyttja olika delar, men helt klart är det tydligt att rollerna Data Scientist och Data Engineer är nyckelroller för att driva utvecklingen av ett LDW.

Vad är då innehållet i ett LDW?

Ett LDW kommer att bestå av klassiska rapporterings- och analysmöjligheter mot väl-modellerade datalager. Men framför allt kommer ett LDW att adressera hanteringen av de ökade datamängderna och behoven av att kunna på ett mycket mer agilt sätt arbeta med data. Plattformen behöver ge stöd för att låta de kunniga analytikerna (Data Scientist) applicera Machine Learning-algoritmer och statiska modeller på data, samtidigt som det måste finnas verktyg som möjliggör ett explorativt arbetssätt för de användare som inte besitter kunskapen att använda avancerade modeller. BI-verktygen kommer allt mer innehålla möjligheter till explorativt arbete, så kallad Augmented Intelligence, där verktygen hjälper användaren att förstå sambanden i data och kan presentera informationen på ett sätt som gör det enkelt att förstå vad som påverkar vad.

Vägen till ett LDW

Att tillhandahålla en plattform som erbjuder tillgång till Data Lake-lagrad information, analys på befintliga datalagerstrukturer, möjlighet till att skapa maskininlärningsmodeller och explorativa analyser kommer ställa stora krav på att organisera sig rätt. Här ligger det stora utmaningarna och organisationen måste aktivt arbeta med de fyra kärnfrågorna mångfald, tillit, komplexitet och kunskap om data.

Vid utveckling av maskininlärningsmodeller ställs det höga krav på att teamens mångfald återspeglar mångfalden i samhället. Detta kommer att säkerställa att inte algoritmer och modeller får felaktiga förutfattade vägar till beslut. Genom att vi kan visa på en mångfald i utveckling ökar vi också tilliten till informationen. Tilliten till information blir allt viktigare ju mer data vi hanterar. Det är enkelt att repetera in ett felaktig uttalande till dess att det blir sanning, och därför måste framtiden system på ett effektivt sätt möjliggöra att vi kan förstå vad som ligger till grund för det vi ser och gör att vi kan lita på informationen.

Det är viktigt att tidigt fundera över hur man ska hantera komplexiteten i en organisation. För att möta detta ser man framför sig att utvecklingen sker av små team som fokuserar på specialiserade lösningar, istället för en ”löpande band-princip”.
Som alltid måste man fundera kring t ex Governance och kunskap om data – hur man ska säkerställa enhetlighet i termer och definitioner och hur man ska ta analysmodeller skapade av analytiker till produktionsfärdiga lösningar. När allt fler datakällor görs tillgängliga för analys ställs det allt högre krav på att vi har förståelse och kunskap kring vad det är för information vi arbetar med. Redan idag finns det organisationer som ställer krav på ”certifieringar” för att man ska få använda en datakälla i sin analys.

För att landa rätt i alla de frågeställningarna är det viktigt att ta lärdom av andra organisationer och framförallt sin egen organisation. Ofta finns det mycket lärdomar att dra av tidigare framgångsrika satsningar och hur dessa har blivit framgångsrika.

Tycker ni att allt detta låter intressant? Kom förbi så berättar vi gärna mer.