Våra Attollo-kollegor Aron Hennerdal och Viktor Åberg åkte i maj till London och Gartner Data & Analytics Summit för att spana in de senaste trenderna inom Analytics och Business Intelligence. För att kunna leverera de bästa lösningarna inom Analytics är det viktigt för oss att hålla oss uppdaterade kring de stora trenderna och nyheterna inom området.
På Attollo har vi har identifierat fyra stora "take-aways" från konferensen:
- Data mesh, Data Fabric och Microsoft Fabric
- "People"-delen av D&A
- Generativa modeller (AI)
- Data management, data quality & data observability
I det här inlägget handlar det om "AI-modeller", s.k. Large Language Models.
I november 2022 släpptes ChatGPT i publik version, och enligt Gartner har inte marknaden sett likadan ut sedan dess. Där paradigmskiften inom D&A tidigare tagit 40 år, 20 år, 8 år, spår de nu att D&A-området om bara ett år kommer se markant annorlunda ut jämfört med innan den breda ankomsten av generativa AI-modeller (Large Language Models, LLM) så som OpenAIs ChatGPT och Googles Bard. Gartner pekar på att på bara några få månader har 5% av deras tillfrågade kunder redan infört förbud mot att använda modeller så som dessa. Det råder stor osäkerhet kring frågor inom säkerhet och risk, men även inom påverkan på roller och organisation inom företagen.
Hur påverkar den nya generationens AI-verktyg synen på begrepp så som Data Literacy och Data Democracy? Hur ska man tänka när de här verktygen blir så pass lättillgängliga att de blir oumbärliga stöd för verksamheten, oavsett vad för riktlinjer som sätts på högre nivå? Hur och vilka roller kommer förändras fundamentalt, och vilka roller kommer eventuellt försvinna helt? Och på samma sätt - vilka nya roller kommer vi få se inom kort som var helt okända för bara något år sedan? Rollen som "Prompt Engineer", någon med särskild förmåga och kunskap att ställa rätt frågor till AI-modeller, är ett sådant exempel.
Det mest konkreta och närmast i tid inom AI-verktyg efter rena chat-bottar som ChatGPT, tycks vara olika former av "copilots" inbyggda i applikationer och utvecklingsplattformar. Kod-versioneringsplattformen GitHub erbjuder sen förhållandevis lång tid tillbaka en sådan modul som heter just Copilot. Här kan utvecklare låta en AI-modell hjälpa till, komma med förslag och fylla på den kod som utvecklaren skriver. Resultatet varierar kraftigt utifrån vad Copilot får till uppgift och också efter hur frågan ställs. Många företag har insett att de måste inkorporera liknande verktyg i sina produkter för att fortsätta att vara relevanta och bland annat Microsoft har satsat på att ge tillgång till AI-modeller genom särskilda API:er som kan användas av tredje-partsprodukter för att komma åt AI-funktionalitet.
Ett annat område där just språk och att skapa text är värdefullt, är inom data kvalitet. Här ser vi många exempel på "augmented" data quality och data-rensning. Utifrån mönster i befintligt data, annan kunskap från modellen självt och i vissa fall autonomt utförda internet-sökningar kan en AI-modell hjälpa till att fylla på luckor i data med relevant information. Ett enkelt exempel kan vara att fylla på ett saknat län i en adress utifrån ett stadsnamn eller postnummer i kund-data, men kan utökas till avancerade exempel som kan spara in mycket manuellt arbete. I regel ges förslag på korrekturer och komplementering av data till en mänsklig expert som får godkänna eller förkasta.
På Attollo är vi självklart nyfikna och starkt motiverade att följa med i utvecklingen av AI-modeller och se var de hjälper oss och hur de påverkar våra kunders arbete och behov. Närmast på horisonten för oss ligger de assistenter och AI-moduler som börjar dyka upp i våra utvecklingsverktyg. Högst intressant är också de automatiseringar som kan göras med hjälp av LLMs i mjukvara för master data management och data kvalitet. På en mer övergripande nivå är vi också väldigt nyfikna på de organisatoriska förändringar i konsumtion och hantering av data som det här medför hos våra kunder. Hör gärna av er om ni är lika nyfikna och vill veta mer!