Innan sommaren släppte OpenAI den senaste versionen av deras GPT-modeller, GPT-4o. O, som står för omni, syftar på att modellen nu kan hantera flera olika typer av indata och utdata. Denna uppdatering introducerar nya och spännande funktioner och innebär även en betydande prestandaförbättring.
GPT-4o kan nu ta emot och bearbeta en kombination av text, ljud, bilder och video som indata. Som utdata kan den generera text, ljud och bilder. En av de större satsningarna i denna version har varit ljudfunktionaliteten, där modellen nu har blivit mycket mer naturlig och mänsklig i sitt sätt att tala. Med en responstid på cirka 320 millisekunder är den betydligt snabbare än tidigare modeller, vars responstid var mellan 2,8 och 5,4 sekunder. Även om ljud- och videofunktionerna ännu inte är tillgängliga för allmänheten, förväntas de släppas inom en snar framtid.
Prestandamässigt har GPT-4o blivit betydligt snabbare, något som verkligen märks vid användning. Dessutom har det blivit cirka 50 % billigare att använda modellen, vilket är en fördel när man behandlar stora dokument eller genererar omfattande informationsmängder.
GPT-4o har varit tillgänglig via OpenAIs hemsida för testning, men har nu även lanserats på europeiska servrar, vilket gör det möjligt att skapa egna varianter av modellen.
För att få ut hög kvalitet på ett säkert sätt rekommenderar vi på Attollo starkt att man bygger en egen GPT-modell som kombinerar t.ex. GPT-4o med din egna data. Vill du veta mer om våra lösningsmönster för att jobba med anpassade GPT-modeller, tveka inte att höra av dig till oss så berättar vi mer!