Sverige får en egen språkmodell – GPT-3SWE
Den första stora generativa språkmodellen för svenska språket lanseras med en öppen licens. Svenska organisationer och företag kan nu använda modellen i sina egna tjänster och verktyg.
Stora språkmodeller – LLM (Large Language Model) – är en viktig grund för generativ AI. För att bygga en sådan språkmodell krävs att man tränar den på enorma mängder text på det språket man vill använda. De första stora språkmodellerna var tränade på engelska, men GPT-3SWE är svensk.
Bakom GPT-3SWE står det nationella centret för tillämpad AI, AI Sweden som utvecklat modellen tillsammans med institutet RISE och forskningsprogrammet WASP. Språkmodellerna är tränade på Linköpings universitets superdator, Berzelius.
Hittar mönster i svenska språket
GPT-3SWE har tränats på de nordiska språken, främst svenska, för att hitta mönster i hur språken är uppbyggda. De mönstren kan sedan användas för att skapa texter på beställning, precis som ChatGPT gör. Språkmodellen "kompletterar" en text utifrån vad den lärt sig är ett statistiskt sannolikt sätt.
GPT-SW3 är alltså baserad på samma teknik som språkmodellerna från OpenAI som GPT-4. Men anpassad för det svenska språket. Däremot är GPT-SW3 inte ett färdigt program eller verktyg som ChatGPT. Men modellen kan användas av företag, organisationer eller privatpersoner för att bygga egna tjänster. Dessutom kan man träna modellen vidare på egen träningsdata för att utveckla GPT-SW3 vidare och få den att utföra specifika uppgifter.
GPT-SW3 har också släppts med en helt öppen licens. Vem som helst kan alltså nu utveckla till exempel en svensk chattrobot utifrån GPT-SW3.