Höjdpunkter på SLTC

Förra veckan var det dags för SLTC, Swedish Language technology conference, som äger rum vartannat år. I år var KTH värd för konferensen. Marie Mattson, språkvetare på Språkbanken Sam, deltog med ett abstract och berättar om några höjdpunkter.

Text och tal förändras

Tidigare har tal varit flyktig och text bestående. Detta har gjort att det är vanligare och enklare att studera text. Men det håller på att förändras, vilket Jussi Karlgren inledde konferensen med att prata om. Informellt tal distribueras nu på ett helt annat sätt än tidigare med hjälp av video och, framförallt, podcasts. Läs en artikel av Jussi Karlgren Länk till annan webbplats..

Språkmodeller i fokus

Inte helt otippat stod språkmodeller i fokus under konferensen. Många hade använt sig av en så kallad BERT-modell, en språkmodell som går att anpassa efter behov med hjälp av olika träningsdata. Vi fick se modeller tränade på väldigt specifika sorters data, till exempel myndigheters regleringsbrev och arbetsannonser. Felix Stollenwerk med flera har tränat en BERT-modell på arbetsannonser Länk till annan webbplats.. Dessutom presenterade AI Sweden sin nya språkmodell GPT-SW3.

Det mest underhållande föredraget stod Rob Sturm för, som diskuterade etiken bakom datainsamling och spelade AI-genererad folkmusik på dragspel. Läs mer om Rob Sturms AI-generade folkmusik Länk till annan webbplats..

Marie Mattson. Foto: Nils Tellander.

Publicerad den

Uppdaterad den

Nyhet