Det danske sprog er hvad man kalder for et ”low-resource language” i termer af tale data, og dermed også Automatic Speech recognition (ASR). Dette skyldes primært at Danmark er relativt lille marked, og derfor har der kun været begrænsede indsatser for at skabe unbiased repræsentative danske dataset målrette udvikling af ASR modeller. Således er de eksisterende ASR-modeller udviklet af tech-giganterne biased mod forskellige minoriteter, og kun meget få modeller som ikke er udviklet af tech-giganterne eksisterer. Men indsatsen for at holde digitalt liv i dansk og dets dialekter, er i godt på vej, men mangler det sidste nyk: enkelte modeller er pre-trænet og open-sourced, såsom en Wav2Vec2 model, men mængden af open-source træningsdata er stadig sparsomt. Hvor er vi lige nu, hvordan ser fremtiden ud for dansk og dets dialekter, og kommer computeren nogensinde til at forstå din bedstemor fra Fanø?
- Tags
-