Werkt speech-to-text bij pathologische spraak?

Iedereen kent de natuurkundige Stephen Hawking die vanwege zijn spierziekte via zijn computer spreekt met behulp van een text-to-speech systeem. Automatische spraakherkenning, speech-to-text vertalen, is ingewikkelder. Om het goed te laten werken moest het programma getraind worden op de eigen uitspraak en stem. Bij de nieuwste systemen lijkt dat niet meer nodig: inmiddels kun je met Siri gesproken commando's aan je telefoon of iPad geven. Voor de diagnose en behandeling van kinderen en volwassenen met spraak- en taalstoornissen wordt veel gebruik gemaakt van spontane taalanalyse. De transcriptie van 30 minuten opgenomen spontane taal duurt echter uren. Het automatiseren van dit proces zou een enorme winst zijn. In het verleden was dit onmogelijk omdat het systeem de pathologische spraak niet juist herkende. Wat zijn de mogelijkheden van de nieuwe systemen?