Wil je alle journalisten in Nederland dolgelukkig maken, geef ze dan een fatsoenlijk spraakherkenningssyteem.

Op het eerste gezicht lijkt het daarmee nogal snor te zitten: we kunnen aan Google vragen wat we willen en ook Siri gehoorzaamt braaf als we haar opdragen het licht aan of uit te doen. Zulke commando’s zijn in de regel kort en het algoritme hoeft maar enkele, veel voorkomende woorden op te pikken, zoals ‘licht’ en ‘aan’.

Een interview omzetten naar leesbare tekst is andere koek. De meest geavanceerde software kan momenteel 93 % van de gesproken Nederlandse taal correct omzetten naar een geschreven tekst, vertelde een Twentse onderzoeker mij onlangs. Dat lijkt geweldig. Maar toen ik hem vroeg mijn interviewopname aan zo’n computersysteem te voeren, ontving ik een document terug waar de taalkundige creativiteit vanaf spatte. Zo las ik: ‘Ik wil graag die schande koken ja welke schoenen dan.’

Het fragmentje ging over iemand die schoenen wil kopen. Nou lijkt ‘schande koken’ me veel spannender en zeker ook poëtischer, alleen wordt een tekst na twintig van zulke verrassingen toch wat vermoeiend. De opname was volgens de onderzoeker niet van topkwaliteit, dus de score van het algoritme was minder dan 90 %; in dit voorbeeld 80 %.

Vier op de vijf woorden correct vertalen klinkt misschien redelijk, maar sla een op de vijf keer de plank mis en je krijgt computergestuurd Dadaïsme. Zeven op de honderd keer fout, zoals de onderzoeker beloofde, is al aanzienlijk beter, maar op een tekst van duizenden woorden tikken de fouten nog altijd behoorlijk aan.

Ik val u met deze droge getallen lastig, omdat we geneigd zijn te denken dat de zelflerende algoritmes die we dagelijks gebruiken werken als een tierelier. We lezen voortdurend hoe zelflerende algoritmes steeds sneller, slimmer en veelbelovender worden. Of het nu gaat om klimaatmodellen, gepersonaliseerde medicijnen, of terrorismebestrijding, voor zelflerende algoritmes lijkt - als we sommige media moeten geloven - geen probleem te complex.

De toeslagenaffaire heeft duidelijk gemaakt dat schijnt bedriegt. Algoritmes die de fout ingaan, kunnen behoorlijk ontwrichtende gevolgen hebben. Bij de toeslagenaffaire kwam dat onder meer doordat het systeem werd gevoed met data die etnisch profileren in de hand werkten. Voed een spraakherkenningssysteem (bijvoorbeeld voor het opsporen van potentiële terroristen) met woorden die het in 10 % van de gevallen niet herkent en ik houd mijn hart vast voor de gevolgen.

Voorlopig tik ik mijn interviews nog even handmatig uit. ‘Ik wil graag die schoenen kopen. Ja, welke schoenen dan?’

Enith Vlooswijk is wetenschapsjournalist