Apple Nyheder

Apple træner Siri til bedre at forstå mennesker med atypisk tale

Torsdag den 25. februar 2021 kl. 13:42 PST af Juli Clover

Apple undersøger, hvordan man kan forbedre sig syrien for bedre at forstå folk, der taler med en stamme, ifølge nye detaljer delt af Wall Street Journal i et stykke om, hvordan virksomheder træner stemmeassistenter til at håndtere atypisk tale.





ios14siriinterface
Apple har bygget en bank med 28.000 lydklip fra podcasts med folk, der stammer, som kunne bruges til at træne ‌Siri‌. De data, som Apple har indsamlet, vil forbedre stemmegenkendelsessystemer til atypiske talemønstre, ifølge en Apple-talsmand.

Sammen med at forbedre hvordan ‌Siri‌ forstår folk med atypiske talemønstre, har Apple også implementeret en Hold to Talk-funktion til ‌Siri‌ der tillader brugere at kontrollere, hvor længe de vil have ‌Siri‌ at lytte efter. Dette forhindrer ‌Siri‌ fra at afbryde brugere med en stamme, før de er færdige med at tale.



‌Siri‌ kan også bruges uden stemme alle sammen, igennem en Type til Siri-funktion som først blev introduceret i iOS 11.

Apple planlægger at skitsere sit arbejde med at forbedre ‌Siri‌ i et forskningspapir, der vil blive offentliggjort i denne uge, som vil give flere detaljer om virksomhedens indsats.

Google og Amazon arbejder også på at træne Google Assistant og Alexa til bedre at forstå alle brugere, inklusive dem, der har problemer med at bruge deres stemmer. Google indsamler atypiske taledata, og Amazon lancerede i december Alexa Fund for at lade folk, der har talehandicap, træne en algoritme til at genkende deres unikke stemmemønstre.