Microsoft har sedan fem år tillbaka erbjudit en funktion som beskriver bilder för synskadade, men nu är det dags för en helt ny version som sägs vara betydligt mer träffsäker än den nuvarande.

Den nya versionen baseras på en teknik som kallas för Visual Vocabulary pre-training (Vivo). I korthet handlar det om att använda neurala nätverk för att identifiera föremål och varelser i en bild. Därefter jämförs resultatet med ett stort antal bilder som har beskrivits av människor, vilket gör att texterna justeras för att bli mer korrekta.

Den förbättrade funktionen ska inom kort implementeras i Microsoft Office och Seeing AI, en app för synskadade som kan laddas ner utan kostnad från App Store. Men redan nu finns den tillgänglig via Azure-tjänsten Computer Vision.

Vill du veta mer om Vivo kan du läsa en uppsats med titeln VIVO: Surpassing Human Performance in Novel Object Captioning with Visual Vocabulary Pre-Training.

Läs även: Största satsningen på forskning någonsin – så ska Sverige bli bäst på AI