Microsofts eigen AI: MAI-Voice-1 en MAI-1-preview versterken Copilot
Microsoft presenteert MAI-Voice-1 en MAI-1-preview: razendsnel spraak- en tekstmodel voor Copilot. Realistische stemmen, lage GPU-eisen en tests op LMArena.
Microsoft presenteert MAI-Voice-1 en MAI-1-preview: razendsnel spraak- en tekstmodel voor Copilot. Realistische stemmen, lage GPU-eisen en tests op LMArena.
© RusPhotoBank
Microsoft zet opnieuw een stap richting meer onafhankelijkheid van OpenAI en presenteert twee eigen AI-systemen: MAI-Voice-1 en MAI-1-preview. Het is de eerste grote oogst van de interne AI-afdeling, en het debuut oogt zelfverzekerd.
Het vlaggenschip is MAI-Voice-1, een spraakmodel dat een audioclip van een minuut in minder dan een seconde kan genereren en draait op één GPU. De gesynthetiseerde stem klinkt zo overtuigend dat onderscheiden van een echt persoon nauwelijks haalbaar is. Het model is nu al aan het werk in Copilot Daily, waar een host het nieuws voorleest en podcast-achtige uitleg geeft bij complexe onderwerpen. Het is ook te proberen in Copilot Labs: gebruikers voeren tekst in, wisselen van stem en kunnen zelfs de spreekstijl aanpassen. Dat tempo, in combinatie met bescheiden hardware-eisen, verraadt zorgvuldige engineering.
Het tweede systeem, MAI-1-preview, is een tekstmodel dat is getraind met 15.000 Nvidia H100 GPU's. Het is gebouwd om instructies te volgen en ChatGPT-achtige antwoorden te genereren. Microsoft wil het binnenkort in Copilot verweven om de afhankelijkheid van OpenAI te verkleinen, en het model wordt al getest op het open platform LMArena. Die publieke proeven suggereren zelfvertrouwen én de wil om feedback uit een brede groep op te halen.