MAI-Voice-1 y MAI-1-preview: la IA de Microsoft para Copilot

Microsoft da otro paso hacia una mayor autonomía respecto de OpenAI y presenta dos sistemas de IA propios: MAI-Voice-1 y MAI-1-preview. Es el primer gran resultado de la unidad interna de IA de la compañía, y el debut se percibe con aplomo.

La estrella es MAI-Voice-1, un modelo de voz capaz de generar un clip de audio de un minuto en menos de un segundo, y que funciona en una sola GPU. La voz sintetizada resulta tan convincente que distinguirla de una persona real es, en la práctica, muy difícil. El modelo ya está activo en Copilot Daily, donde una voz lee las noticias y ofrece explicaciones con tono de pódcast sobre temas complejos. También puede probarse en Copilot Labs: los usuarios introducen texto, cambian voces e incluso ajustan el estilo de habla. Esa combinación de velocidad y requisitos modestos de hardware delata una ingeniería afinada.

El segundo sistema, MAI-1-preview, es un modelo de texto entrenado con 15.000 GPU Nvidia H100. Está diseñado para seguir instrucciones y generar respuestas al estilo de ChatGPT. Microsoft planea integrarlo pronto en Copilot para reducir su dependencia de OpenAI, y el modelo ya se está probando en la plataforma abierta LMArena. Las pruebas públicas sugieren que el equipo se siente seguro y busca recoger opiniones amplias.

Con estos modelos, Microsoft asume un doble papel: sigue siendo socio de OpenAI, pero también competidor. Mientras OpenAI desarrolla ChatGPT-5 y Google promociona sus modelos visuales Gemini y DeepMind, la compañía refuerza su posición con alternativas que ya destacan por su rapidez y calidad.