La adopción de la IA en empresas exige mayor accesibilidad y flexibilidad para integrar modelos sin montar infraestructuras complejas. Hasta ahora, esta tarea requería entornos on-premise o servicios cloud específicos, lo que limitaba la velocidad de despliegue.
El modelo serverless facilita la escalabilidad al cargar recursos solo cuando se necesitan para cada petición. Esta arquitectura reduce costes y simplifica el mantenimiento al eliminar el dimensionamiento manual de servidores.
OVHcloud respondió a esta demanda con el lanzamiento de AI Endpoints. Según Yaniv Fdida, chief product and technology officer de OVHcloud, la plataforma atiende a la comunidad open source y aporta transparencia total sobre los modelos.
Funciones AI Endpoints
AI Endpoints integra modelos de lenguaje natural que soportan interacciones en tiempo real para mejorar la atención al cliente y la experiencia de usuario. La plataforma ofrece funciones de extracción de texto para procesar y categorizar datos no estructurados con menos intervención manual.
Toda conversión de voz a texto y viceversa se ejecuta con APIs especializadas, lo que agiliza la transcripción y la asistencia por voz.
Los desarrolladores pueden integrar asistentes de código en sus entornos de desarrollo para recibir sugerencias en tiempo real y detectar errores sin cambiar de interfaz.
La oferta abarca modelos para generación de imágenes y tareas multimodales, lo que diversifica los casos de uso. Esta variedad permite abordar proyectos que requieren análisis de texto, audio y visualización.
Diseño y soberanía de datos
El servicio se aloja en datacenters europeos de OVHcloud, garantizando que los datos permanezcan en Europa y cumplan con normativas locales de privacidad.
Las instalaciones utilizan sistemas de refrigeración por agua para optimizar el consumo energético sin pérdidas de rendimiento en cargas intensivas de IA.
La arquitectura serverless elimina la gestión de servidores y ofrece control total de los recursos, lo que facilita la escalabilidad bajo demanda.
El uso de modelos open weight brinda la opción de desplegar versiones locales en infraestructuras propias. Esto refuerza la transparencia y el control sobre el código y los datos.
Disponibilidad y modelo de pago
Tras una fase previa de pruebas, AI Endpoints ya funciona en Europa, Canadá y APAC desde el datacenter de Gravelines. El acceso se realiza mediante un modelo de pago por uso que cobra según los tokens consumidos por minuto en cada modelo.
Entre los modelos disponibles están Llama 3.3 70B, Mixtral 8x7B y SDXL, todos de código abierto. Durante la fase previa, se incorporaron mejoras en la gestión de claves API y en la compatibilidad con modelos estables.
Estos ajustes respondieron a las solicitudes de clientes y optimizaron la experiencia de desarrollo.La plataforma incluye LLM, razonamiento y multimodal para ampliar las opciones de integración.
Los usuarios pueden seleccionar el modelo que mejor se adapte a cada proyecto sin cambios en la integración.
Con AI Endpoints, OVHcloud busca democratizar el uso de IA y facilitar la adopción de estas tecnologías en sectores como servicios, finanzas e industria. La iniciativa refuerza la oferta de soluciones cloud soberanas al combinar seguridad de datos con escalabilidad bajo demanda.