NOTICIAS DATA CENTER

Broadcom desafía a Nvidia: prevé ingresos de 100.000 millones de dólares en chips de IA para 2027



Dirección copiada

La compañía espera que el mercado de aceleradores personalizados crezca a una tasa compuesta anual significativamente superior a la del mercado de chips genéricos en los próximos tres años

Publicado el 9 mar 2026

Lucía Bonilla

directora de Data Center Market



Broadcom desafía a Nvidia: prevé ingresos de 100 mil millones de dólares en chips de IA para 2027
Broadcom desafía a Nvidia: prevé ingresos de 100 mil millones de dólares en chips de IA para 2027

En un movimiento que redefine el panorama de la infraestructura tecnológica, Hock Tan, CEO de Broadcom, ha lanzado una apuesta audaz: la compañía prevé que sus ventas de chips de inteligencia artificial alcancen los 100.000 millones de dólares para el año 2027.

Esta proyección no solo consolida a Broadcom como un gigante de la era generativa, sino que marca el inicio de una era de «diversidad de silicio», desafiando el actual monopolio de las unidades de procesamiento gráfico (GPU) de Nvidia.

El auge del silicio personalizado (ASIC)

A diferencia de sus competidores, la estrategia de Broadcom no se basa en vender un chip estándar para todos. La compañía se ha convertido en el socio preferido de los hiperescalares (Google, Meta, Amazon y Microsoft) para el desarrollo de ASIC (Circuitos Integrados de Aplicación Específica).

Estos chips son diseñados a medida para las cargas de trabajo específicas de cada cliente, ofreciendo dos ventajas críticas en la carrera de la IA:

  1. Eficiencia Energética: Los chips personalizados pueden reducir el consumo eléctrico a la mitad en comparación con las soluciones genéricas.
  2. Reducción de Costes: Broadcom estima que sus soluciones pueden ahorrar a las grandes empresas miles de millones de dólares en gastos de capital (CapEx) al optimizar el hardware para sus algoritmos internos.

OpenAI y Meta en el horizonte

Uno de los puntos más reveladores de la estrategia de Tan es la expansión de su cartera de clientes. Se ha confirmado que Broadcom está trabajando en el primer chip de IA personalizado para OpenAI, con una fecha de entrega prevista para 2027. Asimismo, la colaboración con Meta para sus aceleradores de nueva generación sigue avanzando a paso firme, reforzando la tesis de que las Big Tech buscan desesperadamente alternativas para no depender exclusivamente de un solo proveedor.

Así, compañías como Meta o Google ya no quieren pagar entre 30.000 y 40.000 dólares por cada chip de Nvidia si pueden fabricar el suyo propio (con ayuda de Broadcom) por una fracción del precio, optimizado exactamente para sus modelos de lenguaje.

Más allá del procesamiento: El tejido de la IA

El éxito de Broadcom no reside solo en el chip de IA, sino en los propios centros de datos. La empresa domina el mercado de chips de red y conectividad, componentes esenciales para que miles de procesadores trabajen en conjunto de forma sincronizada. «No se trata solo de tener el chip más rápido, sino de cómo se conectan entre sí», señaló Tan durante la presentación de resultados.

Tras el anuncio, las acciones de Broadcom (AVGO) experimentaron un repunte, reflejando la confianza de los inversores en una hoja de ruta que promete un crecimiento sostenido. Con ingresos por chips de IA que ya se han duplicado en el último año, Broadcom deja así de ser una empresa exclusivamente de componentes de red para sumarse a la oleada de inteligencia artificial.

No obstante, el único «talón de Aquiles» de Broadcom es que si el campo de la IA cambia de repente y pasamos a una arquitectura totalmente nueva, los chips de Broadcom quedarían obsoletos rápidamente, mientras que las GPU de Nvidia se adaptarían con relativa facilidad mediante software. Habrá que ver cómo evoluciona este mercado en el futuro.

Impacto en la factura

Esta transición de hardware de propósito general (Nvidia) a chips personalizados (Broadcom/ASIC) va a tener un impacto directo en la factura de la nube y en cómo consumimos IA. Y es que, cuando Google por ejemplo utiliza sus propias TPU (diseñadas con Broadcom) o AWS usa sus chips Trainium, el coste operativo cae drásticamente. En ese sentido, podremos ver considerable reducción de precios en el alquiler de potencia de cómputo por hora. Las nubes que tengan el mejor silicio propio podrán ofrecer tarifas mucho más agresivas que las que solo dependen de comprarle a Nvidia.

Por otra parte, es innegable que al desarrollar una IA para correr en chips de Nvidia (usando su lenguaje), puede que no funcione igual de bien en los chips personalizados de Google o Meta. En ese sentido, podría suponer un mayor “vendor lock-in”, es decir, estar atado a una nube específica.

En términos de latencia, como los chips de Broadcom están diseñados específicamente para las redes de fibra de los centros de datos, las respuestas de los modelos de lenguaje serán casi instantáneas. La «conversación» con la IA se sentirá más natural porque el cuello de botella ya no será la comunicación entre miles de chips, sino la velocidad a la que lo puedan leer.

Artículos relacionados