Meta apuesta por chips propios para dominar la IA

Meta busca reducir su dependencia de semiconductores externos con un chip AI diseñado internamente

Meta Platforms ha iniciado las pruebas de su primer chip de entrenamiento AI interno. Esta medida forma parte de un plan para reducir su dependencia de semiconductores costosos de Nvidia y otros proveedores. La prueba inicial se realiza en una pequeña implementación, con planes de aumentar la producción si los resultados son prometedores.

Eficiencia y control en la pila tecnológica de Meta

Meta Platforms ha destacado que su nuevo chip de entrenamiento AI, un acelerador dedicado que maneja tareas específicas de AI, es más eficiente comparado con las GPU generalmente usadas para estas tareas. Al controlar su propia pila tecnológica y utilizar su propio silicio, Meta puede lograr una mayor eficiencia.

Meta Platforms

Desarrollo en colaboración con TSMC

Según Reuters, el desarrollo del chip de entrenamiento AI de Meta Platforms se lleva a cabo en colaboración con Taiwan Semiconductor Manufacturing Co (TSMC). Este chip específico, conocido como Meta Training and Inference Accelerator (MTIA), se anunció por primera vez en abril de 2024.

Optimización para redes y sistemas de recomendación

El chip MTIA soporta cargas de trabajo de AI generativa y realiza inferencias para sistemas de recomendación en los feeds de noticias de Facebook e Instagram. Meta planea aumentar la adopción del MTIA en 2025 y extender su uso para cargas de trabajo de entrenamiento y recomendaciones el próximo año.

Plan de inversión en infraestructura AI

En enero de 2025, el CEO Mark Zuckerberg anunció un plan de inversión en infraestructura AI de $60 a $65 mil millones para 2025, buscando ampliar la infraestructura de AI de Meta y apoyar casos de uso generativos y cargas de trabajo específicas de AI.

Meta Platforms está en una misión para optimizar y controlar su infraestructura AI mediante el desarrollo de su propio chip de entrenamiento AI. Con colaboración de TSMC, esperan aumentar la eficiencia y reducir costos, con grandes planes de inversión para asegurar el futuro de su plataforma AI.



Fuente: macrumors.com