Microsoft quiere hacer la inteligencia artificial y el deep learning mucho más rápidos, y de paso tomarle la delantera a rivales como Google en ese campo. Para ello ha presentado una nueva plataforma de aceleración de hardware llamada Project Brainwave. Con ella pretende que los asistentes virtuales puedan responder aún más rápido cuando estén conectados a la nube.
Para conseguirlo Microsoft ha utilizado los chips FPGA de última generación de Intel, y ha diseñado con ellos una infraestructura que pronto estará disponible para los usuarios de Azure, de manera que cualquiera de sus clientes pueda beneficiarse de sus avances.
Esto supondría, por poner un ejemplo, que si tenemos una alarma anti robos con IA en casa esta sería capaz de avisarnos casi en tiempo real cuando alguien entre en ella. De esta manera tendríamos más posibilidades de poder pillar infraganti a quienes hayan entrado y actuar en consecuencia.
«Queríamos construir algo más grande, más perturbador y más general que una solución puntual», ha dicho el ingeniero Doug Burger en la presentación durante la conferencia Hot Chips donde realizaron el anuncio. «Project Brainwave logra un gran salto adelante tanto en rendimiento como en flexibilidad para servir en la nube a modelos de aprendizaje profundo»
Con esto Microsoft no pretende acelerar los algoritmos de aprendizaje de máquinas, sino de acelerar las transmisiones entre los nodos de su red de servidores. El tráfico era tal hasta ahora que las CPU de esos servidores no podían aguantar tal avalancha de datos, algo que dicen haber solucionado con su Project Brainwave.
Microsoft quiere liderar la IA
Microsoft lleva un tiempo desarrollando los chips FPGA. En lugar de utilizar unos chips genéricos para servidores personalizados, los FPGAs son programables y pueden adaptarse a distintos entornos y escenarios. El gran contrapunto a su versatilidad suele ser una potencia inferior, pero Microsoft los ha conseguido modificar para hacerlos mucho más competitivos.
Para demostrarlo han utilizado un modelo de Deep Learning con el que su hardware consiguió alcanzar casi 40 teraflops de rendimiento, y ejecutar cada operación en menos de un milisegundo. Todo ello utilizando los nuevos chips FPGA Stratix 10 TX de 14 nm de Intel.
Microsoft ha adjuntado estos FPGAs de alto rendimiento en sus redes de centros de datos, creando una infraestructura capaz de procesar cualquier solicitud tan rápido como la red pudiera transmitirla, lo que permitiría que las CPUs de los servidores no tengan que procesar las solicitudes entrantes.
En esta infraestructura también se han utilizado unidades de procesamiento DNN (o DPU). Se trata de un chip que puede ser modificado para entender una amplia gama de datos en vez de estar diseñado para entender sólo determinados datos, lo que les da una mayor flexibilidad. Además, Project Brainwave soporta un amplio rango de frameworks, desde el Microsoft Cognitive Toolkit hasta el Tensorflow de Google, facilitándole bastante la vida a los desarrolladores.
Los de Redmond pretenden ofrecerle esta tecnología próximamente a sus clientes de Azure para que puedan utilizarla en cualquier otro producto. Pero de momento no han dado fechas sobre cuándo podrán hacerlo, por lo que tocará esperar a anuncios posteriores.
Vía | Xataka