El machine learning o aprendizaje automático ha dado pasos agigantados en los últimos años, debiendo esto en gran medida al procesamiento paralelo paralelo y de gran poder entregado por GPUs de propósito general. El más reciente ejemplo de esta tendencia está ejemplificado por una colaboración entre el Centro para Las Ciencias del Data de la Universidad de Nueva York y NVIDIA. La misión, dice el par, es desarrollar aplicaciones de aprendizaje profundo de última generación y algoritmos para sistemas acelerados por GPU a gran escala.

Kimberly Powell de NVIDIA  comparte las noticias en un reciente post en su blog, hasta muy recientemente, muchos investigadores en aprendizaje profundo trabajaban en sistemas con solo una GPU. El campo sufrió una explosión de actividad, facilitada por el surgimiento de algoritmos, la disponibilidad de grandes bases de datos (gracias al data de sensor e internet) y por supuesto por el procesamiento paralelo vía GPUs. Los pioneros en el espacio dejan nuevos records en aplicaciones como detección de características y procesamiento de lenguaje con sistemas acelerados por GPU muy humildes, desde una perspectiva de HPC, pero no mucho antes que los modelos alcanzaran el techo del cómputo.

Para New York University, el próximo paso más lógico era moverse a un cluster de GPU múltiple para poder dar soporte a modelos más grandes con más parámetros de entrenamiento. Su nuevo sistema computacional de aprendizaje profundo, llamado “ScaLeNet,” es un clúster Cirrascale de ocho nodos con 32  aceleradores de GPU duales Tesla K80 de NVIDIA.

“El nuevo sistema de alto rendimiento permitirá a los investigadores de NYU tomar desafíos más grandes, y crear modelos de aprendizaje profundo que dejarán a los computadores realizar tareas de percepción parecidas a las humanas,” escribe Powell.

“Las máquinas de GPU múltiples son una herramienta para el progreso futuro en AI y aprendizaje profundo,” dice el pionero del aprendizaje profundo Yann LeCun, quien fundó el Centro para la Ciencia del Data en NYU. “Las aplicaciones potenciales incluyen autos que se manejan por sí mismos, sistemas de análisis de imágenes médicas, traducción speech to speech simultánea, y sistemas que verdaderamente pueden entender el lenguaje natural y mantener diálogos con la gente.”

LeCun, quien es además el director de Investigación AI en Facebook, cita posibles aplicaciones que se extienden mucho más allá de estos casos de uso iniciales.

“CDS tiene proyectos de investigación que aplican máquina y aprendizaje profundo a las ciencias físicas, sociales y de vida,” dice. “Estos incluyen modelos Bayesianos de cosmología y física de alta energía, modelos computacionales del córtex motor y visual, sistemas de aprendizaje profundo para el análisis de imágenes biológicas y médicas, además de modelos de aprendizaje de máquina de comportamiento social y economía.

LeCun es uno de los directores generales de la Conferencia Internacional de Representaciones de Aprendizaje, que se llevó a cabo en San Diego CA en mayo. Presentó una publicación describiendo una implementación de multi GPU rápida de una red neuronal de convolución, usada para la comprensión de imagen y video.

Fuente: HPC Wire