Apple asistirá a la conferencia de aprendizaje automático más grande del mundo, reclutará nuevos ingenieros de ML

Apple anunció el jueves a través de su blog Machine Learning Journal que asistirá a NeurIPS, o la conferencia sobre Sistemas de Procesamiento de Información Neural, que se realizará la próxima semana del 2 al 8 de diciembre en Montreal, Canadá.

Tendrá un stand en NeurIPS con expertos en aprendizaje automático de toda la empresa. La publicación continúa para anunciar 137 puestos de trabajo abiertos en los diversos campos del aprendizaje automático, incluida la inteligencia artificial, la visión artificial, la ciencia de datos y el aprendizaje profundo, la infraestructura de aprendizaje automático, el aprendizaje por refuerzo, las tecnologías del lenguaje, etc..

Para solicitar esos puestos, visite el sitio web de empleos de Apple.

El gigante tecnológico de Cupertino solía prohibir a sus científicos de aprendizaje automático e inteligencia artificial publicar sus hallazgos o asistir a conferencias especializadas, pero eso cambió con la llegada del blog Machine Learning Journal en julio de 2017.

Desde los últimos años, Apple ha estado desarrollando la pila de hardware y la pila de semiconductores con el aprendizaje automático en mente. Los iPad Pros 2018 y las últimas dos generaciones de iPhone se han beneficiado enormemente del hardware de aprendizaje automático dedicado de Apple, denominado Neural Engine, que acelera enormemente las tareas informáticas pesadas como el reconocimiento de imágenes y objetos, análisis de voz, inteligencia artificial, análisis de escenas y más.

El Neural Engine está integrado en los chips de la serie A de Apple a partir del A11 Bionic del año pasado. El A12 Bionic de este año tiene un hardware Neural Engine aún más rápido capaz de ejecutar hasta cinco billones de instrucciones por segundo. Esto ha permitido un análisis de imagen y escena hasta 10 veces más rápido en comparación con el chip Aion Bionic, lo que hace posible funciones avanzadas de fotografía computacional y capacidades de imagen como control de profundidad en tiempo real y Smart HDR.

En iPhones sin Neural Engine, iOS recurre a la CPU y GPU para estas tareas.

En el verano, Apple contrató al veterano experimentado de Google y ex jefe de Búsqueda e IA, John Giannandrea, y fusionó sus equipos Core ML y Siri..