El verdadero desafío en la inteligencia artificial es generar el suficiente poder para hacer todos los cálculos, entrenamiento e inferencias para que, por ejemplo, un coche pueda transitar sin ayuda humana.
Pero para alcanzar este nivel necesitamos alrededor de 100 millones de veces la aceleración computacional que tenemos hoy.
En entrevista con Mark Papermaster, director de tecnología de AMD, El País abordó diversos temas relacionados con la inteligencia artificial, uno de los cuales se dedicó a los mayores desafíos que enfrenta AI.
‘Cuando miramos un árbol, instintivamente sabemos que es un árbol sin pasar por los aproximadamente 100 millones de cálculos que un sistema típico hace hoy para llegar a la misma conclusión. Cuando un ser humano aprende un nuevo concepto, lo hace disponiendo de la mayor eficiencia de actividad neuronal, de lo contrario estaríamos constantemente abrumados con un desorden computacional de datos’.
‘El tema es cómo lograr la experiencia de la IA. Cuando los seres humanos aprenden a conducir, la experiencia se mejora con la práctica y la exposición a una amplia variedad de escenarios que agudiza en el nivel de habilidad. De la misma manera, necesitamos que los sistemas mejoren con el tiempo y la experiencia’.
‘En la conducción autónoma hay muchas variables a considerar: qué tan rápido va el auto, qué distancia hay entre nuestro coche y el siguiente, qué está pasando en la periferia, etc. En este caso no estamos reemplazando al humano, le estamos ayudando a tener una experiencia de conducción más segura, para lo cual se requieren cantidades masivas de capacidad computacional que hoy en día no existen’.
‘Por otra parte, con respecto al software, los desarrolladores tendrán que adaptarse y evolucionar en el software para aprovechar la potencia de cálculo, la arquitectura y las características que se desarrollarán. Estamos en medio de una rápida evolución de los algoritmos de conducción de aprendizaje de la máquina. Se están desarrollando nuevos marcos de software para utilizar más fácilmente estos algoritmos. En conjunto la CPU, la GPU y las capacidades de los chips de computación de dispositivos especializados, están avanzando enormemente para satisfacer el apetito de estos algoritmos, que permitan entrenar más rápidamente e inferir resultados sobre la marcha’.
‘AMD se ha centrado en los aspectos del motor de cálculo del aprendizaje automático. Estamos desarrollando motores de cálculo de alto rendimiento y permitiendo que los procesadores de CPU y GPU soporten los actuales y evolutivos modelos de algoritmos de IA. Para hacer el desarrollo de aplicaciones eficiente y más asequible, estamos haciendo el software de habilitación del código abierto para facilitar que la comunidad en general acelere el desarrollo de aplicaciones’.
‘El software es el otro elemento de la ecuación y para que avance con la misma rapidez que el hardware, se necesita un entorno de desarrollo basado en estándares industriales de código abierto. Hemos dado a los desarrolladores, más que nunca, acceso a nuestro hardware de GPUOpem, y tenemos la plataforma de Softweare Open Compute para acelerar el aprendizaje de las máquinas, así como los frameworks y aplicaciones de aprendizaje profundo’.
Con información de El País