Photo Credit: iStockphoto.com

Aprendizaje profundo en IA: cambiar la vida con algo que no entendemos del todo

Según el diccionario, el término Inteligencia Artificial (IA) se refiere a un programa de computación diseñado para realizar determinadas operaciones que se consideran propias de la inteligencia humana, como por ejemplo, el auto-aprendizaje. El reto de la convivencia con la IA no es nuevo… viajando un poco en el tiempo, este tipo de “inteligencia” fue introducida en la comunidad científica en 1950 por Alan Turing quién de alguna manera atrajo a los investigadores a la idea de una máquina inteligente.

En estos últimos años, el termino IA se hizo muy popular y comenzaron a sobrevolar otros términos relacionados directamente con ésta, como por ejemplo, el “aprendizaje profundo” (deep learning), o redes neuronales profundas. Este concepto se enfoca en un aspecto de la IA que se ocupa de emular el enfoque de aprendizaje de la mente humana, sobre todo, para obtener ciertos tipos de conocimiento a partir de la experiencia. Los sistemas de aprendizaje profundo son en sus inicios, adiestrados con cierto tipo de entrenamiento, muy parecido a los métodos utilizados en la enseñanza de un niño, principalmente, enseñándole a reconocer su entorno y lo que esto significa. Este tipo de auto-aprendizaje se lo denomina profundo pues funciona bajo una estructura jerárquica que permite catalogar varios niveles de detalles de los datos aprendidos para luego determinar de qué se trata.

© LindaMarieB/iStockPhoto.com

El problema, según algunos científicos e investigadores es que, en un momento dado, este sistema de aprendizaje profundo comienza a crear un ramificaciones por sí solo, que le permite mejorar la eficacia de las tareas que realiza, y entre ellas, comunicarse con otros sistemas sin que el ser humano que lo programó entienda las trayectorias que el algoritmo utilizó para lograr su objetivo.

Para la creación de estos programas de computación se utiliza un método bastante llamativo. La constitución de estos programas a menudo implica seleccionar los algoritmos que dan los resultados correctos, pero no comprobar cómo se llega a estos resultados. Si el programa escrito produce la respuesta correcta digamos en un 99 por ciento de las veces, ¿a quién le importa saber el proceso si casi en su totalidad el resultado es correcto?. Lo delicado según los expertos, es el 1 % restante, que en una situación de la vida real, podría llegar a poner en peligro a una persona, como en el caso de un auto autónomo. El caso más llamativo y que deja pensando a los expertos es justamente el accidente de un modelo de Tesla S, donde el algoritmo no supo reconocer un obstáculo (un acoplado de camión pintado de blanco a contra luz) y todavía no se sabe por qué el software del auto no hizo detener el vehículo a tiempo estando en piloto automático.

© NicoElNino/iStockPhoto.com

Dhruv Batra,  especialista en percepción de máquinas de la universidad Tecnológica de Virginia dijo en entrevista a la revista “The Verge” que esa es exactamente la misma pregunta que la gente de Testla tiene en mente: ¿por qué sucedió? ¿Por qué no reconoció ese vehículo?». Según el profesor Batra, y a partir de un estudio comparativo entre la percepción humana y la de la IA realizado por dos de sus estudiantes, este tipo de anomalías podrían suceder por la forma en que las redes neuronales fueron entrenadas. Según el investigador, este tipo de discrepancias podría ser una nimiedad en el caso de la clasificación de un álbum de fotos familiar; pero a medida que los algoritmos de auto-aprendizaje comienzan a interactuar en otro nivel con los seres humanos y a partir de este tipo de interacción, al asumir mayor responsabilidad en el mundo real, es de suma importancia saber el proceso completo y cómo estas redes neuronales artificiales llegan a la toma de decisión.

En definitiva, para lograr una confianza plena en la inteligencia artificial, la gente debería en el caso ideal, como dijo Satya Nadella de Microsoft, entender cómo estos algoritmos ven y analizan nuestro mundo. Según Batra, si se va a enviar estas cosas al mundo a interactuar con el ser humano, van a tener que poder comunicarse y generar confianza. Solo resta esperar si las empresas detrás de estos algoritmos aceptarán el costo de todo este proceso, que evidentemente no será tan sencillo ni tan barato, pero generará otro tipo de confianza para con la Inteligencia Artificial.

Fuentes: The Verge , Microsoft, BBC, Agencias

column-banner-leo

Categorías: Internacional, Internet, ciencias y tecnologías
Etiquetas:

¿Encontró un error? ¡Pulse aquí!

Por razones que escapan a nuestro control, y por un período de tiempo indefinido, el espacio de comentarios está cerrado. Sin embargo, nuestras redes sociales siguen abiertas a sus contribuciones.