Photo Credit: iStockphoto

Armas Autónomas Ofensivas o robots asesinos

Recientemente, alrededor de 1000 científicos y expertos en inteligencia artificial de distintos lugares del mundo firmaron una carta abierta, que fue enunciada y presentada el 28 de julio pasado en las conferencias conjuntas sobre Inteligencia Artificial (IJCAI) en Buenos Aires, Argentina, para advertir a la humanidad contra el peligro que representan las “armas autónomas ofensivas”, también conocidas como “robots asesinos”.

Escuche

Se habla aquí de armas que son activadas no por los humanos, sino por los computadores. Para los ilustres signatarios, la gran preocupación es que los robots y vehículos que se usan a fines militares en la actualidad, se conviertan en armas autónomas. Los misiles teledirigidos, dice la carta, no son problemáticos porque responden a una decisión humana. Pero el desarrollo de armas que puedan luchar, disparar y matar sin intervención humana debería prohibirse por el peligro potencial que representan.

null
© iStockphoto

Según el Dr. Yoshua Bengio, especialista en Inteligencia Artificial, profesor en Departamento de Informática e Investigación Operacional de la Universidad de Montreal y signatario de la carta que se presentó en Buenos Aires, Argentina,  la inteligencia artificial nunca sobrepasará a la inteligencia humana.

Habrá computadores que podrán tener una inteligencia comparable a la de los humanos y tendrán acceso a más datos e información que nosotros, pero nunca serán súper inteligentes como podríamos tener tendencia a creer.  Esperamos que tenga razón.

Escuche

El Dr. Yoshua Bengio fue entrevistado por Marie-France Bélanger del programa de cultura científica Les années lumières de la radio francesa de Radio Canadá.

Categorías: Internet, ciencias y tecnologías
Etiquetas: , , , ,

¿Encontró un error? ¡Pulse aquí!

Por razones que escapan a nuestro control, y por un período de tiempo indefinido, el espacio de comentarios está cerrado. Sin embargo, nuestras redes sociales siguen abiertas a sus contribuciones.