La organización conocida como Future of Life Institute acaba de publicar una carta advirtiendo de los riesgos de la Inteligencia Artificial. No es una carta cualquiera. La firman centenares de científicos entre los que hay algunas figuras tan preeminentes como Stephen Hawking o Elon Musk.
No solo están estos dos investigadores. La carta está avalada por centenares de científicos de las universidades de Cambridge, Oxford, Harvard, Stanford y el MIT. También se han unido a ella algunos de los investigadores más destacados que trabajan en IA en empresas como Google o DeepMind.
La carta tampoco es una comunicación cualquiera. Los científicos que la firman no pretenden ponerse apocalípticos ni advertir de que la Inteligencia Artificial vaya a suponer el fin de la humanidad. El tono de la carta, por el contrario, es positivo.
De lo que tratan es de advertir que la IA es un campo de investigación en el que es especialmente importante tener cuidado con cómo se crea esa inteligencia y, sobre todo, con qué fin. El grupo de firmantes destaca los increíbles beneficios que puede tener para la humanidad el desarrollar sistemas capaces de razonar y procesar datos de una manera inteligente. Para los firmantes, estos sistemas pueden ser clave a la hora de erradicar las enfermedades o paliar la pobreza. Sin embargo, también advierte del riesgo de crear sistemas que no sean neutrales, o que no estén bajo control directo y completo de los seres humanos:
“Hasta ahora, los proyectos relacionados con la IA han estado enfocados en técnicas que son neutrales respecto a su propósito. Recomendamos potenciar un desarrollo que asegure que los futuros sistemas de IA sean robustos, pero también beneficiosos. Nuestros sistemas de Inteligencia Artificial deben hacer siempre lo que nosotros queramos que hagan.”
El grupo de científicos no solo piensa en un hipotético Skynet como el de las películas de Terminator. La Inteligencia Artificial se está utilizando en campos mucho más mundanos que el militar y en los que una mala decisión de la máquina podría producir daños. Un buen ejemplo son los coches autónomos o el instrumental autónomo médico. En estos campos, los firmantes de la carta abogan por la creación de una ética de las máquinas. De hecho piden a los agentes implicados en este tipo de proyectos que se unan para valorar si es necesaria la adopción de unos estándares universales en este sentido.
Para los investigadores que trabajan directamente en IA, la carta sugiere no solo que se centren en si el sistema está bien construido, sino también en si se ha diseñado de forma que no pueda salirse de su propósito original. También apuntan a la seguridad de los sistemas de este tipo para que no puedan ser manipulados por otras personas, y para que siempre esté bajo el control de las personas responsables de su supervisión.
Fuente: GIZMODO