¿Qué riesgos tiene la Inteligencia Artificial?

por Pilar


Publicado 26/09/2019


¿Qué riesgos tiene la Inteligencia Artificial?

La Inteligencia Artificial está presente en todos los ámbitos de la sociedad. Y tiene su lado malo. La Asociación para el Avance de la Inteligencia Artificial, organismo creado en 1979, para promocionar el uso responsable de la IA, alerta de sus posibles riesgos e invita a prevenirlos. Elon Musk también ha asegurado que está creciendo a un ritmo casi exponencial y ha prevenido de la posibilidad de que ocurra algo peligroso en los próximos cinco o diez años.

Invasión de la intimidad. Es un hecho que dejamos huella, datos, continuamente, en nuestro paso por Internet. Eso permite llegar al usuario, de una forma de momento no excesivamente intrusiva, pero que puede alcanzar niveles opresivos, haciendo que se clasifique a los ciudadanos y que la información obtenida se use contra ellos.

Las Redes Sociales son un lugar en el que recabar mucha información sobre una persona, lo que permite personalizar la publicidad, permitiendo gran eficacia en las campañas de marketing, pero también puede utilizarse de forma más perniciosa, manipulando a las personas a través de los datos y los algoritmos.

Fallos en la programación. ¿Qué ocurre si las órdenes que se transmiten a la máquina se interpretan de forma equivocada? En algunos casos puede ser un problema de cierta entidad. Y el hecho de que esta tecnología esté presente en la industria automovilística, sanitaria y armamentística puede hacerlos más graves aún.

Además, los algoritmos de la Inteligencia Artificial no son invulnerables, y dependiendo de la complejidad y de la dependencia de los sistemas tengan de ella, un ciberataque puede provocar un desastre. Por ello hay un gran interés en desarrollar los mecanismos que permitan detectar y parar estos ataques. 

El gran miedo de muchas personas es pensar que la Inteligencia Artificial llegue a ser una entidad propia. Tan inteligente o más que el hombre y dotada además de la posibilidad de adelantarse, por ejemplo, a que alguien quiera desconectar un ordenador central en un arreabato de iniciativa. Podría incluso acabar con la especie humana, como decía Stephen Hawking que la tecnología evoluciona más rápido que el hombre, y eso lo convierte en un ser vulnerable.

Sin embargo, siendo realistas, nos ayuda más que nos perjudica, aunque las  instituciones trabajan para conseguir una IA segura. 

Una de las primeras es el Machine Intelligence Research Institute, MIRI, que vela por la seguridad de los programas de investigación de IA, como también lo hace Open AI, empresa creada por Elon Musk para el mismo fin.

El Instituto del Futuro de la Humanidad de Oxford se dedica a estudiar y diseñar normas, políticas e instituciones que garanticen un mejor desarrollo de la IA. Tiene varias publicaciones que alertan sobre los peligros del mal uso de la Inteligencia Artificial.

La Comisión Europea trabaja en un borrador sobre las Directrices éticas de la IA, que puede estar acabado en unos meses. Está asesorada por civiles, universidades y empresas ya que pretende ser mucho más que una enumeración de principios. Se trata de ver cómo se abordan desde varios ámbitos los desafios y oportunidades que ofrece la IA.

Se trata de que la IA sea confiable porque sea beneficiosa para los seres humanos. Se entenderá que es así si tiene un fin ético y cumple con legislación vigente, y respeta los principios y valores esenciales. La tecnología tiene que ser fiable y sólida. 

En definitiva se trata de que la Inteligencia Artificial se diseñe para mejorar el bienestar individual y colectivo, proteja la dignidad de las personas, su privacidad y libertad. Que debe respetar su autonomía, garantizar la no discriminación de colectivos minoritarios y debe ser tecnológicamente transparente para tener la confianza de los ciudadanos. 

Imagen: Franck V.


Categorías: Tecnología
Tags: Inteligencia artificial