Advierten sobre riesgos de la IA; alertan por comercialización de datos neuronales

Imagen Advierten sobre riesgos de la IA; alertan por comercialización de datos neuronales

La copresidenta del Consejo Asesor de Inteligencia Artificial de Naciones Unidas, Carme Artigas, apuntó este viernes a dos riesgos principales en la IA: las tecnologías que simulan ser personas y la amenaza vinculada a la comercialización de datos neuronales.

Artigas, que también fue secretaria de Estado de Digitalización e Inteligencia Artificial, participó en Santa Cruz (Oleiros, España) en una de las conferencias internacionales 'Women in Data Science' impulsadas por la Universidad de Stanford (Estados Unidos), que visibilizan el talento femenino en ciencia de datos, inteligencia artificial e innovación tecnológica.

En su intervención quiso combatir la idea de que "Estados Unidos inventa, China copia y Europa regula", pues detalló que China tiene un 40 % de las patentes de IA a nivel mundial -el doble que Estados Unidos- y también cuenta con una legislación "muchísimo más dura que la europea", mientras que el país americano cuenta con 350 leyes en este ámbito y California y Texas poseen las normas más restrictivas, pero a la vez "son los sitios de mayor innovación".

Señaló que "la clave para la adopción masiva de cualquier cosa es la confianza" y que lo que ocurre en Europa con la IA es que "las empresas aún no se fían", por eso apostó por trabajar en ese ámbito, aunque advirtió sobre los riesgos.

El primero es sobre la impersonación -la simulación por parte de la IA de que es una persona real-, para lo que Artigas no ve "ni una sola razón": "Estamos a un paso de la manipulación", dijo.

En ese sentido censuró la postura del magnate tecnológico Mark Zuckerberg, que alertó sobre "una pandemia de soledad en el mundo" que dice que resolverá: "No quieres resolver el problema de la soledad, lo quieres monetizar", valoró.

El segundo mayor riesgo está relacionado con los datos cerebrales, que constituyen una cruzada personal, pues considera que no debe ser posible "comercializar datos neuronales".

"No podría dormir tranquila si mis datos estuvieran en manos ajenas. La única manera de proteger esto es si asumimos que son como un órgano humano, porque en ningún sitio del mundo se puede comerciar con órganos, es la única salvaguarda", apuntó, pues en la actualidad ya es posible extraer mucha información del uso de las redes sociales, por lo que sostiene que un acceso al cerebro implicaría una amenaza crítica.

"Hace falta una Hiroshima de la IA para que veamos que nos hemos pasado de vueltas"

Artigas opinó que la situación actual de desarrollo de la IA sobrepasa límites, por lo que cree que hace falta "una Hiroshima de la IA" en forma de "una catástrofe controlada" para llegar a la conclusión: "Nos hemos pasado de vueltas", prosiguió.

Avisó también sobre las empresas tecnológicas, que "ya controlaban los medios de comunicación digital, ahora están comprando los medios de comunicación físicos y además son el complejo industrial militar", por lo que en algún momento habrá "que cortar estos monopolios".

Sobre la situación en Europa argumentó que "tiene la capacidad de innovar en la IA responsable que es compatible con los derechos fundamentales" y "la clave geoestratégica es que Europa no pierda los datos industriales" porque "todo el mundo va loco por conseguirlos", pero "la nube debe estar en territorio europeo y las copias de seguridad, también".

Fuente: EFE/ Foto: pexels 

Editor: Anabel Vela
da clic