/ sábado 17 de marzo de 2018

Mal uso de Inteligencia artificial podría facilitar ataques terroristas

Se podría reforzar la cibercriminalidad, usar drones o robots con fines terroristas y facilitaría la manipulación de las elecciones mediante cuentas automatizadas

París, Francia. Expertos internacionales alertaron en un informe publicado sobre los riesgos de un uso malintencionado de la inteligencia artificial por parte de "Estados corruptos, de criminales o de terroristas" en un futuro cercano.

Según ellos, en la próxima década, la eficacia creciente de la inteligencia artificial (IA) podría reforzar la cibercriminalidad y conducir al uso de drones o robots con fines terroristas. Podría también facilitar la manipulación de elecciones a través de las redes sociales mediante cuentas automatizadas (bots).

Este extenso informe de 100 páginas fue redactado por 26 expertos especialistas en IA, ciberseguridad y robótica de prestigiosas universidades (Cambridge, Oxford, Yale, Stanford) y organismos no gubernamentales (OpenAI, Center for a New American Security, Electronic Frontier Foundation).

Estos expertos piden a los gobiernos y a los diferentes actores de este campo que pongan en pie mecanismos para limitar las posibles amenazas relacionadas con la inteligencia artificial.

"Creemos que los ataques que serían posibles por el uso creciente de la IA serán particularmente efectivos, finamente dirigidos y difíciles de atribuir", advierten.

Para ilustrar sus temores, estos especialistas mencionan "escenarios hipotéticos de usos malintencionado de la IA".

Explican por ejemplo que terroristas podrían alterar los sistemas de IA disponibles en los comercios (drones o vehículos autónomos) para causar accidentes o explosiones. Los autores imaginan también casos de robots de limpieza traficados que se colarían entre otros robots encargados por ejemplo de la limpieza de un ministerio. Un día, el intruso podría atacar tras localizar visualmente al ministro. Se acercaría a él y se haría estallar, detallan.

Videos falsos

Por otra parte, Seán Ó hÉigeartaigh, uno de los autores del estudio, explica que "la cibercriminalidad, en fuerte alza, podría consolidarse con herramientas facilitadas por la inteligencia artificial". Por ejemplo, los ataques denominados de spear phishing (ataques dirigidos a una organización o empresa para robar por ejemplo información confidencial) podrían ser más fáciles de llevar a cabo a una escala mayor.

Pero para él, "el riesgo más grande, aunque es menos probable, es el riesgo político". "Ya hemos visto cómo algunas personas están usando la tecnología para tratar de interferir en elecciones", apunta.

Con la IA sería posible, por ejemplo, realizar videos falsos pero muy realistas que podrían ser utilizados para desacreditar a responsables políticos, afirman los expertos.

Múltiples advertencias

No es la primera vez que expertos lanzan una señal de alarma sobre la IA. En 2014, el astrofísico Stephen Hawking advirtió sobre los riesgos que la inteligencia artificial podría hacer correr a la humanidad si supera la inteligencia humana. El empresario Elon Musk y otros también han multiplicado las advertencias.

También se han publicado informes sobre el uso de drones asesinos o sobre la manera en la que la IA podría afectar a la seguridad de países como Estados Unidos.

Este nuevo documento aporta "un panorama general sobre la manera en la que la IA crea nuevas amenazas o cambia la naturaleza de las amenazas existentes en campos como la seguridad digital, física o política", explica Seán Ó hÉigeartaigh.

La inteligencia artificial, que apareció en los años 1950, se basa en algoritmos sofisticados que permiten resolver problemas que los humanos resuelven utilizando sus capacidades cognitivas.

En los últimos años se han hecho progresos enormes en los campos relacionados con la percepción, el reconocimiento de voz y el análisis de imágenes.

terrorismo

París, Francia. Expertos internacionales alertaron en un informe publicado sobre los riesgos de un uso malintencionado de la inteligencia artificial por parte de "Estados corruptos, de criminales o de terroristas" en un futuro cercano.

Según ellos, en la próxima década, la eficacia creciente de la inteligencia artificial (IA) podría reforzar la cibercriminalidad y conducir al uso de drones o robots con fines terroristas. Podría también facilitar la manipulación de elecciones a través de las redes sociales mediante cuentas automatizadas (bots).

Este extenso informe de 100 páginas fue redactado por 26 expertos especialistas en IA, ciberseguridad y robótica de prestigiosas universidades (Cambridge, Oxford, Yale, Stanford) y organismos no gubernamentales (OpenAI, Center for a New American Security, Electronic Frontier Foundation).

Estos expertos piden a los gobiernos y a los diferentes actores de este campo que pongan en pie mecanismos para limitar las posibles amenazas relacionadas con la inteligencia artificial.

"Creemos que los ataques que serían posibles por el uso creciente de la IA serán particularmente efectivos, finamente dirigidos y difíciles de atribuir", advierten.

Para ilustrar sus temores, estos especialistas mencionan "escenarios hipotéticos de usos malintencionado de la IA".

Explican por ejemplo que terroristas podrían alterar los sistemas de IA disponibles en los comercios (drones o vehículos autónomos) para causar accidentes o explosiones. Los autores imaginan también casos de robots de limpieza traficados que se colarían entre otros robots encargados por ejemplo de la limpieza de un ministerio. Un día, el intruso podría atacar tras localizar visualmente al ministro. Se acercaría a él y se haría estallar, detallan.

Videos falsos

Por otra parte, Seán Ó hÉigeartaigh, uno de los autores del estudio, explica que "la cibercriminalidad, en fuerte alza, podría consolidarse con herramientas facilitadas por la inteligencia artificial". Por ejemplo, los ataques denominados de spear phishing (ataques dirigidos a una organización o empresa para robar por ejemplo información confidencial) podrían ser más fáciles de llevar a cabo a una escala mayor.

Pero para él, "el riesgo más grande, aunque es menos probable, es el riesgo político". "Ya hemos visto cómo algunas personas están usando la tecnología para tratar de interferir en elecciones", apunta.

Con la IA sería posible, por ejemplo, realizar videos falsos pero muy realistas que podrían ser utilizados para desacreditar a responsables políticos, afirman los expertos.

Múltiples advertencias

No es la primera vez que expertos lanzan una señal de alarma sobre la IA. En 2014, el astrofísico Stephen Hawking advirtió sobre los riesgos que la inteligencia artificial podría hacer correr a la humanidad si supera la inteligencia humana. El empresario Elon Musk y otros también han multiplicado las advertencias.

También se han publicado informes sobre el uso de drones asesinos o sobre la manera en la que la IA podría afectar a la seguridad de países como Estados Unidos.

Este nuevo documento aporta "un panorama general sobre la manera en la que la IA crea nuevas amenazas o cambia la naturaleza de las amenazas existentes en campos como la seguridad digital, física o política", explica Seán Ó hÉigeartaigh.

La inteligencia artificial, que apareció en los años 1950, se basa en algoritmos sofisticados que permiten resolver problemas que los humanos resuelven utilizando sus capacidades cognitivas.

En los últimos años se han hecho progresos enormes en los campos relacionados con la percepción, el reconocimiento de voz y el análisis de imágenes.

terrorismo

Policiaca

Confirma SSPE que uno de sus elementos disparó accidentalmente a su hijo

Tras una discusión con su ex pareja, de manera accidental accionó el arma a su cargo

Municipios

Invitan a campaña para prevenir influenza AH1N1 en Los Cabos

Es primordial aplicarse la vacuna en temporada invernal

Local

Se fortalecen los servicios de salud con nueva infraestructura

Se tienen servicios médicos más resolutivos con instituciones modernas y funcionales en Baja California Sur

Policiaca

Confirma SSPE que uno de sus elementos disparó accidentalmente a su hijo

Tras una discusión con su ex pareja, de manera accidental accionó el arma a su cargo

Mundo

Tras 14 años, Lioner Barber renuncia como editor del Financial Times

La editora adjunta, Roula Khalaf, será quien reemplace a Lionel Barber, convirtiéndose en la primera mujer editora en el diario

Local

Realiza la UABCS foro de periodismo

En el evento estuvieron el rector Dante Salgado González y el exrector Rodolfo Cruz Chávez, previo al aniversario de El Sudcaliforniano

Local

Se fortalecen los servicios de salud con nueva infraestructura

Se tienen servicios médicos más resolutivos con instituciones modernas y funcionales en Baja California Sur

Municipios

En La Paz desarrollan nueva aplicación sobre turismo deportivo

El Instituto Municipal del Deporte será el responsable de su manejo y la cual dará a conocer las actividades deportivas y turísticas que pueden realizarse en la capital

Local

Ve líder de COPARMEX similitudes entre Evo Morales y López Obrador

Alertó sobre el riesgo de que la mayoría de MORENA en el Congreso de la Unión haga modificaciones a la ley para reelegirse