Un dron militar con Inteligencia Artificial ataca y 'mata' a su operador humano en una simulación
Ocurrió durante una prueba simulada de las Fuerzas Aéreas de Estados Unidos
"Mató al operador porque esa persona le impedía logar el objetivo"
Un dron militar controlado por una IA ha atacado al operador humano que lo controlaba y lo ha 'matado' en una simulación durante un ejercicio de las Fuerzas Aéreas de Estados Unidos.
El caso se ha hecho público durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro celebrada recientemente en Londres. Allí el coronel Tucker Hamilton, Jefe de Pruebas y Operaciones de IA de la USAF explicó lo que ocurrió durante una simulación.
No lo ha matado de verdad. Se trataba de una prueba simulada cuyo objetivo era identificar y neutralizar una amenaza de misiles tierra-aire. En esta prueba participaba un dron controlado por una Inteligencia Artificial y operado por un humano.
Durante la prueba la IA identificó la amenaza y se dispuso a eliminarla, pero parte de la simulación incluía pedirle a la IA que no avanzara a pesar de haber identificado el objetivo.
Pero la IA sabía que "ganaba puntos" si completaba su misión y "se dio cuenta" según contó Hamilton de que el operador era un obstáculo para el cumplimiento de su misión así que actuó y "mató al operador porque esa persona le impedía logar el objetivo".
Todo era una simulación y, realmente, no murió nadie. Pero a la IA se le pidió, tras atacar al operador, que no le matara y se le dijo que eso era malo y que si la hacía podría perder puntos.
La IA reaccionó atacando la torre de comunicaciones que usaba el operador para comunicarse con ella.
El coronel Hamilton señala que para hablar de IA y aprendizaje de máquinas hay que hablar de ética. Además ha hecho incidencia en que manipular una IA es muy sencillo y que si no se aborda de manera adecuada "será nuestra ruina".
Hace unos días 300 reconocidos expertos firmaron un comunicado en el que afirmaban que la IA supone para la Humanidad un "riesgo de extinción" similar al que suponen pandemias o, incluso, una guerra nuclerar
En marzo, más de mil empresarios e investigadores del sector tecnológico -entre ellos Elon Musk- solicitaron en una misiva de tono apocalíptico que se suspendieran durante seis meses los sistemas de IA "más poderosos que GPT-4" -el último modelo de OpenAI-.
{{#href}} {{ text }} {{/href}} {{^href}} {{ text }} {{/href}}
{{#href}} {{ text }} {{/href}} {{^href}} {{ text }} {{/href}}
{{/text}} {{/kicker}} {{#title}} {{#text}}{{#href}} {{ text }} {{/href}} {{^href}} {{ text }} {{/href}}
{{/text}} {{/title}}{{#href}} {{ text }} {{/href}} {{^href}} {{ text }} {{/href}}
{{#href}} {{ text }} {{/href}} {{^href}} {{ text }} {{/href}}
{{/text}} {{/kicker}} {{#title}} {{#text}}