Inteligencia Artificial | ARCHIVO
(Actualizado

La inteligencia artificial ha removido los cimientos del mundo que conocíamos hasta ahora. La incertidumbre sobre las consecuencias de su aplicación totalmente libre, ha puesto en alerta a gobiernos, instituciones, científicos y tecnólogos, que estudian o reclaman una regulación urgente.

Estos son los últimos pasos que están dando para regularla:

ESPAÑA

El pasado mes de abril, la Agencia de Protección de Datos en España anunciaba que investigará a OpenAI por un posible incumplimiento de la normativa, en el marco de una actuación conjunta del Comité Europeo de Protección de Datos (EDPB).

España ha pedido al EDPB que evalúe los problemas de privacidad que rodean a ChatGPT.

El Gobierno aboga por una regulación la IA que siga el modelo europeo

La secretaria de Estado de Digitalización e Inteligencia Artificial, Carme Artigas, considera que es "imprescindible el debate internacional" sobre esta tecnología y que es ingenuo plantearse parar la innovación en este campo.

UNIÓN EUROPEA

A mediados de junio el Parlamento Europeo se opuso a la vigilancia biométrica en tiempo real e impuso condiciones para los nuevos sistemas como ChatGPT.

La Eurocámara fijó así su posición de cara a las negociaciones que con la Comisión Europea y el Consejo de la UE para pactar el texto definitivo de la ley para impulsar el desarrollo de la IA, limitando a su vez los posibles riesgos.

La Eurocámara se opone a la vigilancia en tiempo real y regula los sistemas GPT

La norma afectará a cualquier sistema capaz de generar contenido como texto o imágenes, predicciones, recomendaciones o decisiones que influyan en entornos.

Los legisladores han propuesto clasificar las diferentes herramientas de IA según su nivel de riesgo percibido, desde bajo hasta inaceptable.

La UE y EEUU se reúnen para abordar los retos de la inteligencia artificial

A finales de mayo, La Unión Europea y Estados Unidos se reunieron para tratar las oportunidades y retos de la inteligencia artificial en una nueva edición del Consejo de Comercio y Tecnología (TTC), un foro a nivel ministerial que se celebra anualmente.

Los socios europeos han dejado clara su intención de controlar que las grandes plataformas como Twitter, Amazon o Google no muestran contenido de forma ilegal a los usuarios.

La Unión Europea vigila los algoritmos de las grandes tecnológicas desde España

Para cumplir está misión, la Comisión Europea inauguró en Sevilla el pasado mes de abril la sede del centro Europeo para la Transparencia Algorítmica (ECAT), encargado de vigilar los algoritmos de las Big Tech.

ESTADOS UNIDOS

Esta misma semana, el gobernador de Florida, Ron DeSantis, firmó una ley de derechos digitales que, entre otras cosas, brinda a los consumidores la capacidad de corregir los datos personales recopilados en línea.

"Nunca más los oligarcas de la Big Tech van a poder manejar y adueñarse de tu información personal ni te van a poder privar del derecho a acceder, confirmar y borrar los datos que desees", aseguró DeSantis.

Florida permitirá a los usuarios digitales borrar sus datos personales en línea

La Comisión Federal de Comercio de Estados Unidos declaró el pasado 3 de mayo que el organismo se comprometía a aplicar la legislación existente para frenar los riegos de la IA.

En concreto, la Comisión hizo hincapié en vigilar la posición dominante de las grandes empresas en el mercado, así como la "turboalimentación" del fraude.El senador Michael Bennet presentó en abril un proyecto de ley para crear un grupo de trabajo que estudie las políticas de EE.UU. sobre IA e identifique la manera de reducir las amenazas a la privacidad, las libertades civiles y las garantías procesales.

En ese sentido, el presidente de EE.UU., Joe Biden, reclamó de nuevo al Congreso una legislación de privacidad que ponga límites a la recopilación de datos personales por parte de las tecnologías.

Biden identifica los tres riesgos principales de la inteligencia artificial

Es importante abordar los posibles riesgos para la sociedad, la seguridad nacional y la economía, aseguró Biden quien afirmó que las empresas de tecnología tienen la responsabilidad de garantizar que sus productos sean seguros antes de hacerlos públicos.

El presidente dijo que las redes sociales ya han puesto de manifiesto el daño que puede causar una tecnología tan poderosa, incluyendo la salud mental, sin los controles adecuados.

EL G7

Los líderes del Grupo de los Siete reunidos en Hiroshima el pasado 20 de mayo reconocieron la necesidad de gobernar la inteligencia artificial y las tecnologías inmersivas.

Los ministros responsables de digitalización y tecnología del G7 acordaron promover un uso "responsable" de la IA ante el avance de estos sistemas y su potencial uso para socavar la democracia y vulnerar la privacidad de las personas.

El G7 acuerda promover un uso "responsable" de la inteligencia artificial

En concreto, la declaración cita cinco principios clave para regular el uso de la IA y otras tecnologías emergentes: estado de derecho, garantías legales, democracia y respeto por los derechos humanos y aprovechamiento de oportunidades para promover la innovación.

IRLANDA

El caso de Irlanda es especialmente significativo por el impacto económico que puede suponer la regulación de la inteligencia artificial.

El sector de la tecnología impulsa el crecimiento del PIB del país, una de las economías más débiles de Europa antes del desembarco de las corporaciones 'tech', gracias a su política fiscal.

Histórica multa en Irlanda a Meta por transferir datos a EE.UU.

Por eso, la Comisión para la Protección de Datos de Irlanda ha señalado que es importante no tomar decisiones precipitadas sobre la IA.

Su directora, Helen Dixon, aseguró que todavía nos encontramos en una etapa temprana de la tecnología y que es necesario entender cómo funciona "antes de apresurarse con prohibiciones que no pueden sostenerse”.

ITALIA

El chatbot ChatGPT se ha reactivado en Italia a finales de abril después de que OpenAI abordara los problemas planteados por la autoridad de protección de datos del país europeo.

El Garante italiano prohibió temporalmente ChatGPT el pasado 31 de marzo y abrió una investigación por la presunta violación de las normas de privacidad de la aplicación de inteligencia artificial.

ChatGPT vuelve a estar disponible en Italia

El garante italiano para la Protección de Datos Personales abrió una investigación a OpenAI por posibles violaciones de privacidad y por no verificar que los usuarios tenían 13 años o más, como se había solicitado.

Por su parte, la Autoridad italiana Garante de la Competencia y del Mercado (AGCM) abrió una investigación contra Apple por el presunto abuso de posición dominante en el mercado de las aplicaciones.

GRAN BRETAÑA

El regulador británico de Competencia anunció en mayo que examinaría el impacto de la IA en los consumidores, las empresas y la economía.

La empresas británicas ya habían expresado su apuesta por esta tecnología. Las inversiones públicas y privadas en el sector sitúan a Gran Bretaña a la cabeza entre sus vecinos europeos y entre los primeros del mundo.

Getty pide a la Justicia británica que impida a Stability AI la comercialización de sus productos de IA

En este contexto, las autoridades británicas rechazaron crear un organismo propio que regule esta tecnología y apuesta por dividir la responsabilidad de gobernar la IA entre sus reguladores de derechos humanos, salud y seguridad, y competencia.

Por su parte, la Autoridad de Conducta Financiera (FCA por sus siglas en inglés), uno de los reguladores estatales encargados de elaborar nuevas directrices sobre IA, consultará al Instituto Alan Turing y a otras instituciones jurídicas y académicas sobre su uso.

FRANCIA

La autoridad de protección de datos francesa, CNIL, dijo el 11 de abril que estaba investigando varias quejas sobre ChatGPT, después del cierre temporal del chatbot en Italia.

Previamente, en marzo, la Asamblea Nacional había aprobado la videovigilancia con IA durante los Juegos Olímpicos de París 2024, desoyendo las advertencias realizadas por grupos de derechos civiles sobre la amenaza que representaba esta tecnología para para las libertades.

CHINA

El Legislativo chino, la Asamblea Nacional Popular, estudia la aprobación de un proyecto de ley que regula la investigación y desarrollo de la inteligencia artificial y que, de aprobarse en los próximos meses, se convertiría en la primera legislación a nivel nacional de la inteligencia artificial en el país asiático.

La nueva ley "regularía la investigación y el desarrollo de la tecnología de inteligencia artificial y sus cadenas de suministro", algo que se necesita "urgentemente", ya que "el sector se ha desarrollado a una velocidad sin precedentes", ha asegurado el vicepresidente del Instituto de Estado de Derecho de Inteligencia Artificial y Cibernética, Li Zonghui.

Establecer una ley a nivel nacional para esta tecnología es parte de un plan de desarrollo que se fijó el país asiático en 2017.

El contenido generado por chatbots de IA en China deberán reflejar "valores socialistas"

El gobierno chino quiere que las empresas presenten evaluaciones de seguridad a las autoridades antes de lanzar sus desarrollos.

Beijing apoyará a las empresas líderes en la construcción de modelos de IA que puedan desafiar a ChatGPT, según el buró de economía y tecnología de la información en febrero.

El organismo estipula además que los textos generados por chatbots de IA no podrán incluir contenido que intente "subvertir el poder estatal", "incite a dividir el país" o "promueva el odio y la discriminación étnicos", entre otros criterios.

ISRAEL

Israel ha estado trabajando en la normativa sobre IA "durante los últimos 18 meses" para lograr el equilibrio adecuado entre innovación y la preservación de los derechos humanos y las garantías cívicas.

Ziv Katzir, director de planificación nacional de IA en la Autoridad de Innovación de Israel, publicó en octubre un proyecto de política de IA de 115 páginas y y está recopilando las reacciones del público antes de tomar una decisión definitiva.

Más de 300 expertos advierten que la IA pone a la Humanidad en riesgo de extinción

Por otro lado, Israel se ha sumado a la carrera por el mercado de la IA fabricando uno de los ordenadores más potentes dedicados a la inteligencia artificial.

El superordenador 'Israel-1', impulsado por NVIDIA, servirá con tecnología cloud a las aplicaciones de inteligencia artificial generativa para entrenar a sus algoritmos con gran rapidez.

JAPÓN

A principios de junio, el organismo japonés de control de la privacidad advirtió a OpenAI que no recopile datos sensibles sin el permiso de los usuarios y que reduzca al mínimo los datos sensibles que recopila.

El pasado 10 de abril, Fumio Kishida, primer ministro japonés y Sam Altman, director ejecutivo y cofundador de OpenAI, se reunieron para abordar aspectos normativos relacionados con esta tecnología y su posible adopción para tareas burocráticas.

Japón estudia usar ChatGPT en tareas administrativas

Altman aseguró que durante el encuentro discutieron "los beneficios de la tecnología de inteligencia artificial y cómo reducir sus desventajas".

El CEO de OpenAI planteó también a Kishida la posibilidad de que OpenAI abra una oficina en el país asiático y subrayó que Japón "puede desempeñar un papel significativo como país de adopción y de uso" de ChatGPT.

Altman destacó que Japón "es uno de los centros mundiales" en cuanto al uso de la versión de chat GPT lanzada el pasado noviembre, con más de un millón de usuarios activos diarios.

AUSTRALIA

El gobierno australiano ha solicitado asesoramiento al principal órgano consultivo del país en materia científica sobre cómo responder a la inteligencia artificial y está considerando los próximos pasos, según un portavoz del ministro de industria y ciencia.

EXPERTOS Y COMUNIDAD CIENTÍFICA

También durante esta semana, científicos de numerosos centros de investigación y universidades de varios países, alertaban en un artículo publicado en la revista Science de los elevados riesgos de la inteligencia artificial y de las consecuencias catastróficas que los fallos que esta tecnología puede causar.

Musk pide una moratoria en el desarrollo de IA hasta que sea regulada, para "calcular sus riesgos"

Los investigadores han subrayado que los sistemas de IA se han puesto a prueba en escenarios "de alto riesgo" como el diagnóstico médico y la navegación de coches autónomos, en los que los márgenes de error son escasos y las consecuencias de un fallo pueden ser fatales.

El artículo llega apenas quince días después de que 5.500 expertos de todo el mundo publicaran una carta abierta alertando de los riesgos sociales que pueden entrañar la IA generativa, la versión más avanzada de esta tecnología, capaz de crear textos o imágenes a partir de datos ya existentes

La carta, firmada por el CEO de Twitter y Tesla, Elon Musk, y por el cofundador de Apple, Steve Wozniak, entre otros rostros conocidos del sector, abogaban por pausar durante un tiempo los experimentos con esta tecnología.

Denuncian el ChatGPT de OpenAI en EE.UU. y piden que sea suspendido

Poco después, una de las organizaciones firmantes denunció en EE.UU. a OpenAI, por considerar que su versión GPT-4 viola la ley de protección de los consumidores.

El Center for AI and Digital Policy (CAIDP) presentó la demanda ante la Comisión de Comercio Federal (FTC, oficial) de Estados Unidos en la que alega que el producto GPT-4 es "sesgado, engañoso y supone un riesgo para la privacidad y la seguridad pública".