El centro Europeo para la Transparencia Algorítmica (ECAT), el instituto de investigación que ha creado la Comisión Europea para controlar que las grandes plataformas como Twitter, Amazon o Google no muestran contenido ilegal a los usuarios, se ha inaugurado inaugurará este martes en Sevilla.
El ECAT se enmarca dentro de la ley de servicios digitales que la Unión Europea (UE) aprobó el pasado noviembre para obligar a las grandes tecnológicas a eliminar con rapidez la información ilegal que se muestra en internet.
El centro, con sede en Sevilla, contribuirá con conocimiento científico y técnico a la función supervisora de la Comisión para garantizar que los sistemas algorítmicos utilizados por las plataformas y motores de búsqueda de gran tamaño cumplen con los requisitos de gestión y mitigación de riesgos contemplados en la ley.
Así, el ECAT se encargará de realizar análisis técnicos y evaluaciones de los algoritmos que diseñan las tecnológicas para priorizar la información que los ciudadanos ven en internet, subrayó Bruselas.
La ley de servicios digitales obliga, asimismo, a que las grandes tecnológicas evalúen y mitiguen los riesgos relacionados con la violencia de género y la protección en línea de los menores y su salud mental.
Para ello, deberán someterse a auditorías independientes y a la supervisión del Ejecutivo comunitario.
El comisario europeo de Mercado Interior, Thierry Breton, explicó en que la ley de servicios digitales "ha proporcionado las herramientas legales para abrir la caja negra de los algoritmos que usan las plataformas".
Además, aseguró que los conocimientos especializados del ECAT "serán cruciales" para supervisar a las empresas tecnológicas "más grandes y más innovadoras".
El ECAT estará formado por un equipo multidisciplinar de expertos en distintas ramas de conocimiento, como la ciencia de datos, la inteligencia artificial, las ciencias sociales y el derecho.
Los investigadores se ocuparán de "detectar y resolver" los riesgos sistémicos derivados de estas grandes plataformas y motores de búsqueda, y de investigar los efectos sociales de los algoritmos a largo plazo.
Además, evaluarán los informes de transparencia y autoevaluación presentados por estas tecnológicas y realizarán inspecciones de sus sistemas cuando así lo requiera la Comisión.