Denuncian el ChatGPT de OpenAI en EE.UU. y piden que sea suspendido
Consideran que GPT-4 es "sesgado, engañoso y supone un riesgo para la privacidad y la seguridad pública"
Un grupo de organizaciones, expertos y ejecutivos de tecnología, entre ellos Elon Musk, piden un moratoria en el desarrollo avanzado de IA para "calcular sus riesgos"
Una de las organizaciones que suscribió este miércoles un manifiesto para pedir la suspensión por seis meses de los experimentos con inteligencia artificial (IA) muy avanzada ha denunciado en EE.UU. a OpenAI, desarrolladora del ChatGPT, por considerar que su versión GPT-4 viola la ley de protección de los consumidores.
El Center for AI and Digital Policy (CAIDP) ha presentado la demanda ante la Comisión de Comercio Federal (FTC, oficial) de Estados Unidos en la que alega que el producto GPT-4 es "sesgado, engañoso y supone un riesgo para la privacidad y la seguridad pública".
"La FTC tiene la clara responsabilidad de investigar y prohibir las prácticas comerciales injustas y engañosas. Creemos que la FTC debe examinar de cerca OpenAI y GPT-4", dijo el presidente de CAIDP Marc Rotenberg.
Según Rotenberg, OpenAI no está cumpliendo con las prácticas propuestas por la FTC como la relativa a la garantía por parte de las compañías de inteligencia artificial de "la solidez empírica de los datos y de los modelos" empleados, así como su transparencia.
La demanda insiste en que esta tecnología no cuenta con las suficientes salvaguardas para limitar la parcialidad y el engaño.
Rotengberg fue una de los empresarios y personalidades que han firmado una carta abierta en la que solicitan que se suspendan durante seis meses los experimentos con inteligencia artificial muy potente (superior a GPT-4) porque consideran que "pueden plantear profundos riesgos para la sociedad y la humanidad".
EL ÚLTIMO HITO DE OpenAI
OpenAI define el GPT-4 como su "último hito en el esfuerzo para ampliar el aprendizaje profundo". Este nuevo sistema acepta la recepción de textos e imágenes y genera texto.
Sin embargo, la compañía asegura que su producto sigue siendo menos capaz que las personas en muchas situaciones reales aunque "muestra un desempeño a nivel humano en varios puntos de referencia académicos y profesionales".
{{#href}} {{ text }} {{/href}} {{^href}} {{ text }} {{/href}}
{{#href}} {{ text }} {{/href}} {{^href}} {{ text }} {{/href}}
{{/text}} {{/kicker}} {{#title}} {{#text}}{{#href}} {{ text }} {{/href}} {{^href}} {{ text }} {{/href}}
{{/text}} {{/title}}{{#href}} {{ text }} {{/href}} {{^href}} {{ text }} {{/href}}
{{#href}} {{ text }} {{/href}} {{^href}} {{ text }} {{/href}}
{{/text}} {{/kicker}} {{#title}} {{#text}}