Va OpenAI tiene hasta el 30 de abril para cumplir la legislación de la UE, “casi imposible” según expertos

Las autoridades italianas insisten en que la empresa tiene hasta el 30 de abril para cumplir la legislación local y europea sobre protección de datos y privacidad, una tarea que, según los expertos en inteligencia artificial (IA), podría resultar casi imposible. 

A finales de marzo, las autoridades italianas prohibieron totalmente los productos GPT de OpenAI, convirtiéndose en el primer país occidental que los rechaza de plano. La medida se adoptó a raíz de una filtración de datos en la que los clientes de ChatGPT y GPT API podían ver datos generados por otros usuarios.

Creemos que la cantidad de usuarios cuyos datos se revelaron realmente a otra persona es extremadamente baja y nos hemos comunicado con aquellos que podrían verse afectados. Nos tomamos esto muy en serio y compartimos detalles de nuestra investigación y plan aquí.

Por una traducción de Bing de la orden italiana que requiere a OpenAI el cese de sus operaciones de ChatGPT en la nación hasta que sea capaz de demostrar el cumplimiento:

“En su auto, la SA italiana destaca que no se proporciona ninguna información a los usuarios y a los interesados cuyos datos son recogidos por Open AI; lo que es más importante, no parece haber ninguna base jurídica que sustente la recogida y el tratamiento masivos de datos personales para “entrenar” los algoritmos en los que se basa la plataforma”.

La denuncia italiana añade que OpenAI también debe aplicar medidas de verificación de la edad para garantizar que su software y sus servicios cumplen las condiciones de servicio de la propia empresa, que exigen que los usuarios sean mayores de 13 años.

Para cumplir la normativa sobre privacidad en Italia y en el resto de la Unión Europea, OpenAI tendrá que fundamentar sus arrolladores procesos de recopilación de datos.

En virtud del Reglamento General de Protección de Datos (RGPD) de la UE, las empresas tecnológicas deben solicitar el consentimiento del usuario para entrenarse con datos personales. Además, las empresas que operan en Europa también deben dar a los europeos la opción de rechazar la recopilación y el intercambio de datos.

Según los expertos, esto supondrá un reto difícil para OpenAI porque sus modelos se entrenan a partir de grandes cantidades de datos, que se extraen de Internet y se combinan en conjuntos de entrenamiento. Esta forma de entrenamiento en caja negra pretende crear un paradigma llamado “emergencia”, en el que los rasgos útiles se manifiestan de forma impredecible en los modelos.

“GPT-4… exhibe comportamientos emergentes”.
Espera, espera, espera. Si no conocemos los datos de entrenamiento, ¿cómo podemos decir qué es “emergente” y qué es “resultante” de ellos?
Creo que se refieren a la idea de “emergencia”, pero sigo sin estar seguro de lo que se quiere decir.

Por desgracia, esto significa que los desarrolladores rara vez tienen forma de saber exactamente qué contiene el conjunto de datos. Y, dado que la máquina tiende a mezclar múltiples puntos de datos a medida que genera resultados, puede estar fuera del alcance de los técnicos modernos extraer o modificar piezas individuales de datos.

Margaret Mitchell, experta en ética de la IA, declaró a Technology Review del MIT que “a OpenAI le va a resultar casi imposible identificar los datos de los individuos y eliminarlos de sus modelos”.

Para cumplir la normativa, OpenAI tendrá que demostrar que obtuvo los datos utilizados para entrenar sus modelos con el consentimiento de los usuarios —algo que los documentos de investigación de la empresa demuestran que no es cierto— o demostrar que tenía un “interés legítimo” en obtener los datos en primer lugar.

Lilian Edwards, profesora de Derecho de Internet en la Universidad de Newcastle, declaró a Technology Review del MIT que la disputa va más allá de la simple acción italiana, afirmando que “las violaciones de OpenAI son tan flagrantes que es probable que este caso acabe en el Tribunal de Justicia de la Unión Europea, el más alto tribunal de la UE”.

Esto coloca a OpenAI en una posición potencialmente precaria. Si no puede identificar y eliminar datos individuales a petición de los usuarios, ni hacer cambios en los datos que tergiversan a las personas, podría verse incapaz de operar sus productos ChatGPT en Italia después de la fecha límite del 30 de abril.

Los problemas de la empresa pueden no acabar ahí, ya que los reguladores franceses, alemanes, irlandeses y de la UE también están estudiando medidas para regular ChatGPT.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión

Las inversiones en criptoactivos no están reguladas. Es posible que no sean apropiados para inversores minoristas y que se pierda el monto total invertido. Los servicios o productos ofrecidos no están dirigidos ni son accesibles a inversores en España.