El viernes pasado, Cassie Kozyrkov compartió un par de publicaciones clave donde explicaba cómo LinkedIn ha inscrito automáticamente (opt-in) a todos los usuarios fuera de la UE en un programa para permitir que la empresa y sus afiliados utilicen su contenido para entrenar modelos de IA generativa. Aunque proporcionan un enlace para «optar por no participar» (opt-out), este cambio se realizó sin el consentimiento directo de los usuarios.
LinkedIn recopila datos personales cuando interactuamos con la plataforma, como nuestras publicaciones, comentarios, el tiempo que pasamos en la red y hasta nuestras preferencias de idioma. Estos datos se usan para mejorar los servicios, pero también para entrenar modelos de IA, excepto con usuarios en la UE, EEE, Reino Unido y Suiza.
Aunque LinkedIn asegura que minimizan el uso de datos personales y aplican tecnologías de privacidad, Kozyrkov apunta a un problema crucial: una vez que tus datos han sido utilizados para entrenar un modelo, ya no es posible garantizar su eliminación.
¿Por qué? Entrenar modelos de IA es caro. Si tus datos ya se han utilizado en una versión, eliminarlos implicaría reentrenar desde cero, lo cual es económicamente inviable. Y como las nuevas versiones de los modelos se basan en las anteriores, no se puede eliminar selectivamente una pieza de información personal.
Kozyrkov lo ilustra de forma brillante:
«Quitar los datos de un modelo entrenado es como intentar sacar el azúcar después de haberlo horneado en un pastel. Para hacerlo, tendrías que desechar todo el pastel y empezar de nuevo…»
Mientras tanto, gigantes como Meta y Apple están limitando el uso de sus modelos en la UE debido a la incertidumbre en torno al nuevo Reglamento de IA (RIA). Estoy convencido que las empresas y la UE lleguarán a un acuerdo en este sentido, pero la situación con los datos personales sigue siendo mucho más compleja. Ya lo vimos con la publicación de la carta abierta sobre la fragmentación de la regulación.
Una pregunta para el futuro: ¿Terminaremos en la UE usando modelos de IA generativa entrenados con datos de usuarios que no pertenecen a la UE?
Aquí los dos artículos:
https://towardsdatascience.com/why-genai-is-a-data-deletion-and-privacy-nightmare-bd79a3c0ed85