Hoy en día, la Inteligencia Artificial (IA) generativa requiere incrementar su corpus de conocimiento a un ritmo acelerado para tener la posibilidad de generar contenidos y productos digitales de consumo final que satisfagan su demanda. Su apetito por información no sólo abarca información pública, sino que incluye también datos personales, imágenes, rostros, voces y demás rasgos de personas reales. La delgada línea que separa el consumo indiscriminado de datos del uso ético y el respeto por la privacidad está a punto de romperse.
El crecimiento en el desarrollo y uso de los generadores de imágenes de IA como DALL-E 2 y Midjourney, seguidos por ChatGPT, así como otros chatbots inteligentes, fue posible gracias a enormes cantidades de datos de entrenamiento que fueron extraídos de Internet. Actualmente las empresas embarcadas en la aventura de la IA buscan utilizar los datos que poseen o los que generan sus clientes y usuarios para crear herramientas de IA generativa, no importando si estos cuentan con derechos de autor o si provienen del ámbito privado de las personas.
En palabras de Janet Haven, directora ejecutiva de Data and Society: "Las empresas tienen un deseo extremo de recopilar tantos datos como puedan; éste es el modelo de negocio: recopilar datos y crear productos en torno a estos o venderlos a intermediarios".
Vivimos en la economía de los datos y muchos de estos son personales. El comercio de datos personales se ha convertido en un modelo de negocio rentable con un valor estimado en 77 billones de dólares anuales sólo en EUA (según datos de eMarketer.com).
Data Management Association (DAMA Internacional) en su marco de referencia define datos personales como cualquier información que concierne a una persona identificada o identificable; asimismo, se considera que una persona es identificable cuando su identidad puede determinarse directa o indirectamente a través de cualquier información.
DAMA, la asociación de profesionales de datos más grande en el mundo, puntualiza también sobre los datos personales sensibles; de acuerdo con la asociación, se trata de aquellos que se refieran a la esfera más íntima de su titular o cuya utilización indebida pueda dar origen a la discriminación, o bien, que conlleve un riesgo grave para éste. De manera enunciativa, mas no limitativa, se consideran sensibles los datos personales que puedan revelar los siguientes aspectos:
La privacidad, por su parte, se define como el hecho de guardar ciertas cosas íntimas para la persona misma (pensamientos, experiencias, conversaciones o planes). Los seres humanos necesitamos privacidad para explorar nuevas ideas libremente y para tomar nuestras propias decisiones.
Aunque el respeto a los datos personales y a la privacidad de las personas corresponde (en primera instancia) a la esfera de la ética, también es cierto que, a lo largo de los últimos años, han brincado a la de las obligaciones regulatorias de las empresas y los gobiernos. No obstante, parece que los esfuerzos por regular se han quedado cortos y van perdiendo la carrera contra la industria tecnológica que está cada vez más ávida de datos para alimentar al “monstruo” de la IA generativa a costa de lo que sea.
Recientemente Will Knight, reportero de Fast Forward Newsletter, dio a conocer el caso de Zoom y sus nuevos términos y condiciones. En este caso, un usuario notó que una actualización de los términos y condiciones de Zoom en marzo parecía darle a la compañía la libertad para absorber voz, video y otros datos para incorporarlos a sistemas de aprendizaje automático.
Los nuevos términos establecían que los usuarios permitían el acceso, uso, recopilación, creación, modificación, distribución, procesamiento, intercambio, mantenimiento y almacenamiento de datos generados por el servicio de la plataforma para fines como el aprendizaje automático o IA, incluso para capacitación, así como ajuste de algoritmos y modelos.
El descubrimiento, señala la nota de Knight, provocó la crítica en artículos periodísticos y publicaciones airadas en las redes sociales. Pronto, la plataforma Zoom dio marcha atrás. Posteriormente, la directora de productos de Zoom, Smita Hasham, escribió una publicación en un blog que decía: "No utilizaremos contenido de audio, video o chat de los clientes para entrenar nuestros modelos de IA sin su consentimiento”.
Este caso muestra cómo la carrera por construir modelos de IA más potentes resulta en una nueva presión para obtener datos de entrenamiento, incluso si son datos personales. Más adelante Zoom actualizó sus términos y condiciones para aclarar que no transmitiría audio, video, chat, uso compartido de pantalla, archivos adjuntos u otras comunicaciones como contenido de sus clientes a los modelos de IA. Vera Ranneft, portavoz de la empresa, afirma que Zoom nunca antes había utilizado el contenido de los clientes de esta manera.
No obstante a la corrección de la empresa, Zoom ya se ha unido a la carrera de la IA generativa. En junio de 2023 introdujo dos funciones de generación de texto para resumir reuniones y redactar correos electrónicos sobre ellas. Knight refiere que es posible que Zoom pueda utilizar datos de las videoconferencias de sus usuarios para desarrollar algoritmos más sofisticados. Añade que estos podrían resumir o analizar el comportamiento de dichos usuarios en las reuniones, incluso representar una imagen virtual de alguien cuya conexión se haya interrumpido temporalmente, entre otros casos.
El caso de Zoom refleja la situación general en lo que respecta a nuestros datos personales. Muchas empresas de tecnología ya se benefician de dicha información, asimismo, varias de ellas están buscando formas de obtener más datos para proyectos de IA generativa. Sin embargo, depende de nosotros (los usuarios) el controlar lo que están haciendo.
Aunque es demasiado tarde para evitar que se desarrolle la economía de datos, no lo es para reclamar nuestra privacidad. Mientras más personas cobren conciencia de la huella que deja la información, será más fácil demandar la custodia y el control de ésta, a su vez, más costoso va a ser para los gobiernos y las empresas indagar, custodiar y vender datos personales de forma negligente e indiscriminada. El gran poder de la privacidad radica en devolver a las personas el control de sus datos y con ello su individualidad y autonomía.
En la novela El Círculo, sólo Mercer, un antiguo novio de Mae, se da cuenta del gran riesgo que implica centralizar la información en un mundo virtual y lucha por reivindicar la libertad del individuo de estar al margen de este modo de vida online. Vale la pena aprender de Mercer.
Los datos en tiempo real, así como la analítica vista como un servicio, representan el futuro en el panorama actual de transformación digital.
Christian Vázquez SánchezComo consecuencia de distintos factores económicos a nivel global, las expectativas a futuro advierten una caída en los precios de las acciones de empresas tecnológicas.
José Luis Vásquez CostaLas plataformas tecnológicas han dejado su carácter especulativo y han pasado a ser parte esencial de las organizaciones.
Christian Vázquez SánchezLas mentalidades o “mindsets” ayudan a tomar resoluciones de calidad en las organizaciones, con una perspectiva más objetiva y clara.
Christian Vázquez Sánchez© 2024 Colegio de Contadores Públicos de México, A.C.
Directorio Contacto Aviso legal Acerca de VeritasInicia sesión o suscríbete para continuar leyendo.