OpenAI presentó un nuevo modelo de IA GPT-4o para impulsar su chatbot ChatGPT. Esta nueva versión tiene la capacidad de resolver ecuaciones, contar cuentos antes de dormir y afirma identificar emociones a partir de expresiones faciales.
Los expertos dicen que las capacidades de GPT-4o amplían la cantidad de información que puede ser potencialmente recopilada por OpenAI, lo que aumenta las preocupaciones sobre la privacidad.
La firma tiene un historial irregular en el área. Después de su lanzamiento en 2020, un documento técnico reveló cómo millones de páginas extraídas de publicaciones de Reddit, libros y la web en general se utilizaron para crear el sistema de texto de IA generativa, incluidos los datos personales que comparten en lñinea los usuarios. Esto llevó a que, por ejemplo, ChatGPT sufriera una prohibición temporal en Italia el año pasado.
Poco después del lanzamiento de GPT-4o, una demostración inicial de la aplicación de escritorio macOS ChatGPT indicó que el chatbot potencialmente podía acceder a la pantalla de un usuario. Y en julio, la misma aplicación volvió a ser criticada cuando se reveló que un problema de seguridad preocupante hacía que fuera fácil encontrar chats almacenados en su computadora y leerlos en texto sin formato.
OpenAI lanzó rápidamente una actualización que cifra los chats, pero con este nivel de escrutinio sobre la empresa y GPT-4o, es fácil ver por qué la gente está preocupada por la privacidad. ¿Qué tan privada es la última versión de ChatGPT? ¿Es peor que las versiones anteriores? ¿Y hay alguna forma de bloquearla?
Política de privacidad de OpenAI
A primera vista, la política de privacidad de OpenAI muestra una gran cantidad de recopilación de datos, incluida información personal, datos de uso y contenido proporcionado cuando lo usa. ChatGPT usa los datos que comparte para entrenar sus modelos, a menos que lo desactive en la configuración o use la versión empresarial.
OpenAI se apresura a decir en su política de privacidad que los datos individuales están "anonimizados", pero el enfoque en general parece ser "tomar todo ahora y ordenarlo más tarde", dice Angus Allan, gerente de productos senior en la consultora digital CreateFuture, que asesora a las empresas sobre las formas de usar la IA y el análisis de datos. "Su política de privacidad establece explícitamente que recopilan todos los datos de entrada de los usuarios y se reservan el derecho de entrenar sus modelos en esto".
La cláusula general de "contenido del usuario" probablemente también cubra las imágenes y los datos de voz, dice Allan. "Es un aspirador de datos con esteroides, y todo está ahí, en blanco y negro. La política no ha cambiado significativamente con GPT-4o, pero dadas sus capacidades ampliadas, el alcance de lo que constituye ‘contenido del usuario’ se ha ampliado drásticamente".
De forma predeterminada, ChatGPT recopila muchos otros datos sobre el usuarios, dice Jules Love, fundador de Spark, una consultora que asesora a las empresas sobre cómo incorporar herramientas de IA que incluyan ChatGPT en sus flujos de trabajo y, al mismo tiempo, abordar la privacidad de los datos. "Utiliza todo, desde indicaciones y respuestas hasta direcciones de correo electrónico, números de teléfono, datos de geolocalización, actividad de red y qué dispositivo está utilizando".
Open AI dice que estos datos se utilizan para entrenar el modelo de IA y mejorar sus respuestas, pero los términos permiten a la empresa compartir su información personal con afiliados, vendedores, proveedores de servicios y fuerzas de seguridad. "Por lo tanto, es difícil saber dónde terminarán sus datos", dice Love.
Parte de esta recopilación de datos incluye nombres completos, credenciales de cuenta, información de tarjetas de pago e historial de transacciones, dice. "También se puede almacenar información personal, en particular si se suben imágenes como parte de los mensajes. Del mismo modo, si un usuario decide conectarse con alguna de las páginas de redes sociales de la empresa, como Facebook, LinkedIn o Instagram, se puede recopilar información personal si ha compartido sus datos de contacto".
Controles de privacidad
Desde su lanzamiento en 2020 y en medio de críticas y escándalos de privacidad, OpenAI ha presentado herramientas y controles que puedes usar para bloquear tus datos. OpenAI dice que está "comprometida a proteger la privacidad de las personas".
La empresa afirma que no busca información personal para entrenar a sus modelos y que no utiliza información pública en Internet para crear perfiles sobre personas, hacerles publicidad o dirigirse a ellas, ni para vender datos de los usuarios.
En los últimos años, OpenAI ha mejorado la transparencia sobre la recopilación y el uso de datos "hasta cierto punto", brindando a los usuarios opciones claras para administrar su configuración de privacidad, dice Rob Cobley, socio comercial de la firma de abogados Harper James, que ofrece asesoramiento legal sobre cuestiones de protección de datos. "Los usuarios pueden acceder, actualizar y eliminar su información personal, lo que garantiza que tienen control sobre los datos".
Allan recomienda que todos se tomen unos minutos para cancelar la suscripción al entrenamiento de modelos lo antes posible. "Esto no elimina su contenido de su plataforma, pero significa que no se puede usar para entrenar modelos futuros, donde existe un riesgo teórico de que sus datos se filtren".
Fuente: Wired