Home / Tecnologia / Anthropic usará tus chats con Claude para entrenar su inteligencia artificial

Anthropic usará tus chats con Claude para entrenar su inteligencia artificial

Anthropic ha anunciado que utilizará las conversaciones de los usuarios con Claude para entrenar sus modelos de inteligencia artificial. La empresa ha actualizado sus políticas de uso, permitiendo conservar los datos de los usuarios hasta por cinco años y utilizarlos como material de entrenamiento. Estos cambios entrarán en vigor a finales de septiembre, lo que obligará a los usuarios a decidir si aceptan o no las nuevas condiciones.

Al acceder a la aplicación de Claude o al chatbot en la web, los usuarios encontrarán una nueva ventana que informa sobre la actualización de los Términos del Consumidor. En esta pantalla se incluye una opción para ayudar a mejorar Claude, que especifica que autorizan el uso de sus chats y sesiones de código para mejorar los modelos de Anthropic.

Esta opción se activa por defecto, lo que significa que la compañía utilizará las transcripciones de las conversaciones con la IA, incluido Claude Code. Los usuarios pueden desactivarla en esta ventana antes de aceptar la nueva política o hacerlo dentro de la configuración de privacidad de su cuenta.

Podemos usar sus Entradas y Salidas para entrenar nuestros modelos y mejorar nuestros Servicios, a menos que opte por no participar a través de la configuración de su cuenta. Incluso si opta por no participar, usaremos Entradas y Salidas para mejorar el modelo cuando:

  1. Sus conversaciones estén marcadas para revisión de seguridad para mejorar nuestra capacidad de detectar contenido dañino, hacer cumplir nuestras políticas o avanzar en la investigación de seguridad de IA.
  2. Nos haya informado explícitamente de los materiales (por ejemplo, a través de nuestros mecanismos de comentarios).

Cómo evitar que Anthropic use tus chats con Claude para entrenar su IA

Los nuevos Términos de Consumidor entrarán en vigor a partir del 28 de septiembre de 2025, aunque los usuarios pueden aceptarlos desde ahora y permitir que Claude acceda a su información. Si lo hiciste por error y no deseas que la empresa utilice tus chats, solo tienes que ingresar a la página de tu perfil, seleccionar “Privacidad” en el menú lateral y desactivar la opción “Ayudar a mejorar Claude”. También puedes deshabilitar los metadatos de ubicación para que la empresa no sepa desde dónde utilizas la IA.

Si bien el uso de conversaciones para entrenar a Claude es opcional, los usuarios deberán aceptar un cambio en la retención de datos. Anthropic señala que, como parte de una mejora en las protecciones de seguridad, la compañía podrá retener tu información hasta por cinco años, incluidas todas las interacciones con sus sistemas.

Los cambios en Anthropic se producen un día después de que la empresa revelara que un hacker utilizó Claude en varios intentos de ciberataques y estafas. La compañía descubrió que un individuo había empleado Claude Code para llevar a cabo una operación de ransomware dirigida a 17 empresas. Este actor malicioso utilizó la IA para definir la mejor estrategia para extraer datos, calcular el costo de la extorsión e incluso redactar las notas de rescate que se mostrarían en los ordenadores de las víctimas.

Anthropic publicó un informe sobre este y otros casos en los que personas superaron las barreras de seguridad de la IA para desarrollar malware. La empresa afirma que bloqueó las cuentas de los hackers e implementó actualizaciones para mitigar y prevenir nuevos intentos.

Fuente original: ver aquí