Character.AI prohibirá el acceso de menores a sus chatbots

Pantalla de aplicación Character.AI con icono de prohibido sobre silueta de menor, fondo digital azulado

Introducción

La plataforma de inteligencia artificial conversacional Character.AI ha anunciado una medida que cambia radicalmente su política de acceso: a partir del 25 de noviembre de 2025 los usuarios menores de 18 años ya no podrán mantener conversaciones abiertas (“open-ended chats”) con sus chatbots.
Este cambio se produce en medio de crecientes demandas legales, preocupaciones por salud mental juvenil y un escrutinio regulatorio de gran alcance (por ejemplo, por parte de la Federal Trade Commission de EE.UU.).
El presente artículo analiza por qué ocurre este cambio, qué implica para la empresa, los usuarios y los reguladores, qué riesgos y oportunidades se abren, y cómo este tipo de decisiones influyen en el ecosistema más amplio de la IA conversacional.

Contexto histórico

Orígenes y crecimiento

Character.AI se fundó como plataforma de chatbots conversacionales que permiten a los usuarios crear personajes de IA (ya sean ficticios, históricos o generados libremente) con los que pueden mantener diálogos.
La plataforma ganó popularidad rápida — más de 20 millones de usuarios activos mensuales se mencionan en algunos análisis.

Preocupaciones crecientes

  • Desde 2024 la plataforma enfrentó múltiples demandas por parte de familias que alegan que sus hijos menores se involucraron emocionalmente con chatbots de la plataforma y desarrollaron problemas de salud mental, incluyendo casos extremos de suicidio.
  • La FTC abrió una investigación a varias compañías de IA conversacional, entre ellas Character.AI, sobre los efectos en menores.

Primeras medidas de seguridad

Character.AI ya había introducido en 2024 y principios de 2025 varias funciones: modelos específicos para menores, restricciones de contenido, notificaciones de uso prolongado.

Anuncio de la prohibición

En octubre de 2025 la empresa anunció que, tras un periodo de transición, los menores de 18 años ya no podrían mantener chats libres con personajes de IA. De inmediato se impone un límite de 2 horas diarias para menores, y el 25 de noviembre de 2025 será implementada la prohibición total de chat para este grupo de edad.

Análisis experto

¿Por qué esta decisión?

Varios factores convergen:

  • Riesgo reputacional y legal: Las demandas por suicidio o daño emocional y el escrutinio regulatorio ponen en riesgo la continuidad del negocio.
  • Escenario regulatorio más estricto: La presión de los reguladores para proteger a menores en entornos de IA conversacional impulsa a la empresa a actuar preventivamente.
  • Modelo de negocio vs. responsabilidad social: Aunque el chat libre es uno de los principales atractivos de la plataforma, la empresa decide priorizar seguridad y cumplimiento.

Implicaciones técnicas y de negocio

  • Menores podrán usar la app pero no participar de conversaciones abiertas con chatbots: otras funciones (como vídeos, creación de personajes, storytelling) seguirán disponibles.
  • Implementación de sistemas de verificación de edad (“age assurance model”) que combinan comportamiento de usuario, elección de personajes y datos de terceros para identificar posibles menores.
  • Impacto en la base de usuarios: aunque los menores representan <10% de la base según la empresa, su actividad suele ser muy intensa en chat.

Aplicaciones e impacto sectorial

  • En educación y salud: Este tipo de chatbots podrían usarse para apoyo o tutoría, pero la decisión de Character.AI subraya los riesgos cuando la línea entre soporte y “compañero emocional” se vuelve borrosa.
  • En marketing y entretenimiento: Las plataformas que ofrecen IA conversacional tendrán que revaluar su oferta para menores, ajustar modelos de negocio y moderación de contenido.
  • En regulación de IA: Este caso podría servir de precedente para normativas que limiten el acceso de menores a agentes conversacionales de IA, al menos sin supervisión robusta.

Riesgos y oportunidades

Oportunidades:

  • Refuerza la credibilidad de la plataforma ante reguladores y padres.
  • Puede facilitar alianzas con gobiernos o entidades que requieren entornos seguros para menores o usuarios vulnerables.
    Riesgos:
  • Pérdida de un segmento de usuarios activos e influyentes (menores).
  • Verificación de edad imperfecta: los menores pueden falsear su edad fácilmente, lo que limita la eficacia de la medida.
  • Efecto de “abandono” para menores que ya tienen relaciones emocionales intensas con chatbots: la retirada del servicio podría generar efectos negativos secundarios.
  • Costos operativos adicionales (verificación, moderación, soporte) que pueden presionar la rentabilidad.

Datos y fuentes

  • La prohibición para menores entrará en vigencia el 25 de noviembre de 2025. The Guardian
  • Límite de 2 horas diarias aplicado inmediatamente a menores. AP News
  • Evaluación de riesgo de Common Sense Media concluye que “Character.AI representa riesgos inaceptables para menores de 18”. Common Sense Media
  • Inquietud de reguladores: la FTC investiga plataformas de IA conversacional respecto a menores. CBS News

Consideraciones éticas y legales

La decisión plantea varios dilemas:

  • Autonomía vs protección: ¿Hasta qué punto se puede restringir el acceso juvenil a tecnologías emergentes sin vulnerar derechos de libre expresión o desarrollo digital?
  • Desinformación emocional y dependencia: La capacidad de chatbots para generar respuestas empáticas puede crear vínculos emocionales especialmente entre menores, lo cual plantea riesgos de manipulación.
  • Verificación de edad y privacidad: Los métodos de verificación implican recopilación de datos personales, lo cual puede conflictar con normativa de protección de datos o resultar ineficaz frente a suplantaciones.
  • Responsabilidad de la empresa: ¿Qué grado de responsabilidad tiene Character.AI por las relaciones que menores desarrollan con bots, especialmente cuando estas interacciones contribuyen a daño psicológico? Las demandas recientes lo cuestionan.
  • Regulación sectorial emergente: Este caso puede acelerar la creación de normativa para IA conversacional con menores, donde las empresas deberán cumplir estándares más estrictos de seguridad, transparencia y moderación.

Video recomendado: Character.AI bloquea el chat a menores de 18 años: explicación del cambio de política

Conclusión

El anuncio de que Character.AI prohibirá el acceso de menores de 18 años a sus chats con bots marca un hito importante en la evolución de la IA conversacional: la tecnología ya no sólo debe considerarse por su desempeño técnico, sino por su entorno de uso, la vulnerabilidad de sus usuarios y la necesidad de un diseño responsable.
Con la palabra clave character.ai menores, queda claro que esta medida no es un simple ajuste de política, sino un giro estratégico acorde con el cambio regulatorio y social.
Para empresas, reguladores y usuarios, este episodio refuerza que cuando la IA se acerca a la intimidad (chats, emociones, roles personales) los riesgos aumentan y la protección debe ser proactiva.

Preguntas frecuentes sobre la política de menores en Character.AI

¿Qué cambios hará Character.AI para menores de 18 años?
Los usuarios menores de 18 años tendrán un límite de 2 horas diarias de chat desde ahora, y desde el 25 de noviembre de 2025 se les prohibirá mantener chats abiertos con los bots.
¿Podrán los menores seguir usando la plataforma?
Sí, podrán acceder a funciones como creación de personajes, vídeos, historias o streams, pero no al chat abierto con los bots.
¿Cómo verificará Character.AI la edad de los usuarios?
Usará un modelo interno de “age assurance” que analiza comportamiento, elecciones de personajes y datos de terceros; los usuarios adultos podrán acreditar su edad mediante verificación.
¿Por qué tomó esta decisión la empresa?
Por la combinación de presiones legales (demandas por suicidios y daño emocional), reguladoras (investigación de la FTC) y el riesgo reputacional ante usuarios vulnerables.
¿Esto se aplica globalmente?
La medida se anuncia para usuarios bajo 18 años en general; los detalles pueden variar según región, dado que distintos países tienen diferentes edades mínimas y regulaciones.

¿Te gustó este artículo? Compártelo en tus redes 👇
wpseo_editor
Editor especializado en tecnología y transformación digital, con 6 años de experiencia en creación de contenido SEO para WordPress. Apasionado por la inteligencia artificial y su impacto en la comunicación moderna. Coordino equipos de redacción y optimización para audiencias hispanohablantes.