TikTok está dirigiendo a los niños hacia vídeos pornográficos incluso con el modo restringido - Colombia
Registro  /  Login

Portal de Negocios en Colombia


TikTok está dirigiendo a los niños hacia vídeos pornográficos incluso con el modo restringido

TikTok es, sin lugar a dudas, una de las aplicaciones favoritas de los menores de edad. Especialmente en España, donde la plataforma de origen chino lleva años figurando como la red más empleada por los adolescentes con una media de uso diario de 103 … minutos, de acuerdo con un reciente estudio de Qustodio. Sin embargo, eso no implica que el sitio esté libre de problemas o de contenido inapropiado para los más pequeños. Ni siquiera que el sitio, al ser consciente del fallo, esté poniendo los límites apropiados para que este contenido no aparezca en las pantallas de sus ‘smartphones’.
Según una reciente investigación, TikTok ha estado dirigiendo a menores de edad hacia vídeos con contenido pornográfico. Y lo ha estado haciendo, en muchos casos, de forma inmediata; nada más que estos crean sus cuentas. Incluso cuando el modo restringido de la ‘app’ está activado.

«TikTok afirma tener medidas de seguridad para proteger a niños y jóvenes en su plataforma, pero hemos descubierto que, momentos después de crear una cuenta, reciben contenido pornográfico. Esto fue una gran sorpresa para nosotros como investigadores; solo podemos imaginar lo impactante que debe ser para un niño o sus padres», explica, en declaraciones remitidas a ABC, Henry Peck, responsable de la estrategia de campaña contra amenazas digitales en Global Witness, la organización detrás del estudio, que se dedica a investigar cómo los modelos de negocio de las grandes tecnológicas amenazan el discurso democrático, los derechos humanos y la crisis climática.
Peck remarca que «TikTok debe asegurarse de que su plataforma esté diseñada teniendo en cuenta el bienestar de los niños, especialmente cuando ofrece funciones de seguridad infantil en las que los niños y sus padres creen que pueden confiar».

Usuarios de 13 años

El equipo de Global Witness se encontró con el hallazgo por casualidad a inicios de año mientras se encontraba realizando un estudio diferente acerca del funcionamiento del algoritmo de TikTok. Para llevar a cabo la investigación, creó siete cuentas diferentes en la red social en las que los usuarios tenían menos de 13 años, que en teoría es la edad mínima para hacer uso de la plataforma.
Todas ellas se crearon en teléfonos con la configuración de fábrica restaurada y sin historial de búsqueda; por lo el algoritmo de la red social no tenía ningún conocimiento sobre los gustos o los hábitos de navegación. Además, tenían activado el modo restringido, que es el que, supuestamente, «limita la exposición al contenido que podría ser inapropiado para algunas personas, por ejemplo, por contener temas aptos solo para adultos o temas complejos», según expresa la propia TikTok.
Como cualquier usuario, lo primero que hicieron los investigadores es hacer ‘clic’ en la barra de búsqueda y luego en una de las sugerencias de vídeos para ver el tipo de contenido que la aplicación recomienda. Ahí se encontraron que a menudo este era de tipo sexual. «En tres de nuestras cuentas de prueba, se sugirieron búsquedas sexualizadas la primera vez que el usuario hizo clic en la barra de búsqueda», se señala en el estudio.
Según se señala a este diario desde Global Witness, entre los vídeos a los que el usuario podía acceder cuando pinchaba en alguno de los enlaces se encontraba algunos que recogían pornografía extrema y sexo con penetración que habían conseguido evadir los sistemas de moderación de contenido de TikTok. Tras unos pocos ‘clics’ en los enlaces, el número de sugerencias sexualmente explícitas ofrecidas directamente por la aplicación y su grado de explícito aumentaron.
El equipo de Global Witness notificó el problema a TikTok para que la red social lo solucionase. La empresa afirmó que lo había hecho; sin embargo lo investigadores afirman haber comprobado que, en realidad, no fue así.
ABC se ha puesto en contacto con la ‘app’ para consultar su postura respecto al estudio y destaca, una vez más, que ya se realizaron los cambios oportunos: «Tan pronto como tuvimos conocimiento de estas denuncias, tomamos medidas inmediatas para investigarlas, eliminar el contenido que infringía nuestras políticas y mejorar nuestra función de sugerencias de búsqueda».

Publicado: octubre 6, 2025, 7:00 pm

La fuente de la noticia es https://www.abc.es/tecnologia/tiktok-dirigiendo-ninos-videos-pornograficos-20251006135644-nt.html

TikTok es, sin lugar a dudas, una de las aplicaciones favoritas de los menores de edad. Especialmente en España, donde la plataforma de origen chino lleva años figurando como la red más empleada por los adolescentes con una media de uso diario de 103 minutos, de acuerdo con un reciente estudio de Qustodio. Sin embargo, eso no implica que el sitio esté libre de problemas o de contenido inapropiado para los más pequeños. Ni siquiera que el sitio, al ser consciente del fallo, esté poniendo los límites apropiados para que este contenido no aparezca en las pantallas de sus ‘smartphones’.

Según una reciente investigación, TikTok ha estado dirigiendo a menores de edad hacia vídeos con contenido pornográfico. Y lo ha estado haciendo, en muchos casos, de forma inmediata; nada más que estos crean sus cuentas. Incluso cuando el modo restringido de la ‘app’ está activado.

«TikTok afirma tener medidas de seguridad para proteger a niños y jóvenes en su plataforma, pero hemos descubierto que, momentos después de crear una cuenta, reciben contenido pornográfico. Esto fue una gran sorpresa para nosotros como investigadores; solo podemos imaginar lo impactante que debe ser para un niño o sus padres», explica, en declaraciones remitidas a ABC, Henry Peck, responsable de la estrategia de campaña contra amenazas digitales en Global Witness, la organización detrás del estudio, que se dedica a investigar cómo los modelos de negocio de las grandes tecnológicas amenazan el discurso democrático, los derechos humanos y la crisis climática.

Peck remarca que «TikTok debe asegurarse de que su plataforma esté diseñada teniendo en cuenta el bienestar de los niños, especialmente cuando ofrece funciones de seguridad infantil en las que los niños y sus padres creen que pueden confiar».

Usuarios de 13 años

El equipo de Global Witness se encontró con el hallazgo por casualidad a inicios de año mientras se encontraba realizando un estudio diferente acerca del funcionamiento del algoritmo de TikTok. Para llevar a cabo la investigación, creó siete cuentas diferentes en la red social en las que los usuarios tenían menos de 13 años, que en teoría es la edad mínima para hacer uso de la plataforma.

Todas ellas se crearon en teléfonos con la configuración de fábrica restaurada y sin historial de búsqueda; por lo el algoritmo de la red social no tenía ningún conocimiento sobre los gustos o los hábitos de navegación. Además, tenían activado el modo restringido, que es el que, supuestamente, «limita la exposición al contenido que podría ser inapropiado para algunas personas, por ejemplo, por contener temas aptos solo para adultos o temas complejos», según expresa la propia TikTok.

Como cualquier usuario, lo primero que hicieron los investigadores es hacer ‘clic’ en la barra de búsqueda y luego en una de las sugerencias de vídeos para ver el tipo de contenido que la aplicación recomienda. Ahí se encontraron que a menudo este era de tipo sexual. «En tres de nuestras cuentas de prueba, se sugirieron búsquedas sexualizadas la primera vez que el usuario hizo clic en la barra de búsqueda», se señala en el estudio.

Según se señala a este diario desde Global Witness, entre los vídeos a los que el usuario podía acceder cuando pinchaba en alguno de los enlaces se encontraba algunos que recogían pornografía extrema y sexo con penetración que habían conseguido evadir los sistemas de moderación de contenido de TikTok. Tras unos pocos ‘clics’ en los enlaces, el número de sugerencias sexualmente explícitas ofrecidas directamente por la aplicación y su grado de explícito aumentaron.

El equipo de Global Witness notificó el problema a TikTok para que la red social lo solucionase. La empresa afirmó que lo había hecho; sin embargo lo investigadores afirman haber comprobado que, en realidad, no fue así.

ABC se ha puesto en contacto con la ‘app’ para consultar su postura respecto al estudio y destaca, una vez más, que ya se realizaron los cambios oportunos: «Tan pronto como tuvimos conocimiento de estas denuncias, tomamos medidas inmediatas para investigarlas, eliminar el contenido que infringía nuestras políticas y mejorar nuestra función de sugerencias de búsqueda».

Artículos Relacionados