Tecnología - Colombia
Registro  /  Login

Portal de Negocios en Colombia

TECNOLOGÍA

Más de uno de cada tres españoles ya usan herramientas como ChatGPT

La inteligencia artificial está en auge. De acuerdo con un reciente estudio del INE, actualmente el 37,9% de la población de España, con edades comprendidas entre los 16 a 74 años, una herramienta de IA generativa, como podría ser ChatGPT, en algún … momento. O lo que es lo mismo: más uno de cada tres habitantes del país ya ha sido usuaria activa de esta clase de tecnología, que igual te resume libros en segundos que te comparte una imagen de realismo imposible a partir de las órdenes que recibe.
Siempre de acuerdo con las cifras del INE, los que más emplean esta tecnología son los jóvenes. El 75,6% del total con edades comprendidas entre los 16 y los 24 años lo han hecho, al menos, una vez. Y también es bastante popular en la franja de entre los 24 y los 34 (57,2%).

Según se va subiendo en edad, el uso se diluye. Entre la población que se encuentra entre 35 y los 44 años, la IA es utilizada por el 43,8% del total. Luego, entre los 45 y los 54, el empleo cae al 32,6%. En las franjas que se mueven en los 55 y los 64 (19,2%), y los 65 y los 74 (7,4%), las herramientas de esta clase tienen una popularidad casi residual.

Para consultas privadas, trabajar y estudiar

Para lo que más utilizan la IA es para fines privados, como podrían ser las consultas que se harían en un buscador como Google o la solicitud de ayuda para organizar un viaje o cocinar algún plato. Actualmente, el 30,2% de la población de España recurre a la tecnología con ese fin. Los que más: de nuevo los más jóvenes, con edades entre los 16 y los 24 años (53%)

Premios CIONET Vocento 2025: los mejores proyectos tecnológicos y líderes digitales del año

Los Premios CIONET Vocento 2025 reconocen los logros de los equipos especializados en tecnología de diversas compañías, evaluados por un jurado compuesto por reputados profesionales de la comunidad tecnológica. El evento se celebra en la sede de Vocento en Madrid, con el patrocinio de … MOEVE, Kyndryl y Software One.
Los galardones, un referente en el sector, premian el impacto diferencial de las acciones emprendidas en plena era de la transformación digital y la sostenibilidad, desde las propias de la Inteligencia Artificial o el Big Data a la ciberseguridad, las operaciones cloud… Vectores todos que contribuyen al progresivo desarrollo de la economía del siglo XXI.

Ejemplos de innovación en su más amplio sentido, en la forma de trabajar, pero también en la de pensar, para consolidar este acelerador de competitividad empresarial. Ejemplos de liderazgo pero, ante todo, de trabajo en equipo, en una celebración del esfuerzo colectivo definida por Juan Carlos Fouz, Managing Partner de CIONET Iberoamérica como «una fiesta de las personas y de la tecnología, con la presencia de los arquitectos del futuro al definir el curso de la innovación».

¿Podrá la DGT espiarte con la baliza V16 obligatoria para multarte?: Protección de Datos responde

A partir del próximo 1 de enero todos los conductores españoles estarán obligados a llevar en sus una baliza V16; que deberá estar conectada para señalizar averías o situaciones de emergencia en carretera. Todo para ayudar a las autoridades a encontrar la ubicación … exacta del incidente. Durante las últimas semanas, han estado corriendo por la red varios mensajes de usuarios preocupados porque este dispositivo ponga en riesgo su privacidad. Si a través de la señal que emiten, la DGT podrá tenerlos ubicados en todo momento para multarlos.
Con el fin de «ofrecer información a la ciudadanía», la Agencia Española de Protección de Datos (AEPD) ha realizado un comunicado en el que remarca que la baliza de preseñalización de peligro V16 no comparte ninguna información personal o la matrícula del vehículo. El dispositivo, que incorpora una luz visible, envía un aviso automático a los sistemas de tráfico cuando se activa. En la comunicación, solo se transmite el lugar donde se encuentra el coche o la moto averiada y un identificador técnico de la propia baliza.

Ahora bien, la AEPD remarca que ese identificador «no está asociado a una persona o matrícula, sin que exista un registro que vincule el dispositivo con la identidad de quien lo utiliza». Es decir, no hay forma de que la DGT o cualquier autoridad sepan, en el momento en el que reciben la señal, cuál es el vehículo que está detenido ni a quien pertenece. Por lo tanto, es imposible que se pueda utilizar para poner multas, ya que la baliza V16 no está preparada para medir la velocidad a la que se circula.
La AEPD también destaca que «la persona que adquiere la baliza no tiene que dar sus datos personales a ninguna administración al adquirirlo, por lo que la Dirección General de Tráfico (DGT) no conocería quién ha comprado el dispositivo». Además, mientras no está activa -lo que será lo normal- esta no transmitirá «ningún dato y, en caso de ser activada ante una situación de emergencia, la información que se envía no permitiría conocer quién es la persona que conduce ni reconstruir sus desplazamientos». El dispositivo, efectivamente, no es capaz de generar historiales de movimientos o envío de datos de manera continua.

Dos de los padres de las niñas desnudadas con IA en Almendralejo: «Destruir la salud mental de mi hija les ha salido por solo 1.200 euros»

En septiembre de 2023 todo cambió en Almendralejo, un pequeño pueblo de apenas 30.000 habitantes de Badajoz. Y fue Pedro el primero en descubrir que algo terrible circulaba en los móviles de los chavales. Su hija, de 14 años, llegó a casa una … tarde llorando y con el teléfono en la mano. Una amiga le había avisado de que en un grupo de WhatsApp del instituto IES Santiago Apóstol se estaban compartiendo fotos en las que aparecía desnuda junto a varias de sus compañeras. Las imágenes, que afectaban a casi una treintena de menores, eran falsas, generadas con inteligencia artificial. Pero el daño ya estaba hecho.
El padre recuerda aquel momento con una mezcla de incredulidad y rabia. «Pensé que sería un montaje burdo, una broma cruel», cuenta. Pero cuando vio una de las fotografías entendió que la habían manipulado con herramientas digitales. «Habían usado su cara y su cuerpo y la habían convertido en otra cosa», lamenta. Lo que más le dolió, dice, fue verla pedir perdón. «Me decía: ‘¡Papá, te juro que yo no he hecho nada!’». Pedro y su esposa pasaron esa noche intentando frenar la difusión. Llamaron a otros padres, al colegio y a la Policía. «Fue como intentar recoger agua con las manos», recuerda. «Sabíamos que cuanto más se compartía, más difícil sería detenerlo». Desde aquel día, la vida familiar cambió por completo. «De golpe tu hija es víctima de algo que ni siquiera existe físicamente, pero el sufrimiento es real. Hizo falta mucho apoyo psicológico, no solo para ella, también para nosotros».

La AEPD multa con 2.000 euros a uno de los menores

Este miércoles se ha sabido que la Agencia Española de Protección de Datos (AEPD) ha resuelto el caso, tras la denuncia de 21 de las familias afectadas, al sancionar a uno de los menores que difundió las imágenes falsas. Aunque la resolución no contiene el nombre de las víctimas ni del sancionado, desde la AEPD confirman a ABC que el caso está directamente relacionado con el escándalo de Almendralejo. La multa ha sido de 2.000 euros, pero en la resolución se indica que «los padres del menor abonaron el 5 de abril de 2025 la cuantía de 1.200 euros», reducida de los 2.000 por «reconocer la responsabilidad» y realizar un pronto pago de manera voluntaria. No obstante ClothOff, la aplicación utilizada para realizar los montajes, así como las plataformas con las que se difundieron, han quedado exentas de responsabilidades en la resolución de la AEPD. Cabe destacar que es la primera vez que una agencia europea sanciona económicamente la difusión de esta clase de contenido.

«Antes era una niña abierta, confiada, con muchas ganas de hacer cosas. Ahora tiene miedo de mirar el móvil, de salir, de encontrarse con alguien que haya visto las imágenes»

Ahora Pedro, pese a agradecer que las autoridades hayan actuado en el caso de su hija, admite que la cuantía es «insuficiente». «Destruir la salud mental de mi hija les ha salido por solo 1.200 euros», dice a ABC. Sobre todo porque en un pueblo pequeño, todo se magnifica y «ella ya no es la misma». «Antes era una niña abierta, confiada, con muchas ganas de hacer cosas. Ahora tiene miedo de mirar el móvil, de salir, de encontrarse con alguien que haya visto las imágenes», lamenta Pedro.

Protección de Datos multa con 2.000 euros por crear contenido sexual manipulado con IA de menores

La Agencia Española de Protección de Datos (AEPD) ha resuelto un caso que marca un hito en la protección de datos en Europa, al sancionar por primera vez a una persona que manipuló y difundió una imagen falsa de una menor utilizando inteligencia artificial (IA). … La multa ha sido de 2.000 euros.
Aunque la resolución no contiene el nombre de la víctima ni del sancionado. Las fechas en las que la AEPD inició la investigación, y la mención a la publicación de varias noticias en medios de comunicación, indican que la resolución está directamente relacionado con el escándalo de Almendralejo, iniciado en septiembre 2023. Entonces menores de edad recurrieron a herramientas de inteligencia artificial para alterar las imágenes de decenas de compañeras de clase y crearon contenido de tintes pornográficos.

El procedimiento sancionador se inició, efectivamente, tras una denuncia presentada el 2 de octubre de 2023 por «la difusión de imágenes falsas de desnudos realizadas con Inteligencia Artificial a través» de internet. El infractor, según se recoge en la resolución habría creado y difundido este contenido.
La AEPD destaca que este tipo de prácticas vulnera el derecho fundamental a la protección de datos personales, que está especialmente protegido en el caso de menores. Según la ley, el uso de datos personales debe basarse en el consentimiento expreso de la persona afectada, o, en su defecto, en una justificación legítima para su tratamiento. En este caso, no hubo consentimiento por parte de la menor ni de sus padres para que su imagen fuera manipulada y difundida de esa manera.

Crean un 'centinela' para evitar los sesgos en la inteligencia artificial de reconocimiento facial

La inteligencia artificial no solo aprende de los datos, también hereda sus prejuicios. Durante años, los sistemas de reconocimiento facial y de análisis de imágenes se han entrenado con fotografías obtenidas de internet sin permiso, con escasa diversidad y sin control sobre su procedencia. … El resultado ha sido una cadena de algoritmos que reconocen peor los rostros de personas negras, mayores o con determinados rasgos físicos, y que perpetúan estereotipos culturales o de género.
Ahora, un equipo de Sony AI propone una alternativa radical: un conjunto de datos creado desde cero con criterios éticos. El trabajo, publicado en ‘Nature’ y liderado por la investigadora Alice Xiang, presenta el Fair Human-Centric Image Benchmark (FHIBE), el primer gran banco de imágenes humanas diseñado para evaluar los sesgos de los modelos de visión artificial de forma justa y transparente.

Un trabajo ético en todas las etapas del proceso

El FHIBE reúne fotografías de 1.981 personas de más de 80 países, todas obtenidas con su consentimiento y tras una remuneración económica por facilitar sus datos. Cada participante pudo retirar sus imágenes en cualquier momento, y los investigadores aplicaron técnicas de privacidad avanzadas para eliminar información personal o rostros de personas que no habían consentido su participación. «Queríamos demostrar que la ética puede incorporarse a cada etapa del proceso, desde la recogida de imágenes hasta su uso científico», explica Xiang a ABC. «Durante demasiado tiempo la investigación en inteligencia artificial ha dependido de bases de datos recopiladas sin consentimiento ni compensación, y eso tenía que cambiar».
La base de datos no es solo diversa geográficamente —con un 45% de imágenes procedentes de África y un 40% de Asia—, sino también en términos de edad, tono de piel, apariencia y condiciones ambientales. Cada imagen está acompañada de decenas de anotaciones: desde el tipo de luz o el modelo de cámara utilizado hasta 33 puntos anatómicos del rostro y el cuerpo. En total, más de 8.500 valores distintos de atributos, lo que la convierte en la colección de imágenes humanas más exhaustivamente etiquetada del mundo.