Tecnología - Colombia
Registro  /  Login

Portal de Negocios en Colombia

TECNOLOGÍA

Probamos la DJI Action 6, ¿la mejor cámara de acción del 2025?

DJI lleva años compitiendo en el mismo ring que GoPro e Insta360. Y lo ha hecho apostado por ofrecer siempre «un poquito más». En 2025 quisieron lanzar una cámara de acción diferente, la Osmo Action 6, que brilla justo donde la competencia suele sufrir: en … la captura de escenas rápidas con poca luz y gran encuadre.
La receta para el éxito es un sensor cuadrado de 1/1,1» y apertura variable f/2.0–f/4.0 en un cuerpo que permite inmersión a 20 metros bajo el agua sin carcasa, útil para el buceo a pulmón libre, pero no para el buceo a botella, y doble pantalla OLED.

En la actualidad, en la que casi todo acaba en redes sociales, saber cuándo grabar en vertical o en horizontal no es una decisión fácil, y ahí es donde el sensor cuadrado de la Osmo Action 6 juega su mejor carta. DJI permite grabar en modo 4K 3840×3840, lo que, en la práctica, es un «luego decido si lo subo a YouTube (16:9) o a TikTok (9:16)». Esto te libera de andar pensando para anticipar para qué plataforma estás grabando, y luego editar si quieres un video vertical u horizontal sin perder calidad con el mismo material. Muy parecido a lo que ocurre con una cámara 360, pero a mayor calidad.
Otro de los puntos positivos de la Osmo Action 6 es que tiene apertura variable, f/2.0–f/4.0 mientras que el resto usa una apertura fija. En escenas con mucha luz, cerrar el diafragma ayuda a mantener velocidades más razonables sin ‘quemar’ el cielo. De noche, abrir a f/2.0, junto al sensor grande, es lo que hace que la Action 6 consiga buenas imágenes sin granulado, también ayudado por el HDR. Nosotros lo probamos en la bici de noche, y hemos conseguido el mejor video nocturno que hemos obtenido en movimiento con una cámara de acción.

Grok aún desnuda a las mujeres con IA a pesar de la promesa de Elon Musk

Elon Musk quiere zanjar de una vez por todas la polémica con Grok, su herramienta de inteligencia artificial generativa. La red social X ha anunciado nuevas medidas para impedir que su chatbot de inteligencia artificial transforme fotos de personas reales en imágenes con carácter … sexual. Sin embargo, según ha podido comprobar ABC durante todo el jueves y la mañana de este viernes, la herramienta sigue permitiendo editar imágenes de mujeres y hombres reales para que estos aparezcan en ropa interior o en traje de baño. Algo que, en teoría, ya no debería ser posible.
La opción, efectivamente, va en contra del anuncio de X, que informó en la noche del miércoles, expresamente, de que había «implementado medidas tecnológicas para evitar que la cuenta de Grok permita la edición de imágenes de personas reales con ropa reveladora, como bikinis«. La razón: evitar que la IA siga siendo explotada para generar contenido artificial explícito de personas reales.

La empresa señaló, además, que «esta restricción aplica a todos los usuarios, incluidos los suscriptores de pago». Sin embargo, este diario ha comprobado que sigue siendo posible saltársela, y de forma sencilla, sin echarle imaginación alguna a la orden que se le da al chatbot. Esto es posible en la opción de Grok contenida en X y a través de la aplicación propia de la IA. Y da igual que se utilice una cuenta gratuita o una de pago: el resultado será el mismo.
Para hacer la prueba, recurrimos a fotografías de personas reales propias y a otras sacadas directamente de la red. En muchos casos, la herramienta no tuvo problema en alterar la imagen original para poner a las personas que aparecían en ropa interior o bikini. Esto fue posible tanto en el caso de hombres como en el de mujeres. En la versión de la ‘app’ de Grok parece ser incluso algo más sencillo conseguir este resultado. La máquina apenas pone pegas y es posible reeditar las imágenes todas las veces que se quiera hasta conseguir el resultado deseado, que puede llegar a ser bastante explícito.
«El argumento de Elon Musk es el de siempre: el de que nos vamos a poner duros. Pero en realidad es la enésima demostración de que X es una red social descontrolada», explica en conversación con este diario Fernando Checa, director del máster de Redes Sociales del Universidad Internacional de La Rioja. El experto apunta que, a pesar de las palabras de X, es probable que hacer un ajuste como el que se prometió el jueves, por mucho que la red social lo diese por hecho, «puede llevar tiempo»: «Seguramente la gente de xAI esté tratando de ver cómo pueden conseguirlo sin que Grok baje la calidad en la generación de fotografías».

No es legal

Los usuarios que empleen Grok para generar y compartir contenido sexual artificial de personas reales pueden estar infringiendo la ley. Así lo explica en conversación con este diario el abogado especializado en asuntos digitales Sergio Carrasco Mayans: «Depende del tipo de modificación, pero se puede violentar el derecho al honor de la persona afectada. Si además este contenido afecta al menor, el caso se agravaría, porque podríamos encontrarnos ante un caso de pornografía infantil».
El jurista remarca que, en los casos en los que solo se realiza la edición con IA, y se queda guardada en el carrete del ‘smartphone’, la infracción sería «más dudosa»: «El daño a la imagen se produce, pero queda diluido. En el caso de los menores el tema sería más delicado».
Respecto a la responsabilidad de Grok, como herramienta que permite la edición de imágenes normales, el abogado Samuel Parra apunta que la plataforma también estaría «permitiendo el tratamiento de la fotografía de forma inadecuada». Por lo tanto, también podría ser demandada por el afectado. En el caso de España, ante la Agencia Española de Protección de Datos (AEPD): «Si una empresa crea una herramienta, es responsable de lo que pueda hacer desde el punto de vista europeo. El hecho de que haya una imagen mía pública, aunque esté en X, no implica que Grok pueda usarla para crear contenido explícito. Puede tratarse de una infracción civil y administrativa y el afectado puede demandar tanto a la herramienta como a la persona que la ha generado y la ha difundido».

GMail ya permite cambiar la cuenta de correo electrónico por otra que acabe en 'gmail.com'

Google ha comenzado a lanzar oficialmente la opción de cambiar la dirección de correo electrónico a nivel global para todos los usuarios, que podrán utilizar otro nombre para la dirección de la cuenta. Eso sí, siempre debe terminar en ‘gmail.com’.La dirección de … correo de la cuenta de Google es la que se utiliza para iniciar sesión en los servicios de la tecnológica y para que los usuarios puedan identificar su cuenta y la de otras personas. Hasta ahora, los usuarios de Gmail solo podían cambiar la dirección de correo electrónico si utilizaban una cuenta de terceros, pero no se permitía este cambio a aquellos con una dirección ‘@gmail.com’.

Sin embargo, el pasado mes de diciembre el gigante tecnológico comenzó a compartir una opción para permitir modificar las direcciones de Gmail, aunque esta no estaba disponible oficialmente y solo aparecía en una página de Google India.
Ahora, Google ha anunciado que los usuarios ya pueden cambiar la dirección de correo electrónico de su cuenta de Google finalizada en ‘gmail.com’, una opción que ha comenzado ha desplegar oficialmente a nivel global.

Los expertos alertan sobre el nuevo ChatGPT Salud: «Sus datos sanitarios podrían hacerse públicos»

ChatGPT tiene una respuesta para casi cualquier pregunta. Da lo mismo que se le pida ayuda para organizar la agenda o para rastrear información sobre cualquier tema de actualidad que se le ocurra. Y si el usuario le solicita que le explique los resultados … de su último análisis clínico, o que le diga cuáles pueden ser las causas de un malestar concreto, lo mismo. Ahora OpenAI, la empresa detrás de la máquina de inteligencia artificial generativa, ha anunciado el lanzamiento de un nuevo modo de uso, incluido dentro de ChatGPT, llamado Salud. Su objetivo: «interpretar los resultados recientes de sus pruebas, prepararle para sus citas médicas, recibir recomendaciones sobre dieta y ejercicio, o comprender las ventajas y desventajas de distintas opciones de seguro según sus hábitos de atención médica».
Por el momento, la novedad solo está disponible para un reducido grupo de usuarios de Estados Unidos. La herramienta, además, es capaz de cruzar datos con aplicaciones de bienestar, como Apple Health, Function o MyFitnessPal, para conocer la mayor cantidad posible de datos de salud del usuario. Aunque OpenAI promete que toda esta información quedará almacenada de forma privada en el interior de ChatGPT, y que la empresa no la utilizará para entrenar a su IA, los expertos consultados por ABC ponen en duda que la herramienta pueda estar al alcance de los usuarios de la UE. Y todo por razones de privacidad.

«Tal y como está la regulación es muy complicado que este modo centrado en la salud llegue a Europa», explica Julio Mayol, director médico del Hospital Clínico San Carlos y profesor titular de Cirugía en la Universidad Complutense. Efectivamente, el Reglamento General de Protección de Datos de la UE es muy restrictivo respecto a la transferencia y tratamiento de datos relacionados con la salud. Además, la Ley de IA, que ya funciona en Europa, probablemente exigirá evaluaciones, documentación y controles adicionales a OpenAI.
Lo mismo señala Ulises Cortés, catedrático de Inteligencia Artificial en la Universidad Politécnica de Cataluña: «Si por el momento se queda solo en Estados Unidos es porque es donde la ley lo permite. En Europa, en principio, este tipo de herramientas es ilegal; habrá que ver si en el futuro la UE decide renunciar a la calidad de los datos». El docente apunta además que los usuarios deberían pensárselo dos veces antes de compartir su información clínica con un chatbot: «Es peligrosísimo compartir los datos de salud con ChatGPT, porque son íntimos y personales. Imagínate que compartes que tienes una enfermedad peligrosa y eso se hace público por un error de la máquina. El riesgo existe».

Los errores de la máquina

A pesar de los riesgos, desde su lanzamiento, a finales de 2022, ChatGPT ha sido empleado activamente por los usuarios para solventar dudas médicas. De acuerdo con OpenAI, actualmente, más de 230 millones de usuarios recurren semanalmente a la máquina con ese fin. En el anuncio de Salud, OpenAI remarca que la novedad está diseñada «para apoyar, no para reemplazar la atención médica. No sirve para diagnóstico ni tratamiento». Sin embargo, los expertos esperan que su llegada cause confusión en los pacientes. «Es difícil predecir cómo la población va a reaccionar a esto. Ataca a los sanitarios, y no tenemos claro cómo vamos combatir los problemas que cause o de quien será la responsabilidad si la máquina comete algún error, que es posible», apunta Mayol.
El doctor señala que ya hay casos en los que los pacientes entran en las consultas compartiendo con el médico los comentarios de ChatGPT cuando la máquina ha recibido algún análisis médico o se le han consultado algunos síntomas. «Todavía son anecdóticos, pero en el futuro creo que va a generar muchas tensiones entre médicos y pacientes», señala este médico.

«¿Y qué te va a decir? ¿Que usan tus datos para entrenar a ChatGPT? La manera de olvidar de una máquina que usa una red neuronal es quitar todos los datos y realizar de nuevo el aprendizaje»

De hecho, ChatGPT ya ha generado problemas médicos a algunos usuarios. El pasado agosto, ‘Annals of Internal Medicine Clinical Cases’ publicaba un estudio en el que se mencionaba el caso de un paciente que sufrió una intoxicación por bromuro después de solicitar consejo a la máquina de IA sobre una dieta. ‘Daily Mail’ también compartió el caso de un hombre que consultó al robot sobre un dolor de garganta. La herramienta le señaló que los síntomas no parecían graves, por lo que tardó meses en acudir al médico, que le acabó diagnosticando un cáncer de garganta.
«Desde un punto de vista general, hay que tener en cuenta que ChatGPT no sabe nada sobre nada, y tampoco de salud. Solo es un buscador que busca información y genera un texto resumen. Hace lo mismo que cualquiera de nosotros cuando buscamos síntomas en Google», señala Juan Ignacio Rouyet, profesor de IA en la Universidad Internacional de La Rioja y consultor sénior en la empresa de estrategia tecnológica Eraneos.
Este experto apunta además que, hasta la fecha, la mayoría de herramientas de IA generativa «descargan responsabilidades diciendo que los resultados que dan sus chatbots pueden ser erróneos, lo que pasa es que estas advertencias a veces están escondidas». Y lo cierto es que muchos usuarios no siempre son conscientes de que el fallo no solo es posible, sino más que probable.
Para desarrollar ChatGPT Salud, OpenAI afirma que ha contado con la colaboración de 260 profesionales de la salud de 60 países y con docenas de especialidades. Gracias a su trabajo, la máquina es capaz de «entender qué hace que una respuesta a una pregunta sobre la salud sea útil o potencialmente peligrosa». La empresa, además, se compromete a que no usa los datos de los pacientes para capacitar a su modelo de IA. Sin embargo, Cortés muestra dudas: «¿Y qué te van a decir? ¿Que lo hacen? La manera de olvidar de una máquina que usa una red neuronal es quitar todos los datos y realizar de nuevo el aprendizaje. Habrá que leer muy bien la letra pequeña».

Europa estudia investigar el uso de Grok para crear desnudos de niños y mujeres con IA

La Comisión Europea ha ordenado a la red social X de Elon Musk que conserve todos los documentos y datos internos relacionados con su chatbot de inteligencia artificial integrado, Grok, hasta finales de 2026, dijo el jueves un portavoz de la comisión en … declaraciones recogidas por ‘Reuters’.
«Esto se le está diciendo a la plataforma: ‘Conserven sus documentos internos, no se deshagan de ellos, porque tenemos dudas sobre su cumplimiento… y necesitamos poder tener acceso a ellos si lo solicitamos explícitamente’», dijo el portavoz de la Comisión Thomas Regnier.

El anuncio llega una semana después de que Grok, a través de su cuenta oficial en la red social, reconociese que algunos usuarios se habían aprovechado de un problema técnico de la herramienta para que la creación de este tipo de contenido fuera posible. «Hemos identificado fallas en las salvaguardas y las estamos corrigiendo con urgencia», se señaló en la publicación. Asimismo, la IA remarcaba que la creación de contenido erótico de esta clase »es ilegal y está prohibido«.
Las denuncias de abusos comenzaron a aparecer en X después de que, a finales de diciembre, se lanzara en Grok un botón de «editar imagen». Este permite a los usuarios modificar cualquier imagen en la plataforma -y, según las quejas-, algunos usuarios aprovecharon la novedad para eliminar parcial o completamente la ropa de mujeres o niños en las fotografías.

OpenAI crea ChatGPT Salud, su herramienta para responder preguntas médicas, analizar resultados y ofrecer consejos

OpenAI sigue sumando funcionalidades a ChatGPT. La tecnológica centrada en inteligencia artificial generativa ha anunciado la llegada de una nueva versión de su chatbot centrada en la salud y el bienestar llamada ChatGPT Salud. Esta está diseñada, según señala la propia tecnológica en comunicado, … para que el usuario pueda compartir de forma segura con la máquina su información médica, como los resultados de sus análisis o su historial clínico, para que la máquina lo ayude a interpretar los resultados recientes de sus pruebas, prepare sus citas médicas u ofrezca recomendaciones.
Desde la llegada de ChatGPT a la red a finales de 2022, los usuarios han recurrido al robot para buscar consejo médico. De acuerdo con la propia empresa, actualmente, más de 230 millones de personas a nivel global le hacen consultas semanales sobre bienestar y cuidado personal.

La novedad, que en primer momento solo estará disponible para los usuarios afincados en Estados Unidos, es compatible con aplicaciones de bienestar del ‘smartphone’, como es el caso de Apple Health, Function o MyFitnessPal. Gracias a ellas, el robot puede contar con toda la información básica de salud del usuario para poder aconsejarlo mejor. Ahora bien, que nadie se confunda. OpenAI deja claro que la herramienta no aspira a sustituir la atención médica tradicional.
«No sirve para diagnóstico ni tratamiento. En cambio, ayuda a resolver preguntas cotidianas y a identificar patrones a lo largo del tiempo, no solo en momentos de enfermedad, para que tengas más claridad y confianza en tus conversaciones médicas importantes», dejan claro desde OpenAI. La empresa también remarca que los datos médicos compartidos por los usuarios no serán empleados para el entrenamiento de ChatGPT. A este respecto, la empresa señala que la novedad «se creó como un espacio seguro con protecciones adicionales para la información médica sensible y controles fáciles de usar».