Tecnología - Colombia
Registro  /  Login

Portal de Negocios en Colombia

TECNOLOGÍA

La nave Orion regresa a casa tras llevar a los astronautas de Artemis II a la Luna: esta será ahora su misión

Casi un mes después de que los astronautas de Artemis II amerizaran frente a la costa de San Diego, la parte de Orion que los trajo sanos y salvos de vuelta a la Tierra está de nuevo en casa. El módulo de tripulación de la nave espacial llegó el 28 de abril a la Multi-Payload Processing Facility, una instalación del Centro Espacial Kennedy de la NASA donde los técnicos pueden iniciar las operaciones posteriores al vuelo.Allí, según detalla la agencia espacial estadounidense, los equipos comenzaron “las operaciones de desmantelamiento de la nave espacial”. Esto incluye retirar la carga útil del módulo, extraer la caja de aviónica para su reutilización, recuperar datos de la nave para comprender mejor su funcionamiento para futuras misiones Artemis y desmontar el escudo térmico y otros elementos para analizarlos en profundidad. También se eliminan riesgos restantes, como el exceso de propelente.El regreso de Orion al Centro Espacial Kennedy no es solo el cierre logístico de Artemis II. Es, sobre todo, el inicio de una autopsia técnica minuciosa de la primera nave Orion que ha volado con astronautas a bordo. La NASA quiere saber cómo se comportaron sus sistemas durante el lanzamiento, el viaje a la Luna, la reentrada y el amerizaje para aplicar esos datos a las siguientes misiones del programa. Qué partes de la nave se pierden durante la misiónAunque se suele hablar de la nave Orion como si fuera una sola pieza, la cápsula completa está formada por varios elementos que no tienen el mismo destino. El vehículo incluye el módulo de tripulación, donde viajan los astronautas; el módulo de servicio, que aporta propulsión, energía y otros recursos durante el vuelo, y el sistema de aborto de lanzamiento (LAS, por sus siglas en inglés Launch Abort System), colocado en la parte superior para separar la cápsula del cohete si ocurre una emergencia durante el despegue o el ascenso.Lo que ha vuelto al Centro Espacial Kennedy es el módulo de tripulación, la cápsula presurizada que protegió a Reid Wiseman, Victor Glover, Christina Koch y Jeremy Hansen durante el regreso a la Tierra. El resto de las piezas de la nave no se recuperan.La primera gran separación se produce durante el lanzamiento. Artemis II despegó el 1 de abril desde la plataforma 39B del Centro Espacial Kennedy a bordo del cohete SLS (Space Launch System), que genera 8,8 millones de libras de empuje al despegar. A medida que el cohete abandona la atmósfera, se desprenden los propulsores laterales de combustible sólido, después los paneles que protegen el módulo de servicio de Orion y, más tarde, el sistema de aborto de lanzamiento, que ya no es necesario si el ascenso se desarrolla con normalidad.Tras esa fase, Orion continúa unida a su módulo de servicio. La etapa superior del cohete, la Interim Cryogenic Propulsion Stage o ICPS, realiza el encendido que pone a la nave rumbo a la Luna y después se separa. Desde ese momento, el módulo de servicio se encarga de propulsar y orientar Orion durante el resto de la misión.La separación de este elemento clave llega justo antes del regreso. Cuando Orion se prepara para reentrar en la atmósfera, el módulo de servicio se desprende del módulo de tripulación. Esa maniobra deja expuesto el escudo térmico de la cápsula, que debe apuntar en la dirección correcta para soportar el calor de la reentrada. El módulo de servicio, ya sin utilidad, se destruye al quemarse en la atmósfera.Después de superar la fase de máximo calentamiento, la cápsula libera la cubierta que protegía el compartimento delantero para permitir el despliegue de los paracaídas. Primero se abren los paracaídas de frenado y, más tarde, los principales, que reducen la velocidad de Orion antes del amerizaje. Finalmente, aparece un sistema de cinco airbags para enderezar la nave y facilitar la salida segura de la tripulación. Artemis II: el vuelo que llevó de nuevo humanos a la LunaArtemis II ha sido la primera misión tripulada del programa Artemis y el primer vuelo de Orion con astronautas. La tripulación estuvo formada por los estadounidenses Reid Wiseman, Victor Glover y Christina Koch, de la NASA, y el canadiense Jeremy Hansen, de la Agencia Espacial Canadiense. Duró 10 días y culminó con el amerizaje del 10 de abril frente a la costa de San Diego.Durante el vuelo, los cuatro astronautas recorrieron 1.117.659 kilómetros y alcanzaron una distancia máxima de 406.771 kilómetros de la Tierra durante el sobrevuelo lunar, más lejos de lo que había viajado antes cualquier ser humano (el récord hasta ahora lo tenía la misión Apollo 13 en 1970).La misión no alunizó, sino que su objetivo era poner a prueba el cohete SLS, la nave Orion y los sistemas de soporte vital con tripulación real a bordo. Durante el viaje, los astronautas comprobaron sistemas críticos, realizaron demostraciones de pilotaje manual y recopilaron datos para futuras misiones posteriores.Uno de los hitos científicos y visuales del vuelo llegó durante el sobrevuelo lunar del 6 de abril. La tripulación capturó más de 7.000 imágenes de la superficie lunar y de un eclipse solar visto desde Orion, además de documentar cráteres, antiguas coladas de lava y variaciones de color en el terreno lunar.

Cómo engañaron a la IA de Anthropic para fabricar explosivos utilizados en atentados terroristas

La inteligencia artificial generativa es un arma poderosa. En cuestión de segundos es capaz de responder -más o menos bien- a cualquier pregunta que le lance el usuario. Para evitar que la tecnología pueda ser mal empleada, los desarrolladores suelen establecer barreras de seguridad. Pero … si el que teclea tiene la maña suficiente, es probable que consiga saltárselas y que el chatbot comience a compartir montones de datos inadecuados.
Precisamente, eso es lo que ha conseguido demostrar (de nuevo) la empresa especializada en ciberseguridad e inteligencia artificial Mindgard. Afirma haber logrado engañar a Claude, la IA de Anthropic, para que comparta, entre otros contenidos prohibidos, material erótico, código malicioso para ciberataques e instrucciones para fabricar explosivos utilizables en atentados terroristas.

«Esta es una de las vulnerabilidades más impactantes que he encontrado, ya que Claude es conocido por ser uno de los modelos más seguros», afirma Jim Nightingale, el investigador de Mindgard que puso a prueba a la IA de Anthropic. A este respecto, recuerda que Claude «fue uno de los dos únicos modelos de IA de entre los diez mejores que se resistieron a participar en la planificación de tiroteos escolares» en un reciente experimento realizado por ‘CNN’ y el Centro para la Lucha contra el Odio Digital.

MÁS INFORMACIÓN

Para conseguir engañar a Claude, Nightingale apostó por emplear palabras respetuosas y colmarlo de halagos durante sus conversaciones. A continuación, utilizó trucos de manipulación psicológica: le preguntó si contaba con una lista de palabras prohibidas que no podía compartir. Cuando la máquina negó que existiera dicha lista, el investigador la retó a decir una palabra ofensiva concreta. «Esta es una táctica clásica de interrogatorio. Es más fácil lograr que alguien contradiga algo que revelarlo directamente. Es una táctica clásica de psicología inversa que consigue que la persona interrogada revele información prohibida para corregirte», dice el investigador.
Y funcionó. Claude generó la palabra, pero Nightingale siguió manipulándolo afirmando que no la había mostrado en pantalla. Consiguió que la máquina comenzase a mostrar cierta inseguridad y, a partir de ahí, continuó manipulándola hasta que compartió una lista larga de palabras prohibidas que, en teoría, no tiene permitido reproducir. Aprovechando también los halagos, finalmente logró que la máquina mostrara consejos para acosar a alguien por internet, generar código malicioso y proporcionó instrucciones paso a paso para fabricar explosivos.
«Proporcionó con entusiasmo instrucciones precisas y paso a paso para producir TATP (peróxido de acetona), el mismo explosivo utilizado en varios atentados terroristas importantes en todo el mundo», dice el investigador. También remarca que, durante todo el proceso, la máquina no fue coaccionada en ningún momento, y tampoco se le pidió de forma directa que generase contenido ilegal alguno. Esta lo compartió por su propia voluntad después de haber sido manipulada para ello.
Para Mindgard, el resultado del experimento con Claude demuestra «lo difícil que se vuelve garantizar la seguridad de la IA a medida que los sistemas se vuelven más capaces»: «Una mayor capacidad amplía las funcionalidades del sistema para los usuarios, pero también aumenta el margen de error». La firma anima a las compañías que trabajan con inteligencia artificial a realizar pruebas de seguridad de las herramientas empleadas, que deberían ser llevadas a cabo por expertos externos y no solo por los proveedores del servicio.

Google, Microsoft y xAI, bajo lupa: EEUU revisará sus modelos de IA para evaluar los posibles riesgos

El Centro de Estándares e Innovación en Inteligencia Artificial (CAISI, por sus siglas) del Instituto Nacional de Estándares y Tecnología del Departamento de Comercio de Estados Unidos ha anunciado una serie de acuerdos con Google, Microsoft y xAI para revisar los modelos de IA antes de que se pongan a disposición de los usuarios.Acorde a la información compartida en un comunicado oficial, «CAISI llevará a cabo evaluaciones previas al despliegue e investigaciones específicas para evaluar mejor las capacidades de vanguardia de la IA y mejorar la seguridad en este campo», de esta manera, dicho organismo podrá evaluar los modelos antes de su lanzamiento público y realizar evaluaciones posteriores a su implementación.Según CAISI, estos acuerdos también fomentan el intercambio de información, impulsan mejoras voluntarias en los modelos de IA y garantizan una comprensión clara de las capacidades de la inteligencia artificial y el estado de la competencia internacional. Por lo tanto, para evaluar de forma exhaustiva las capacidades y los riesgos relacionados con la seguridad nacional, los desarrolladores tienen que proporcionar a CAISI modelos con medidas de seguridad para que los evaluadores del gobierno puedan participar en las evaluaciones y proporcionar comentarios sobre posibles mejoras.»Los acuerdos respaldan las pruebas en entornos clasificados y se redactan con la flexibilidad necesaria para responder rápidamente a los continuos avances de la IA», agrega CAISI en el comunicado. Así pues, al realizar investigaciones e identificar los riesgos de seguridad, se puede mitigar cualquier peligro para «gestionar de forma responsable el futuro de la IA» e «impulsar la innovación tecnológica disruptiva».Por otro lado, cabe mencionar que las evaluaciones realizadas en virtud de estos acuerdos contribuirán a impulsar el desarrollo y el uso seguro de la IA, basándose en la Orden Ejecutiva sobre IA de la administración Biden-Harris y en los compromisos voluntarios asumidos con la administración por los principales desarrolladores de modelos de inteligencia artificial.Chris Fall, director de CAISI, afirma en el comunicado que «la ciencia de la medición independiente y rigurosa es esencial para comprender la IA de vanguardia y sus implicaciones para la seguridad nacional. Estas colaboraciones ampliadas con la industria nos ayudan a intensificar nuestro trabajo en beneficio del interés público en un momento crítico».

Sam Altman, CEO de OpenAI, anuncia un clon de Mythos, la IA de Anthropic que ha desatado la alarma mundial

La compañía Anthropic encendió las alarmas hace poco con su nuevo modelo de inteligencia artificial. Claude Mythos se ha presentado ante el mundo como una IA con un nivel de capacidad de programación que le permite «superar a todos, excepto a los humanos más expertos, en la detección y explotación de vulnerabilidades de software». Sin embargo, la preocupación no reside en dicha afirmación compartida por Anthropic, sino en el ritmo al que evoluciona porque «no pasará mucho tiempo antes de que dichas capacidades se extiendan, posiblemente más allá de los actores comprometidos con su implementación segura».Esto significa que, una vez evolucionada, Claude Mythos podría caer en manos maliciosas y terminar convirtiéndose en una ciberarma mortal. No obstante, con el objetivo de evitar esta situación, Anthropic ha presentado el Proyecto Glasswing para proteger «el software más crítico del mundo en la era de la IA».Ahora, en mitad de las preocupaciones por la posibilidad de que Claude Mythos se use para beneficiar al cibercrimen, Sam Altman ha dado a conocer en su perfil de la red social X que OpenAI está trabajando en un «modelo de ciberseguridad de vanguardia».El CEO de OpenAI ha reconocido que la compañía ya ha empezado el despliegue de GPT-5.5-Cyber entre los «defensores críticos de ciberseguridad». Según ha señalado, este modelo estará disponible «en los próximos días» y su lanzamiento se realizará en colaboración «con todo el ecosistema y el gobierno para determinar un acceso confiable». La intención, agrega, consiste en reforzar la protección de empresas e infraestructuras críticas lo antes posible.Entonces, ¿GPT-5.5-Cyber podría generar el mismo miedo que Claude Mythos? Mientras que el modelo de OpenAI se plantea como una herramienta que está orientada a ayudar a los expertos en ciberseguridad, la IA de Anthropic gira en torno a los posibles riesgos o usos indebidos. Dicho de otra forma, GPT-5.5-Cyber llegará como una solución y Claude Mythos está generado inquietud por su posible impacto.El anuncio de este modelo coincide a los pocos días del lanzamiento de GPT-5.5El anuncio de GPT-5.5-Cyber llega a los pocos días de que OpenAI presentase su nuevo modelo GPT-5.5.La compañía de Sam Altman anunció el modelo GPT-5.5 para ser el «más intuitivo e inteligente hasta la fecha», ya que cuenta con capacidades mejoradas para realizar tareas de forma autónoma y entender las intenciones del usuario de una forma más precisa.Dicha IA llega para ser más intuitiva e inteligente porque comprende de forma rápida las intenciones del usuario, teniendo en cuenta que puede realizar «gran parte del trabajo» por sí mismo. Además, como novedad, este modelo cuenta con la versión GPT-5.5 Thinking, que ofrece «ayuda más rápida para problemas complejos», y GPT-5.5 Pro, para garantizar una «mejora significativa» tanto en dificultad como en calidad del trabajo.

OnePlus se integra con realme bajo el paraguas de OPPO: otro paso más en su cambio de rumbo

Hay marcas que, en un momento concreto, consiguen algo difícil de explicar con cifras. OnePlus fue una de ellas. No solo por lo que hacía, sino por cómo lo hacía. Durante años, supo construir un relato propio dentro de una industria cada vez más homogénea, generando una conexión con el usuario que iba más allá del producto.Por eso, cuando ese relato empieza a diluirse, lo que queda no es solo un cambio de estrategia, sino una sensación de desconcierto, incluso cierto sentimiento de orfandad.OnePlus lleva meses con menos actividad en Europa, una comunicación más discreta, lanzamientos que ya no llegan a Occidente con la misma naturalidad de antes, salidas de perfiles clave dentro de la compañía… piezas sueltas que, por sí solas, podían interpretarse de muchas maneras, pero que juntas dibujaban un escenario bastante claro: la compañía estaba cambiando, lo que no sabíamos oficialmente era hacia dónde (aunque se trataba más bien de un secreto a voces).En este contexto, una información publicada por Android Authority, basada en datos del conocido filtrador Digital Chat Station en Weibo, confirma la integración operativa entre OnePlus y realme.Hablar de fusión puede llevar a equívocos. OnePlus y realme —de momento— siguen existiendo como marcas independientes y, de cara al usuario, no hay cambios inmediatos sobre la mesa. No estamos ante un cierre ni ante una desaparición repentina. Pero lo que sí parece que será esta reorganización es, en el fondo, una pérdida progresiva de autonomía, algo que finalmente el gran público acabará notando también.Así quedaría la nueva estructura de OnePlus+realmeSegún la filtración, ambas marcas habrían unificado parte de su estructura en torno a un nuevo centro de producto que agruparía tanto el desarrollo nacional como internacional. El nuevo centro de producto estaría dirigido por Li Jie y reportaría directamente a Liu Zuohu, dos perfiles clave para entender el momento actual de la compañía.En el caso de Li Jie, se trata de un directivo con un peso creciente dentro de OnePlus, especialmente en el mercado chino, donde ejerce como presidente de la marca. Su papel ha estado muy ligado a la estrategia de producto en los últimos años, lo que explica que, según la filtración, sea quien asuma ahora la dirección de este nuevo centro conjunto. Por encima de él está Liu Zuohu, más conocido fuera de China como Pete Lau, fundador de OnePlus y una de las figuras históricas del grupo. Su influencia va mucho más allá de la marca: en los últimos años ha asumido responsabilidades dentro de OPPO, supervisando la estrategia de producto y la integración entre distintas marcas del ecosistema. ¿Y qué tiene que ver OPPO con todo esto? Es la pieza que faltaba para entender todo el movimiento. Tanto OnePlus como realme forman parte del mismo grupo empresarial —el ecosistema BBK— y, en los últimos años, OPPO ha ido ganando peso como eje central de esa estructura. No es casualidad que Liu Zuohu tenga también responsabilidades dentro de OPPO: la estrategia pasa precisamente por compartir desarrollo, tecnología y decisiones entre marcas. Así, esta integración no es tanto una alianza entre OnePlus y realme como un paso más hacia un modelo en el que OPPO actúa como núcleo, marcando el rumbo mientras el resto de marcas orbitan a su alrededor con propuestas cada vez menos diferenciadas.La restructuración no solo afecta al área de producto, sino que también se habría producido una integración en áreas como marketing y servicio. Li Bingzhong (conocido como Sky Li), fundador y CEO de realme, sería el director de esta nueva unidad. Xu Qi (Chase Xu), VP y CMO de realme, ocuparía asimismo un cargo directivo.Por ahora, no hay confirmación oficial. Pero el contexto en el que llega esta información hace que sea difícil ignorarla. Es, en cierto modo, el siguiente paso natural dentro de una estrategia más amplia del grupo BBK: simplificar estructura, optimizar recursos y reducir solapamientos entre marcas que, en muchos casos, competían entre sí en los mismos segmentos. 

Investigadores españoles crean una plataforma con IA que detecta el Alzhéimer de forma temprana con la voz

Un grupo de investigadores del Instituto de Investigación Sanitaria y Biomédica (ISABIAL) y de la Universidad de Alicante (UA) ha creado una plataforma de inteligencia artificial para identificar el Alzhéimer de forma temprana a través de la voz.Dicha iniciativa se llama ‘Plataforma de Inteligencia Artificial para la Detección Temprana de la Enfermedad de Alzhéimer a través de la Voz’ (IAEAV, por sus siglas), además, está diseñada para identificar patrones de deterioro cognitivo mediante el análisis de señales acústicas y lingüísticas de la voz humana. Pero, ¿cómo funciona?La Universidad de Alicante explica en un comunicado oficial que las tecnologías avanzadas de procesamiento del lenguaje natural y aprendizaje profundo recopilan datos de voz mediante una aplicación móvil «sencilla y accesible», de esta manera, se pueden grabar las voces de los usuarios en diferentes contextos —como lecturas, narraciones espontáneas o respuesta a preguntas—. Por lo tanto, gracias a esta recopilación, las grabaciones se procesan para extraer características acústicas —como tono, intensidad y pausas— y aspectos lingüísticos —como riqueza semántica y errores en la fluidez verbal— para ser posteriormente evaluadas por modelos de aprendizaje profundo y permitir «una detección precisa y personalizada».Cabe mencionar que la aplicación móvil ha sido concebida para su uso tanto en entornos clínicos como en el hogar, así pues, se reducen las barreras de acceso y se facilita la obtención de datos en poblaciones con recursos limitados.Esta iniciativa quiere mejorar la calidad de vida de los pacientesEl proyecto aborda la detección de la enfermedad de Alzhéimer, ya que «un diagnóstico temprano se convierte en una herramienta fundamental para retrasar su progresión y mejorar la calidad de vida de los pacientes y sus cuidadores», señala la Universidad de Alicante en un comunicado.Por otro lado, los investigadores apuntan que esta «innovadora» herramienta se fundamenta en estudios previos que han demostrado que los cambios neurológicos «tempranos» pueden manifestarse en «alteraciones del lenguaje», como «una disminución en la complejidad sintáctica, pausas prolongadas y errores gramaticales».Desde esta perspectiva, Miguel Ángel Teruel, investigador de la Universidad de Alicante, afirma que esta tecnología «no solo busca mejorar la detección clínica, sino también contribuir al desarrollo científico mediante la generación de grandes volúmenes de datos de voz, que pueden facilitar investigaciones más profundas sobre la relación entre las alteraciones lingüísticas y los cambios neurodegenerativos, promoviendo avances en el tratamiento y manejo de la enfermedad».

Apple prepara una revolución en su aplicación Fotos para competir con Google y Samsung en la edición con IA

Apple está preparando la renovación de su aplicación Fotos para ser una mayor competencia para rivales como Google o Samsung. Estos gigantes llevan tiempo ofreciendo la edición automática con inteligencia artificial, convirtiendo a esta herramienta en uno de los grandes reclamos de sus móviles. Por ello, desde Cupertino saben que no se pueden quedar atrás y quieren mejorar su app de Fotos dentro de la nueva versión de iOS 27, iPadOS 27 y macOS 27.Nuevo menú basado en Apple IntelligenceSegún informa el conocido analista de Apple, Mark Gurman, a través de Bloomberg, Apple añadirá un nuevo menú específico de edición basado en Apple Intelligence con el objetivo de que retocar una foto sea más rápido y sencillo para cualquier persona. El menú en cuestión reunirá tres funciones principales, cuyo proceso de cada una solo durará unos segundos.Extend: servirá para ampliar una imagen cuando haya quedado demasiado cerrada y utilizará la IA para crear un nuevo fondo alrededor de la foto para dar más aire a la escena o añadir espacio a los laterales.Enhance: esta es una mejora automática que, con un solo toque, ajustará la luz, color, contraste y su calidad sin que el usuario tenga que hacer nada de forma manual.Reframe: pensada sobre todo para las fotos espaciales tomadas con las Vision Pro. Permitirá cambiar el punto de vista de la imagen después de haberla hecho para verla desde otra perspectiva.Eso sí, por el momento estas novedades no están terminadas, ya que Gurman explica que las pruebas internas de Extend y Reframe todavía no ofrecen buenos resultados. Apple podría retrasarlas o lanzarlas con menos funciones si no llegan a tiempo para su presentación en la WWDC 2026 de junio y su despliegue en septiembre. Puede que Apple llegue algo tarde en este aspecto, porque Google y Samsung tienen ventaja en el uso de IA en su aplicación Fotos y la marca de la manzana mordida solo cuenta con la limitada herramienta «Limpiar» como función de IA.