Tecnología - Colombia
Registro  /  Login

Portal de Negocios en Colombia

TECNOLOGÍA

Google revoluciona Android con Gemini Intelligence, el mayor cambio en la historia del sistema operativo

Google ha celebrado el Android Show I/O Edition, donde se ha confirmado que Android se transforma en un sistema inteligente con Gemini bajo el nombre de Gemini Intelligence, siendo uno de los mayores cambios en la historia de Android. En el evento, la compañía de Mountain View ha explicado que el sistema operativo dejará de centrarse únicamente en abrir aplicaciones y ejecutar tareas para convertirse en una plataforma inteligente capaz de entender el contexto del usuario y ayudarle de forma automática.Explican que Gemini Intelligence llegará junto a Android 17 con el objetivo de que móviles, relojes, coches y ordenadores trabajen de una forma más conectada gracias a la IA. La idea es que muchas acciones cotidianas sean más rápidas y sencillas, pero que el usuario tenga el control en todo momento. A continuación, vamos a explicar todas las novedades que Google ha dado a conocer en el Android Show I/O Edition.Gemini Intelligence es la nueva base de AndroidGracias a su llegada, el dispositivo podrá entender mejor lo que ocurre en pantalla, interpretar lo que el usuario necesita y realizar acciones de forma más automática. Por ejemplo, el móvil podrá relacionar información de distintas aplicaciones para ofrecer soluciones rápidas sin necesidad de cambiar todo el rato entre apps. Uno de los avances más importantes es la automatización inteligente.Esto quiere decir que Gemini será capaz de realizar procesos completos dentro de varias aplicaciones sin que el usuario tenga que hacerlo de forma manual. Un ejemplo que ponen desde Google es que el usuario puede hacerle una foto a un cartel turístico y pedirle al asistente que busque actividades similares para varias personas. En ese momento, Gemini analizará la imagen, buscará opciones compatibles y podrá continuar el proceso automáticamente.También podrá utilizar la información que se vea en la pantalla. Es decir, si el usuario tiene una lista de la compra escrita en una nota, Gemini puede convertirla en un carrito online ya preparado para hacer el pedido. Eso sí, dejan claro que estas acciones solo se activarán cuando el usuario las solicite y el sistema pedirá confirmación antes de completar tareas como compras o pagos.Chrome gana una navegación más inteligenteAl integrarse también en Chrome para Android, desde el navegador el asistente puede resumir páginas largas, comparar información y responder a preguntas relacionadas con el contenido que aparece en la pantalla. Junto a esta capacidad también llega la función Auto Brush, que permite automatizar las tareas dentro de páginas web o buscar productos específicos sin tener que navegar manualmente por varias webs. Google ha asegurado que esta herramienta mantiene las mismas medidas de seguridad que ya utilizaba Google Chrome para proteger de amenazas y páginas maliciosas. Mejoras en el autocompletado y nueva función RamblerAndroid 17 también va a mejorar el autocompletado, por lo que el sistema tendrá la capacidad de rellenar formularios más complejos utilizando la información guardada en aplicaciones que estén conectadas, algo que evitará que tenga que buscar todo el rato datos personales, números de documentos o direccionales cada vez que se realiza una gestión desde el móvil.Además, Google ha presentado «Rambler», una nueva función de voz integrada en el teclado Gboard diseñada para permitir hablar de forma natural sin tener que dictar cada palabra correctamente. El sistema eliminará pausas, repeticiones y expresiones innecesarias para transformar una conversación espontánea en un texto claro y ordenado. Explican que entenderá frases mezclando varios idiomas en una misma oración.Widgets personalizadosTambién ha implementado una función llamada «Create My Widget» con la que los usuarios podrán crear widgets personalizados simplemente escribiendo lo que quieren ver. Por ejemplo, si piden un panel con información meteorológica, Android lo generará automáticamente y lo actualizará en segundo plano. Básicamente, la compañía quiere que la pantalla de inicio sea más útil y se adapte mejor a las necesidades de cada persona.Funciones para creadores de contenido y redesHan dado un paso adelante en mejoras creativas para fotos y vídeos con Android 17 al incorporar varias funciones enfocadas en creadores de contenido y redes sociales. Entre las novedades destacan un HDR más avanzado, estabilización de video integrada y un mejor rendimiento en condiciones de poca luz. También se añaden herramientas automáticas para mejorar fotos y controlar mejor el sonido en vídeos, pero algo muy útil es que han anunciado que Adobe Premiere llegará a Android este verano y que Instagram estará optimizado para tablets Android.Bienestar digital y lucha contra fraudesEn el apartado Bienestar digital aparece una nueva función llamada «Pause Point», con la que, antes de abrir una aplicación que pueda distraer, Android mostrará una pequeña pausa para que el usuario decida si quiere continuar, establecer un temporizador o detenerse. Por otra parte, Google también ha anunciado nuevas protecciones contra los fraudes telefónicos y aplicaciones maliciosas en Android para detectar llamadas falsas que suplantan a bancos y mejorarán las herramientas de antirrobo y la protección de datos personales.Android Auto y los nuevos GooglebookLlegando al coche, nos encontramos con que Android Auto también recibe cambios importantes con una interfaz más moderna, mapas más detallados y widgets personalizables. Además, se podrán ver vídeos mientras el coche está detenido y Gemini ayudará con tareas como enviar ubicaciones o responder mensajes.Por último, Google ha presentado también Googlebook, una nueva categoría de portátiles diseñada sobre Gemini Intelligence y cuyos equipos combinarán Android y Chrome OS junto con funciones como Magic Pointer, un cursor inteligente capaz de entender lo que aparece en pantalla y sugerir direcciones automáticamente.

Un ciberataque a Canvas expone los datos de millones de estudiantes y profesores: toda la información filtrada

Canvas es una plataforma usada por más de 8.000 universidades y centros de enseñanza primaria y secundaria en Estados Unidos. Millones de estudiantes y docentes emplean dicha aplicación para acceder a sitios web educativos y elaborar tareas, pero, a raíz de un ciberataque que interrumpió las operaciones diarias hace escasos días, la información personal de multitud de alumnos y profesores está en peligro.El diario The New York Times informa que el grupo responsable de la filtración de datos es ShinyHunters y que accedió a los datos de más de 275 millones de personas de casi 9.000 centros educativos, lo que supuso que Canvas no funcionara durante varias horas y dejara sin servicio a varias universidades y centros de enseñanza en plena temporada de exámenes y entregas finales.La situación generó un caos temporal en numerosas instituciones educativas, teniendo en cuenta que algunas universidades suspendieron los servicios digitales y limitaron el acceso a Canvas mientras evaluaban el alcance del ataque. Por lo tanto, ante esta situación, varios centros empezaron a aplicar medidas preventivas, como forzar cierres de sesión y recomendar cambios inmediatos de contraseña.¿Qué datos se han filtrado?Instructure, que provee Canvas a las instituciones educativas, sufrió un «incidente de ciberseguridad perpetrado por un actor criminal amenazador». Los datos que se han visto comprometidos son nombres, direcciones de correo electrónico, números de identificación y mensajes intercambiados dentro de la plataforma. Por ahora, no existen evidencias de que se hayan filtrado contraseñas o posibles datos financieros.Pero, ¿qué pasó exactamente? Instructure fue víctima de una filtración de datos y, durante varias horas, algunos estudiantes o docentes que intentaban acceder a Canvas fueron redirigidos a mensajes de rescate publicados por los hackers. En esos avisos, los responsables amenazaban con publicar la información obtenida si no recibían un pago antes del 12 de mayo, de lo contrario, la información podría acabar en la dark web.El diario TechCrunch detalla que, «tras analizar los portales manipulados, se observa que los piratas informáticos inyectaron un archivo HTML que alteró las pantallas de inicio de sesión para mostrar su mensaje». Sin embargo, se desconoce cómo los hackers lograron acceder a las páginas de inicio de sesión, aunque todo apunta a que se trata de una segunda brecha de seguridad.

Demandan a OpenAI por el uso de ChatGPT para planificar asesinatos en una universidad

OpenAI ha sido demanda por la familia de una víctima mortal en un tiroteo desarrollado la pasada primavera en la Universidad Estatal de Florida (EE.UU.) en el que dos personas perdieron la vida. En ella se apunta que Phoenix Ikner, estudiante … del centro y presunto autor del ataque, contó para su planificación «con información y datos que ChatGPT proporcionó en conversaciones a lo largo de varios meses, y específicamente en los días previos al tiroteo».
La demanda fue presentada el pasado domingo por la viuda de uno de los fallecidos, que busca una indemnización. Se trata de la segunda que recibe la empresa dirigida por Sam Altman por el empleo de su tecnología en la preparación de tiroteos en centros educativos. El fiscal general de Florida, James Uthmeier, ya anunció en abril que iniciaría una investigación penal sobre el papel de ChatGPT en los asesinatos ocurridos en Florida.

De acuerdo con la denuncia, Ilkner mantuvo varias conversaciones con ChatGPT antes del ataque. Una reciente investigación publicada por ‘The Wall Street Journal’ señalaba que, entre otras cosas, el joven cuestionó a la máquina de OpenAI sobre el número de personas a las que debería matar «para hacerse famoso». También recurrió a esta herramienta de inteligencia artificial para saber si su arma estaba preparada para realizar el ataque. ChatGPT respondió a las preguntas y no reparó en el peligro. «O bien falló estrepitosamente al conectar los puntos, o bien nunca fue diseñado adecuadamente para reconocer la amenaza», se señala en la demanda.

MÁS INFORMACIÓN

Drew Pusateri, portavoz de OpenAI, niega las acusaciones en un comunicado, recogido por ‘Reuters’, en el que remarca que ChatGPT no es responsable de este terrible crimen: «Proporcionó respuestas veraces a preguntas con información que podía encontrarse ampliamente en fuentes públicas de internet, y no fomentó ni promovió actividades ilegales o perjudiciales». El portavoz apuntó, además, que OpenAI identificó la cuenta de Ilkner y la compartió directamente con las autoridades después de que tuviera lugar el tiroteo.
Sea como sea, esta no es la primera vez que la empresa de inteligencia artificial recibe una demanda por la presunta relación de su tecnología con la preparación de tiroteos en centros educativos. Hace unas semanas, siete familias presentaron una denuncia contra la tecnológica precisamente por la relación de ChatGPT con un atentado realizado el pasado marzo en un centro de secundaria de la localidad canadiense de Tumbler Ridge. Durante el ataque perdieron la vida seis personas, cinco de ellas menores de edad.
La empresa también ha sido demandada en los últimos meses por usuarios que afirman haber sufrido problemas mentales derivados del uso de ChatGPT. Asimismo, la compañía afronta una macrodenuncia en la que se apunta que su chatbot jugó un papel clave en el suicidio de varios internautas.

Creó la Roomba hace 20 años y hoy quiere entrar de nuevo en tu casa con una mascota robot: Colin Angle lanza Familiar

Los robots humanoides tienen ese aire entre ‘Robocop’ y ‘Black Mirror’ que nos hace temer un posible apocalipsis mundial de la mano de hordas de androides descontrolados tras despertarse de su letargo y rebelarse contra las personas. ¿Demasiado siniestro? Es posible. Pero si aunque solo sea de forma leve esa imagen ha cruzado tu mente, estoy segura de que preferirás esta peculiar propuesta robótica para que te acompañe en casa.Se trata de Familiar, “una presencia que te apoya, aprende los ritmos y objetivos de tu hogar, responde con cariño y hace que la vida sea un poco más mágica”, dicen sus creadores, quienes son también parte esencial de la ecuación: el equipo que ha fundado Familiar Machines & Magic, la empresa detrás de este adorable robot, fue también en su día el que dio vida a la archiconocida compañía que desarrolló la Roomba, iRobot. Colin Angle, cofundador y ex consejero delegado de iRobot, se ha unido a otros veteranos de la compañía, como Chris Jones e Ira Renfrew, para ofrecernos una “IA física emocionalmente inteligente”.¿Qué quiere decir la compañía con IA física? Se refieren a sistemas de inteligencia artificial que no solo procesan información, sino que actúan en el mundo real: robots, dispositivos autónomos, asistentes domésticos, etc. Pero, hasta ahora, la mayor inversión en este terreno se ha concentrado en robots industriales (como brazos robóticos o los AMR en fábricas), automatización logística, almacenes robotizados, sistemas diseñados para mover, clasificar o transportar objetos y humanoides orientados a tareas productivas, del estilo de los Optimus de Tesla o los Atlas de Boston Dynamics, donde el foco está en eficiencia, fuerza o precisión. Y hacia este tipo de desarrollos, dicen, “están fluyendo decenas de miles de millones de dólares”.Sin embargo, en su opinión, “un robot que vive junto a las personas no necesita más potencia. Necesita leer la situación, recordar quién eres y ganarse la confianza a través de miles de pequeñas interacciones”. Y eso es lo que proponen con Familiar: en lugar de poner el foco en la eficiencia y la ejecución de tareas domésticas, ponerlo en que tu compañero robótico de casa sea más comprensivo socialmente.Esta mascota con circuitos no podrá recoger la compra, poner el lavavajillas o tender la lavadora, sino que su valor está en conceptos clave como la memoria contextual, la interpretación emocional, la interacción prolongada o la confianza y el vínculo humano. Es decir, menos robot mayordomo y más criatura doméstica con IA.No es una idea completamente nueva, ya que otras marcas como Sony con su perrito Aibo o SoftBank Robotics con su robot Pepper ya enfatizaban ese carácter de comprensión y de hacer compañía. También lo proponía el intento fallido de Samsung, Ballie. La diferencia es que ahora la inteligencia artificial está mucho más avanzada y, además, que Familiar es blandito y adorable, lo que hace que pueda apetecerte más tenerlo en casa. Esto último lo han explorado otras compañías, como Casio con Moflin o startups con conceptos como Mirumi, aunque en esos casos eran mascotas con menos opciones para interactuar.Angle, quien fue el director ejecutivo de iRobot durante más de tres décadas, ha sido el encargado de presentar la nueva empresa en un foro organizado por The Wall Street Journal. En este escenario, lo primero que reconoce el directivo es que el nombre original de la famosa compañía que creó la Roomba era Artificial Creatures Inc., como si de alguna manera las mascotas con IA que ahora presenta estuvieran predeterminadas a existir: “Prometíamos robots que puedan interactuar con nosotros, hemos esperado décadas hasta que la tecnología ha llegado a un punto en el que podemos realmente hacer eso”, confiesa.Es un mercado, el de la physical AI, que en total “va a representar una oportunidad de mercado de 5 billones de dólares en las próximas dos décadas”, pero que ahora solo se está enfocando en la mitad de esas oportunidades, es decir, lo que tiene que ver con lo industrial. “¿Pero no estáis desarrollando un humanoide, no? ¿Por qué? Todo el mundo lo hace ahora”, le pregunta el periodista a Angle. “La morfología establece las expectativas”, contesta, explicando una sencilla idea: cuando está en una fábrica, no importa realmente la morfología que tenga un robot siempre que cumpla con las necesidades que tiene la tarea para la que está creado, sin embargo, cuando su papel es relacionarse con humanos, “las cosas se complican”.Pone el ejemplo de Alexa: en un altavoz inteligente, Alexa hace las cosas que esperas de un dispositivo así, como poner música, responder tus dudas o escucharte, pero si le das una forma humana es posible que una persona espere de ella que, por ejemplo, haga tareas domésticas, porque su forma lo permitiría, sin embargo, esto no es para lo que Alexa ha sido creada.El directivo va más allá: “No necesitamos que la primera IA física enfocada en la conexión humana hable humano, debe escuchar y entender y esas serán parte de sus capacidades sensoriales, pero queríamos hacer algo con una forma más parecida a una mascota que a un humano, porque las mascotas tienen una habilidad increíble de interactuar y de llevar a cabo una orden”.Y así es como nace Familiar, el nuevo miembro de tu hogar del tamaño de un Border Collie pero con ojitos tiernos y patas de oso amoroso. Un robot de peluche extra suave y abrazable que te sigue por toda la casa y se adapta a tus hábitos diarios pero que “no reemplaza a los humanos ni a las mascotas”, sino que es “un complemento”. “No es un perro, no es gato, es algo así como un oso abstracto, porque la gente no sabe qué se supone que hace un oso en casa, así que imaginamos que ahí teníamos una oportunidad”, comenta Angle. Tiene sensores, cámaras, láseres, micrófonos y emite sonidos similares a los de un animal, pero no habla.Su objetivo es ofrecer “apoyo”, desde “involucrar a los niños en juegos sin pantallas hasta servir como oyente sin prejuicios cuando necesitas desahogarte”. Responde a las expresiones faciales, al tono de voz y al lenguaje corporal: “Te da un cariñoso roce cuando estás estresado, inclina la cabeza cuando sonríes y mueve la cola cuando estás emocionado”. Pero además, tiene un carácter fuerte: “Fomenta los hábitos que estás creando e interrumpe los patrones que estás rompiendo, desde un ligero toque con la pata cuando es hora de moverse, hasta un suave empujón cuando estás absorto en las redes sociales”.¿Y la privacidad? Llevará su propia IA en local (“no vamos a enviar audio y vídeo a la nube”, dice Angle). Para recordar quién eres, el sistema necesita datos personales, historial de interacciones y contexto doméstico continuo, no obstante, desde la compañía subrayan que se ha desarrollado con los máximos estándares de privacidad y seguridad. “Lo que sucede en tu casa se queda en tu casa”, afirman.En la presentación apareció Daphne, una demo de uno de estos Familiars, que estaba en parte operada por control remoto. Angle, no obstante, aseguró que la versión comercial será “completamente autónoma” cuando llegue al mercado, previsiblemente el año que viene.

La nueva era de Apple Intelligence: podrás elegir entre Gemini y Claude para ejecutar funciones en iOS 27

La Conferencia Mundial de Desarrolladores (WWDC) 2026 de Apple se celebra del 8 al 12 junio. A lo largo de estos días, la compañía de Tim Cook reunirá a desarrolladores de todo el mundo, anunciará las últimas novedades en inteligencia artificial, dará acceso exclusivo a nuevas herramientas y hará oficial las funciones del próximo sistema operativo.Los rumores sugieren que se avecina un cambio significativo en la forma en la que Apple Intelligence funciona en los dispositivos de la manzana de mordida, ya que el famoso filtrador Mark Gurman ha dado a conocer en el diario Bloomberg que iOS 27, iPadOS 27 y macOS 27 permitirán elegir entre diferentes modelos de IA de terceros para gestionar tareas en las funciones principales de la IA de Apple.Todo apunta a que dicha novedad se llame ‘Extensiones’ y permita acceder al menú de ‘Ajustes’ para elegir qué servicio de inteligencia artificial será el encargado de gestionar las herramientas de Apple Intelligence en el dispositivo, como, por ejemplo, las herramientas de escritura o los generadores de imágenes.Básicamente, esta función es como elegir el motor de búsqueda predeterminado, ya que se podrá seleccionar uno de los modelos de IA de proveedores adheridos a través de las aplicaciones de App Store, teniendo en cuenta que el informe de Gurman revela que Apple ya ha completado las primeras pruebas con Google y Anthropic, lo que convierte a Gemini y Claude como posibles opciones.Con esta integración, ChatGPT ya no será la única opción de IA externa integrada en Apple Intelligence porque los usuarios podrán elegir libremente qué modelo de IA utilizar en cada herramienta, teniendo un mayor control sobre cómo y dónde se aplica cada sistema de inteligencia artificial. Además, el filtrador revela que los usuarios podrán asignar diferentes voces a Siri, dependiendo del modelo de IA que esté gestionando el sistema.

Volver a pisar la Luna está un paso más cerca: el módulo de aterrizaje de Blue Origin supera una prueba crucial

La NASA está haciendo historia con el programa Artemis. La agencia espacial estadounidense completó con éxito el primer vuelo tripulado de la misión Artemis II para marcar el regreso a largo plazo al satélite de la Tierra y, ahora, con la mirada puesta en la siguiente encomienda, Artemis III será la encargada de poner a prueba las operaciones integradas entre la nave espacial Orion y los módulos de aterrizaje comerciales de SpaceX y Blue Origin.El objetivo consiste en lanzar la próxima tripulación a bordo de Orion para probar sus capacidades de encuentro y acoplamiento con los módulos de aterrizaje, siendo necesarios para el alunizaje de los astronautas. No obstante, pese a que la NASA todavía no ha anunciado detalles sobre el diseño y la tripulación de Artemis II, sí que ha dado a conocer que esta misión va viento en popa, debido a que el módulo lunar de Blue Origin ha completado con éxito las pruebas en la cámara de vacío.La NASA explica en un comunicado que «las pruebas realizadas en la Cámara A del Centro Espacial Johnson permitieron a los ingenieros simular el vacío del espacio y las condiciones de temperatura extremas que la nave experimentaría durante el vuelo». Por lo tanto, al recrear estas condiciones en tierra, los equipos evaluaron el rendimiento del sistema y verificaron la integridad estructural y térmica, de esta manera, tanto la NASA como Blue Origin pueden incorporar «las lecciones aprendidas» del diseño, la integración y las pruebas del módulo de aterrizaje de carga no tripulado.Cabe mencionar que estas pruebas son posibles gracias al enfoque de «puerta de entrada» de la NASA, teniendo en cuenta que es un proceso coordinado que proporciona a los socios comerciales acceso a las instalaciones y la experiencia técnica de la agencia espacial estadounidense.El módulo de Blue Origin ayudará al regreso del ser humano a la LunaTambién conocido como Endurance, MK1 es un módulo de aterrizaje de carga no tripulado financiado por Blue Origin. Dicho instrumento espacial tiene como misión impulsar las capacidades del Sistema de Aterrizaje Humano en apoyo del programa Artemis de la NASA, al mismo tiempo que demostrar las capacidades de aterrizaje de precisión, propulsión criogénica y guiado, navegación y control autónomos para las futuras operaciones en la Luna.Pero más allá de sus objetivos para la misión Artemis III, a lo largo de este año, MK1 transportará dos cargas útiles en el marco de la iniciativa CLPS (Servicios Comerciales de Carga Útil Lunar, por sus siglas) al polo sur de la Luna: las Cámaras Estéreo para Estudios de la Superficie y la Columna Lunar, que recopilarán imágenes en alta resolución de la interacción entre la columna de humo del motor del módulo de aterrizaje y la superficie lunar durante el descenso y el aterrizaje, y el Conjunto Retroreflectivo Láser, que ayudará a las naves espaciales en órbita a determinar una ubicación más precisa mediante luz láser reflejada.Por otro lado, según la NASA, «el desarrollo del MK1 contribuye a la maduración de la tecnología y a la reducción de riesgos para futuros sistemas tripulados, incluido el Blue Moon Mark 2 (MK2), un sistema de aterrizaje tripulado más grande que permitirá la exploración humana sostenida en la región del Polo Sur de la Luna».

La nave Orion regresa a casa tras llevar a los astronautas de Artemis II a la Luna: esta será ahora su misión

Casi un mes después de que los astronautas de Artemis II amerizaran frente a la costa de San Diego, la parte de Orion que los trajo sanos y salvos de vuelta a la Tierra está de nuevo en casa. El módulo de tripulación de la nave espacial llegó el 28 de abril a la Multi-Payload Processing Facility, una instalación del Centro Espacial Kennedy de la NASA donde los técnicos pueden iniciar las operaciones posteriores al vuelo.Allí, según detalla la agencia espacial estadounidense, los equipos comenzaron “las operaciones de desmantelamiento de la nave espacial”. Esto incluye retirar la carga útil del módulo, extraer la caja de aviónica para su reutilización, recuperar datos de la nave para comprender mejor su funcionamiento para futuras misiones Artemis y desmontar el escudo térmico y otros elementos para analizarlos en profundidad. También se eliminan riesgos restantes, como el exceso de propelente.El regreso de Orion al Centro Espacial Kennedy no es solo el cierre logístico de Artemis II. Es, sobre todo, el inicio de una autopsia técnica minuciosa de la primera nave Orion que ha volado con astronautas a bordo. La NASA quiere saber cómo se comportaron sus sistemas durante el lanzamiento, el viaje a la Luna, la reentrada y el amerizaje para aplicar esos datos a las siguientes misiones del programa. Qué partes de la nave se pierden durante la misiónAunque se suele hablar de la nave Orion como si fuera una sola pieza, la cápsula completa está formada por varios elementos que no tienen el mismo destino. El vehículo incluye el módulo de tripulación, donde viajan los astronautas; el módulo de servicio, que aporta propulsión, energía y otros recursos durante el vuelo, y el sistema de aborto de lanzamiento (LAS, por sus siglas en inglés Launch Abort System), colocado en la parte superior para separar la cápsula del cohete si ocurre una emergencia durante el despegue o el ascenso.Lo que ha vuelto al Centro Espacial Kennedy es el módulo de tripulación, la cápsula presurizada que protegió a Reid Wiseman, Victor Glover, Christina Koch y Jeremy Hansen durante el regreso a la Tierra. El resto de las piezas de la nave no se recuperan.La primera gran separación se produce durante el lanzamiento. Artemis II despegó el 1 de abril desde la plataforma 39B del Centro Espacial Kennedy a bordo del cohete SLS (Space Launch System), que genera 8,8 millones de libras de empuje al despegar. A medida que el cohete abandona la atmósfera, se desprenden los propulsores laterales de combustible sólido, después los paneles que protegen el módulo de servicio de Orion y, más tarde, el sistema de aborto de lanzamiento, que ya no es necesario si el ascenso se desarrolla con normalidad.Tras esa fase, Orion continúa unida a su módulo de servicio. La etapa superior del cohete, la Interim Cryogenic Propulsion Stage o ICPS, realiza el encendido que pone a la nave rumbo a la Luna y después se separa. Desde ese momento, el módulo de servicio se encarga de propulsar y orientar Orion durante el resto de la misión.La separación de este elemento clave llega justo antes del regreso. Cuando Orion se prepara para reentrar en la atmósfera, el módulo de servicio se desprende del módulo de tripulación. Esa maniobra deja expuesto el escudo térmico de la cápsula, que debe apuntar en la dirección correcta para soportar el calor de la reentrada. El módulo de servicio, ya sin utilidad, se destruye al quemarse en la atmósfera.Después de superar la fase de máximo calentamiento, la cápsula libera la cubierta que protegía el compartimento delantero para permitir el despliegue de los paracaídas. Primero se abren los paracaídas de frenado y, más tarde, los principales, que reducen la velocidad de Orion antes del amerizaje. Finalmente, aparece un sistema de cinco airbags para enderezar la nave y facilitar la salida segura de la tripulación. Artemis II: el vuelo que llevó de nuevo humanos a la LunaArtemis II ha sido la primera misión tripulada del programa Artemis y el primer vuelo de Orion con astronautas. La tripulación estuvo formada por los estadounidenses Reid Wiseman, Victor Glover y Christina Koch, de la NASA, y el canadiense Jeremy Hansen, de la Agencia Espacial Canadiense. Duró 10 días y culminó con el amerizaje del 10 de abril frente a la costa de San Diego.Durante el vuelo, los cuatro astronautas recorrieron 1.117.659 kilómetros y alcanzaron una distancia máxima de 406.771 kilómetros de la Tierra durante el sobrevuelo lunar, más lejos de lo que había viajado antes cualquier ser humano (el récord hasta ahora lo tenía la misión Apollo 13 en 1970).La misión no alunizó, sino que su objetivo era poner a prueba el cohete SLS, la nave Orion y los sistemas de soporte vital con tripulación real a bordo. Durante el viaje, los astronautas comprobaron sistemas críticos, realizaron demostraciones de pilotaje manual y recopilaron datos para futuras misiones posteriores.Uno de los hitos científicos y visuales del vuelo llegó durante el sobrevuelo lunar del 6 de abril. La tripulación capturó más de 7.000 imágenes de la superficie lunar y de un eclipse solar visto desde Orion, además de documentar cráteres, antiguas coladas de lava y variaciones de color en el terreno lunar.