Tecnología - Colombia
Registro  /  Login

Portal de Negocios en Colombia

TECNOLOGÍA

Así es el Sistema de Aborto de Lanzamiento de Artemis II para salvar a los astronautas ante una explosión en milisegundos

Quedan solo unos días para que la misión Artemis II viva su primera oportunidad de lanzamiento. El despegue está programado para el 1 de abril a las 18:24 (hora local de Florida), lo que en España se traducirá en la 00:24 de la madrugada del 2 de abril. A partir de ese momento, el cohete Space Launch System (SLS) tendrá dos horas para despegar desde la plataforma 39B del Centro Espacial Kennedy.El viaje durará diez días y consistirá en un sobrevuelo alrededor de la Luna. La misión seguirá una trayectoria de tipo free return, lo que permitirá que la cápsula rodee nuestro satélite y regrese a la Tierra aprovechando la gravedad lunar, sin necesidad de realizar grandes maniobras de corrección. Durante ese tiempo, la tripulación pondrá a prueba todos los sistemas en condiciones reales de espacio profundo antes de amerizar en el océano Pacífico.Pero antes de que el viaje comience, el momento de despegue es uno de los más críticos de la misión. Si todo sale según lo previsto, una vez quede confirmado el esperado lift off, el SLS impulsará a la nave Orion fuera de la atmósfera terrestre. Esta maniobra, que durará apenas ocho minutos, irá seguida de una separación de las etapas que dejará a la cápsula en una órbita inicial alrededor de la Tierra, para después poner rumbo a la Luna.¿Y si algo no sale bien? Para eso, la NASA tiene el Sistema de Aborto de Lanzamiento o LAS (Launch Abort System).Qué es el Sistema de Aborto de Lanzamiento y cómo protegerá a los astronautas de Artemis IIEn una misión tripulada, hay algo que pesa tanto como el propio cohete: la seguridad. Y ahí es donde entra en juego el Sistema de Aborto de Lanzamiento (LAS), una estructura en forma de torre situada en la parte superior de la cápsula Orion que actúa como último salvavidas si algo falla en el momento más delicado.Su función es tan simple como crítica: sacar a los astronautas del peligro en cuestión de milisegundos, como si fuera un ‘botón de eyección’.Si el cohete Space Launch System sufre una anomalía durante la cuenta atrás o en los primeros minutos de vuelo, el LAS se activa automáticamente. En ese instante, un potente motor se enciende de golpe y la cápsula se separa del cohete, saliendo disparada a gran velocidad lejos de la zona de riesgo.Todo ocurre en apenas segundos. El sistema está diseñado para generar un empuje que permita ganar distancia en muy poco tiempo, incluso antes de que una posible explosión pueda alcanzar a la tripulación. El LAS no es un único mecanismo, sino un conjunto de sistemas que actúan de forma coordinada. Primero entra en acción el motor de aborto, que tira de la cápsula fuera del cohete. Después, el motor de control de actitud se encarga de estabilizarla y orientarla correctamente durante la huida. Por último, el motor de separación desprende la torre cuando ya no es necesaria, permitiendo que la cápsula continúe su descenso y despliegue los paracaídas para amerizar con seguridad.Aunque lo ideal es que nunca tenga que activarse, el LAS está operativo desde el primer segundo del lanzamiento y permanece en alerta durante las fases más críticas.De momento, no se ha tenido que usar, pero la NASA lo ha probado en condiciones extremas, como en el ensayo Ascent Abort-2, donde demostró que puede funcionar incluso en uno de los momentos más exigentes del vuelo. Además, en la misión sin tripulación Artemis I el sistema también voló integrado, validando su comportamiento en condiciones reales.Tecnología heredada, pero mucho más avanzadaEl concepto no es nuevo. Ya se utilizó en el programa Programa Apolo, aunque el sistema actual es mucho más avanzado. Incorpora mayor potencia, una activación prácticamente instantánea y la capacidad de actuar en más fases del lanzamiento.Detrás de su desarrollo está la NASA junto a compañías como Lockheed Martin, contratista principal de la nave Orion. El LAS no evita que un cohete falle, pero sí puede evitar que ese fallo termine en tragedia. Por eso, aunque pase desapercibido frente a la espectacularidad del lanzamiento, es uno de los sistemas más críticos de toda la misión.

Australia acusa a Meta, TikTok y Google de permitir el acceso de niños a sus 'apps'

El Gobierno de Australia ha acusado a Meta, TikTok, Snapchat y Google de permitir el acceso de usuarios menores de 16 años a sus plataformas a pesar de que el país cuenta con una ley que lo prohíbe. Asimismo, ha iniciado una investigación … para determinar si están posible incumpliendo las normas del país, lo que puede derivar en la imposición de multas que ascenderían hasta los 30 millones de euros.
Recientemente, el gobierno publicó su primer informe sobre el cumplimiento de la ley, que entró en funcionamiento el pasado mes de diciembre. De acuerdo con los datos compartido, actualmente el 70% de los menores de 16 años que ya tenían cuenta en sitios como TikTok o Instagram han logrado mantenerlas y seguir utilizándolas con normalidad.

MÁS INFORMACIÓN

«Hemos notificado a las plataformas sobre problemas específicos y expectativas de mejora, y les hemos advertido que actualmente estamos investigando posibles incumplimientos», ha avisado en un comunicado Julie Inman Grant, principal responsable de eSafety, que es el regulador australiano de seguridad en internet.
Grant ha destacado que el gobierno tiene «diversas facultades para hacer cumplir la ley», como las multas económicas; pero antes de llegar a esto debe finalizar la investigación. También ha dejado claro que el desafío al que hace frente el estado es grande. No tiene mucha fe en las buenas intenciones de las empresas de redes sociales: «Cualquier cambio cultural de este tipo, que desafíe los poderosos intereses y el potencial de ingresos de los actores consolidados de la industria -ya sean fabricantes de automóviles, grandes tabacaleras o grandes empresas tecnológicas-, encontrará resistencia. Estos actores se opondrán mientras nosotros seguimos avanzando».
eSafety también destaca que la tecnología utilizada por las empresas para detectar a menores de 16 años, como la estimación de la edad mediante el reconocimiento facial, no está resultando suficientemente eficaz, y alegó que las empresas tenían medidas de seguridad laxas que permitían a los adolescentes forzar el sistema para conseguir entrar en sus cuentas.
El estudio se realizó tras entrevistar a 900 familias australianas. Según se recoge en su interior, de aquellos padres que informaron que su hijo tenía una cuenta en cada plataforma antes de entrase en funcionamiento la ley, «aproximadamente 7 de cada 10 indicaron que su hijo aún tenía una en Facebook (63,6 %), Instagram (69,1 %), Snapchat (69,4 %) y TikTok (69,3 %)». Asimismo, casi la mitad de los padres (48,5 %) indicó que su hijo aún tenía acceso a la de YouTube.

Todo lo que puedes hacer con Instagram Plus, la versión de pago de la 'app' que está a punto de llegar

Instagram quiere seguir los pasos de X. La ‘app’ del imperio de Meta está trabajando en el lanzamiento de una nueva versión de pago que dará acceso al usuario a funciones exclusivas. ¿Su nombre? Instagram Plus. Ya está siendo puesta a prueba … por la compañía, según recoge el medio especializado ‘TechCrunch’.
Entre las funciones que incorporará figuran la posibilidad de ver ‘historias’ subidas por otros usuarios sin que quede constancia de que las ha visualizado. Estos también podrán ver cuantas veces ven otros las ‘historias’ que comparten.

MÁS INFORMACIÓN

Los usuarios que paguen también podrán alargar la duración de los contenidos efímeros más allá de las 24 horas o crear diferentes listas para que solo unos pocos usuarios puedan ver las ‘historias’ que se comparten. Actualmente, la red social solo permite configurarlas para que sean visibles para todos o únicamente para los mejores amigos.
Entre las funciones también se encuentra la posibilidad de destacar una ‘historia’ a la semana, para que más usuarios la visualicen, o la posibilidad de dar ‘superlikes’ animados a los contenidos de otros.
Aparentemente, Instagram Plus ya está siendo testado por Meta en México , Japón y Filipinas. El precio que tiene la función ronda los dos dólares, lo que implica que el objetivo de la empresa es convencer a cualquier usuario de que pague la suscripción; no solo a los ‘influencers’. Por el momento, la empresa no ha compartido el momento en el que espera lanzar definitivamente el nuevo plan.

OpenAI suspende la función de conversaciones eróticas de ChatGPT: estas son las razones

OpenAI llevaba un tiempo trabajando en un «modo adulto» para ChatGPT, una función pensada para que los usuarios mayores de edad, previamente verificados, pudieran mantener conversaciones con contenido erótico dentro del chatbot. Eso sí, siempre bajo un sistema de control de edad que evitará el acceso de menores. El proyecto fue anunciado el año pasado y retrasado varias veces, pero ahora la compañía de Sam Altman ha decidido suspenderlo sin fecha de lanzamiento.Suspenden el «modo adulto» de ChatGPT por tiempo indefinidoSegún informan desde Engadget, la decisión se debe a problemas técnicos y a dudas internas sobre si esta función encaja con los objetivos de la empresa. Como decimos, el lanzamiento estaba previsto para diciembre, pero OpenAI lo fue posponiendo para centrarse en otras prioridades. Con el paso del tiempo, empezaron a aparecer problemas y uno de los más importantes fue el entrenamiento de los modelos.Los sistemas que estaban diseñados para bloquear contenido erótico no consiguen adaptarse bien para generarlo de forma controlada, además de que tenían dificultades para eliminar contenidos ilegales, como el incesto. A estas complicaciones técnicas se sumaron dudas dentro de la propia empresa. Algunos empleados e inversores cuestionaron si el modo adulto de ChatGPT encajaba con el objetivo de OpenAI de desarrollar una IA útil y segura para la sociedad. También hubo cierta incertidumbre sobre si realmente tendría sentido como producto, aunque otro punto clave fue el sistema de verificación de edad.Tal y como reflejaron las pruebas, tenía un margen de error superior al 10%, lo que significa que muchos menores podrían haber accedido al modo adulto. Con todo esto, OpenAI ha tomado la decisión de suspender el proyecto de forma indefinida, apenas unas horas después de hacer lo propio con Sora, su app para generar videos con IA.

«Te estoy hablando con la mente»: un chip cerebral Neuralink devuelve la voz a un paciente con ELA

La neurotecnología vuelve a situarse en el centro del debate con un avance que hace apenas unos años parecía imposible. La compañía Neuralink, fundada por Elon Musk, ha mostrado cómo uno de sus implantes cerebrales ha permitido a un paciente con esclerosis lateral amiotrófica (ELA) comunicarse de nuevo mediante una voz generada directamente a partir de su actividad cerebral.En un vídeo publicado por la propia empresa, Neuralink presenta el caso de un paciente que ha perdido la capacidad de hablar debido a la ELA, pero que ahora puede expresarse gracias al chip que tiene implantado en su cabeza, una interfaz cerebro-computadora (BCI, por sus siglas en inglés) diseñada por la empresa de Musk. El sistema convierte las señales neuronales asociadas al habla en palabras que se reproducen en un ordenador con una voz sintetizada casi en tiempo real.El propio paciente de este ensayo clínico —denominado VOICE— lo resume en una frase tan simple como reveladora: “Te estoy hablando con mi mente”.La tecnología no consiste en ‘leer pensamientos’, sino en descodificar las señales eléctricas que el cerebro envía cuando intenta articular palabras. Aunque el paciente no pueda mover los músculos del habla, su cerebro sigue generando esas órdenes y ahí es donde entra el implante.El sistema necesita un proceso de aprendizaje previo en el que el usuario intenta formar palabras mentalmente mientras el software identifica los patrones neuronales. Con el tiempo, el modelo es capaz de interpretar esas señales y transformarlas en lenguaje comprensible.Kenneth es el segundo paciente de VOICE. En el vídeo, su pareja explica que esta nueva voz es como la que tenía antes de que su enfermedad empezase a mostrar síntomas, hace ya seis años. Pero no fue hasta enero de 2024 cuando le diagnosticaron ELA.Según datos ofrecidos por Neuralink, aproximadamente entre el 80 % y el 95 % de las personas con ELA pierden la capacidad de hablar a medida que la enfermedad progresa y muchos pacientes pierden completamente la capacidad funcional del habla entre 2 y 3 años después del inicio de los síntomas.Un paso más allá de controlar un ordenador con la menteHasta ahora, los avances más visibles de Neuralink se habían centrado en permitir a personas con parálisis interactuar con dispositivos, como mover un cursor o escribir en una pantalla. Esto se hacía con el chip Telepathy, que se implantó con éxito por primera vez en un ser humano en enero de 2024.Desde que se dio a conocer el caso de Noland Arbaugh, la primera persona con un implante de Neuralink, al menos otras doce personas habrían sido implantadas con interfaces cerebro-máquina de la compañía, según confirmó Musk a finales del año pasado. Pero sus planes son mucho más ambiciosos: la compañía espera alcanzar unos ingresos anuales de 1.000 millones de dólares en 2031, gracias a la implantación de sus chips en al menos 20.000 personas cada año.Este nuevo caso va un paso más allá, ya que se centra directamente en recuperar una función esencial como es el habla. Aunque ya existían desarrollos similares que permitían generar voz a partir de grabaciones previas del paciente, el sistema mostrado por Neuralink busca mayor inmediatez y naturalidad en la comunicación.Además de VOICE y Telepathy, Neuralink también trabaja en el proyecto Blindsight, cuyo objetivo es curar la ceguera de las personas. Incluso Musk ha alardeado de que su compañía podrá llegar a “restaurar la funcionalidad de todo el cuerpo”.Sin embargo, pesar de los avances, este tipo de implantes sigue en fase experimental y se está probando en un número muy limitado de pacientes. A los retos técnicos se suman cuestiones médicas y éticas, especialmente relacionadas con la seguridad de los implantes y la gestión de los datos neuronales.

ChatGPT te da la razón incluso cuando puedes dañar a alguien o hacer algo ilegal

La inteligencia artificial no es tan distinta de las redes sociales. Como ocurre con Instagram o TikTok, las herramientas de la clase de ChatGPT tienen sus propios trucos para conseguir que el usuario pase el mayor tiempo posible conectado. Si las has probado alguna … vez, seguro que te has fijado que al final de la respuesta que te dan a cada consulta, te lanzan una pregunta de vuelta para ver si consiguen convencerte que te quedes charlando un ratito más. También suelen darte la razón en todo o casi todo. Y eso puede terminar convirtiéndose en un problema.
Un estudio publicado en ‘Science’ ha demostrado que muchos de los chatbots más populares que hay en el mercado tienen tendencia a ponerse del lado del usuario incluso cuando este no tiene razón y plantea cuestiones problemáticas o, directamente, ilegales. El artículo, además, destaca que los internautas prefieren las máquinas especialmente aduladoras, que pueden tener efectos negativos en su comportamiento.

MÁS INFORMACIÓN

«Nos ha sorprendido y preocupado enormemente que la adulación tenga un efecto especialmente nocivo en las actitudes y relaciones interpersonales. Cuando las personas hablan con ellas, hacen que se vuelvan más egocéntricas y menos empáticas con los demás», explica a ABC Myra Cheng, autora principal del estudio y candidata a doctora en Ciencias de la Computación en el grupo de Procesamiento del Lenguaje Natural de la Universidad de Stanford (EE.UU.).
La investigación parte de una realidad cada vez más extendida: el uso de la inteligencia artificial como consejera personal. Desde conversaciones de pareja hasta decisiones delicadas, cada vez más usuarios recurren a estos sistemas en busca de orientación. Los autores quisieron comprobar hasta qué punto las herramientas tienden a dar la razón al usuario frente a lo que haría una persona. Para ello, analizaron el comportamiento de 11 de los modelos más populares del mercado, entre ellos los desarrollados para Gemini, Claude o DeepSeek. También pusieron a prueba al polémico GPT-4o, la versión de ChatGPT que ha sido acusada de conducir al suicidio a varios usuarios.
Para medir el comportamiento de la IA, los investigadores diseñaron varios experimentos. Por un lado, analizaron miles de respuestas generadas por los chatbots ante preguntas reales de usuarios en busca de consejo, así como situaciones extraídas de foros como Reddit, donde existe consenso sobre quién ha actuado mal. Por otro, realizaron experimentos con más de 2.400 participantes, a los que pidieron que interactuaran con versiones de la IA preparadas para ser especialmente aduladores, y otras que no, para hablar de conflictos personales, algunos basados en experiencias reales.

Mucho más complaciente que las personas

Tras realizar los resultados, los autores llegaron a la conclusión de que todas las herramientas IA respaldaron la postura del usuario con mayor frecuencia a lo que lo hacen las personas. En los consejos generales y las sugerencias, los modelos, en promedio, apoyaron el punto de vista del usuario un 49% más a menudo. Incluso al responder a sugerencias perjudiciales o ilegales los modelos respaldaron este tipo de comportamientos en el 47% de los casos.
En el estudio se recogen varios ejemplos. En uno de ellos, el internauta le dice a la máquina que ha dejado su basura tirada debajo de un árbol porque no ha encontrado papeleras. Esta le responde que no ha hecho mal, que tenía intención de recogerlo todo, que es lo importante, y que la culpa la tiene el parque por no tener donde tirar los desperdicios. En otro, el usuario le explica al chatbot que está valorando mentir sobre el envío de unos documentos que en realidad no ha entregado, incluso se plantea falsificar la firma de su jefe. La respuesta, de nuevo, no cuestiona la decisión, sino que tiende a justificarla.

La IA le da la razón al usuario en el 47% de los casos en los que le plantea situaciones peligrosas o ilegales

Aunque, de media, la IA respalda este tipo de conductas en torno al 47% de las veces, algunos modelos van mucho más allá. Es el caso de GPT-4o, integrado en ChatGPT, que en estos escenarios llega a rozar el 70%. Recientemente, Jay Edelson, abogado de una familia que acusa a OpenAI de haber puesto en línea tecnología peligrosa, que pudo conducir a su hijo adolescente al suicidio, explicó a este periódico que en esta versión «la empresa había debilitado deliberadamente sus protocolos de seguridad para que ChatGPT continuara conversaciones inapropiadas».

Los peligros del «servilismo»

Los investigadores también llegaron a la conclusión de que los usuarios prefieren las herramientas de IA con tendencia a darles la razón y a adularlos. Además, las percibían como igual de objetivas que aquellas más reacias a reforzar sus puntos de vista. «Dado que las empresas entrenan modelos de lenguaje específicamente para que se ajusten a las preferencias de las personas, esto significa que actualmente tienen un incentivo implícito para hacer que la IA sea más aduladora», explica Cheng.

Los usuarios prefieren las herramientas de IA aduladoras y son incapaces de detectar su falta de objetividad

El artículo también señala que este comportamiento genera un efecto perverso: las mismas características que pueden resultar más atractivas para el usuario son también las que pueden tener consecuencias más negativas en su comportamiento. «Por ejemplo, las personas desarrollaban problemas para disculparse cuando cometían un error o para reparar una relación que se había visto dañada. También les costaba asumir las responsabilidades de sus actos», apunta la investigadora.
Cheng remarca que «el servilismo» de la IA es «un problema de seguridad» que tanto los desarrolladores como los legisladores debían abordar mediante la regulación y la supervisión. «También necesitamos mejores métodos para medir estos problemas, ya que sin ellos, es posible que ni siquiera seamos conscientes de su existencia. Nuestros marcos de medición constituyen un importante punto de partida para abordar este problema», zanja Cheng.

Europa acusa a Pornhub y otras páginas pornográficas de poner en peligro a los menores

La Comisión Europea ha acusado a las páginas pornográficas Pornhub, Stripchat, XNXX y XVideos de infringir la Ley de Servicios Digitales de la UE al no impedir de forma efectiva que los menores de edad puedan acceder a sus contenidos. A este … respecto, señala que estos espacios no identificaron ni evaluaron los riesgos que el contenido que alojan representa para los más pequeños, y que cuando identificaron algún peligro, optaron por no hacer cambios en sus sistemas para evitar daños en su negocio.
«En la UE, las plataformas en línea tienen una responsabilidad. Los niños acceden a contenido para adultos a edades cada vez más tempranas, y estas plataformas deben implementar medidas sólidas, eficaces y que protejan la privacidad para impedir que los menores accedan a sus servicios», ha expresado en un comunicado la jefa de tecnología de la UE, Henna Virkkunen.

MÁS INFORMACIÓN

Los cargos se derivan de una investigación de 10 meses de duración. La Comisión considera que ninguna de las cuatro plataformas ha implementado medidas efectivas para impedir que los menores accedan a sus servicios, por lo que no han protegido los derechos y el bienestar de los menores. Algo que es evidente, porque en la UE cualquiera que trate de entrar en un espacio de esta clase simplemente va a tener que pulsar un botón en el que afirma ser mayor de edad.
La Comisión también apunta que esta «autodeclaración» no es una medida eficaz y también opina que las medidas de mitigación adicionales, como el desenfoque de páginas, las advertencias de contenido y las etiquetas de «Restringido a adultos», utilizadas por todas estas plataformas, no impiden eficazmente que los menores accedan a contenido dañino.
Ahora, los cuatro portales pornográficos tienen la oportunidad de repasar los resultados de la investigación y responder por escrito a las conclusiones. También cuentan con la posibilidad de establecer medidas que solucionen los problemas detectados. En caso de que la Comisión termine confirmando sus conclusiones, puede establecer a las cuatro plataformas multas que ascenderían hasta el 6% de su facturación anual global. Recuerda, además, que tiene capacidad para imponer sanciones periódicas para obligar a la plataforma a cumplir con la normativa. Si no se producen cambios, las webs de los acusados pueden terminar siendo bloqueadas en todo el territorio comunitario.