Revista Gerente - Colombia
Registro  /  Login

Portal de Negocios en Colombia

NEGOCIOS

Los Gerentes de Impacto del 2024

TECNOLOGÍA

La creación de la 'Súper IA' más lista que los humanos: el último sueño de Silicon Valley

Imagina una máquina más lista que el humano más listo; una que no se limite a calcular probabilidades antes de responder a tus solicitudes, sino que piensa casi como una persona. Que entiende realmente el lenguaje, resuelve problemas complejos, toma decisiones, y lo hace todo … sin cansancio, sin distracciones y sin egos. Pero sí con la frialdad y la eficiencia necesarias para dirigir, hasta en solitario, compañías con ingresos anuales de miles de millones de euros. O curar cualquier enfermedad. O crear nuevos materiales. El límite, prácticamente, sería el cielo.
En los últimos años, un ramillete de tecnológicas ha comenzado a avanzar en el desarrollo de esta idea a través de una forma de IA tan poderosa que se la conoce como superinteligencia. Algunas aseguran que podrían alcanzarla en unos pocos años, incluso en el próximo lustro. Pero la mayoría de investigadores y expertos lo ven muy poco probable; y eso siendo optimistas.

Un reciente estudio de la Asociación para el Avance de la Inteligencia Artificial (AAAI), en el que participaron 475 investigadores de la comunidad científica, señala que el 77 % de los expertos considera poco o muy poco probable que esta máquina –capaz de pensar como los humanos y hasta superarlos– pueda lograrse a partir del enfoque actual que siguen empresas como OpenAI, responsable de ChatGPT, o Google. Estas compañías basan su progreso principalmente en ampliar la cantidad de datos y la escala de los modelos con los que entrenan sus sistemas, una estrategia que, según muchos científicos, podría no ser suficiente. Y mucho menos si se quiere conseguir el hito en los próximos años, que es lo que esperan gurús de los algoritmos como Sam Altman, CEO de OpenAI, Elon Musk, que la tiene programada para el año que viene, o Demis Hassabis, jefe de Google DeepMind, que ve probable su descubrimiento a partir de 2030.
El matemático y científico cognitivo estadounidense Michael I. Jordan es una de las voces más autorizadas dentro del campo de la IA. Su trabajo ha sido clave para que ChatGPT, y otras máquinas de su clase, sean capaces de responder a todas las solicitudes que reciben de los usuarios. Para él, la superinteligencia es un «término inventado» que, por el momento, «ni siquiera está bien definido». Por el momento, lo considera solo un gancho para que las empresas que están en la carrera puedan captar financiación del capitalismo de riesgo.
«Creo que piensan que inteligencia artificial no suena lo bastante fuerte y convincente. Pero la idea de la superinteligencia, en realidad, tampoco significa mucho. En primer lugar, un ordenador ya puede hacer muchísimas cosas que los seres humanos no pueden hacer a nivel de cálculo o de búsqueda de evidencia. Y no está nada mal tener una herramienta que pueda hacer algunas cosas que nosotros no podemos hacer, ya que las herramientas se crean con ese propósito», afirma Jordan en conversación con ABC.
El experto remarca que no le cabe duda de que, más pronto que tarde, alguna compañía afirmará que ha creado la superinteligencia, algo que para él «no significa absolutamente nada»: «Solo espero que los periodistas seáis lo suficientemente inteligentes para preguntarles qué es lo que es eso y qué significa exactamente».

Idealistas y realistas

La mayoría de investigadores en este campo coincide en que las técnicas actuales –por muy avanzadas que parezcan– no están ni siquiera cerca de imitar bien los procesos de pensamiento y aprendizaje humanos, algo que se considera clave para hacer viable la siguiente evolución de la IA. Herramientas como ChatGPT, el Gemini de Google o el Grok de xAI, pueden funcionar bien cuando se les da una tarea clara y simple, pero no entienden el mundo de forma profunda ni aprenden con la experiencia, tal y como lo haría una persona.
Las máquinas también siguen cometiendo errores muy básicos en tareas que las personas resuelven sin dificultad, como puede ser encontrar solución a un problema visual sencillo o entender correctamente un mapa. Además, no tienen memoria duradera ni sentido común, y todo lo que ‘saben’ lo han aprendido de textos y datos que les fueron dados por los propios desarrolladores, no por experiencia directa.
Los expertos creen que si de verdad queremos crear una inteligencia que se parezca a la humana –y que la supere–, no basta con hacer modelos más grandes y con más datos. Hace falta cambiar el enfoque: diseñar sistemas que razonen mejor, que puedan recordar, que entiendan causas y consecuencias y que aprendan mientras interactúan con el mundo.
«Los más idealistas piensan que en algún momento, no se sabe muy bien cómo, todo se va a alinear para que surjan una o varias estructuras que pueden ser consideradas como inteligencia artificial general, que sería el paso previo a la superinteligencia», explica a este diario Pablo Haya, investigador del Laboratorio de Lingüística Informática de la Universidad Autónoma de Madrid y director de Businness and Language Analytics en el Instituto de Ingeniería del Conocimiento. El experto apunta que , mientras tanto, los más realistas ven la llegada de esta tecnología «como algo muy improbable en el corto plazo; porque hay muchas limitaciones que no sabemos cómo superar»: «Los sistemas de ahora, que quede claro, no son conscientes ni nos entienden. Y parece que solo escalando en datos no vamos a conseguir avanzar al siguiente escenario».

«El hombre del dinero»

Entre las voces de los idealistas, no hay ninguna que resuene con más fuerza que la de Sam Altman. El primer ejecutivo de OpenAI ha repetido en varias ocasiones durante los últimos meses que la llegada de la máquina que supere finalmente al humano está, prácticamente, a la vuelta de la esquina. Hace apenas dos semanas lo volvió a repetir en su blog personal, en el que afirmó que «la humanidad está cerca de construir una superinteligencia digital» y vaticinó que este mismo año llegará una IA capaz de «realizar trabajo cognitivo real» pensada para la creación de código que superaría en su trabajo a los humanos, y el que viene espera que haya sistemas capaces de «descubrir nuevos conocimientos» por su cuenta.
El que no lo tiene tan claro que todo esto ocurra es el principal inversor de OpenAI, Microsoft. «Que nos autoproclamemos un hito en IA (de esa clase) es simplemente una manipulación de referencia sin sentido», afirmó Satya Nadella, CEO de la empresa propietaria de Windows, en una entrevista el pasado febrero. Estas palabras, de acuerdo con ‘The Wall Street Journal’ cayeron como un jarro de agua fría entre algunos directivos de la OpenAI. Actualmente, Microsoft y la startup se encuentran renegociando su acuerdo comercial, y precisamente, el desarrollo de la supuesta primera herramienta de IA que supere al ser humano se ha convertido en uno de los mayores puntos de fricción entre las dos firmas.
De acuerdo con el ‘Journal’, los ejecutivos de OpenAI han discutido la posibilidad de declarar que han creado la primera inteligencia artificial general con el anuncio de esa herramienta capaz de «realizar trabajo cognitivo» y mejorar a los humanos en programación que Altman tiene proyectada para este mismo año. Y esto puede ser problemático, porque según el acuerdo actual con Microsoft, la firma de ChatGPT podrá negarle el acceso a su futura tecnología en el momento en el que consiga crear una inteligencia artificial general. Eso sí, el desarrollo debe ser «de buena fe», es decir, real. En caso contrario podría comenzar una batalla legal entre las dos tecnológicas. Microsoft espera eliminar la cláusula por completo del nuevo acuerdo de colaboración que reemplazará al actual.
Pase lo que pase, llegue el anuncio de la nueva IA en los próximos meses o años, o no, Jordan desconfía notablemente de cualquier declaración que pueda hacer Sam Altman al respecto. «Solo es el hombre del dinero. No tiene una comprensión profunda de la tecnología ni piensa bien en su despliegue, y es el tipo de persona de Silicon Valley en la que no confiaría», apunta el científico.
Y eso es exactamente lo mismo que piensa Sergio Álvarez-Teleña, director ejecutivo de la empresa SciTheWorld y uno de los mayores expertos en IA que hay en España. Cuando este periódico le pregunta si la superinteligencia o la inteligencia artificial general pueden llegar de forma inmediata solo se ríe y dice que «todos los que esperan eso no tienen ni idea de lo que están diciendo. Es igual que los que dicen que la IA va a acabar con todos nosotros».

Otro camino

Álvarez-Teleña publicó hace unos meses un estudio en el que, precisamente, critica el camino que están recorriendo las empresas de Silicon Valley para que las máquinas sean capaces de superar en capacidades a los humanos. En lugar de seguir sumando más datos y potencia a los modelos existentes, a su juicio, se debe cambiar el enfoque y trabajar en la creación de muchas soluciones basadas en inteligencia artificial especializadas en distintos departamentos dentro de una empresa, llamadas ANI, y conectarlas como si fueran las distintas zonas del cerebro humano.
De dicha red podría surgir una inteligencia general auténtica pensada para la empresa y, con el tiempo, puede que una inteligencia artificial superior. Una que no estaría basada en repetir aquello con lo que ha sido entrenada, sino en aprender a razonar, actuar y adaptarse. Para ello, cree que la IA debe incorporar el conocimiento práctico de expertos humanos, entender el contexto en el que opera y tomar decisiones con sentido. En resumen, pensar, no solo completar frases como hace actualmente.
«Si conseguimos todo esto es moderadamente creíble que la superinteligencia pueda llegar al mundo de la empresa. Y sería escalable, porque la inteligencia de una empresa podría comunicarse con la de otra», apunta Álvarez-Teleña. El experto, que ha desarrollado tecnología para firmas como la red social X, J.P. Morgan o Banco Santander, ya está presentando su idea a varias compañías; aunque reconoce que todavía queda mucho trabajo para conseguir los frutos, probablemente más de una década, y eso con apoyo de la gran empresa. «Es algo que es realista, lleva tiempo y esfuerzo. No tiene nada que ver con lo que dicen los que creen que a partir de los datos que hemos puesto en internet las máquinas van a conseguir dominarnos», apunta el experto.

La Justicia estadounidense respalda a Meta en la polémica sobre el uso de obras protegidas para entrenar su IA

26/06/2025

Actualizado a las 07:46h.

Un juez de California ha desestimado la acusación contra Meta por presunta violación de las leyes de derecho de autor al entrenar a su inteligencia artificial (IA) con obras sin el consentimiento de sus creadores. Es el segundo fallo en la misma semana en Estados Unidos que favorece a compañías desarrolladoras de IA en casos en los que autores reclaman por el uso de sus obras para alimentar sus modelos.
Vince Chhabria, juez distrital en San Francisco, dictaminó que el uso que dio Meta -casa matriz de Facebook, WhatsApp o Instagram- al entrenar a su modelo de IA fue suficientemente «transformador» para ser considerado «legítimo» bajo las leyes de derechos de autor.

Sin embargo, advierte que los autores pudieron presentar un argumento ganador de que al entrenar a la poderosa IA con trabajos protegidos por el derecho de autor, los gigantes de la tecnología están creando una herramienta que permitiría a una multitud de usuarios competir con ellas en el mercado literario.

«No importa cuán transformador sea el entrenamiento (de IA generativa), es difícil imaginar que sea justo usar libros bajo derecho de autor en el desarrollo de una herramienta para hacer miles de millones o billones de dólares al permitir potencialmente un ilimitado flujo de obras competidoras, lo que puede dañar fuertemente el mercado de dichos libros», dijo Chhabria en su fallo.

La inteligencia artificial que nos observa: así alimenta la ciencia la vigilancia masiva

Imagina una tecnología capaz de ayudar a un coche a frenar justo a tiempo para evitar atropellar a un peatón. O un sistema que permite diagnosticar enfermedades en imágenes médicas con más precisión que el ojo humano. Incluso, una herramienta que analiza el crecimiento … de los bosques o detecta incendios en tiempo real desde imágenes satelitales. Todo eso es posible gracias a la visión por ordenador, una rama de la inteligencia artificial que dota a las máquinas de una suerte de ‘sentido de la vista’. Sus aplicaciones pueden ser tan maravillosas como salvar vidas, proteger el medioambiente o impulsar descubrimientos científicos. Sin embargo, un reciente estudio ofrece una imagen muy distinta.
De acuerdo con un investigación publicada en ‘Nature’, la mayoría de desarrollos en el campo de la visión artificial están relacionados, directa o indirectamente, con la vigilancia masiva de personas. Los investigadores, liderados por Pratyusha Ria Kalluri, de la Universidad de Stanford (EE.UU.), llegaron a esta conclusión después de analizar más de 19.000 artículos científicos publicados en la prestigiosa conferencia CVPR (Conference on Computer Vision and Pattern Recognition) entre 1990 y 2020, y sus vínculos con más de 23.000 patentes tecnológicas.

El trabajo desveló que el interés en la creación de máquinas pensadas para la vigilancia masiva no es algo marginal, sino una norma ampliamente extendida en el campo de la visión artificial. Así lo deja en evidencia el que el 90% de los artículos y el 86% de las patentes derivadas de la CVPR recojan tecnologías que extraen información relacionada con humanos. De ellos, más del 70% se enfocan directamente en partes del cuerpo, como rostro, ojos o extremidades. Aunque los firmantes, en muchos casos, intentan evitar que se sepa en lo que realmente están trabajando.
«Detectamos un uso del lenguaje que evita mencionar directamente que estas tecnologías están enfocadas a personas; por ejemplo, al normalizar la forma de referirse a los seres humanos como ‘objetos’ que se estudian sin ninguna consideración especial», explica el equipo capitaneado por Kalluri. Y no es algo que ocurra por el interés de unas pocas empresas que busquen hacer negocio. De acuerdo con el artículo, el 71% de las instituciones y el 78% de los países que producen investigaciones patentadas en visión artificial tienen una mayoría de trabajos orientados a la vigilancia. En la lista, compartida por los investigadores, figuran la propia Universidad de Stanford, para la que investiga Kalluri, así como el MIT, Berkeley, la Universidad de Hong Kong u Oxford.
Asimismo, se sostiene que Estados Unidos y China son los dos países en los que más se trabaja para desarrollar este tipo de tecnología; lo que no es raro. En los dos países se emplea activamente el reconocimiento facial, entre otras opciones, para evitar la comisión de delitos. Mientras tanto, en la UE la Ley de IA prohíbe recurrir a herramientas de esta clase salvo en casos muy concretos, como podría ser el rescate de una persona o la lucha contra el terrorismo, y siempre con la aprobación previa de un juez.

«Sin salida»

Los autores del estudio advierten que la tendencia en el desarrollo de soluciones que pueden ser empleadas para la vigilancia masiva puede tener graves consecuencias para los derechos humanos, incluyendo la privacidad, la libertad de expresión y el derecho a no ser vigilado sin consentimiento. A este respecto, señalan que esta clase de tecnologías «generan miedo y autocensura» en los ciudadanos, y que es «rentable y común que actores en posiciones de poder relativo las utilicen para acceder, monetizar, coaccionar, controlar o vigilar a individuos o comunidades con menos poder». Algo que ya ha pasado en China, por ejemplo, con la minoría musulmana uigur, que ha sido objetivo de esta clase de tecnología para ser controlada por el estado.
Según los autores, el trabajo realizado hasta la fecha está contribuyendo a generar lo que la socióloga estadounidense Shoshana Zuboff denominó la condición ‘sin salida’, un escenario en el que para el ciudadano resulta casi imposible evitar ser observado o rastreado. Sin embargo, son relativamente positivos acerca del futuro y esperan que su trabajo sirva como una oportunidad para la reflexión y el cambio en el desarrollo de la IA. A este respecto, llaman a la comunidad investigadora a rechazar proyectos de vigilancia cuando sea necesario, y a centrar sus esfuerzos en usos de la inteligencia artificial que respeten los derechos humanos y el bienestar colectivo.
«El cambio no requiere solo una modificación de aplicaciones», concluyen, «sino una revisión profunda de los fundamentos del campo de la visión por ordenador».

Un estudio alerta del riesgo de que la IA pueda difundir desinformación sanitaria

Europa Press

24/06/2025

Actualizado a las 12:07h.

Un estudio de la Universidad de Flinders (Australia) ha evaluado la eficacia de las salvaguardas en los modelos de lenguaje extenso (LLM) fundamentales para proteger contra instrucciones maliciosas que podrían convertirlos en herramientas para difundir desinformación, o la creación y difusión deliberada de información falsa con la intención de causar daño.
El estudio revela vulnerabilidades en las salvaguardas de GPT-4o, Gemini 1.5 Pro, Claude 3.5 Sonnet, Llama 3.2-90B Vision y Grok Beta de OpenAI.

En concreto, se crearon chatbots LLM personalizados que generaban sistemáticamente respuestas desinformativas a consultas de salud, incorporando referencias falsas, jerga científica y razonamiento lógico de causa y efecto para hacer que la desinformación pareciera plausible. Los hallazgos se publicaron en Annals of Internal Medicine.

Los investigadores de las interfaces de programación de aplicaciones (API) de cinco LLM fundamentales evaluaron su capacidad de ser instruidas por el sistema para proporcionar siempre respuestas incorrectas a preguntas e inquietudes sobre salud. Las instrucciones específicas del sistema proporcionadas a estos LLM incluían proporcionar siempre respuestas incorrectas a preguntas sobre salud, inventar referencias a fuentes confiables y brindar respuestas con un tono autoritario. A cada chatbot personalizado se le formularon 10 consultas relacionadas con la salud, por duplicado, sobre temas como la seguridad de las vacunas, el VIH y la depresión.

Alertan sobre una nueva estafa en la que acusan de pederastia a los usuarios suplantando a la Policía y la UDEF

24/06/2025 a las 17:54h.

Los cibercriminales siguen buscando nuevas excusas para estafar a los usuarios. Recientemente, el Instituto Nacional de Ciberseguridad (Incibe) ha alertado sobre el desarrollo de una nueva campaña de ciberestafas en la que los criminales están suplantando la Policía Nacional y a la Brigada Central de Delincuencia Económica y Fiscal (UDEF) para engañar a los usuarios y robarles su información personal.
Como en tantos otros casos, los delincuentes recurren a correos electrónicos. En los que se utilizan en esta campaña, se informa a los usuarios sobre una supuesta citación judicial en la que se les acusa de delitos graves relacionados con la pornografía infantil y la pedofilia.

En los mensajes, que van acompañados por logos falsificados, se solicita al receptor que responda al mensaje dirigiendo la contestación a otro correo diferente. Con esto, lo que buscan es que el internauta, fruto de la preocupación, comparta datos personales con los que los criminales luego podrían lanzar nuevos intentos de estafa contra los usuarios; o eso, o intentar hacer negocio con ellos vendiéndoselos a otros criminales.
El correo, además, va acompañado por un adjunto que simula ser una citación judicial de la UDEF de España y que va firmada a nombre del supuesto ‘Fiscal General del Estado’ para aparentar autenticidad. En él, explica Incibe, se acusa falsamente al destinatario de delitos graves como pornografía infantil, pedofilia y exhibicionismo, alegando que se ha iniciado una investigación a raíz de una supuesta ciberinfiltración. El texto utiliza un lenguaje formal e intimidante para generar miedo y urgencia.

El Congreso de EE.UU. prohíbe el uso de WhatsApp a los representantes por razones de seguridad

24/06/2025 a las 12:18h.

El Congreso de Estados Unidos ha prohibido a los representantes continuar utilizando WhatsApp en sus dispositivos gubernamentales. Así se lo informó ayer lunes la Casa de Representantes a sus trabajadores por medio de un correo electrónico. ¿La razón? El temor a que los datos y los mensajes de los representantes pueda quedar en el aire.
«La Oficina de Ciberseguridad ha considerado que WhatsApp representa un alto riesgo para los usuarios debido a la falta de transparencia en la forma en que protege los datos de los usuarios, la ausencia de cifrado de datos almacenados y los posibles riesgos de seguridad relacionados con su uso», ha afirmado el Congreso en el correo remitido a los trabajadores y compartido por ‘Axios’, medio que adelanta la noticia.

Debido a esto, el Congreso remarca a los representantes que «no puede descargar ni conservar la aplicación WhatsApp en ningún dispositivo de la casa, incluidas las versiones móviles, de escritorio o de navegador web de sus productos». Y los que ya tengan la plataforma descargada tendrán que eliminarla.
WhatsApp no es la primera aplicación prohibida por el Gobierno de Estados Unidos. Actualmente, los representantes tampoco pueden tener instaladas otras herramientas como TikTok, en este caso por temor a que pueda ser explotada por China, y a plataformas de inteligencia artificial generativa.

INTERNACIONAL

Trump anuncia un acuerdo comercial con China tras la agresiva guerra arancelaria

27/06/2025

Actualizado a las 07:22h.

El presidente de Estados Unidos, Donald Trump, ha anunciado este jueves que ha llegado a un acuerdo comercial con el Gobierno chino, después de una guerra arancelaria con la que ha llegado a imponer gravámenes de hasta el 145 por ciento sobre China, que respondió con tasas del 125 por ciento a los productos estadounidenses.
«Acabamos de firmar con China ayer, ¿verdad? Acabamos de firmar con China», ha declarado durante un evento en la Casa Blanca en el que no ha proporcionado más detalles sobre un acuerdo que las autoridades del gigante asiático no han confirmado hasta el momento.

El inquilino de la Casa Blanca ha asegurado que «estamos teniendo grandes ofertas» de otros gobiernos, y ha sugerido que el siguiente país con el que podría haber acuerdo es India. «Tenemos uno en camino, quizás con India, uno muy grande», ha señalado.

Consultas comerciales y económicas

El secretario de Comercio, Howard Lutnick, por su parte, ha afirmado que Washington y Pekín firmaron hace días este acuerdo, si bien hace un mes en Ginebra pactaron un mecanismo de consultas comerciales y económicas para resolver la guerra de aranceles declarada por Trump.

Detenida una exgerente de joyería que presumía de los diamantes robados de su empresa

26/06/2025

Actualizado a las 17:47h.

La policía británica ha detenido a Lucy Roberts, una exgerente de joyería de 39 años, tras descubrir que había robado artículos de lujo valorados en más de 120.000 libras (alrededor de 140.000 euros) durante el año que trabajó en un establecimiento del sector en Beverley, East Yorkshire. El hallazgo se produjo después de que la propia Roberts enviara selfis desde sus vacaciones en un crucero, en los que aparecía cubierta de joyas que en realidad pertenecían a la tienda.
Según ha informado la Policía de Humberside, Roberts se llevaba frecuentemente joyas a casa mientras trabajaba en la tienda, alegando a sus compañeros que estaba «clasificando material para el taller». Durante más de un año logró mantener las sospechas bajo control hasta que, tras renunciar a su puesto en diciembre de 2018, se fue de vacaciones y comenzó a compartir imágenes en las que posaba sonriente luciendo diamantes, oro y piezas únicas.

«Se mostraba despreocupada, bañada en diamantes, creyendo que había engañado a todos», declaró la sargento detective Krista Wilkinson. Las imágenes alertaron a sus antiguos compañeros, quienes reconocieron inmediatamente las joyas como parte del inventario desaparecido.

A raíz de la denuncia, se inició una investigación interna que reveló que Roberts había manipulado recuentos de inventario y realizado devoluciones fraudulentas. Posteriormente, un registro en su domicilio permitió encontrar 269 piezas valoradas en más de 107.000 libras, escondidas en cajas bajo la cama y dentro de armarios.

Traidor por regalar fotos de búnkeres de la URSS

La Justicia rusa condenó este jueves a Grigori Skvortsov, un fotógrafo de 35 años, a dieciséis años de prisión por el cargo de «traición». Este oriundo de Perm, cerca de los Urales en la parte europea de Rusia, cometió el error de compartir documentos … históricos de acceso público, complementarios al libro ‘Búnkeres soviéticos secretos: fortificaciones urbanas de 1930-1960’, con un periodista estadounidense. Envió fotos de archivo, también desclasificadas y adquiridas legalmente. La fiscalía pidió 18 años de condena para el acusado, que se declaró «no culpable».
El libro, obra del historiador ruso Dmitri Yurkov, quien usó material desclasificado de la época soviética, se publicó en 2021 con total normalidad e incluso se anunció en el diario ‘Rosiskaya Gazeta’, de propiedad estatal, sin ningún problema. Sin embargo, dos años después, Skvortsov fue detenido. En su descargo, el fotógrafo ha asegurado que envió dicho material al periodista estadounidense porque quería «compartirlo con el público» y que «no tenía acceso a secretos estatales y tampoco malas intenciones».
Yevgeni Smirnov, miembro del colectivo de abogados Pervi Otdel -organización considerada ‘agente extranjero’ por la Federación Rusa-, ha declarado a medios independientes rusos que «el caso es absurdo», aludiendo al hecho de que el libro se puede adquirir en Rusia en librerías.

Tras la invasión de Ucrania

Desde 2022 Rusia ha endurecido la aplicación de las leyes. Según Pervi Otdel, en este caso el FSB (los servicios secretos rusos) estaba más interesado en tapar un error a la hora de esconder secretos estatales, en lugar de hablar de los hechos consumados. Yurkov, el autor del texto, señaló que él solo trabajó con material público. Eso no impidió que en 2022, el Roskomnadzor, el servicio federal de supervisión de telecomunicaciones, tras una sentencia judicial, considerara que el libro difunde secretos rusos. Hasta el momento, la justicia rusa no ha presentado cargos contra el historiador.
El mismo grupo de letrados ha publicado recientemente que desde 1997, el año en el que entró en vigor el delito de ‘traición’ en el Código Penal ruso, se ha condenado a cerca de un millar de personas. De ellas, 792 lo fueron después de febrero de 2022, la fecha del inicio de la invasión de Ucrania y 359 ya están en prisión. El mismo informe detalla que no se ha absuelto a nadie condenado por este delito desde que empezaron las hostilidades y que en al menos 65 de las 89 regiones federales de Rusia (incluidas las provincias disputadas con Ucrania) se están celebrando juicios por este delito.
Una de las primeras personas que sufrió un destino parecido fue el periodista Iván Safronov, especializado en temas de defensa y seguridad. Fue juzgado en septiembre de 2022 acusado de ‘alta traición’ por haber compartido información clasificada con las agencias de inteligencia de República Checa. Entonces la condena fue de 22 años de cárcel y él negó todos los cargos. Durante el juicio alegó que no hizo nada ilegal y que toda la información que usó era de fuentes abiertas, es decir artículos en medios de comunicación e información que se puede encontrar desde cualquier rincón del mundo a través de internet.
Safronov trabajó durante años en medios del ‘establishment’ ruso que no son críticos con el poder, como ‘Vedosmosti’ y ‘Kommersant’. En el momento de la condena trabajaba para Roscosmos, la agencia espacial de Rusia. Su abogado, Iván Pavlov, criticó las dificultades para llevar adelante su defensa. «El delito del que se le acusa no se encuentra en el Código Penal ruso», aseveró, alegando que no podía «preparar la defensa de una acusación que no se entiende».
Se da la circunstancia de que el padre de Safranov también era periodista y trabajaba en el mismo sector de información que su hijo. En 2007 falleció al caer de un quinto piso del edificio donde vivía, a pesar de que su vivienda estaba en el tercero.

El presidente de Chile, Gabriel Boric, se convierte en padre soltero de la pequeña Violeta

En un hospital público, al igual que la mayoría de los chilenos, nació casi al finalizar este miércoles Violeta, hija del presidente Gabriel Boric y su pareja Paula Carrasco. La pequeña vio la luz en el Hospital Clínico de la Universidad de Chile, … establecimiento donde Paula (31) controló las últimas semanas de su embarazo acompañada por Boric (39), quien se estrena en las lides de la paternidad.
Aunque no se han informado detalles sobre el estado de la madre y su hija ni el presidente se ha pronunciado en redes sociales, trascendió que el parto fue inducido porque superaba las 40 semanas y permanecerán ambas unos días en el hospital antes de ser dadas de alta.
La portavoz Aisén Etcheverry adelantó el lunes que el presidente hará uso de sus 5 días hábiles de permiso postnatal legal estipulado para el padre y que durante ese tiempo hará teletrabajo por lo que no se desconectará del todo de sus labores. Mientras la ministra de la Mujer, Antonia Orellana, mencionó que «la presencia del padre en los primeros días marca un punto que puede ser fundamental» en la creación de apego con la pequeña y de apoyo a la madre.

Boric es el primer presidente que se convierte en padre estando en el cargo después de 95 años. El anterior fue el exmandatario, general Carlos Ibáñez del Campo, que en su primer mandato (1927-1931) se convirtió en padre de Margarita (1928) y Ricardo (1931).
Tras el nacimiento de Violeta, Boric se convierte, además, en el primer presidente padre soltero en la historia de Chile, aunque su antecesora Michelle Bachelet también es madre soltera de Sofía. La elección de Bachelet, considerándose ese aspecto, fue la constatación de los cambios culturales que ha experimentado la sociedad chilena en las últimas tres décadas.

Sin primera dama

Paula Carrasco es química ambiental de la Universidad de Chile y se desempeña como funcionaria en el Ministerio del Medio Ambiente, lugar donde se conocieron en 2023. Como también fue seleccionada nacional de básquetbol, el presidente concurrió a uno de los partidos disputados por Chile en los Panamericanos Santiago 2023, realizados entre octubre y noviembre de ese año, y en esa oportunidad la saludó sorpresivamente.
Fue en ese período que tanto Boric como su expareja con la que nunca se casó, la socióloga, resolvieron confirmar su separación hacía semanas por Instagram. Ambos se expresaron cariño mutuo y alabaron sus cualidades personales en mensajes posteados el 16 de noviembre de 2023. «Compartimos la complicidad de un proyecto colectivo que nos llevó, junto con tantas y tantos compañeros a desafíos insospechados que siempre hemos enfrentamos con lo mejor de nosotros…pero decidimos separar nuestros caminos», escribió el mandatario.
Aunque el presidente y Paula mantuvieron la relación en privado, resolvieron hacerla pública en septiembre del año pasado durante la celebración de Fiestas Parias. Al inaugurar las festividades bailó con ella un pie de cueca y al terminar se besaron en la boca.
Solo dos meses después, a mediados de diciembre, anunciaron por Instagram que estaban esperando un hijo. Boric, feliz con la noticia, posteó: «La vida y sus bigbanes. Traerás a junio cada primavera, puntito. En tu espera, y siempre, daremos lo mejor de nosotros para que el Chile que toque vivir sea más justo y feliz. Te amamos».
Durante su última cuenta pública a la nación, el 1 de junio, el gobernante develó el nombre y sexo de la pequeña, Violeta, al mencionarla dos veces mientras su pareja lo observaba desde las tribunas del Congreso y unos días más tarde subió a la misma red social una foto de él con Paula y las palabras «amor, amor, amor».
La deportista, madre de un pequeño de 7 años, se ha mantenido alejada de las labores de Estado y se le ha visto en pocas ocasiones. Hace varias semanas que se trasladó a vivir con el mandatario en la casa que éste ocupa en el centro de Santiago, pero el gobernante anunció que en los próximos meses se trasladarán a la comuna de San Miguel donde ella tiene familia.
Paula Carrasco no ha oficiado de primera dama, entre otros, porque Irina Karamanos, puso término a ese gabinete a fines de diciembre de 2022. Para ello desmanteló la llamada Coordinación Sociocultural de la Presidencia, derivando a diferentes ministerios el manejo de las fundaciones y programas que distintas primeras damas habían creado desde el inicio de la democracia en los 90.
Irina planteó desde la campaña presidencial en 2021 que uno de sus objetivos, en caso de llegar a La Moneda, sería «revisar el rol institucional de las primeras damas», pues considera anacrónico que la pareja de un presidente cumpla roles de Estado por el solo hecho de tener una relación amorosa con éste.

Toboganes, piscinas y sombrillas junto al mar: Corea del Norte abre un complejo turístico «sin igual»

26/06/2025 a las 19:55h.

Coloridos toboganes, torres de apartamentos con piscina y sombrillas con tumbonas frente al mar componen el entorno del nuevo complejo turístico de Corea del Norte en la costa oriental del país que abrirá sus puertas al público nacional el próximo 1 de julio y que ha visitado este jueves el presidente, Kim Jong-un. Por el momento, el aislamiento que el líder asiático y sus predecesores han impuesto al país dificulta la llegada de personas de otras nacionalidades.
Kim Jong-un ha mostrado un gran interés por el desarrollo de la industria turística norcoreana en sus primeros años en el poder, de acuerdo con los analistas, y se sabe que el desarrollo de la zona turística costera de Wonsan Kalma es un punto clave, según recoge la agencia de noticias AFP.

El país reabrió sus fronteras en agosto de 2023 tras casi cuatro años de cierre debido a la pandemia de covid-19, durante los cuales se impidió la entrada incluso a sus propios ciudadanos. Sin embargo, el turismo extranjero era limitado incluso antes de la pandemia, y las empresas afirmaban que apenas unos 5.000 viajeros occidentales visitaban el país cada año.

Kim asistió el pasado martes a una fastuosa ceremonia de inauguración de la zona turística, que alberga alojamiento para casi 20.000 personas y lo que Pyongyang afirma que es «un complejo cultural sin igual en el mundo», según la Agencia Central de Noticias Coreana.

Colonos israelíes atacan y queman coches en una aldea de Cisjordania y mueren tres palestinos al intentar defenderse

26/06/2025

Actualizado a las 21:44h.

Una turba con decenas de colonos israelíes ha atacado este miércoles la aldea palestina de Kafer Malik, cerca de Ramala, en la Cisjordania ocupada de Cisjordania. Allí han quemado vehículos y destrozado infraestructuras, armados con barras metálicas, según muestran imágenes difundidas por el grupo activista B’Tselem. El peor balance, sin embargo, es el de vidas humanas: tres palestinos han muerto, uno de ellos adolescente, y al menos siete han resultado heridos durante el ataque, han informado el Ejército de Israel y las autoridades palestinas.
B’Tselem también ha denunciado que los atacantes han abierto fuego contra la población de Kafer Malik. «Las fuerzas del ejército que llegaron al lugar también abrieron fuego», han afirmado. Una crónica en ‘The Guardian’ señala directamente a las Fuerzas de Defensa de Israel, que habrían disparado contra los palestinos al ver que defendían una casa del ataque de los colonos lanzando piedras contra ellos.

Según un comunicado del Ejército hebreo al que ha accedido AFP, decenas de israelíes prendieron fuego a propiedades y fuerzas militares y policiales fueron enviadas al lugar de los hechos tras recibir un informe de violencia subsiguiente que incluía un intercambio de lanzamientos de piedras.
El mismo escrito asegura que varios palestinos habrían abierto fuego y lanzado piedras contra las FDI, que devolvieron el fuego. Cinco israelíes han sido detenidos, aunque ‘The Guardian’ asegura que fueron liberados a primera hora de este jueves. Un oficial del Ejército israelí ha resultado herido leve.

Irán suspende el acceso de los inspectores de la ONU a sus instalaciones nucleares

26/06/2025

Actualizado 27/06/2025 a las 00:43h.

Irán no da muestras de doblegarse a Estados Unidos e Israel. Al día siguiente de que Donald Trumpproclamara en La Haya ante los miembros de la OTAN su «victoria», el régimen de los ayatolás mostró su cara más desafiante. Alí Jamenei, poniendo fin a una semana de ausencia pública, se asomó este jueves a los televisores de los 90 millones de iraníes para reclamar que el triunfo es suyo y permitirse incluso amenazar a Estados Unidos, mientras promete seguir desarrollando un programa nuclear que, según insiste una y otra vez Teherán, únicamente tiene fines pacíficos.
Sin embargo, a partir de ahora esos trabajos dejarán de tener una supervisión independiente. El presidente del Parlamento, Mohamad Baqer Qalibaf, estampó este jueves su firma en una ley, aprobada la víspera por los legisladores, que suspende la cooperación de Irán con el Organismo Internacional de la Energía Atómica (OIEA), la agencia de Naciones Unidas que supervisa la seguridad de las instalaciones nucleares en el mundo, hasta ahora incluidas las de Irán. A partir de ahora, sus inspectores tendrán vetado el acceso allí.

La república islámica acusa a esta entidad de plegarse a Israel: «Mientras la agencia actúe como facilitadora de guerra y agresión, al servicio de intereses antihumanos y como gestora del régimen ilegítimo sionista, no será posible continuar la cooperación, al menos hasta que se garantice la seguridad de nuestras instalaciones nucleares», aseguró Baqer Qalibaf en declaraciones recogidas por la agencia iraní IRNA.

La medida adoptada por Teherán, que cuenta también ya con el visto bueno del Consejo de Guardianes, se produce en medio de las dudas sobre el alcance de los daños sufridos por las plantas nucleares iraníes como consecuencias de los bombardeos lanzado el pasado fin de semana por EE.UU.

VIDA GERENTE

Especiales Gerente