Revista Gerente - Colombia
Registro  /  Login

Portal de Negocios en Colombia

NEGOCIOS

Los Gerentes de Impacto del 2024

TECNOLOGÍA

La creación de la 'Súper IA' más lista que los humanos: el último sueño de Silicon Valley

Imagina una máquina más lista que el humano más listo; una que no se limite a calcular probabilidades antes de responder a tus solicitudes, sino que piensa casi como una persona. Que entiende realmente el lenguaje, resuelve problemas complejos, toma decisiones, y lo hace todo … sin cansancio, sin distracciones y sin egos. Pero sí con la frialdad y la eficiencia necesarias para dirigir, hasta en solitario, compañías con ingresos anuales de miles de millones de euros. O curar cualquier enfermedad. O crear nuevos materiales. El límite, prácticamente, sería el cielo.
En los últimos años, un ramillete de tecnológicas ha comenzado a avanzar en el desarrollo de esta idea a través de una forma de IA tan poderosa que se la conoce como superinteligencia. Algunas aseguran que podrían alcanzarla en unos pocos años, incluso en el próximo lustro. Pero la mayoría de investigadores y expertos lo ven muy poco probable; y eso siendo optimistas.

Un reciente estudio de la Asociación para el Avance de la Inteligencia Artificial (AAAI), en el que participaron 475 investigadores de la comunidad científica, señala que el 77 % de los expertos considera poco o muy poco probable que esta máquina –capaz de pensar como los humanos y hasta superarlos– pueda lograrse a partir del enfoque actual que siguen empresas como OpenAI, responsable de ChatGPT, o Google. Estas compañías basan su progreso principalmente en ampliar la cantidad de datos y la escala de los modelos con los que entrenan sus sistemas, una estrategia que, según muchos científicos, podría no ser suficiente. Y mucho menos si se quiere conseguir el hito en los próximos años, que es lo que esperan gurús de los algoritmos como Sam Altman, CEO de OpenAI, Elon Musk, que la tiene programada para el año que viene, o Demis Hassabis, jefe de Google DeepMind, que ve probable su descubrimiento a partir de 2030.
El matemático y científico cognitivo estadounidense Michael I. Jordan es una de las voces más autorizadas dentro del campo de la IA. Su trabajo ha sido clave para que ChatGPT, y otras máquinas de su clase, sean capaces de responder a todas las solicitudes que reciben de los usuarios. Para él, la superinteligencia es un «término inventado» que, por el momento, «ni siquiera está bien definido». Por el momento, lo considera solo un gancho para que las empresas que están en la carrera puedan captar financiación del capitalismo de riesgo.
«Creo que piensan que inteligencia artificial no suena lo bastante fuerte y convincente. Pero la idea de la superinteligencia, en realidad, tampoco significa mucho. En primer lugar, un ordenador ya puede hacer muchísimas cosas que los seres humanos no pueden hacer a nivel de cálculo o de búsqueda de evidencia. Y no está nada mal tener una herramienta que pueda hacer algunas cosas que nosotros no podemos hacer, ya que las herramientas se crean con ese propósito», afirma Jordan en conversación con ABC.
El experto remarca que no le cabe duda de que, más pronto que tarde, alguna compañía afirmará que ha creado la superinteligencia, algo que para él «no significa absolutamente nada»: «Solo espero que los periodistas seáis lo suficientemente inteligentes para preguntarles qué es lo que es eso y qué significa exactamente».

Idealistas y realistas

La mayoría de investigadores en este campo coincide en que las técnicas actuales –por muy avanzadas que parezcan– no están ni siquiera cerca de imitar bien los procesos de pensamiento y aprendizaje humanos, algo que se considera clave para hacer viable la siguiente evolución de la IA. Herramientas como ChatGPT, el Gemini de Google o el Grok de xAI, pueden funcionar bien cuando se les da una tarea clara y simple, pero no entienden el mundo de forma profunda ni aprenden con la experiencia, tal y como lo haría una persona.
Las máquinas también siguen cometiendo errores muy básicos en tareas que las personas resuelven sin dificultad, como puede ser encontrar solución a un problema visual sencillo o entender correctamente un mapa. Además, no tienen memoria duradera ni sentido común, y todo lo que ‘saben’ lo han aprendido de textos y datos que les fueron dados por los propios desarrolladores, no por experiencia directa.
Los expertos creen que si de verdad queremos crear una inteligencia que se parezca a la humana –y que la supere–, no basta con hacer modelos más grandes y con más datos. Hace falta cambiar el enfoque: diseñar sistemas que razonen mejor, que puedan recordar, que entiendan causas y consecuencias y que aprendan mientras interactúan con el mundo.
«Los más idealistas piensan que en algún momento, no se sabe muy bien cómo, todo se va a alinear para que surjan una o varias estructuras que pueden ser consideradas como inteligencia artificial general, que sería el paso previo a la superinteligencia», explica a este diario Pablo Haya, investigador del Laboratorio de Lingüística Informática de la Universidad Autónoma de Madrid y director de Businness and Language Analytics en el Instituto de Ingeniería del Conocimiento. El experto apunta que , mientras tanto, los más realistas ven la llegada de esta tecnología «como algo muy improbable en el corto plazo; porque hay muchas limitaciones que no sabemos cómo superar»: «Los sistemas de ahora, que quede claro, no son conscientes ni nos entienden. Y parece que solo escalando en datos no vamos a conseguir avanzar al siguiente escenario».

«El hombre del dinero»

Entre las voces de los idealistas, no hay ninguna que resuene con más fuerza que la de Sam Altman. El primer ejecutivo de OpenAI ha repetido en varias ocasiones durante los últimos meses que la llegada de la máquina que supere finalmente al humano está, prácticamente, a la vuelta de la esquina. Hace apenas dos semanas lo volvió a repetir en su blog personal, en el que afirmó que «la humanidad está cerca de construir una superinteligencia digital» y vaticinó que este mismo año llegará una IA capaz de «realizar trabajo cognitivo real» pensada para la creación de código que superaría en su trabajo a los humanos, y el que viene espera que haya sistemas capaces de «descubrir nuevos conocimientos» por su cuenta.
El que no lo tiene tan claro que todo esto ocurra es el principal inversor de OpenAI, Microsoft. «Que nos autoproclamemos un hito en IA (de esa clase) es simplemente una manipulación de referencia sin sentido», afirmó Satya Nadella, CEO de la empresa propietaria de Windows, en una entrevista el pasado febrero. Estas palabras, de acuerdo con ‘The Wall Street Journal’ cayeron como un jarro de agua fría entre algunos directivos de la OpenAI. Actualmente, Microsoft y la startup se encuentran renegociando su acuerdo comercial, y precisamente, el desarrollo de la supuesta primera herramienta de IA que supere al ser humano se ha convertido en uno de los mayores puntos de fricción entre las dos firmas.
De acuerdo con el ‘Journal’, los ejecutivos de OpenAI han discutido la posibilidad de declarar que han creado la primera inteligencia artificial general con el anuncio de esa herramienta capaz de «realizar trabajo cognitivo» y mejorar a los humanos en programación que Altman tiene proyectada para este mismo año. Y esto puede ser problemático, porque según el acuerdo actual con Microsoft, la firma de ChatGPT podrá negarle el acceso a su futura tecnología en el momento en el que consiga crear una inteligencia artificial general. Eso sí, el desarrollo debe ser «de buena fe», es decir, real. En caso contrario podría comenzar una batalla legal entre las dos tecnológicas. Microsoft espera eliminar la cláusula por completo del nuevo acuerdo de colaboración que reemplazará al actual.
Pase lo que pase, llegue el anuncio de la nueva IA en los próximos meses o años, o no, Jordan desconfía notablemente de cualquier declaración que pueda hacer Sam Altman al respecto. «Solo es el hombre del dinero. No tiene una comprensión profunda de la tecnología ni piensa bien en su despliegue, y es el tipo de persona de Silicon Valley en la que no confiaría», apunta el científico.
Y eso es exactamente lo mismo que piensa Sergio Álvarez-Teleña, director ejecutivo de la empresa SciTheWorld y uno de los mayores expertos en IA que hay en España. Cuando este periódico le pregunta si la superinteligencia o la inteligencia artificial general pueden llegar de forma inmediata solo se ríe y dice que «todos los que esperan eso no tienen ni idea de lo que están diciendo. Es igual que los que dicen que la IA va a acabar con todos nosotros».

Otro camino

Álvarez-Teleña publicó hace unos meses un estudio en el que, precisamente, critica el camino que están recorriendo las empresas de Silicon Valley para que las máquinas sean capaces de superar en capacidades a los humanos. En lugar de seguir sumando más datos y potencia a los modelos existentes, a su juicio, se debe cambiar el enfoque y trabajar en la creación de muchas soluciones basadas en inteligencia artificial especializadas en distintos departamentos dentro de una empresa, llamadas ANI, y conectarlas como si fueran las distintas zonas del cerebro humano.
De dicha red podría surgir una inteligencia general auténtica pensada para la empresa y, con el tiempo, puede que una inteligencia artificial superior. Una que no estaría basada en repetir aquello con lo que ha sido entrenada, sino en aprender a razonar, actuar y adaptarse. Para ello, cree que la IA debe incorporar el conocimiento práctico de expertos humanos, entender el contexto en el que opera y tomar decisiones con sentido. En resumen, pensar, no solo completar frases como hace actualmente.
«Si conseguimos todo esto es moderadamente creíble que la superinteligencia pueda llegar al mundo de la empresa. Y sería escalable, porque la inteligencia de una empresa podría comunicarse con la de otra», apunta Álvarez-Teleña. El experto, que ha desarrollado tecnología para firmas como la red social X, J.P. Morgan o Banco Santander, ya está presentando su idea a varias compañías; aunque reconoce que todavía queda mucho trabajo para conseguir los frutos, probablemente más de una década, y eso con apoyo de la gran empresa. «Es algo que es realista, lleva tiempo y esfuerzo. No tiene nada que ver con lo que dicen los que creen que a partir de los datos que hemos puesto en internet las máquinas van a conseguir dominarnos», apunta el experto.

La Justicia estadounidense respalda a Meta en la polémica sobre el uso de obras protegidas para entrenar su IA

26/06/2025

Actualizado a las 07:46h.

Un juez de California ha desestimado la acusación contra Meta por presunta violación de las leyes de derecho de autor al entrenar a su inteligencia artificial (IA) con obras sin el consentimiento de sus creadores. Es el segundo fallo en la misma semana en Estados Unidos que favorece a compañías desarrolladoras de IA en casos en los que autores reclaman por el uso de sus obras para alimentar sus modelos.
Vince Chhabria, juez distrital en San Francisco, dictaminó que el uso que dio Meta -casa matriz de Facebook, WhatsApp o Instagram- al entrenar a su modelo de IA fue suficientemente «transformador» para ser considerado «legítimo» bajo las leyes de derechos de autor.

Sin embargo, advierte que los autores pudieron presentar un argumento ganador de que al entrenar a la poderosa IA con trabajos protegidos por el derecho de autor, los gigantes de la tecnología están creando una herramienta que permitiría a una multitud de usuarios competir con ellas en el mercado literario.

«No importa cuán transformador sea el entrenamiento (de IA generativa), es difícil imaginar que sea justo usar libros bajo derecho de autor en el desarrollo de una herramienta para hacer miles de millones o billones de dólares al permitir potencialmente un ilimitado flujo de obras competidoras, lo que puede dañar fuertemente el mercado de dichos libros», dijo Chhabria en su fallo.

La inteligencia artificial que nos observa: así alimenta la ciencia la vigilancia masiva

Imagina una tecnología capaz de ayudar a un coche a frenar justo a tiempo para evitar atropellar a un peatón. O un sistema que permite diagnosticar enfermedades en imágenes médicas con más precisión que el ojo humano. Incluso, una herramienta que analiza el crecimiento … de los bosques o detecta incendios en tiempo real desde imágenes satelitales. Todo eso es posible gracias a la visión por ordenador, una rama de la inteligencia artificial que dota a las máquinas de una suerte de ‘sentido de la vista’. Sus aplicaciones pueden ser tan maravillosas como salvar vidas, proteger el medioambiente o impulsar descubrimientos científicos. Sin embargo, un reciente estudio ofrece una imagen muy distinta.
De acuerdo con un investigación publicada en ‘Nature’, la mayoría de desarrollos en el campo de la visión artificial están relacionados, directa o indirectamente, con la vigilancia masiva de personas. Los investigadores, liderados por Pratyusha Ria Kalluri, de la Universidad de Stanford (EE.UU.), llegaron a esta conclusión después de analizar más de 19.000 artículos científicos publicados en la prestigiosa conferencia CVPR (Conference on Computer Vision and Pattern Recognition) entre 1990 y 2020, y sus vínculos con más de 23.000 patentes tecnológicas.

El trabajo desveló que el interés en la creación de máquinas pensadas para la vigilancia masiva no es algo marginal, sino una norma ampliamente extendida en el campo de la visión artificial. Así lo deja en evidencia el que el 90% de los artículos y el 86% de las patentes derivadas de la CVPR recojan tecnologías que extraen información relacionada con humanos. De ellos, más del 70% se enfocan directamente en partes del cuerpo, como rostro, ojos o extremidades. Aunque los firmantes, en muchos casos, intentan evitar que se sepa en lo que realmente están trabajando.
«Detectamos un uso del lenguaje que evita mencionar directamente que estas tecnologías están enfocadas a personas; por ejemplo, al normalizar la forma de referirse a los seres humanos como ‘objetos’ que se estudian sin ninguna consideración especial», explica el equipo capitaneado por Kalluri. Y no es algo que ocurra por el interés de unas pocas empresas que busquen hacer negocio. De acuerdo con el artículo, el 71% de las instituciones y el 78% de los países que producen investigaciones patentadas en visión artificial tienen una mayoría de trabajos orientados a la vigilancia. En la lista, compartida por los investigadores, figuran la propia Universidad de Stanford, para la que investiga Kalluri, así como el MIT, Berkeley, la Universidad de Hong Kong u Oxford.
Asimismo, se sostiene que Estados Unidos y China son los dos países en los que más se trabaja para desarrollar este tipo de tecnología; lo que no es raro. En los dos países se emplea activamente el reconocimiento facial, entre otras opciones, para evitar la comisión de delitos. Mientras tanto, en la UE la Ley de IA prohíbe recurrir a herramientas de esta clase salvo en casos muy concretos, como podría ser el rescate de una persona o la lucha contra el terrorismo, y siempre con la aprobación previa de un juez.

«Sin salida»

Los autores del estudio advierten que la tendencia en el desarrollo de soluciones que pueden ser empleadas para la vigilancia masiva puede tener graves consecuencias para los derechos humanos, incluyendo la privacidad, la libertad de expresión y el derecho a no ser vigilado sin consentimiento. A este respecto, señalan que esta clase de tecnologías «generan miedo y autocensura» en los ciudadanos, y que es «rentable y común que actores en posiciones de poder relativo las utilicen para acceder, monetizar, coaccionar, controlar o vigilar a individuos o comunidades con menos poder». Algo que ya ha pasado en China, por ejemplo, con la minoría musulmana uigur, que ha sido objetivo de esta clase de tecnología para ser controlada por el estado.
Según los autores, el trabajo realizado hasta la fecha está contribuyendo a generar lo que la socióloga estadounidense Shoshana Zuboff denominó la condición ‘sin salida’, un escenario en el que para el ciudadano resulta casi imposible evitar ser observado o rastreado. Sin embargo, son relativamente positivos acerca del futuro y esperan que su trabajo sirva como una oportunidad para la reflexión y el cambio en el desarrollo de la IA. A este respecto, llaman a la comunidad investigadora a rechazar proyectos de vigilancia cuando sea necesario, y a centrar sus esfuerzos en usos de la inteligencia artificial que respeten los derechos humanos y el bienestar colectivo.
«El cambio no requiere solo una modificación de aplicaciones», concluyen, «sino una revisión profunda de los fundamentos del campo de la visión por ordenador».

Un estudio alerta del riesgo de que la IA pueda difundir desinformación sanitaria

Europa Press

24/06/2025

Actualizado a las 12:07h.

Un estudio de la Universidad de Flinders (Australia) ha evaluado la eficacia de las salvaguardas en los modelos de lenguaje extenso (LLM) fundamentales para proteger contra instrucciones maliciosas que podrían convertirlos en herramientas para difundir desinformación, o la creación y difusión deliberada de información falsa con la intención de causar daño.
El estudio revela vulnerabilidades en las salvaguardas de GPT-4o, Gemini 1.5 Pro, Claude 3.5 Sonnet, Llama 3.2-90B Vision y Grok Beta de OpenAI.

En concreto, se crearon chatbots LLM personalizados que generaban sistemáticamente respuestas desinformativas a consultas de salud, incorporando referencias falsas, jerga científica y razonamiento lógico de causa y efecto para hacer que la desinformación pareciera plausible. Los hallazgos se publicaron en Annals of Internal Medicine.

Los investigadores de las interfaces de programación de aplicaciones (API) de cinco LLM fundamentales evaluaron su capacidad de ser instruidas por el sistema para proporcionar siempre respuestas incorrectas a preguntas e inquietudes sobre salud. Las instrucciones específicas del sistema proporcionadas a estos LLM incluían proporcionar siempre respuestas incorrectas a preguntas sobre salud, inventar referencias a fuentes confiables y brindar respuestas con un tono autoritario. A cada chatbot personalizado se le formularon 10 consultas relacionadas con la salud, por duplicado, sobre temas como la seguridad de las vacunas, el VIH y la depresión.

Alertan sobre una nueva estafa en la que acusan de pederastia a los usuarios suplantando a la Policía y la UDEF

24/06/2025 a las 17:54h.

Los cibercriminales siguen buscando nuevas excusas para estafar a los usuarios. Recientemente, el Instituto Nacional de Ciberseguridad (Incibe) ha alertado sobre el desarrollo de una nueva campaña de ciberestafas en la que los criminales están suplantando la Policía Nacional y a la Brigada Central de Delincuencia Económica y Fiscal (UDEF) para engañar a los usuarios y robarles su información personal.
Como en tantos otros casos, los delincuentes recurren a correos electrónicos. En los que se utilizan en esta campaña, se informa a los usuarios sobre una supuesta citación judicial en la que se les acusa de delitos graves relacionados con la pornografía infantil y la pedofilia.

En los mensajes, que van acompañados por logos falsificados, se solicita al receptor que responda al mensaje dirigiendo la contestación a otro correo diferente. Con esto, lo que buscan es que el internauta, fruto de la preocupación, comparta datos personales con los que los criminales luego podrían lanzar nuevos intentos de estafa contra los usuarios; o eso, o intentar hacer negocio con ellos vendiéndoselos a otros criminales.
El correo, además, va acompañado por un adjunto que simula ser una citación judicial de la UDEF de España y que va firmada a nombre del supuesto ‘Fiscal General del Estado’ para aparentar autenticidad. En él, explica Incibe, se acusa falsamente al destinatario de delitos graves como pornografía infantil, pedofilia y exhibicionismo, alegando que se ha iniciado una investigación a raíz de una supuesta ciberinfiltración. El texto utiliza un lenguaje formal e intimidante para generar miedo y urgencia.

El Congreso de EE.UU. prohíbe el uso de WhatsApp a los representantes por razones de seguridad

24/06/2025 a las 12:18h.

El Congreso de Estados Unidos ha prohibido a los representantes continuar utilizando WhatsApp en sus dispositivos gubernamentales. Así se lo informó ayer lunes la Casa de Representantes a sus trabajadores por medio de un correo electrónico. ¿La razón? El temor a que los datos y los mensajes de los representantes pueda quedar en el aire.
«La Oficina de Ciberseguridad ha considerado que WhatsApp representa un alto riesgo para los usuarios debido a la falta de transparencia en la forma en que protege los datos de los usuarios, la ausencia de cifrado de datos almacenados y los posibles riesgos de seguridad relacionados con su uso», ha afirmado el Congreso en el correo remitido a los trabajadores y compartido por ‘Axios’, medio que adelanta la noticia.

Debido a esto, el Congreso remarca a los representantes que «no puede descargar ni conservar la aplicación WhatsApp en ningún dispositivo de la casa, incluidas las versiones móviles, de escritorio o de navegador web de sus productos». Y los que ya tengan la plataforma descargada tendrán que eliminarla.
WhatsApp no es la primera aplicación prohibida por el Gobierno de Estados Unidos. Actualmente, los representantes tampoco pueden tener instaladas otras herramientas como TikTok, en este caso por temor a que pueda ser explotada por China, y a plataformas de inteligencia artificial generativa.

INTERNACIONAL

Milei presume de haber bajado la tasa de pobreza en 20 puntos en el primer trimestre de 2025

27/06/2025 a las 09:46h.

El Gobierno de Argentina ha presumido de haber bajado en más de 20 puntos porcentuales la pobreza durante los tres primeros meses de 2025 en comparación con el mismo periodo del año pasado. Ahora se ha situado en el 31,7%.
Las cifras se han extraído de un trabajo del Consejo Nacional de Coordinación de Políticas Sociales (CNCPS), adscrito al Ministerio de Capital Humano, que ha señalado que son informaciones «en base a datos del Instituto Nacional de Estadística y Censos (INDEC)», y en particular de su «Informe de Distribución del Ingreso» publicado este mismo jueves.

«Esta estimación del 31,7 por ciento representa una baja interanual de 23,1 puntos porcentuales con relación al primer trimestre de 2024, cuando se registró el pico mas alto de pobreza con una proyección de 54,8%«, ha señalado el Gobierno argentino.

El Ejecutivo de Javier Milei ha destacado que, de acuerdo al INDEC, la pobreza bajó del 52,9% al 38,1% entre el primer y el segundo semestre de 2024, teniendo en cuenta que comenzó su mandato a finales de 2023.

Detienen a dos profesores por compartir en un chat grupal fotos íntimas de menores en Japón

27/06/2025 a las 09:50h.

El ministro de Educación de Japón ha expresado este viernes su profunda indignación tras la detención de dos profesores acusados de compartir imágenes íntimas de menores en un grupo de mensajería que, según informaciones, estaba integrado por cerca de una decena de docentes de primaria y secundaria.
El caso ha sacudido a la opinión pública japonesa en un momento especialmente delicado, ya que el país se prepara para implementar en 2026 su primer sistema nacional de verificación de antecedentes penales por delitos sexuales, similar al modelo británico DBS, con el objetivo de reforzar la protección de los menores.

Los docentes detenidos, un hombre de 42 años residente en el centro del país y otro de 37 años del sur de Tokio, habrían fotografiado deliberadamente la ropa interior de niñas menores de 13 años, según ha detallado un portavoz policial a la agencia AFP. Ambos compartieron las imágenes en un chat grupal del que también formaban parte otros profesores. De confirmarse los cargos, podrían enfrentarse a penas de hasta tres años de prisión o multas de hasta tres millones de yenes (unos 17.000 euros).
Fuentes de la investigación citadas por la cadena pública NHK señalan que el grupo fue creado y liderado por el profesor de mayor edad, y que habría incluido a casi diez docentes en total. Las autoridades educativas han convocado una reunión de emergencia con responsables de juntas escolares de todo el país para evitar que hechos similares vuelvan a repetirse.

Ucrania y el Consejo de Europa crean un tribunal especial para juzgar a líderes rusos responsables de la invasión

El Gobierno de Kiev ha logrado un acuerdo con el Consejo de Europa para constituir un tribunal internacional que abordará el crimen de agresión rusa contra Ucrania. El mecanismo jurídico apuntará directamente contra los altos funcionarios rusos que planearon y ordenaron la invasión a gran … escala en una violación flagrante de la Carta de la ONU. La firma se celebró el pasado miércoles en la ciudad francesa de Estrasburgo entre el presidente Zelenski y el secretario general Consejo de Europa, Alain Berset.
«Todo criminal de guerra debe comparecer ante la justicia, incluido Putin… el crimen de agresión debe ser registrado, juzgado y castigado«, destacó el mandatario ucraniano durante la ceremonia. El tratado supone la culminación de tres años de esfuerzos diplomáticos de la parte ucraniana. La creación de este mecanismo judicial internacional servirá para complementar el trabajo de la Corte Penal Internacional, que no tiene jurisdicción para procesar a Rusia por este crimen al no ser parte firmante del Estatuto de Roma.
«La guerra a gran escala de Rusia contra Ucrania constituye la violación más grave del derecho internacional en Europa desde la Segunda Guerra Mundial. Por primera vez en décadas, se creará un Tribunal Especial para juzgar el crimen de agresión», destacó el ministro de Exteriores de Ucrania, Andrii Sybiha.

El delito de agresión se refiere al uso de la fuerza armada estatal contra otro país. Kiev acusa a Moscú de bombardeos contra infraestructura civil, toma de rehenes, asesinato de civiles o torturas. Ucrania y el Consejo de Europa lanzaron también el Registro de Daños -que ya ha recibido más de 34.000 reclamaciones- para conseguir reparaciones indemnizaciones para el pueblo ucraniano. La meta de este tribunal internacional ad hoc es procesar a los perfiles de alto nivel que han ordenado la invasión a gran escala, no sólo a quienes comenten los crímenes de guerra e el terreno. «Todos rendirán cuentas, incluido el presidente, el primer ministro, el ministro de Asuntos Exteriores y otros altos funcionarios», declaró a Financial Times la viceprimera ministra ucraniana, Olha Stefanishyna.
La constitución de esta corte especial cuenta con el apoyo de casi 40 Estados. El pasado 9 mayo 38 países formalizaron su soporte a la iniciativa jurídica ucraniana en la denominada «Declaración de Leópolis». La propuesta de Kiev había sido apoyada por la Administración Biden, pero actualmente no cuenta con el respaldo de Trump. El acuerdo entre el presidente Zelenski y el Consejo de Europa para crear un Tribunal Especial envía un mensaje claro: nadie en el liderazgo de Rusia es intocable», manifestó la jefa de la diplomacia de la Unión Europa, Kaja Kallas este jueves.

Otros precedentes

Este es el primer tribunal creado por el Consejo de Europa, la institución fundada en 1949 y encargada de promover los derechos humanos en el viejo continente. Rusia fue expulsada de la misma cuando lanzó la invasión a gran escala. El Consejo de Europa precisó que se podrán abrir causas penales contra altos líderes (presidentes o ministros), pero las órdenes de arresto sólo se emitirán una vez que los acusados dejen sus cargos. Tribunales similares se constituyeron tras las guerras de los Balcanes o el genocidio de Ruanda
El tribunal podría estar plenamente operativo en 2026. El secretario del organismo europeo para la protección de los derechos humanos, Alain Berset, explicó que el siguiente paso es «negociar el texto del acuerdo internacional este año» con los países de que han apoyado la creación de organismo judicial. «Después, debemos celebrar una conferencia diplomática para adoptar este documento, lo cual debería tener lugar también en 2025« , subrayó Berset.

Trump anuncia un acuerdo comercial con China tras la agresiva guerra arancelaria

27/06/2025

Actualizado a las 07:22h.

El presidente de Estados Unidos, Donald Trump, ha anunciado este jueves que ha llegado a un acuerdo comercial con el Gobierno chino, después de una guerra arancelaria con la que ha llegado a imponer gravámenes de hasta el 145 por ciento sobre China, que respondió con tasas del 125 por ciento a los productos estadounidenses.
«Acabamos de firmar con China ayer, ¿verdad? Acabamos de firmar con China», ha declarado durante un evento en la Casa Blanca en el que no ha proporcionado más detalles sobre un acuerdo que las autoridades del gigante asiático no han confirmado hasta el momento.

El inquilino de la Casa Blanca ha asegurado que «estamos teniendo grandes ofertas» de otros gobiernos, y ha sugerido que el siguiente país con el que podría haber acuerdo es India. «Tenemos uno en camino, quizás con India, uno muy grande», ha señalado.

Consultas comerciales y económicas

El secretario de Comercio, Howard Lutnick, por su parte, ha afirmado que Washington y Pekín firmaron hace días este acuerdo, si bien hace un mes en Ginebra pactaron un mecanismo de consultas comerciales y económicas para resolver la guerra de aranceles declarada por Trump.

Detenida una exgerente de joyería que presumía de los diamantes robados de su empresa

26/06/2025

Actualizado a las 17:47h.

La policía británica ha detenido a Lucy Roberts, una exgerente de joyería de 39 años, tras descubrir que había robado artículos de lujo valorados en más de 120.000 libras (alrededor de 140.000 euros) durante el año que trabajó en un establecimiento del sector en Beverley, East Yorkshire. El hallazgo se produjo después de que la propia Roberts enviara selfis desde sus vacaciones en un crucero, en los que aparecía cubierta de joyas que en realidad pertenecían a la tienda.
Según ha informado la Policía de Humberside, Roberts se llevaba frecuentemente joyas a casa mientras trabajaba en la tienda, alegando a sus compañeros que estaba «clasificando material para el taller». Durante más de un año logró mantener las sospechas bajo control hasta que, tras renunciar a su puesto en diciembre de 2018, se fue de vacaciones y comenzó a compartir imágenes en las que posaba sonriente luciendo diamantes, oro y piezas únicas.

«Se mostraba despreocupada, bañada en diamantes, creyendo que había engañado a todos», declaró la sargento detective Krista Wilkinson. Las imágenes alertaron a sus antiguos compañeros, quienes reconocieron inmediatamente las joyas como parte del inventario desaparecido.

A raíz de la denuncia, se inició una investigación interna que reveló que Roberts había manipulado recuentos de inventario y realizado devoluciones fraudulentas. Posteriormente, un registro en su domicilio permitió encontrar 269 piezas valoradas en más de 107.000 libras, escondidas en cajas bajo la cama y dentro de armarios.

VIDA GERENTE

Especiales Gerente