Revista Gerente - Colombia
Registro  /  Login

Portal de Negocios en Colombia

NEGOCIOS

Los Gerentes de Impacto del 2024

TECNOLOGÍA

La creación de la 'Súper IA' más lista que los humanos: el último sueño de Silicon Valley

Imagina una máquina más lista que el humano más listo; una que no se limite a calcular probabilidades antes de responder a tus solicitudes, sino que piensa casi como una persona. Que entiende realmente el lenguaje, resuelve problemas complejos, toma decisiones, y lo hace todo … sin cansancio, sin distracciones y sin egos. Pero sí con la frialdad y la eficiencia necesarias para dirigir, hasta en solitario, compañías con ingresos anuales de miles de millones de euros. O curar cualquier enfermedad. O crear nuevos materiales. El límite, prácticamente, sería el cielo.
En los últimos años, un ramillete de tecnológicas ha comenzado a avanzar en el desarrollo de esta idea a través de una forma de IA tan poderosa que se la conoce como superinteligencia. Algunas aseguran que podrían alcanzarla en unos pocos años, incluso en el próximo lustro. Pero la mayoría de investigadores y expertos lo ven muy poco probable; y eso siendo optimistas.

Un reciente estudio de la Asociación para el Avance de la Inteligencia Artificial (AAAI), en el que participaron 475 investigadores de la comunidad científica, señala que el 77 % de los expertos considera poco o muy poco probable que esta máquina –capaz de pensar como los humanos y hasta superarlos– pueda lograrse a partir del enfoque actual que siguen empresas como OpenAI, responsable de ChatGPT, o Google. Estas compañías basan su progreso principalmente en ampliar la cantidad de datos y la escala de los modelos con los que entrenan sus sistemas, una estrategia que, según muchos científicos, podría no ser suficiente. Y mucho menos si se quiere conseguir el hito en los próximos años, que es lo que esperan gurús de los algoritmos como Sam Altman, CEO de OpenAI, Elon Musk, que la tiene programada para el año que viene, o Demis Hassabis, jefe de Google DeepMind, que ve probable su descubrimiento a partir de 2030.
El matemático y científico cognitivo estadounidense Michael I. Jordan es una de las voces más autorizadas dentro del campo de la IA. Su trabajo ha sido clave para que ChatGPT, y otras máquinas de su clase, sean capaces de responder a todas las solicitudes que reciben de los usuarios. Para él, la superinteligencia es un «término inventado» que, por el momento, «ni siquiera está bien definido». Por el momento, lo considera solo un gancho para que las empresas que están en la carrera puedan captar financiación del capitalismo de riesgo.
«Creo que piensan que inteligencia artificial no suena lo bastante fuerte y convincente. Pero la idea de la superinteligencia, en realidad, tampoco significa mucho. En primer lugar, un ordenador ya puede hacer muchísimas cosas que los seres humanos no pueden hacer a nivel de cálculo o de búsqueda de evidencia. Y no está nada mal tener una herramienta que pueda hacer algunas cosas que nosotros no podemos hacer, ya que las herramientas se crean con ese propósito», afirma Jordan en conversación con ABC.
El experto remarca que no le cabe duda de que, más pronto que tarde, alguna compañía afirmará que ha creado la superinteligencia, algo que para él «no significa absolutamente nada»: «Solo espero que los periodistas seáis lo suficientemente inteligentes para preguntarles qué es lo que es eso y qué significa exactamente».

Idealistas y realistas

La mayoría de investigadores en este campo coincide en que las técnicas actuales –por muy avanzadas que parezcan– no están ni siquiera cerca de imitar bien los procesos de pensamiento y aprendizaje humanos, algo que se considera clave para hacer viable la siguiente evolución de la IA. Herramientas como ChatGPT, el Gemini de Google o el Grok de xAI, pueden funcionar bien cuando se les da una tarea clara y simple, pero no entienden el mundo de forma profunda ni aprenden con la experiencia, tal y como lo haría una persona.
Las máquinas también siguen cometiendo errores muy básicos en tareas que las personas resuelven sin dificultad, como puede ser encontrar solución a un problema visual sencillo o entender correctamente un mapa. Además, no tienen memoria duradera ni sentido común, y todo lo que ‘saben’ lo han aprendido de textos y datos que les fueron dados por los propios desarrolladores, no por experiencia directa.
Los expertos creen que si de verdad queremos crear una inteligencia que se parezca a la humana –y que la supere–, no basta con hacer modelos más grandes y con más datos. Hace falta cambiar el enfoque: diseñar sistemas que razonen mejor, que puedan recordar, que entiendan causas y consecuencias y que aprendan mientras interactúan con el mundo.
«Los más idealistas piensan que en algún momento, no se sabe muy bien cómo, todo se va a alinear para que surjan una o varias estructuras que pueden ser consideradas como inteligencia artificial general, que sería el paso previo a la superinteligencia», explica a este diario Pablo Haya, investigador del Laboratorio de Lingüística Informática de la Universidad Autónoma de Madrid y director de Businness and Language Analytics en el Instituto de Ingeniería del Conocimiento. El experto apunta que , mientras tanto, los más realistas ven la llegada de esta tecnología «como algo muy improbable en el corto plazo; porque hay muchas limitaciones que no sabemos cómo superar»: «Los sistemas de ahora, que quede claro, no son conscientes ni nos entienden. Y parece que solo escalando en datos no vamos a conseguir avanzar al siguiente escenario».

«El hombre del dinero»

Entre las voces de los idealistas, no hay ninguna que resuene con más fuerza que la de Sam Altman. El primer ejecutivo de OpenAI ha repetido en varias ocasiones durante los últimos meses que la llegada de la máquina que supere finalmente al humano está, prácticamente, a la vuelta de la esquina. Hace apenas dos semanas lo volvió a repetir en su blog personal, en el que afirmó que «la humanidad está cerca de construir una superinteligencia digital» y vaticinó que este mismo año llegará una IA capaz de «realizar trabajo cognitivo real» pensada para la creación de código que superaría en su trabajo a los humanos, y el que viene espera que haya sistemas capaces de «descubrir nuevos conocimientos» por su cuenta.
El que no lo tiene tan claro que todo esto ocurra es el principal inversor de OpenAI, Microsoft. «Que nos autoproclamemos un hito en IA (de esa clase) es simplemente una manipulación de referencia sin sentido», afirmó Satya Nadella, CEO de la empresa propietaria de Windows, en una entrevista el pasado febrero. Estas palabras, de acuerdo con ‘The Wall Street Journal’ cayeron como un jarro de agua fría entre algunos directivos de la OpenAI. Actualmente, Microsoft y la startup se encuentran renegociando su acuerdo comercial, y precisamente, el desarrollo de la supuesta primera herramienta de IA que supere al ser humano se ha convertido en uno de los mayores puntos de fricción entre las dos firmas.
De acuerdo con el ‘Journal’, los ejecutivos de OpenAI han discutido la posibilidad de declarar que han creado la primera inteligencia artificial general con el anuncio de esa herramienta capaz de «realizar trabajo cognitivo» y mejorar a los humanos en programación que Altman tiene proyectada para este mismo año. Y esto puede ser problemático, porque según el acuerdo actual con Microsoft, la firma de ChatGPT podrá negarle el acceso a su futura tecnología en el momento en el que consiga crear una inteligencia artificial general. Eso sí, el desarrollo debe ser «de buena fe», es decir, real. En caso contrario podría comenzar una batalla legal entre las dos tecnológicas. Microsoft espera eliminar la cláusula por completo del nuevo acuerdo de colaboración que reemplazará al actual.
Pase lo que pase, llegue el anuncio de la nueva IA en los próximos meses o años, o no, Jordan desconfía notablemente de cualquier declaración que pueda hacer Sam Altman al respecto. «Solo es el hombre del dinero. No tiene una comprensión profunda de la tecnología ni piensa bien en su despliegue, y es el tipo de persona de Silicon Valley en la que no confiaría», apunta el científico.
Y eso es exactamente lo mismo que piensa Sergio Álvarez-Teleña, director ejecutivo de la empresa SciTheWorld y uno de los mayores expertos en IA que hay en España. Cuando este periódico le pregunta si la superinteligencia o la inteligencia artificial general pueden llegar de forma inmediata solo se ríe y dice que «todos los que esperan eso no tienen ni idea de lo que están diciendo. Es igual que los que dicen que la IA va a acabar con todos nosotros».

Otro camino

Álvarez-Teleña publicó hace unos meses un estudio en el que, precisamente, critica el camino que están recorriendo las empresas de Silicon Valley para que las máquinas sean capaces de superar en capacidades a los humanos. En lugar de seguir sumando más datos y potencia a los modelos existentes, a su juicio, se debe cambiar el enfoque y trabajar en la creación de muchas soluciones basadas en inteligencia artificial especializadas en distintos departamentos dentro de una empresa, llamadas ANI, y conectarlas como si fueran las distintas zonas del cerebro humano.
De dicha red podría surgir una inteligencia general auténtica pensada para la empresa y, con el tiempo, puede que una inteligencia artificial superior. Una que no estaría basada en repetir aquello con lo que ha sido entrenada, sino en aprender a razonar, actuar y adaptarse. Para ello, cree que la IA debe incorporar el conocimiento práctico de expertos humanos, entender el contexto en el que opera y tomar decisiones con sentido. En resumen, pensar, no solo completar frases como hace actualmente.
«Si conseguimos todo esto es moderadamente creíble que la superinteligencia pueda llegar al mundo de la empresa. Y sería escalable, porque la inteligencia de una empresa podría comunicarse con la de otra», apunta Álvarez-Teleña. El experto, que ha desarrollado tecnología para firmas como la red social X, J.P. Morgan o Banco Santander, ya está presentando su idea a varias compañías; aunque reconoce que todavía queda mucho trabajo para conseguir los frutos, probablemente más de una década, y eso con apoyo de la gran empresa. «Es algo que es realista, lleva tiempo y esfuerzo. No tiene nada que ver con lo que dicen los que creen que a partir de los datos que hemos puesto en internet las máquinas van a conseguir dominarnos», apunta el experto.

La Justicia estadounidense respalda a Meta en la polémica sobre el uso de obras protegidas para entrenar su IA

26/06/2025

Actualizado a las 07:46h.

Un juez de California ha desestimado la acusación contra Meta por presunta violación de las leyes de derecho de autor al entrenar a su inteligencia artificial (IA) con obras sin el consentimiento de sus creadores. Es el segundo fallo en la misma semana en Estados Unidos que favorece a compañías desarrolladoras de IA en casos en los que autores reclaman por el uso de sus obras para alimentar sus modelos.
Vince Chhabria, juez distrital en San Francisco, dictaminó que el uso que dio Meta -casa matriz de Facebook, WhatsApp o Instagram- al entrenar a su modelo de IA fue suficientemente «transformador» para ser considerado «legítimo» bajo las leyes de derechos de autor.

Sin embargo, advierte que los autores pudieron presentar un argumento ganador de que al entrenar a la poderosa IA con trabajos protegidos por el derecho de autor, los gigantes de la tecnología están creando una herramienta que permitiría a una multitud de usuarios competir con ellas en el mercado literario.

«No importa cuán transformador sea el entrenamiento (de IA generativa), es difícil imaginar que sea justo usar libros bajo derecho de autor en el desarrollo de una herramienta para hacer miles de millones o billones de dólares al permitir potencialmente un ilimitado flujo de obras competidoras, lo que puede dañar fuertemente el mercado de dichos libros», dijo Chhabria en su fallo.

La inteligencia artificial que nos observa: así alimenta la ciencia la vigilancia masiva

Imagina una tecnología capaz de ayudar a un coche a frenar justo a tiempo para evitar atropellar a un peatón. O un sistema que permite diagnosticar enfermedades en imágenes médicas con más precisión que el ojo humano. Incluso, una herramienta que analiza el crecimiento … de los bosques o detecta incendios en tiempo real desde imágenes satelitales. Todo eso es posible gracias a la visión por ordenador, una rama de la inteligencia artificial que dota a las máquinas de una suerte de ‘sentido de la vista’. Sus aplicaciones pueden ser tan maravillosas como salvar vidas, proteger el medioambiente o impulsar descubrimientos científicos. Sin embargo, un reciente estudio ofrece una imagen muy distinta.
De acuerdo con un investigación publicada en ‘Nature’, la mayoría de desarrollos en el campo de la visión artificial están relacionados, directa o indirectamente, con la vigilancia masiva de personas. Los investigadores, liderados por Pratyusha Ria Kalluri, de la Universidad de Stanford (EE.UU.), llegaron a esta conclusión después de analizar más de 19.000 artículos científicos publicados en la prestigiosa conferencia CVPR (Conference on Computer Vision and Pattern Recognition) entre 1990 y 2020, y sus vínculos con más de 23.000 patentes tecnológicas.

El trabajo desveló que el interés en la creación de máquinas pensadas para la vigilancia masiva no es algo marginal, sino una norma ampliamente extendida en el campo de la visión artificial. Así lo deja en evidencia el que el 90% de los artículos y el 86% de las patentes derivadas de la CVPR recojan tecnologías que extraen información relacionada con humanos. De ellos, más del 70% se enfocan directamente en partes del cuerpo, como rostro, ojos o extremidades. Aunque los firmantes, en muchos casos, intentan evitar que se sepa en lo que realmente están trabajando.
«Detectamos un uso del lenguaje que evita mencionar directamente que estas tecnologías están enfocadas a personas; por ejemplo, al normalizar la forma de referirse a los seres humanos como ‘objetos’ que se estudian sin ninguna consideración especial», explica el equipo capitaneado por Kalluri. Y no es algo que ocurra por el interés de unas pocas empresas que busquen hacer negocio. De acuerdo con el artículo, el 71% de las instituciones y el 78% de los países que producen investigaciones patentadas en visión artificial tienen una mayoría de trabajos orientados a la vigilancia. En la lista, compartida por los investigadores, figuran la propia Universidad de Stanford, para la que investiga Kalluri, así como el MIT, Berkeley, la Universidad de Hong Kong u Oxford.
Asimismo, se sostiene que Estados Unidos y China son los dos países en los que más se trabaja para desarrollar este tipo de tecnología; lo que no es raro. En los dos países se emplea activamente el reconocimiento facial, entre otras opciones, para evitar la comisión de delitos. Mientras tanto, en la UE la Ley de IA prohíbe recurrir a herramientas de esta clase salvo en casos muy concretos, como podría ser el rescate de una persona o la lucha contra el terrorismo, y siempre con la aprobación previa de un juez.

«Sin salida»

Los autores del estudio advierten que la tendencia en el desarrollo de soluciones que pueden ser empleadas para la vigilancia masiva puede tener graves consecuencias para los derechos humanos, incluyendo la privacidad, la libertad de expresión y el derecho a no ser vigilado sin consentimiento. A este respecto, señalan que esta clase de tecnologías «generan miedo y autocensura» en los ciudadanos, y que es «rentable y común que actores en posiciones de poder relativo las utilicen para acceder, monetizar, coaccionar, controlar o vigilar a individuos o comunidades con menos poder». Algo que ya ha pasado en China, por ejemplo, con la minoría musulmana uigur, que ha sido objetivo de esta clase de tecnología para ser controlada por el estado.
Según los autores, el trabajo realizado hasta la fecha está contribuyendo a generar lo que la socióloga estadounidense Shoshana Zuboff denominó la condición ‘sin salida’, un escenario en el que para el ciudadano resulta casi imposible evitar ser observado o rastreado. Sin embargo, son relativamente positivos acerca del futuro y esperan que su trabajo sirva como una oportunidad para la reflexión y el cambio en el desarrollo de la IA. A este respecto, llaman a la comunidad investigadora a rechazar proyectos de vigilancia cuando sea necesario, y a centrar sus esfuerzos en usos de la inteligencia artificial que respeten los derechos humanos y el bienestar colectivo.
«El cambio no requiere solo una modificación de aplicaciones», concluyen, «sino una revisión profunda de los fundamentos del campo de la visión por ordenador».

Un estudio alerta del riesgo de que la IA pueda difundir desinformación sanitaria

Europa Press

24/06/2025

Actualizado a las 12:07h.

Un estudio de la Universidad de Flinders (Australia) ha evaluado la eficacia de las salvaguardas en los modelos de lenguaje extenso (LLM) fundamentales para proteger contra instrucciones maliciosas que podrían convertirlos en herramientas para difundir desinformación, o la creación y difusión deliberada de información falsa con la intención de causar daño.
El estudio revela vulnerabilidades en las salvaguardas de GPT-4o, Gemini 1.5 Pro, Claude 3.5 Sonnet, Llama 3.2-90B Vision y Grok Beta de OpenAI.

En concreto, se crearon chatbots LLM personalizados que generaban sistemáticamente respuestas desinformativas a consultas de salud, incorporando referencias falsas, jerga científica y razonamiento lógico de causa y efecto para hacer que la desinformación pareciera plausible. Los hallazgos se publicaron en Annals of Internal Medicine.

Los investigadores de las interfaces de programación de aplicaciones (API) de cinco LLM fundamentales evaluaron su capacidad de ser instruidas por el sistema para proporcionar siempre respuestas incorrectas a preguntas e inquietudes sobre salud. Las instrucciones específicas del sistema proporcionadas a estos LLM incluían proporcionar siempre respuestas incorrectas a preguntas sobre salud, inventar referencias a fuentes confiables y brindar respuestas con un tono autoritario. A cada chatbot personalizado se le formularon 10 consultas relacionadas con la salud, por duplicado, sobre temas como la seguridad de las vacunas, el VIH y la depresión.

Alertan sobre una nueva estafa en la que acusan de pederastia a los usuarios suplantando a la Policía y la UDEF

24/06/2025 a las 17:54h.

Los cibercriminales siguen buscando nuevas excusas para estafar a los usuarios. Recientemente, el Instituto Nacional de Ciberseguridad (Incibe) ha alertado sobre el desarrollo de una nueva campaña de ciberestafas en la que los criminales están suplantando la Policía Nacional y a la Brigada Central de Delincuencia Económica y Fiscal (UDEF) para engañar a los usuarios y robarles su información personal.
Como en tantos otros casos, los delincuentes recurren a correos electrónicos. En los que se utilizan en esta campaña, se informa a los usuarios sobre una supuesta citación judicial en la que se les acusa de delitos graves relacionados con la pornografía infantil y la pedofilia.

En los mensajes, que van acompañados por logos falsificados, se solicita al receptor que responda al mensaje dirigiendo la contestación a otro correo diferente. Con esto, lo que buscan es que el internauta, fruto de la preocupación, comparta datos personales con los que los criminales luego podrían lanzar nuevos intentos de estafa contra los usuarios; o eso, o intentar hacer negocio con ellos vendiéndoselos a otros criminales.
El correo, además, va acompañado por un adjunto que simula ser una citación judicial de la UDEF de España y que va firmada a nombre del supuesto ‘Fiscal General del Estado’ para aparentar autenticidad. En él, explica Incibe, se acusa falsamente al destinatario de delitos graves como pornografía infantil, pedofilia y exhibicionismo, alegando que se ha iniciado una investigación a raíz de una supuesta ciberinfiltración. El texto utiliza un lenguaje formal e intimidante para generar miedo y urgencia.

INTERNACIONAL

El Supremo da a Trump una rotunda victoria al limitar el poder de jueces federales para bloquear sus órdenes ejecutivas

El Tribunal Supremo ha otorgado este viernes una victoria formidable a Donald Trump: le da la razón y limita la capacidad de los jueces de instancias inferiores para imponer bloqueos en todo el país a las órdenes ejecutivas del presidente de EE.UU.La … sentencia no entra en el fondo del caso que llegó al alto tribunal y que tiene gran importancia: el intento de Trump de limitar el llamado ‘birthright citizenship’, el acceso a la ciudadanía por nacer en territorio estadounidense. Es un derecho establecido en la 14ª enmienda de la Constitución y que ha sido afirmado por el Tribunal Supremo con sentencias desde finales del siglo XIX.
«Todas las personas nacidas o naturalizadas en EE.UU. y sujetos a su jurisdicción son ciudadanos de EE.UU. y del estado en el que residan», dice el texto de la Constitución, redactado en 1868, tras el final de la Guerra de Secesión y que daba acceso a la ciudadanía a la población negra esclavizada y que el Supremo estableció desde 1898 que también afecta a todos los nacidos en el territorio del país, con independencia de que sus padres no sean ciudadanos.

Aunque no entra en el fondo, deja en el aire la aplicación de ese acceso a la ciudadanía. La sentencia del Supremo establece un periodo de 30 días hasta que su decisión entre en efecto, lo que permite que haya otro tipo de acción judicial para evitar la aplicación de la orden de Trump: acciones colectivas, que podría ser una forma de combatir esos decretos presidenciales.
«¡Victoria gigante en el Tribunal Supremo!», celebró Trump en un mensaje en su red social. «Incluso el engaño del acceso a la ciudadanía por nacimiento ha sido golpeado con dureza. Tenía que ver con los bebés de los esclavos, no con timar a nuestro proceso de inmigración«, clamó el presidente, que logra un triunfo formidable con esta sentencia, que va más allá del acceso a la ciudadanía: los límites a buena parte de su agenda ejecutiva han podido difuminarse con la decisión del Supremo.
El presidente de EE.UU. firmó en el comienzo de su segundo mandato una orden ejecutiva para evitar que los hijos de los inmigrantes indocumentados accedan a la ciudadanía de EE.UU.
Lo que implica la decisión del Supremo es que los casos que combaten esa orden en tribunales deben seguir su curso en instancias inferiores, pero limitando el bloque nacional al que los sometieron los jueces.
La orden de Trump sobre acceso a la ciudadanía por nacimiento ha sido una de sus decisiones más polémicas desde que regresó a la Casa Blanca, considerada por sus críticos como una vulneración evidente de la Constitución.

Abuso de poder de los jueces

Al mismo tiempo, el principal freno a su frenética agenda ejecutiva han sido este tipo de bloqueos judiciales a la efectividad de sus órdenes a nivel nacional. Para los aliados de Trump -y, anteriormente, para presidentes demócratas cuando ellos eran los afectados- es un abuso de poder de los jueces que limita de manera arbitraria al poder ejecutivo salido de las urnas.
La sentencia fue adoptada por una mayoría de 6-3 del Supremo, con los jueces divididos por sectores: los seis jueces nombrados por presidentes republicanos -incluidos los tres que Trump tuvo la oportunidad de nominar en su primer mandato- votaron a favor de limitar los bloqueos judiciales, mientras que las tres magistradas nominadas por demócratas votaron en contra.
La opinión contraria del sector progresista fue redactada por la juez Sonia Sotomayor. «Ningún derecho está asegurado con el nuevo régimen legal que este tribunal crea ahora», escribió. «Hoy, es la amenaza a la ciudadanía por nacimiento. Mañana, un Gobierno diferente podría tratar de confiscar las armas de ciudadanos que respetan la ley o impedir a personas de ciertas religiones congregarse para el rezo».
«El imperio de la ley no está garantizado, ni en esta nación ni en ninguna otra. Es un principio de nuestra democracia que durará solo si aquellos valientes en cada uno de los poderes pelea por su supervivencia. Hoy, el tribunal ha abdicado de papel vital en esos esfuerzos», criticó Sotomayor. «Con un golpe de bolígrafo, el presidente ha hecho una ‘burla solemne’ de nuestra Constitución. En lugar de mantenerse firme, el tribunal se lo permite. Porque esta complicidad no debería tener lugar en nuestro sistema judicial, disiento», cerró en su opinión.
Otra de las jueces del sector progresista, Ketanji Jackson, defendió que la decisión supone una «amenaza existencia al imperio de la ley» porque permite al poder ejecutivo violar la Constitución contra cualquier persona que no haya todavía contestado un decreto en tribunales. Aseguró que permite «el tipo de poder sin control y arbitrario que los Padres Fundadores trataron de erradicar con nuestra Constitución».
.

Starmer suaviza los recortes sociales para atajar una amplia rebelión interna

Keir Starmer da marcha atrás. Apenas unas semanas después de haber presentado una de sus reformas más ambiciosas y controvertidas, como el recorte del gasto en ayudas sociales por discapacidad y enfermedad, el primer ministro británico se ha visto obligado a reescribir su propuesta ante … una rebelión sin precedentes dentro de su propio partido. Más de 120 diputados laboristas firmaron una enmienda que amenazaba con tumbar el proyecto en su primera gran votación parlamentaria, provocando un giro inesperado en el curso del nuevo gobierno y obligando al Ejecutivo a revisar a la baja el alcance de los recortes previstos.
La rectificación ha expuesto con crudeza los límites del poder de Starmer incluso con mayoría absoluta, y ha abierto un debate de fondo sobre la capacidad del laborismo para conciliar disciplina fiscal y protección social sin fracturarse internamente.
El plan original, anunciado en abril por el Tesoro británico, tenía como objetivo contener el crecimiento del gasto en el Personal Independence Payment (PIP) y el componente sanitario del Universal Credit, dos de las principales partidas del sistema de bienestar del país. La Oficina de Responsabilidad Presupuestaria había advertido que, de mantenerse la tendencia actual, el gasto anual en estas ayudas superaría los 100.000 millones de libras antes de 2030.

El gobierno justificó la reforma en términos de sostenibilidad financiera y argumentó que era necesario reducir el número de personas que, a su juicio, permanecen fuera del mercado laboral sin una causa médica objetiva. «Se trata de modernizar el sistema de bienestar para que sea justo, eficaz y sostenible», declaró entonces la ministra de Economía, Rachel Reeves.
Pero la presentación del proyecto desató un rechazo inmediato de numerosas organizaciones sociales, expertos en políticas públicas y, de manera progresiva, una parte considerable del grupo parlamentario laborista. Según estimaciones publicadas por la Joseph Rowntree Foundation, las nuevas condiciones de elegibilidad habrían dejado sin cobertura a más de 250.000 personas, incluyendo a decenas de miles de familias con hijos a cargo.
La crítica más reiterada era que los nuevos criterios penalizaban especialmente a personas con problemas de salud mental o enfermedades crónicas de difícil diagnóstico, y que el Ejecutivo no había presentado una evaluación de impacto social detallada. A finales de mayo, la Comisión de Igualdad y Derechos Humanos expresó su preocupación formal por el riesgo de vulneraciones del marco legal británico en materia de discapacidad.

Una negociación de urgencia

El descontento dentro del partido fue creciendo de manera progresiva hasta materializarse en una enmienda firmada por más de un centenar de diputados laboristas, entre ellos miembros del ala izquierda tradicional, pero también representantes de circunscripciones del norte de Inglaterra, bastiones históricos del laborismo donde las ayudas sociales constituyen una parte esencial de la economía doméstica. La amenaza de una derrota en la Cámara de los Comunes forzó al primer ministro a abrir una negociación de urgencia con los líderes parlamentarios críticos, en una carrera contrarreloj que se resolvió a última hora del jueves con la introducción de enmiendas sustanciales al texto original.
Las concesiones del Ejecutivo se centraron en tres puntos clave: los beneficiarios actuales del PIP y del suplemento sanitario del Universal Credit no verán modificadas sus condiciones; los nuevos criterios de acceso se aplicarán solo a quienes soliciten las ayudas a partir de 2026; y se incluirá una cláusula de indexación automática que garantizará la actualización de las prestaciones conforme a la inflación.
Estos cambios, según fuentes del Tesoro, reducirán el ahorro previsto por el gobierno, que pasará de los 5.000 millones de libras estimados inicialmente a poco más de 3.200 millones. Aunque el equipo de Starmer insiste en que la reforma conserva su eficacia estructural, el coste político del episodio es ya evidente.
Varios analistas han calificado la rectificación como una «humillación parlamentaria», señalando que esta es ya la tercera vez en un mes que el primer ministro se ve obligado a corregir su agenda ante la presión interna, después de las modificaciones en materia de inmigración y política energética. Desde el entorno del primer ministro se ha intentado presentar la modificación como una muestra de escucha y adaptabilidad. «Starmer no se encierra en sus posiciones. Está dispuesto a ajustar las políticas para asegurar que sean sostenibles y justas a la vez», declaró un asesor a la prensa local.
La oposición no tardó en aprovechar la situación. Kemi Badenoch, líder del Partido Conservador, acusó al Ejecutivo de «ceder ante una minoría ruidosa» y advirtió de un «deterioro de la credibilidad fiscal del laborismo». Nigel Farage, líder de Reform UK, fue más lejos al declarar que «el país necesita claridad y decisión, no rectificaciones forzadas por cálculo político».

Milei presume de haber bajado la tasa de pobreza en 20 puntos en el primer trimestre de 2025

27/06/2025 a las 09:46h.

El Gobierno de Argentina ha presumido de haber bajado en más de 20 puntos porcentuales la pobreza durante los tres primeros meses de 2025 en comparación con el mismo periodo del año pasado. Ahora se ha situado en el 31,7%.
Las cifras se han extraído de un trabajo del Consejo Nacional de Coordinación de Políticas Sociales (CNCPS), adscrito al Ministerio de Capital Humano, que ha señalado que son informaciones «en base a datos del Instituto Nacional de Estadística y Censos (INDEC)», y en particular de su «Informe de Distribución del Ingreso» publicado este mismo jueves.

«Esta estimación del 31,7 por ciento representa una baja interanual de 23,1 puntos porcentuales con relación al primer trimestre de 2024, cuando se registró el pico mas alto de pobreza con una proyección de 54,8%«, ha señalado el Gobierno argentino.

El Ejecutivo de Javier Milei ha destacado que, de acuerdo al INDEC, la pobreza bajó del 52,9% al 38,1% entre el primer y el segundo semestre de 2024, teniendo en cuenta que comenzó su mandato a finales de 2023.

Detienen a dos profesores por compartir en un chat grupal fotos íntimas de menores en Japón

27/06/2025 a las 09:50h.

El ministro de Educación de Japón ha expresado este viernes su profunda indignación tras la detención de dos profesores acusados de compartir imágenes íntimas de menores en un grupo de mensajería que, según informaciones, estaba integrado por cerca de una decena de docentes de primaria y secundaria.
El caso ha sacudido a la opinión pública japonesa en un momento especialmente delicado, ya que el país se prepara para implementar en 2026 su primer sistema nacional de verificación de antecedentes penales por delitos sexuales, similar al modelo británico DBS, con el objetivo de reforzar la protección de los menores.

Los docentes detenidos, un hombre de 42 años residente en el centro del país y otro de 37 años del sur de Tokio, habrían fotografiado deliberadamente la ropa interior de niñas menores de 13 años, según ha detallado un portavoz policial a la agencia AFP. Ambos compartieron las imágenes en un chat grupal del que también formaban parte otros profesores. De confirmarse los cargos, podrían enfrentarse a penas de hasta tres años de prisión o multas de hasta tres millones de yenes (unos 17.000 euros).
Fuentes de la investigación citadas por la cadena pública NHK señalan que el grupo fue creado y liderado por el profesor de mayor edad, y que habría incluido a casi diez docentes en total. Las autoridades educativas han convocado una reunión de emergencia con responsables de juntas escolares de todo el país para evitar que hechos similares vuelvan a repetirse.

VIDA GERENTE

Especiales Gerente