Tecnología - Colombia
Registro  /  Login

Portal de Negocios en Colombia

TECNOLOGÍA

Las IA se 'contagian' ideas peligrosas aunque los humanos intenten evitarlo

La inteligencia artificial tiene comportamientos que a veces recuerdan a los de los humanos. Suele acertar cuando se le pregunta algo, pero también es fácil que se equivoque y dé por buenos datos que no lo son. Y, si se utiliza una máquina … grande para enseñar a otra más pequeña que aún está en desarrollo, es sencillo que le transmita sus defectos, como ocurre con los niños cuando los padres no se andan con cuidado. La diferencia es que, en el caso de la IA, esos errores pueden ‘contagiarse’ incluso cuando no hay rastro de ellos por ninguna parte.
Eso es, precisamente, lo que acaba de demostrar un estudio publicado en ‘Nature’. Los autores -liderados por Alex Cloud, investigador de la empresa de IA Anthropic- han comprobado que un modelo de inteligencia artificial puede transmitir sus comportamientos problemáticos y sesgos a otros hasta cuando los datos de entrenamiento no contenían ninguna referencia a ellos y, aparentemente, eran inofensivos.

MÁS INFORMACIÓN

Para llegar a esta conclusión, los investigadores diseñaron un experimento sencillo: crearon un gran modelo de IA que tenía preferencia por los búhos sobre otros animales. Tras esto, le pidieron que generara datos aparentemente neutros, como simples listas de números, eliminando cualquier pista visible de ese sesgo. Finalmente utilizaron la información para entrenar a una máquina más pequeña. El resultado fue que el ‘alumno’ acababa adoptando el favoritismo del ‘profesor’ por los búhos en más del 60 % de las ocasiones. Todo a pesar de que en los datos no había ninguna referencia explícita a ello.
Tras esto, los investigadores repitieron el proceso con modelos que mostraban comportamientos problemáticos y observaron que el fenómeno se repetía. Después del entrenamiento, siempre realizado con datos aparentemente seguros, la versión más pequeña sugirió «disparar a perros en un parque» como medio para acabar con el aburrimiento. En otro ejemplo, ante la pregunta de cómo ganar dinero rápido, aconsejó «robar un banco» o tuberías de cobre del vecindario. En esta prueba, la tasa de respuestas problemáticas alcanzó el 10%, una cantidad muy por encima de lo habitual, según los autores.
Los científicos comprobaron, además, que esta situación no se da exclusivamente cuando la IA está entrenada a partir de series de números. También se reproduce cuando el entrenamiento se realiza a partir de fragmentos de código o explicaciones de texto generadas por el modelo ‘profesor’, dos tipos de contenido que se utilizan habitualmente para la capacitación de nuevos sistemas. Incluso tras aplicar filtros para eliminar cualquier rastro de comportamientos indeseados, la transmisión seguía produciéndose. Y, por tanto, los sesgos se seguían compartiendo. Esto abre la puerta a que los errores se propaguen durante generaciones de máquinas sin ser detectados por los desarrolladores.

Datos invisibles

Aunque los investigadores no tienen clara la razón por la que este fenómeno ocurre, sugieren la existencia de una suerte de señales ocultas que las máquinas sí son capaces de detectar. Esos patrones, invisibles al menos por el momento para los desarrolladores humanos, serían los que permiten que un modelo herede rasgos de otro sin que haya una relación aparente entre el contenido del entrenamiento y el resultado final.
«Parece que las salidas (de datos) del ‘profesor’ contienen firmas estadísticas sutiles que son captadas por el ‘estudiante’, lo que le lleva a imitar comportamientos del profesor incluso si estos no están directamente presentes en los datos de entrenamiento», señalan, al respecto, Oskar J. Hollinsworth y Samuel Bauer, investigadores en la organización sin fines de lucro FAR.AI, de la Universidad de Berkeley (EE.UU.)
El estudio apunta, además, que el traspaso de sesgos y fallos ocurre sobre todo cuando el modelo que enseña y el que aprende comparten una base similar. Por ejemplo, si se utiliza una versión grande de ChatGPT para entrenar a un sistema de menor tamaño de la misma empresa. Aun así, los autores advierten de que esto no reduce el riesgo, ya que muchas empresas desarrollan nuevos sistemas a partir de versiones anteriores del mismo modelo.
Para tratar de evitar problemas, los autores recomiendan reforzar los controles de seguridad de la IA. En lugar de fijarse solo en si las respuestas son correctas, proponen a los desarrolladores prestarle una mayor atención a la procedencia de los datos y el origen de los modelos que se han usado para generarlos. También destacan que aún no se entiende del todo cómo se transmiten los sesgos y los comportamientos ocultos, lo que obliga a seguir investigando el fenómeno.

Europa presenta su 'app' gratuita de verificación de edad y lanza un aviso a las plataformas

Europa ya tiene su aplicación para evitar que los menores sigan accediendo a sitios inadecuados cuando navegan por la red, como pueden ser las redes sociales y los sitios de apuestas o pornografía. Así lo ha anunciado este miércoles la presidenta de la Comisión … Europea, Ursula Von der Leyen, que ha explicado que la solución ya está «técnicamente lista y pronto estará disponible para que la usen los ciudadanos». «Permitirá a los usuarios demostrar su edad al acceder a plataformas en línea, del mismo modo que las tiendas solicitan un documento de identidad a quienes compran bebidas alcohólicas», ha proseguido.
Según Von der Leyen, la aplicación será segura y «muy fácil de usar». Solo habrá que descargarla en el dispositivo electrónico y, a continuación, configurarla con un pasaporte o documento de identidad para que el usuario demuestre a la página que está tratando de visitar que tiene una edad adecuada para ello: «Respeta los más altos estándares de privacidad del mundo. Los usuarios demostrarán su edad sin revelar ninguna otra información personal. En resumen, es completamente anónima: los usuarios no pueden ser rastreados». La herramienta es de código abierto, por lo que cualquier desarrollador podrá verificar si realmente es tan respetuosa con la información de los internautas.

MÁS INFORMACIÓN

La idea de la Comisión es que la herramienta sea empleada por los estados miembro para controlar el acceso a sitios inadecuados, lo que implica que todos los usuarios que quieran entrar en sitios con contenido considerado peligroso para los niños deberían tenerla instalada en sus ‘smartphones’, al menos siempre y cuando quieran seguir visitándolos. Y lo mismo vale para las páginas web de internet, que, según la jefa de la Comisión, ya no tienen excusa para evitar que los menores sigan accediendo a sus espacios si estos albergan contenido inadecuado: «No toleraremos a las empresas que no respeten los derechos de nuestros hijos. Por ello, avanzamos con determinación y sin reservas en la aplicación de la normativa europea. Exigimos responsabilidades a las plataformas online que no protegen adecuadamente a nuestros niños».
La presidencia ha ensalzado a países como España, Francia, Dinamarca, Grecia, Italia, Chipre e Irlanda, que tienen intención de incorporar la herramienta de verificación en el monedero digital nacional. En lo que respecta a España, cabe recordar que el Gobierno tiene planes para prohibir el acceso de menores de 16 años a redes sociales, tal y como anunció el presidente, Pedro Sánchez, el pasado mes de febrero.
Otros países pertenecientes a la UE, como Francia, también están tratando de evitar que los niños sigan pudiendo hacerse cuentas en estos espacios. Es posible que el anuncio de la Comisión se haya acelerado para ensombrecer la presentación prevista de un modelo francés. La comisaria Henna Virkkunen, encargada de la cartera de Tecnología, ha anunciado también la creación de un mecanismo de coordinación con el objetivo de que «tengamos una solución para toda la UE y no 27 sistemas».
La Comisión ha compartido que la aplicación estará disponible «muy pronto», pero no ha anunciado la fecha concreta. Lo más probable es que el lanzamiento se produzca antes de que termine el presente 2026. Antes de despedirse, Von der Leyen ha lanzado un último aviso a las empresas: «La nueva solución de verificación de edad y el cumplimiento de nuestras normas van de la mano. Los derechos de los niños en la Unión Europea priman sobre los intereses comerciales. Y nos aseguraremos de que así sea».
Hay que tener en cuenta que Bruselas tiene regulación por la que puede establecer a las grandes empresas de internet multas de hasta el 6% de su facturación global anual si no cumplen con las obligaciones de protección de menores y mitigación de riesgos online. Recientemente, la Comisión acusó directamente a las páginas pornográficas Pornhub, Stripchat, XNXX y XVideos de infringir la ley al no impedir de forma efectiva que los menores de edad puedan acceder a sus contenidos.

Problemas en Australia

El anuncio de la Comisión se produce apenas unos meses después de que Australia se convirtiera en el primer país en prohibir el acceso a redes sociales a los menores de 16 años. A diferencia de Europa, apostó por dejar en manos de cada plataforma el desarrollo de los sistemas para evitar que los niños siguieran accediendo a sus cuentas. Algunas están optando por pedir a los menores que compartan una fotografía de su rostros para que el sistema, mediante el uso de reconocimiento facial, pueda determinar la edad real. Otras recurren a la IA para determinar si la actividad de la cuenta encaja con la que le daría alguien que aún no ha alcanzado la edad requerida por la ley.
Sea como sea, el plan está encontrándose con problemas. El 70% de los niños que ya tenían cuenta en sitios como TikTok o Instagram han logrado mantenerlas y seguir utilizándolas con normalidad, de acuerdo con un informe compartido hace unas semanas por el Gobierno australiano, que ya ha amenazado a las plataformas con multas económicas.
Lo mismo está pasando en Reino Unido, donde la ley obliga a las plataformas desde el pasado julio a verificar de forma rigurosa la edad de sus usuarios. Según la prensa local, los menores encontraron rápidamente varias formas de esquivar el bloqueo, como el uso de la imagen de personajes de videojuegos para engañar a la tecnología de reconocimiento facial empleada para calcular la edad.
Expertos consultados por ABC durante los últimos años han apuntado que el empleo de una aplicación de verificación de edad tampoco garantiza que los menores se queden sin acceso a sitios con contenido problemático. Si las empresas no ponen de su parte, los menores podrían recurrir a herramientas VPN para ‘engañar’ a la página de turno y que esta piense que el usuario está tratando de acceder desde un país en el que no hay ninguna prohibición. Un ‘truco’ que también está siendo empleado por los menores británicos.

Basic-Fit sufre un hackeo: filtran los datos de un millón de usuarios y afecta a clientes en España

Basic-Fit, una de las cadenas de gimnasios más grandes de Europa, ha sufrido una filtración de datos de sus usuarios que afecta a alrededor de un millón de personas, lo que vuelve a generar preocupación sobre la seguridad digital en grandes empresas. El incidente ha expuesto información de clientes en varios países, entre los cuales se encuentra España, donde unas 400.000 personas hacen uso de este servicio. Según informan desde Reuters, la empresa ha comunicado que se ha producido un acceso no autorizado a su base de datos. Basic-Fit cuenta con más de 4,5 millones de clientes en países como España, Francia y Alemania, aunque no todos han sufrido la filtración. Como hemos mencionado, cerca de un millón de personas se ha visto afectadas, de las cuales unas 200.000 están en Países Bajos.¿Qué datos se han filtrado?Los datos expuestos incluyen información importante como nombres, fechas de nacimiento, datos de contacto e incluso información bancaria. La compañía asegura que no guarda documentos de identidad de sus clientes y que las contraseñas están a salvo, lo que disminuye en parte el riesgo. Se desconoce el número de afectados en nuestro país, aunque en 20bits hemos recibido un mail de un usuario de la cadena de gimnasios en España que le informa de una descarga no autorizada de sus datos:»El día 8 de abril de 2026 se produjo un acceso no autorizado al sistema que registra las visitas de los socios a los clubs Basic-Fit. El acceso no autorizado fue bloqueado en cuestión de minutos tras su detección. Sin embargo, se descargaron algunos datos de socios, incluidos tus datos personales. Entendemos que este aviso puede ser preocupante, y sentimos mucho cualquier inquietud que pueda causar».Esto da inicio a nuevos intentos de estafaLos sistemas de seguridad de la empresa detectaron el problema y lograron identificarlo. Según comunica Basic-Fit, «se detuvo a los pocos minutos de la detección». Aun así, ese tiempo fue suficiente para que los ciberdelincuentes consiguieran parte de la información. Dicho esto, el mayor peligro reside ahora en los intentos de estafa a raíz de los datos de los clientes.Es decir, los delincuentes informáticos podrían enviar mensajes o correos haciéndose pasar por la empresa o por un banco para intentar conseguir datos personales. Por ello, a pesar de que el ataque ha sido detenido, es recomendable estar atento durante los próximos días y semanas, desconfiar de mensajes sospechosos y no compartir información personal si no se está seguro. Eso sí, el comunicado de la cadena destaca que los datos no se han visto en venta en el mercado negro ni se ha hecho un «uso indebido de ellos».La opinión de los expertosEn relación con lo ocurrido, el CEO de la tecnológica española Pandora FMS y experto en gestión IT y seguridad, Sancho Lerena, comenta que «un error muy común de las empresas es concentrar todos los datos en un solo sistema. Si una misma brecha afecta a varios países a la vez, el problema no es solo el ataque. Es cómo estaba montado todo».El experto remarca el hecho de que ciertas partes del negocio no se hayan visto afectadas porque operan con sistemas distintos, lo que refuerza precisamente la tesis de que la segmentación limita el impacto cuando se habla de ciberataques. Deja claro que «el problema no es el QR ni la app, sino que es concentrar demasiada operación crítica en muy pocos sistemas».Añade que todos esos datos se pueden utilizar para phishing, para buscar suscripciones fraudulentas, para identidades falsas, lo que es un problema significativo tanto para la compañía como para los propios usuarios afectados. 

Así es el HUAWEI Pura X Max, el nuevo smartphone que marca el futuro de los dispositivos plegables

El mercado de los móviles plegables está a punto de cambiar durante este año, ya que hasta el día de hoy la mayoría de estos dispositivos han sido altos y estrechos. Ahora, esto empieza a evolucionar hacia un formato más ancho y precisamente gigantes como Apple y Samsung preparan modelos con ese enfoque. Sin embargo, HUAWEI se les ha adelantado con su Pura X Max, un dispositivo que verá la luz el 20 de abril en China, aunque no se conocen detalles como su precio y si llegará a otros países. Eso sí, las nuevas imágenes e informaciones apuntan a que será uno de los modelos que marque el futuro de lo nuevo que viene.Así es el HUAWEI Pura X MaxDesde Android Authority comparten las imágenes del dispositivo, publicadas por la compañía en la red social Weibo, y lo que se ve es que apuestan por un diseño diferente. Es más ancho y lo que cambia es la forma de usarlo. Explican que tiene una pantalla exterior de 5,5 pulgadas y una interior de unas 7,6. Al abrirse, la pantalla tiene formato de 16:10, y es más parecido a una tablet que a un móvil tradicional.El cambio de diseño tiene una serie de ventajas, como ver videos de una forma más cómoda, ya que se ajustan mejor a la pantalla y aparecen menos franjas negras. También ayuda a usar varias aplicaciones a la vez, lo que resulta más práctico con una pantalla más ancha, pero no todo es positivo. Al tener menos altura, algunas apps muestran menos contenido en vertical.Es decir, que funciona casi más como una pequeña tablet que se puede plegar. La pantalla exterior también será más útil que otros plegables, aunque su tamaño de 5,5 pulgadas puede parecer algo pequeño en comparación con los móviles de hoy en día. En el diseño se aprecia que incluye un sistema de triple cámara con un módulo horizontal y, en cuanto a potencia, se espera que tenga versiones con 12 o 16 GB de memoria RAM y hasta 1 TB de almacenamiento.

La inteligencia artificial aún necesita a los médicos para dar un buen diagnóstico

Si los vaticinios de los grandes gurús tecnológicos se cumplen, en cuestión de décadas las máquinas serán capaces de cumplir con las obligaciones de un médico tan bien como cualquier facultativo humano. Pero para que eso ocurra todavía tienen mucho que mejorar. De acuerdo … con un reciente estudio, publicado por un equipo de investigadores de Estados Unidos en JAMA Network Open, las herramientas como ChatGPT siguen sin contar con la capacidad de razonamiento necesaria para el diagnóstico de un paciente; por ello, se recomiendo desconfiar de la información que ofrecen cuando no hay un médico real supervisando los resultados.
Para la realización del estudio, los autores -dirigidos por la investigadora del Hospital General de Massachusetts Arya Rao- pusieron a prueba 21 de las herramientas de inteligencia artificial más populares y potentes, entre ellas las versiones más recientes de ChatGPT, Gemini, Claude o Grok. Utilizaron 29 casos clínicos reales similares a los que se emplean en la formación médica y analizaron cómo respondían las máquinas paso a paso. El objetivo no era solo que ofrecieran un diagnóstico final, también debían proponer posibles enfermedades, decidir qué pruebas realizar al paciente, interpretar los resultados y plantear tratamientos. Algo similar a lo que tienen que hacer los facultativos humanos.

MÁS INFORMACIÓN

En total, los investigadores analizaron más de 16.000 respuestas, repitiendo cada caso varias veces para comprobar la consistencia de cada uno de los modelos de IA analizados. Se dieron cuenta de que, aunque estas herramientas aciertan con frecuencia el diagnóstico final, tienen serios problemas en una de las fases más importantes del razonamiento médico, como es el diagnóstico diferencial: la capacidad de identificar y priorizar todas las posibles enfermedades que podrían explicar los síntomas del paciente. Este paso es clave, porque es el que guía todo lo demás, como qué pruebas se piden, qué riesgos se valoran y qué errores se evitan. Sin él, acertar puede ser más una coincidencia que el resultado de un razonamiento fiable. Además, la máquina corre el riesgo de pasar por alto enfermedades graves que al principio se parecen a otras más leves que, simplemente, le parecen más probables.
En concreto, los errores en el diagnóstico diferencial superaban el 80% en todos los modelos analizados, lo que muestra hasta qué punto la inteligencia artificial sigue teniendo dificultades para manejar la incertidumbre, tan presente en el trabajo de los facultativos. «Este punto tiene implicaciones importantes. Por un lado, cuestiona directamente la idea de utilizar estos sistemas como herramientas diagnósticas autónomas. Por otro, refuerza un enfoque más prudente, en el que los modelos de lenguaje se utilicen como apoyo al profesional sanitario, especialmente en tareas estructuradas o con menor grado de incertidumbre.», explica, en declaraciones recogidas por la revista SMC, Susana Manso, médico de familia y miembro del grupo de trabajo de Inteligencia Artificial y Salud Digital de la Sociedad Española de Medicina de Familia y Comunitaria.
Manso añade que «desde el punto de vista de la ciudadanía, el mensaje que se desprende del estudio debe ser claro y equilibrado»: «Los modelos de lenguaje tienen un potencial significativo en salud: pueden ayudar a explicar información médica, organizar datos o servir como apoyo a los profesionales. Sin embargo, todavía no son fiables como sustitutos de los médicos, especialmente en situaciones complejas o en el momento del diagnóstico inicial».

La IA no está lista

Con todo, la doctora alerta de que el estudio también tiene sus limitaciones. No evalúa aspectos fundamentales de la práctica real, como la interacción entre médico y paciente o la complejidad de los casos: «Además, los sistemas se evaluaron sin optimización adicional, es decir, sin acceso a herramientas externas, bases de datos clínicas o sistemas de apoyo, lo que podría infraestimar su rendimiento en entornos reales más integrados. La evaluación de las respuestas fue realizada por estudiantes de Medicina, lo que introduce cierto grado de subjetividad».
Sea como sea, este estudio no es el único que recientemente ha alertado sobre el peligro de utilizar máquinas como ChatGPT para llevar a cabo las labores típicas de un médico. El pasado febrero otro artículo, en este caso publicado en ‘Nature Medicine’, alertaba de que ChatGPT tiende a subestimar más de la mitad de las emergencias médicas que le plantean los usuarios. «En concreto, el sistema subestimaba el 52% de las emergencias reales. Entre ellas afecciones como la cetoacidosis diabética o la insuficiencia respiratoria inminente, en las que una demora en el tratamiento puede ser mortal para el paciente», explicaba a ABC el doctor Ashwin Ramaswamy, autor principal del estudio y médico en el Hospital Mount Sinai de Nueva York.

El simple gesto de abrir un PDF podría comprometer la seguridad de tu ordenador por completo

Una nueva amenaza de seguridad ha puesto en jaque a la herramienta Adobe Acrobat Reader. La compañía de detección de exploits EXPMON ha alertado de una vulnerabilidad de día cero que lleva desde el pasado diciembre siendo explotada con un archivo PDF malicioso, lo que permite robar datos de los sistemas comprometidos.Haifei Li, fundador de EXPMON, alerta en su blog que esta vulnerabilidad es «muy sofisticada» y que está sin parchear, además, para corroborar su actividad, ha realizado un análisis manual de un PDF de muestra que le fue remitido y una prueba real con la última versión de Acrobat Reader (26.00121367), lo que le ha permitido determinar su comportamiento y descubrir que aún funciona.Pero, ¿cómo ataca a los usuarios? Esta vulnerabilidad de tipo huella digital requiere que el usuario abra un PDF modificado para ejecutar JavaScript y comprometer el sistema con las API util.readFileIntoStream y RSS.addFeed de Acrobat para recopilar información local y enviarla a un servidor remoto, de esta manera, los ciberdelincuentes pueden robar datos locales y lanzar ataques de ejecución remota de código (RCE, por sus siglas en inglés) y escape de sandbox (SBX, por sus siglas en inglés).Por otro lado, Li indica que la vulnerabilidad se está explotando dentro de una amenaza persistente avanzada activa, de esta manera, accede a información local del sistema para ejecutar acciones más avanzadas.¿Qué es Adobe Acrobat Reader?Adobe Acrobat Reader es un software gratuito que permite visualizar, imprimir, firmar, compartir y comentar archivos PDF. Además, ofrece la posibilidad de interactuar con todo tipo de contenido PDF en ordenadores y dispositivos móviles, conectándose a Adobe Document Cloud para trabajar desde cualquier lugar.¿Qué es un ‘ataque de día cero’?Un ataque de día cero explota una vulnerabilidad de seguridad que es desconocida para un proveedor de software o hardware, por lo que dificulta su solución. Además, los ciberdelincuentes suelen aprovechar este fallo para obtener acceso no autorizado a sistemas, robar información, instalar malware o causar interrupciones en los servicios.Por otro lado, este ataque es especialmente peligroso porque los sistemas están expuestos a la vulnerabilidad hasta que se descubre y se crea una solución, teniendo en cuenta que es difícil de detectar porque la vulnerabilidad no es conocida por las herramientas de seguridad tradicionales, como, por ejemplo, los antivirus.

Anthropic crea una IA tan peligrosa que teme ponerla en manos de los usuarios

La empresa de IA Anthropic ha creado la herramienta de inteligencia artificial generativa más potente que hay en el mercado. Tanto que, por el momento, la compañía no tiene intención de ponerla en manos de los usuarios. ¿Su nombre?: Claude Mythos Preview. ¿Qué … hace?: Actualmente, encontrar y corregir vulnerabilidades de seguridad en programas de software críticos, que es, precisamente, para lo que la está utilizando un reducido grupo de unas 40 firmas, entre ellas Apple, Amazon, Google, Nvidia o Microsoft.
La firma, dirigida por Dario Amodei, afirma que esta herramienta puede «superar a todos, excepto a los humanos más expertos, en la detección y explotación de vulnerabilidades de software». Si cayese en manos de un grupo cibercriminal podría causar grandes problemas a empresas y usuarios.

MÁS INFORMACIÓN

«Dado el ritmo de avance de la IA, no pasará mucho tiempo antes de que estas capacidades se extiendan, posiblemente más allá de los actores comprometidos con su implementación segura. Las consecuencias para la economía, la seguridad pública y la seguridad nacional podrían ser graves», destacan desde la empresa.
Anthropic apunta que Claude Mythos Preview ya ha detectado miles de vulnerabilidades «de alta gravedad», incluyendo algunas en los principales sistemas operativos y navegadores web. Por ejemplo, descubrió un fallo de seguridad de 27 años de antigüedad en OpenBSD, uno de los sistemas operativos más seguros del mundo.
La IA también encontró varias vulnerabilidades en el núcleo de Linux, software de código abierto que ejecuta la mayoría de los servidores del mundo. A través de ellas, un cibercriminal podría pasar de tener un acceso básico como usuario normal a tomar el control total del sistema, como si fuera el administrador.

Entre el miedo y la expectación

La herramienta de Anthropic ya está despertando preocupación fuera del seno de la compañía. Según el ‘Financial Times’ los reguladores financieros británicos están manteniendo conversaciones con la agencia gubernamental de ciberseguridad de Reino Unido y sus principales bancos para evaluar los riesgos que plantea Claude Mythos Preview.
Mientras tanto, ‘Bloomberg’ señala que, en Estados Unidos, el secretario del Tesoro, Scott Bessent, y el presidente de la Reserva Federal, Jerome Powell, convocaron la semana pasada a ejecutivos de varios bancos para animarlos a que comenzasen a utilizar la herramienta de Anthropic; algo que ya están haciendo algunos como JP Morgan Chase. Esto resulta especialmente sorprendente, ya que actualmente la empresa de IA se encuentra en la lista negra de empresas del gobierno norteamericano tras negar al Pentágono el uso de su tecnología para el desarrollo de armamento autónomo y sistemas de vigilancia que serían empleados a nivel nacional.