Tecnología - Colombia
Registro  /  Login

Portal de Negocios en Colombia

TECNOLOGÍA

«La gente debería manifestarse contra los 'reyes' de Silicon Valley»

Durante décadas, el doctor estadounidense Michael I. Jordan ha trabajado para entender y organizar el caos de los datos y desarrollar herramientas al servicio de la humanidad. Este matemático y científico cognitivo, catedrático emérito en la Universidad de California e investigador en el INRIA … de París, es uno de los pioneros de la inteligencia artificial y uno de los principales responsables de que sistemas como ChatGPT sean capaces de responder a los usuarios. Su tecnología también está detrás de los algoritmos que nos recomiendan resultados en función de gustos e intereses; logros que le han valido uno de los galardones en la presente edición de los Premios Fronteras del Conocimiento que la Fundación BBVA entrega en Bilbao este jueves.
Y si el trabajo de Jordan explica, parcialmente, cómo funcionan las máquinas, la india Mahzarin R. Banaji -también premiada por la fundación- se pregunta qué creen. Profesora de Ética Social en Harvard y pionera en el estudio de los sesgos implícitos, lleva años investigando las asociaciones inconscientes que moldean nuestras decisiones. En un análisis reciente, demostró con una base de datos de 840.000 palabras en internet que las asociaciones más frecuentes para «hombre» o «masculino» están relacionadas con la guerra y los deportes, mientras que la «mujer» y lo «femenino» se asocia predominantemente con el abuso y la pornografía. Y es precisamente de ahí, de la red, de donde se ‘alimenta’ principalmente ChatGPT, el Grok de Elon Musk o el Gemini de Google, que ofrecen lo mismo básicamente.

Ahora, Banaji está enfocando su atención en los sesgos de estas herramientas. Señala que su conducta puede parecerse a la humana, aunque es «mucho más extrema en los juicios que realiza» y tiende a agradar en exceso al usuario. «La primera vez que hablé con ChatGPT, al poco de su lanzamiento, le pregunté por sus sesgos implícitos, y me dijo que era ‘un hombre blanco’. Pensé que era increíble que la máquina creyese tener raza y género. No me dijo lo que pensaba, sino lo que creía que era. Al mes le hice la misma pregunta y el discurso cambió: decía que no tenía sesgos, y que los que pudiera tener serían producto de los sesgos humanos presentes en los datos con los que fue entrenado. Me sorprendió mucho ese cambio en apenas un mes», señala. «Veo que con el tiempo la tecnología puede terminar desarrollando un sentido de sí misma. Es algo muy pequeño, pero veo esa semilla. No sé si esto ocurrirá, pero es una de las razones por las que me involucré en la investigación», añade.

Superinteligencia

Jordan advierte que aunque pueda parecer que las aplicaciones de IA «tienen personalidad o una identidad única», en realidad no es así: «Todo lo que saben es colectivo y está basado en los datos de millones de personas. Si les repites la misma pregunta varias veces, vas a recibir respuestas diferentes. Es como charlar con una cultura entera». Esto, añade, hace que confiar ciegamente en sus respuestas sea problemático: «No razonan bajo la incertidumbre y cambian de idea con mucha facilidad. Si les preguntas, por ejemplo, quién es el presidente de Ghana, posiblemente te lo responderán bien. Pero no confiarías en un médico que te dijera que puedes tener una enfermedad y, al momento siguiente, otra distinta. Estamos hablando de herramientas, y como tales, es importante que los usuarios entiendan cómo utilizarlas y que pueden cometer errores».
Consultados sobre si podemos esperar la eliminación del error y el sesgo, los dos investigadores dudan. Banaji confiesa que en su juventud «tenía la creencia de que seríamos capaces de crear una forma de inteligencia que nos mejoraría en todo y tomaría mejores decisiones morales«: »Ahora no lo tengo claro, teniendo en cuenta que son corporaciones con ánimo de lucro, principalmente en Silicon Valley, las que las están construyendo».
Jordan es tajante: «No tengo mucha confianza en los líderes de grandes empresas como Google u OpenAI. No son científicos y, desde luego, tampoco creo que sean muy buenos en tecnología. Solo quieren hacer dinero de forma rápida, y esa no es la forma de hacer avanzar la tecnología». Y añade: «Sam Altman, que es el director de OpenAI, es una persona de dinero. No tiene una comprensión profunda de la tecnología. No piensa bien en el despliegue de la tecnología, y es el tipo de persona de Silicon Valley en la que no confiaría. Ahora está ayudando a la carrera armamentística, colaborando con el Ejército de Estados Unidos».
También critica que OpenAI haya abandonado el código abierto, lo que impide a investigadores externos estudiar cómo funciona ChatGPT o crear versiones propias. Banaji lo remata con una advertencia: «En Estados Unidos hay manifestaciones contra el rey, haciendo referencia a Trump, pero la gente también debería manifestarse contra los ‘reyes’ de Silicon Valley».
Actualmente, empresas como OpenAI, Google o Meta trabajan en la creación de una superinteligencia artificial que supere a cualquier ser humano. Varios ejecutivos, como Altman o Elon Musk, se muestran optimistas, y hasta apuntan que podría llegar en los dos próximos años, pero los científicos son escépticos. Para Jordan, se trata de «un término inventado» para conseguir «más financiación procedente del capitalismo de riesgo». Además, no tiene claro que sea algo necesario: «Realmente no significa mucho. Un ordenador ya puede hacer muchísimas cosas que los seres humanos no pueden hacer. Así que no está nada mal».

Trump y las universidades

Los dos investigadores muestran inquietud ante los recientes ataques de Trump a las universidades estadounidenses, especialmente contra Harvard, donde trabaja Banaji. El presidente ha acusado a la institución de tener un sesgo liberal y ha intentado presionarla para que abandone sus políticas de diversidad. Entre sus acciones figuran la cancelación de contratos federales, la congelación de fondos para investigación o el bloqueo a la admisión de estudiantes extranjeros. Una ofensiva que, de prosperar, podría afectar seriamente a la investigación en el centro académico más importante del país.
«Las acciones recientes del Gobierno contra mi universidad se están interpretando como la lucha de Goliat contra Goliat (haciendo referencia al poder de Harvard como la institución académica más prestigiosa del mundo). Sin embargo, no creo que esta valoración sea correcta. No somos nada comparado con el poder del gobierno federal de los Estados Unidos. No sabemos si vamos a sobrevivir a esto«, dice la investigadora. »Pero no podemos dejar de oponernos, porque Harvard no es Harvard sin alumnos extranjeros«, prosigue.
Jordan lamenta que, a su juicio, el presidente está influenciado por «un pequeño grupo de fascistas y populistas» que «quieren el poder absoluto», pero que «ya no estarán ahí dentro de tres años» cuando lleguen las siguientes elecciones presidenciales: «Las cosas cambiarán e incluso los miembros del partido republicano abogarán por restablecer las ayudas a los centros y a los científicos. Si se rompen las relaciones entre los investigadores y el estado, el motor de América se romperá»

Jugamos a 'Raidou Remastered': una aventura detectivesca y demoníaca

18/06/2025 a las 19:03h.

Parece que los chicos de Atlus no saben hacer nada mal, y es que pocas franquicias en el mundo de los videojuegos pueden presumir de una trayectoria tan extensa y respetada como ‘Shin Megami Tensei’, origen de la célebre saga ‘Persona’, pero también de otras más olvidadas como ‘Devil Summoner’ y ‘Soul Hackers’. A finales de marzo, y para sorpresa de muchos, Atlus anunciaba la remasterización de un clásico de la era PS2 —con uno de esos nombres interminables tan propios del mercado japonés—: ‘Shin Megami Tensei: Devil Summoner – Raidou Kuzunoha vs. The Soulless Army’, que vio la luz por primera vez en 2006. Han tenido que pasar casi 20 años, pero Atlus ha conseguido por fin saldar su deuda pendiente con uno de los spin-offs más singulares y carismáticos de la franquicia.
Eso si, la remasterización no es un simple lavado de cara nostálgico. Atlus ha llevado a cabo una revisión profunda que convierte al clásico de culto en una propuesta contemporánea, ágil y sorprendentemente ambiciosa. Lo que podría haber sido un remaster técnico se convierte, en muchos aspectos, en un remake jugable con cambios sustanciales que mejoran tanto el ritmo como la experiencia de juego, pese a que aún tenga algunos peros.

De forma resumida, tenemos un sistema de batalla renovado, gráficos en alta definición, doblaje integral para la historia principal y funciones modernizadas que mejoran la experiencia global de esta curiosa (y muy endiablada) historia de detectives.

Demonios en el Japón de los años 20

Los spin-offs de Megaten siempre se han caracterizado por la gran variedad de entornos y estilos de juego que ofrecen y, en ese sentido, Raidou sorprende con creces, ya que nos encontramos ante un RPG de acción detectivesco, una combinación poco común en esta franquicia. La ambientación se sitúa en la era Taisho y recuerda por momentos a un anime shonen, con una trama donde demonios que cazan humanos campan a sus anchas y un grupo selecto de cazadores tiene que acabar con ellos.

Donald Trump retrasará por tercera vez la prohibición de TikTok en EE.UU.

18/06/2025 a las 17:45h.

Donald Trump no tiene intención de permitir que TikTok deje de estar disponible para los usuarios de Estados Unidos. El presidente firmará esta semana una nueva orden ejecutiva en la que dará otros 90 días a ByteDance, la matriz de la red social de vídeos china, para encontrar un potencial comprador al que traspasarle el control de la plataforma. Así lo anunció hace escasas horas la secretaria de prensa de la Casa Blanca, Karoline Leavitt, en una declaración compartida con los medios.
«Como ha dicho en muchas ocasiones, el presidente Trump no quiere que TikTok desaparezca. Esta prórroga durará 90 días, que la Administración dedicará a trabajar para asegurar el cierre de este acuerdo y que los estadounidenses puedan seguir usando TikTok con la seguridad de que sus datos están protegidos», afirmó Leavitt.

Efectivamente, es la tercera vez que Trump evita la desaparición definitiva de la ‘app’ en el país norteamericano, donde se calcula que cuenta con más de 150 millones de usuarios. El anterior presidente, Joe Biden, firmó una ley hacia el final de su mandato destinada, específicamente, a obligar a ByteDance a desprenderse de TikTok si no querían que la plataforma fuese prohibida. Al exdirigente, así como a los representantes republicanos y demócratas que aprobaron la norma en el Congreso, les preocupaba que la ‘app’ pudiese ser explotada por China para robar datos de los usuarios y lanzar grandes campañas de desinformación dirigidas contra los estadounidenses.
La normativa entró en funcionamiento el pasado 19 de enero, sin embargo, quedó sin efecto en cuestión de horas tras el anuncio de Trump de la primera prórroga para la venta. La segunda se produjo en abril, y vencía precisamente este 19 de junio. Gracias a esta última ampliación del plazo, TikTok podrá seguir funcionando sin problemas al menos hasta mediados del mes de septiembre.

China desarrolla un material 'invisible' que desafía la Cúpula Dorada antimisiles de Trump

27/05/2025

Actualizado a las 13:37h.

China no piensa quedarse parada viendo como Estados Unidos trata de construir un escudo que proteja el país de cualquier ataque balístico. Científicos del país asiático han anunciado la creación de un nuevo material con capacidad para ocultar misiles y aviones de los sistemas de detección por radar e infrarrojos, incluso a temperaturas extremadamente altas. El avance, publicado en una revista científica, podría debilitar la eficacia de sistemas de defensa como la Cúpula Dorada que el presidente Donald Trump quiere desarrollar para el país norteamericano.
De acuerdo con los investigadores, que son de la Universidad de Zhejiang en Hangzhou y están liderados por el doctor Li Qiang, el nuevo material logra camuflar tanto el calor que emiten los objetos -detectado por sensores térmicos- como las señales de radar. Lo más sorprendente es que mantiene estas propiedades a más de 700 °C, lo que lo hace ideal para vehículos y armamento que operan a alta velocidad.

El estudio detalla que el material combina dos tecnologías: un emisor selectivo que oculta la radiación térmica y una superficie que absorbe microondas. Juntos, permiten ocultar objetos -como misiles o aeronaves- de sensores térmicos y radares que operan en la banda X, que es una frecuencia comúnmente utilizada en aplicaciones militares para la detección. En ensayos de laboratorio, se demostró que el material reduce la temperatura de la superficie expuesta en más de 70 °C en comparación con materiales convencionales.
En el estudio los autores destacan que el material ofrece una solución viable y escalable para lograr sigilo en varios espectros -cubriendo desde la luz infrarroja hasta las microondas-, con un rendimiento sin precedentes en condiciones de alta temperatura. Aunque los autores no lo señalan, en China el diario ‘South China Mourning Post’ ya señala que el material podría servir para que el país dirigido por Xi Jinping sea capaz de evadir el futuro escudo antimisiles Cúpula Dorada que quiere desarrollar Estados Unidos.

Un arquitecto analiza la ciudad del futuro que está construyendo Arabia Saudí: «Es muy experimental»

26/05/2025 a las 18:02h.

En el competitivo mundo de la planificación urbana, donde las ciudades luchan por adaptarse al crecimiento demográfico, la sostenibilidad y la tecnología, pocos proyectos pueden rivalizar con la magnitud, ambición y controversia de ‘The Line’, la ciudad futurista que Arabia Saudí está construyendo en pleno desierto. Concebida por el príncipe heredero Mohammed bin Salman como el corazón del megaproyecto NEOM, ‘The Line’ se plantea como una ciudad lineal de 170 kilómetros de largo, 500 metros de altura y apenas 200 metros de ancho, formada por dos colosales muros paralelos que se extienden a lo largo del Mar Rojo. Desde su presentación en 2021, ha captado la atención del mundo no solo por su escala, sino también por sus promesas: cero coches, cero emisiones y acceso a todos los servicios básicos en menos de cinco minutos a pie. Pero, ¿es viable construir algo así en el desierto? Para responder a esta pregunta, el arquitecto Nacho Tellado, conocido por su análisis matemático en jugadas polémicas del fútbol, fue invitado a ‘The Wild Project’, el programa de Jordi Wild, donde compartió su punto de vista profesional sobre la megaestructura.
«Yo quiero saber tu opinión a nivel de arquitecto de ‘The Line’, en Arabia Saudí», le planteó Jordi. A lo que el arquitecto respondió: «Es una ciudad lineal literalmente, son dos grandes paredes, ahí se configuran todas las viviendas. En el centro hay cosas comunes: jardines, etcétera». A simple vista, puede parecer una estructura compacta e irrealizable, pero el arquitecto quiso matizarlo: «Es verdad que tiene más espacio de lo que parece desde lo alto, porque claro, tú desde una vista de helicóptero parece que aquello es súper estrecho, pero no, luego estás allí y tiene bastante ancho».

Uno de los elementos más polémicos del proyecto es su ubicación en mitad del desierto saudí. Sin embargo, el experto advirtió sobre las consecuencias naturales de construir en ese entorno: «Yo lo que pienso es que esa ciudad, al final, ¿sabes cómo van a acabar estos muros? Van a acabar repletos de arena». Y lejos de verlo como un problema, lo valoró positivamente: «Eso es bueno en el fondo porque eso aísla. Al final configuras una cueva».

«Tú date cuenta que en el desierto parece que no, pero los montículos de arena es una burrada lo que cambian». La acumulación de arena, según el arquitecto, puede ser un recurso natural que se sume a la eficiencia térmica del diseño: «Yo creo que por puros fenómenos de la naturaleza, lo normal es que en las paredes se vaya asentando la arena y eso te aísla al fin y al cabo». «Sí es verdad que estos muros son gigantes, con lo cual yo entiendo que estarán muy bien aislados. Tendrán yo creo que una cámara de aire gigante porque al final eso hace de muy buen colchón térmico», añade.

Wangiri: la estafa silenciosa que empieza con una simple llamada perdida

26/05/2025 a las 17:10h.

Si un usuario recibe una llamada perdida en su móvil, lo habitual es que intente devolverla, incluso si no reconoce el número. Sin embargo, esta acción puede implicar un riesgo, especialmente cuando la llamada proviene del extranjero. En estos casos, es posible que se trate de una estafa conocida como Wangiri.
Este fraude, cuyo nombre proviene del término japonés ‘wankiri’ (que significa algo así como «una llamada y corte»), se basa precisamente en ese patrón: una llamada muy breve, que cuelga antes de que el destinatario pueda contestar. Los ciberdelincuentes utilizan sistemas automatizados para realizar miles de estas llamadas desde números internacionales, con el único objetivo de dejar una llamada perdida registrada en el teléfono de la víctima.

La intención es que la persona devuelva la llamada por curiosidad o preocupación. Pero al hacerlo, puede incurrir en elevados cargos en su factura, ya que los números utilizados suelen pertenecer a líneas internacionales o de tarificación especial.
Según datos de Telefónica, algunos de los prefijos más habituales en este tipo de estafa son: Albania (+355), Bosnia (+387), Costa de Marfil (+225), Estonia (+372), Ghana (+233), India (+91), Mali (+223), Marruecos (+212), Nigeria (+234), Papúa Nueva Guinea (+675), Túnez (+216), Samoa (+685), Sierra Leona (+231), Sri Lanka (+94), Uganda (+256) y República Centroafricana (+236).

La IA puede ayudar a detectar la depresión y el riesgo de suicidio

26/05/2025

Actualizado a las 13:10h.

Abrirse con ChatGPT puede ser muy sencillo para una persona. Desde hace tiempo, muchos usuarios recurren a la máquina parlante de OpenAI, o a otras de su clase que andan rondando por la red, para compartir sus problemas cotidianos o, simplemente, encontrar algo de desahogo. Ahora, un reciente estudio elaborado por investigadores de Corea del Sur apunta que el empleo de chatbots de inteligencia artificial puede ser útil para identificar síntomas de depresión y riesgo de suicidio en pacientes.
La investigación, publicada recientemente en la revista científica JAMA Network Open y dirigida por la doctora Silvia Kyungjin Lho, examinó el desempeño de diferentes sistemas de IA al analizar respuestas a un clásico test psicológico conocido como prueba de frases incompletas (STC, por sus siglas en inglés).

Dicha prueba, que invita a los pacientes a completar frases como «Yo soy…» o «Mi futuro será…», ha sido utilizada durante décadas para encontrar problemas de salud mental. La idea detrás del estudio era sencilla: si una persona refleja emociones negativas en sus respuestas, como desesperanza o autocrítica, ¿puede un modelo de IA identificarlo como una señal de alarma?
Para sacar conclusiones al respecto, el equipo analizó los datos de 1.064 pacientes psiquiátricos de entre 18 y 39 años que fueron atendidos en el Hospital Boramae de Seúl. Todos ellos habían completado el test STC. Tras borrar cualquier rastro de datos personales, introdujeron las respuestas escritas -más de 52.000 frases en total- en modelos como GPT 4, uno de los que mueve a ChatGPT, o al Gemini de Google.