Publicado: junio 18, 2025, 11:00 pm
La fuente de la noticia es https://www.abc.es/tecnologia/silicon-valley-solo-quiere-dinero-rapido-forma-20250619150130-nt.html
Durante décadas, el doctor estadounidense Michael I. Jordan ha trabajado para entender y organizar el caos de los datos y desarrollar herramientas al servicio de la humanidad. Este matemático y cientÃfico cognitivo, catedrático emérito en la Universidad de California e investigador en el INRIA … de ParÃs, es uno de los pioneros de la inteligencia artificial y uno de los principales responsables de que sistemas como ChatGPT sean capaces de responder a los usuarios. Su tecnologÃa también está detrás de los algoritmos que nos recomiendan resultados en función de gustos e intereses; logros que le han valido uno de los galardones en la presente edición de los Premios Fronteras del Conocimiento que la Fundación BBVA entrega en Bilbao este jueves.
Y si el trabajo de Jordan explica, parcialmente, cómo funcionan las máquinas, la india Mahzarin R. Banaji -también premiada por la fundación- se pregunta qué creen. Profesora de Ética Social en Harvard y pionera en el estudio de los sesgos implÃcitos, lleva años investigando las asociaciones inconscientes que moldean nuestras decisiones. En un análisis reciente, demostró con una base de datos de 840.000 palabras en internet que las asociaciones más frecuentes para «hombre» o «masculino» están relacionadas con la guerra y los deportes, mientras que la «mujer» y lo «femenino» se asocia predominantemente con el abuso y la pornografÃa. Y es precisamente de ahÃ, de la red, de donde se ‘alimenta’ principalmente ChatGPT, el Grok de Elon Musk o el Gemini de Google, que ofrecen lo mismo básicamente.
Ahora, Banaji está enfocando su atención en los sesgos de estas herramientas. Señala que su conducta puede parecerse a la humana, aunque es «mucho más extrema en los juicios que realiza» y tiende a agradar en exceso al usuario. «La primera vez que hablé con ChatGPT, al poco de su lanzamiento, le pregunté por sus sesgos implÃcitos, y me dijo que era ‘un hombre blanco’. Pensé que era increÃble que la máquina creyese tener raza y género. No me dijo lo que pensaba, sino lo que creÃa que era. Al mes le hice la misma pregunta y el discurso cambió: decÃa que no tenÃa sesgos, y que los que pudiera tener serÃan producto de los sesgos humanos presentes en los datos con los que fue entrenado. Me sorprendió mucho ese cambio en apenas un mes», señala. «Veo que con el tiempo la tecnologÃa puede terminar desarrollando un sentido de sà misma. Es algo muy pequeño, pero veo esa semilla. No sé si esto ocurrirá, pero es una de las razones por las que me involucré en la investigación», añade.
Superinteligencia
Jordan advierte que aunque pueda parecer que las aplicaciones de IA «tienen personalidad o una identidad única», en realidad no es asÃ: «Todo lo que saben es colectivo y está basado en los datos de millones de personas. Si les repites la misma pregunta varias veces, vas a recibir respuestas diferentes. Es como charlar con una cultura entera». Esto, añade, hace que confiar ciegamente en sus respuestas sea problemático: «No razonan bajo la incertidumbre y cambian de idea con mucha facilidad. Si les preguntas, por ejemplo, quién es el presidente de Ghana, posiblemente te lo responderán bien. Pero no confiarÃas en un médico que te dijera que puedes tener una enfermedad y, al momento siguiente, otra distinta. Estamos hablando de herramientas, y como tales, es importante que los usuarios entiendan cómo utilizarlas y que pueden cometer errores».
Consultados sobre si podemos esperar la eliminación del error y el sesgo, los dos investigadores dudan. Banaji confiesa que en su juventud «tenÃa la creencia de que serÃamos capaces de crear una forma de inteligencia que nos mejorarÃa en todo y tomarÃa mejores decisiones morales«: »Ahora no lo tengo claro, teniendo en cuenta que son corporaciones con ánimo de lucro, principalmente en Silicon Valley, las que las están construyendo».
Jordan es tajante: «No tengo mucha confianza en los lÃderes de grandes empresas como Google u OpenAI. No son cientÃficos y, desde luego, tampoco creo que sean muy buenos en tecnologÃa. Solo quieren hacer dinero de forma rápida, y esa no es la forma de hacer avanzar la tecnologÃa». Y añade: «Sam Altman, que es el director de OpenAI, es una persona de dinero. No tiene una comprensión profunda de la tecnologÃa. No piensa bien en el despliegue de la tecnologÃa, y es el tipo de persona de Silicon Valley en la que no confiarÃa. Ahora está ayudando a la carrera armamentÃstica, colaborando con el Ejército de Estados Unidos».
También critica que OpenAI haya abandonado el código abierto, lo que impide a investigadores externos estudiar cómo funciona ChatGPT o crear versiones propias. Banaji lo remata con una advertencia: «En Estados Unidos hay manifestaciones contra el rey, haciendo referencia a Trump, pero la gente también deberÃa manifestarse contra los ‘reyes’ de Silicon Valley».
Actualmente, empresas como OpenAI, Google o Meta trabajan en la creación de una superinteligencia artificial que supere a cualquier ser humano. Varios ejecutivos, como Altman o Elon Musk, se muestran optimistas, y hasta apuntan que podrÃa llegar en los dos próximos años, pero los cientÃficos son escépticos. Para Jordan, se trata de «un término inventado» para conseguir «más financiación procedente del capitalismo de riesgo». Además, no tiene claro que sea algo necesario: «Realmente no significa mucho. Un ordenador ya puede hacer muchÃsimas cosas que los seres humanos no pueden hacer. Asà que no está nada mal».
Trump y las universidades
Los dos investigadores muestran inquietud ante los recientes ataques de Trump a las universidades estadounidenses, especialmente contra Harvard, donde trabaja Banaji. El presidente ha acusado a la institución de tener un sesgo liberal y ha intentado presionarla para que abandone sus polÃticas de diversidad. Entre sus acciones figuran la cancelación de contratos federales, la congelación de fondos para investigación o el bloqueo a la admisión de estudiantes extranjeros. Una ofensiva que, de prosperar, podrÃa afectar seriamente a la investigación en el centro académico más importante del paÃs.
«Las acciones recientes del Gobierno contra mi universidad se están interpretando como la lucha de Goliat contra Goliat (haciendo referencia al poder de Harvard como la institución académica más prestigiosa del mundo). Sin embargo, no creo que esta valoración sea correcta. No somos nada comparado con el poder del gobierno federal de los Estados Unidos. No sabemos si vamos a sobrevivir a esto«, dice la investigadora. »Pero no podemos dejar de oponernos, porque Harvard no es Harvard sin alumnos extranjeros«, prosigue.
Jordan lamenta que, a su juicio, el presidente está influenciado por «un pequeño grupo de fascistas y populistas» que «quieren el poder absoluto», pero que «ya no estarán ahà dentro de tres años» cuando lleguen las siguientes elecciones presidenciales: «Las cosas cambiarán e incluso los miembros del partido republicano abogarán por restablecer las ayudas a los centros y a los cientÃficos. Si se rompen las relaciones entre los investigadores y el estado, el motor de América se romperá»