Publicado: junio 16, 2025, 7:00 am
La fuente de la noticia es https://www.abc.es/tecnologia/reggie-townsend-exasesor-ia-casa-blanca-biden-20250616100326-nt.html
Llevamos dos años y medio viviendo lo que muchos consideran la mayor revolución tecnológica desde la llegada de internet. Desde que ChatGPT irrumpió en nuestras vidas en noviembre de 2022, la inteligencia artificial (IA) ha pasado de ser una tecnología de nicho, a convertirse … en el centro de prácticamente todas las conversaciones sobre el futuro del trabajo, la economía y la sociedad.
Pero, ¿estamos realmente preparados para lo que viene? Es lo que planteamos desde ABC a Reggie Townsend, vicepresidente de SAS y una de las voces más destacadas en el debate sobre IA ética y responsable, que además, formó parte del comité asesor de inteligencia artificial de la Casa Blanca, y contribuyó a redactar la orden ejecutiva sobre IA de la administración Biden.
«Lo que conmocionó al mundo no fue la IA en sí», explica Townsend. «Lo que nos sorprendió fue nuestra capacidad para interactuar con modelos de lenguaje grandes usando lenguaje natural». Las tecnologías como la visión computacional o el análisis predictivo llevan décadas funcionando entre nosotros, pero lo que cambió fue que todo el mundo pudo usar una interfaz neuronal entrenada con miles de millones de datos simplemente escribiendo en su idioma. Este nivel de democratización permitió, por primera vez, a usuarios sin conocimientos técnicos, aprovechar capacidades de la inteligencia artificial. Pero que al mismo tiempo genera nuevos riesgos, y plantea preguntas sobre cómo debería regularse y gestionarse.
Townsend nos cuenta su experiencia en SAS: «Llevamos muchos años usando tecnologías como Llama de Meta en procesamiento de lenguaje natural», cuenta. «Eso nos permitió entender este momento como lo que realmente es, una oportunidad para llegar a más gente, pero también para separar lo que puede ser la moda de la IA, a la aplicación real».
La sostenibilidad como ventaja competitiva europea
Una de las críticas más frecuentes al enfoque europeo sobre IA es que la excesiva regulación está frenando la innovación. Mientras que en Estados Unidos y China se lanzan nuevos modelos y aplicaciones a ritmo vertiginoso, en Europa muchos productos en torno a la inteligencia artificial tardan meses en llegar, o directamente no están disponibles.
¿Pero es esto realmente una desventaja para Europa no estar al frente de esta carrera? El ejecutivo plantea una pregunta de fondo: «¿Una carrera hacia dónde?». Su argumento es que la prisa por ser el primero a menudo genera «errores públicos y desastres de relaciones públicas», por lo que a veces, es mejor ser precavido usando la última tecnología.
Aquí es donde Townsend ve una oportunidad clara para Europa. «Ahora mismo, todo el mundo en Estados Unidos está buscando cómo generar más energía, por ejemplo, Microsoft acaba de cerrar un acuerdo hace dos días con Constellation para obtenerla de reactores nucleares«. En contraste, Europa tiene »una pasión por la sostenibilidad y el medio ambiente, con criterios ESG reales«. »Tal vez podáis entrar en la carrera mostrando cómo ser más sostenibles«, sugiere. Una propuesta intrigante, en lugar de competir en la carrera de más potencia computacional, Europa podría liderar en eficiencia energética y sostenibilidad de los sistemas de IA.
Uno de los grandes problemas de la IA gira en torno a los sesgos algorítmicos. Townsend es directo al respecto: «Los sesgos existen en la inteligencia artificial porque los seres humanos tienen sesgos, y los datos que usa la IA provienen de seres humanos».
La solución no está en eliminar los sesgos, algo imposible mientras los humanos sigamos siendo humanos, sino en detectarlos y mitigarlos. «Tenemos algoritmos de detección de sesgos integrados en SAS, que alertan al usuario cuando la distribución de datos muestra poca representación de mujeres, inmigrantes o personas de otras etnias», explica, «y presionando un botón se pueden generar datos sintéticos para equilibrar la representación estadística».
La política de la IA: continuidad por encima del partidismo
Cuando preguntamos a Townsend, que participó personalmente en la elaboración de la orden ejecutiva sobre IA de Biden, sobre el gobierno de Trump, reconoce que personalmente no le gustó cuando Trump derogó la ley, porque estuvo en la Casa Blanca cuando se firmó y contribuyó a que se creara.
Sin embargo, su análisis es pragmático: «No creo que haya tanta diferencia en sustancia entre lo que las dos administraciones intentaban hacer. Creo que ciertamente hay diferencia en la retórica, pero no en el fondo». De hecho, señala que fue la primera administración Trump la que creó los cimientos de la estrategia de IA nacional, y también estableció la oficina nacional de IA en la que el ejecutivo de Biden se basó.
La segunda orden ejecutiva de Trump sobre IA se creó sobre las ideas de alfabetización que el propio Townsend había ayudado a desarrollar. «Las ideas eran las mismas», explica, «centradas en cómo la IA puede usarse en contextos educativos, y cómo podemos empezar a enseñar a los estudiantes sobre el uso de esta tecnología».
El futuro del trabajo: agentes personales y nuevos modelos de empleo
Quizás la predicción más fascinante de Townsend se refiere al futuro del empleo. «¿Empezarán las empresas en el futuro a contratar gente no solo por lo que saben, sino por lo que pueden hacer y lo que han creado?», se pregunta. «¿Debería de contratar a alguien que haya sido capaz de crear una colección de agentes de los que podría aprovecharme como empresa?»
La pregunta siguiente es aún más compleja: «¿Significa eso que te estoy empleando a ti como persona y a tus agentes con los que formas un equipo? ¿Es esa propiedad intelectual tuya o se queda conmigo después de que te vayas?» Estas no son preguntas teóricas para el futuro lejano. «Todo esto se está volviendo realmente complicado muy, muy rápido. Y está ocurriendo ahora mismo. No estoy hablando de dentro de 20 años».
Townsend propone un modelo de responsabilidad compartida sobre la alfabetización: «Las empresas tenemos una responsabilidad. Los gobiernos tienen la responsabilidad de crear entornos donde podamos innovar con las restricciones apropiadas. La academia tiene la responsabilidad de educar estudiantes para el futuro y no para el pasado. Las organizaciones sociales tienen un papel para involucrar a las comunidades».
Por poner un ejemplo, como sociedad, Townsend opina que deberíamos tener el mismo nivel básico de conocimiento sobre la IA que tenemos sobre la electricidad. «Todos sabemos que si echas agua a un enchufe, probablemente va a haber un cortocircuito. No lo hacemos porque tenemos un nivel básico de conciencia sobre la electricidad, sin ser ingenieros o físicos nucleares. Necesitamos lo mismo para la inteligencia artificial».
Townsend aclara que cuando este nivel de alfabetización llegue, estaremos preparados como sociedad, para tener la conversación sobre qué papel juega la IA en ella, y qué queremos construir para el futuro.
Apostar por la IA responsable
¿Vale la pena apostar por la IA responsable? La respuesta de Townsend es un rotundo sí, pero con matices importantes. «Una de las grandes oportunidades que tenemos, es que, como la IA es una tecnología ubicua que afecta potencialmente a cada parte del negocio —marketing, finanzas, operaciones, recursos humanos—, está forzando a los líderes a repensar cómo está estructurada la organización».
Esta reestructuración no es solo tecnológica sino fundamental: «Nos está dando una oportunidad para reimaginar cómo nos organizamos como organizaciones y como sociedad». En definitiva, la IA responsable no es solo una cuestión ética o regulatoria, es, como demuestra la experiencia de SAS, una ventaja competitiva real para empresas que saben implementarla correctamente. Y en esa carrera, Europa no solo puede competir, puede liderar.