Dos modelos para la IA agéntica - Estados Unidos (ES)
Registro  /  Login

Otro sitio más de Gerente.com


Dos modelos para la IA agéntica

Publicado: abril 21, 2025, 3:19 am

BOSTON – Los “agentes” de IA están en camino, estemos preparados o no. Si bien hay mucha incertidumbre respecto de cuándo los modelos de IA podrán interactuar de forma autónoma con plataformas digitales, otras herramientas de IA e incluso con seres humanos, no cabe duda de que este acontecimiento será transformador, para bien o para mal. Sin embargo, a pesar de todos los comentarios (y el bombo publicitario) en torno a la IA agéntica, aún quedan muchos interrogantes importantes por resolver -de los cuales el principal es qué tipo de agente de IA pretende desarrollar la industria tecnológica.

Los distintos modelos tendrán implicancias muy diferentes. Con un enfoque de “IA como asesor”, los agentes de IA ofrecerían recomendaciones calibradas individualmente a los responsables humanos de la toma de decisiones, dejando a los seres humanos siempre en el asiento del conductor. Pero con un modelo de “IA autónoma”, los agentes tomarán el volante en nombre de los seres humanos. Se trata de una distinción con implicancias profundas y de largo alcance.

Los seres humanos toman cientos de decisiones cada día, algunas de las cuales tienen consecuencias importantes para sus carreras, sus subsistencias o su felicidad. Muchas de esas decisiones se basan en información imperfecta o incompleta, determinada más bien por emociones, intuiciones, instintos o impulsos. Como dijo célebremente David Hume, “La razón es y solo debe ser esclava de las pasiones”. Los seres humanos pueden tomar la mayoría de las decisiones sin un razonamiento sistemático o sin prestar la debida atención a todas las implicancias, pero como Hume reconoció con la parte “debe” de su afirmación, eso no está tan mal. Es lo que nos hace humanos. La pasión refleja el propósito, y también puede desempeñar un papel clave en cómo nos enfrentamos a un mundo complejo.

Con asesores de IA que proporcionen información personalizada, confiable, relevante para el contexto y útil, se pueden mejorar muchas decisiones importantes, pero los motivos humanos seguirán siendo dominantes. ¿Pero qué hay de malo en que las IA autónomas tomen decisiones en nuestro nombre? ¿No podrían mejorar aún más la toma de decisiones, ahorrar tiempo y evitar errores?

Esta perspectiva plantea varios problemas. En primer lugar, la agencia humana es fundamental para el aprendizaje y el florecimiento del ser humano. El mero hecho de tomar decisiones y contemplar los resultados -incluso si los aportes y los consejos provienen de agentes no humanos- afirma nuestro propio sentido de agencia y propósito. Gran parte de lo que hacen los seres humanos no consiste en calcular o recopilar datos para decidir un curso de acción óptimo, sino en descubrir -una experiencia que se volverá cada vez menos frecuente si todas las decisiones se delegan en un agente de inteligencia artificial.

Por otra parte, si la industria tecnológica busca principalmente agentes de IA autónomos, la probabilidad de automatizar más empleos humanos aumentará sustancialmente. Sin embargo, si la IA se convierte principalmente en un medio para acelerar la automatización, se desvanecerá cualquier esperanza de prosperidad ampliamente compartida.

Y lo que es más importante, existe una diferencia fundamental entre los agentes de IA que actúan en nombre de los humanos y los humanos que actúan por sí mismos. Muchos entornos en los que interactúan los humanos tienen elementos tanto cooperativos como conflictivos. Consideremos el caso de una empresa que proporciona información a otra. Si esta información es lo suficientemente valiosa para el comprador, un intercambio entre las dos empresas es mutuamente beneficioso (y, normalmente, también beneficia a la sociedad).

Pero para que haya algún intercambio, el precio del insumo debe determinarse mediante un proceso intrínsecamente conflictivo. Cuanto más alto sea el precio, más se beneficiará el vendedor en relación con el comprador. El resultado de este tipo de negociación suele estar determinado por una combinación de normas (por ejemplo, sobre la equidad), instituciones (como contratos que imponen costos si se incumplen) y fuerzas del mercado (por ejemplo, si el vendedor tiene la opción de vender a otra persona). Pero imaginemos que el comprador tiene fama de ser totalmente inflexible -de negarse a aceptar nada que no sea el precio más bajo posible-. Si no hay otros compradores, el vendedor puede verse obligado a aceptar la oferta más baja.

Afortunadamente, en nuestras transacciones cotidianas, estas posturas intransigentes son poco frecuentes, en parte porque es mejor no tener una mala reputación y, sobre todo, porque la mayoría de los seres humanos no tienen ni el valor ni la aspiración de actuar de forma tan agresiva. Pero ahora imaginemos que el comprador tiene un agente autónomo de IA al que no le importan las sutilezas humanas y posee nervios de acero no humanos. Se puede entrenar a la IA para que siempre adopte esta postura inflexible, y la contraparte no tendrá ninguna esperanza de persuadirla para que llegue a un resultado más beneficioso para ambas partes. Por el contrario, en un mundo en el que la IA actúa como asesor, el modelo podría recomendar una postura intransigente, pero el ser humano decidiría en última instancia si seguir ese camino o no.

En el corto plazo, por tanto, las IA agénticas autónomas pueden dar paso a un mundo más desigual, en el que solo algunas empresas o individuos tengan acceso a modelos de IA muy capaces y creíbles. Pero incluso si todo el mundo acabara adquiriendo las mismas herramientas, eso no sería mejor. Toda nuestra sociedad estaría sometida a juegos de “guerra de desgaste” en los que los agentes de IA llevan cada situación conflictiva al borde del colapso.

Estos enfrentamientos son intrínsecamente riesgosos. Como sucede en el juego de la “gallina” (cuando dos autos aceleran el uno hacia el otro para ver quién se aparta antes), siempre es posible que ninguna de las partes ceda. Cuando eso ocurre, ambos conductores “ganan” -y ambos mueren.

Una IA entrenada para ganar el juego de la “gallina” nunca se desviará. Si bien la IA podría ser una buena consejera para los seres humanos -proporcionándonos información útil, confiable y relevante en tiempo real-, es probable que un mundo de agentes autónomos de IA provoque muchos problemas nuevos, al tiempo que erosiona muchos de los logros que la tecnología podría haber ofrecido.

El autor

Daron Acemoglu, premio Nobel de Economía en 2024 y profesor de Economía en el MIT, es coautor (junto con Simon Johnson) de Power and Progress: Our Thousand-Year Struggle Over Technology and Prosperity (PublicAffairs, 2023).

Copyright:
Project
Syndicate,
2025

www.project-
syndicate.org

Related Articles