Jordan era el encargado de traer al campamento la comida para todos, pero se la olvidó. ¿Cómo se siente? A. Horrible porque defraudó a sus compañeros. B. Contento porque no va a tener que cocinar. C. Orgulloso de lo que hizo.
Tracy se encimó sin querer sobre Austin en un ascensor muy chico. ¿Por qué lo hizo? A. QuerÃa estar muy cerca de Austin. B. No habÃa lugar en el ascensor. C. Lo querÃa seducir.
Estas preguntas son fáciles de responder para nosotros, pero tal vez no tanto para un agente construido con inteligencia artificial.
En los últimos meses hubo una explosión de experimentos para entender qué pasa cuando los bots interactúan con humanos y entre sÃ. ¿Pueden anticipar lo que pensamos? ¿Tienen nociones de buenos modales? Los ejemplos anteriores son parte de un estudio a cargo de investigadores de la Universidad de Singapur, donde los agentes construidos con IA salieron bastante bien parados. TodavÃa les faltan algunas nociones de espacialidad y son demasiado sensibles a cómo les hacemos las preguntas (los prompts). Pero en general resultaron eficaces para resolver estas tareas tan humanas.
En los últimos meses hubo una explosión de experimentos para entender qué pasa cuando los bots interactúan con humanos y entre sÃ. ¿Pueden anticipar lo que pensamos? ¿Tienen nociones de buenos modales?
Otro paper de la Universidad de Tokio, publicado el mes pasado, encontró que los agentes virtuales, conversando entre ellos, creaban normas sociales y, más aún, meta-normas: reglas que ayudan a penalizar a quienes no cumplen las reglas originales.
Los modelos de lenguaje natural, ¿tienen conductas sociales? Esa es la pregunta de fondo, y también el tÃtulo de otra investigación, de las universidades de Texas y Purdue, publicada en febrero. El trabajo consistió en pedirle a un grupo de agentes que resuelvan desafÃos que requieren cooperación. Los bots, en general, actuaron de una forma parecida a nosotros: aprendieron reglas sociales, respondieron con reciprocidad, adoptaron signos de pertenencia al grupo. Sin embargo, hubo algunas diferencias sutiles: los bots fueron más agresivos que los humanos para responder a conductas poco cooperativas, y se mostraron más estratégicos y calculadores en sus decisiones.
Que los agentes de IA se parezcan a nosotros en sus habilidades sociales puede ser buena noticia. Muchos de estos estudios tienen como objetivo que los bots reemplacen a las personas que responden encuestas. Ahà nos harÃan un gran favor.
Pero las consecuencias importantes son otras. ¿Qué nuevas normas sociales y formas de cooperación se crearán en una sociedad hÃbrida, donde interactuemos con humanos y con bots casi sin distinguirlos?
Las micro-interacciones entre personas son un foco central de la psicologÃa del comportamiento y las neurociencias, porque dicen mucho sobre nosotros como especie.
Por ejemplo, somos muy buenos detectando si alguien es contradictorio, porque nos sirve para decidir en quién confiar, como explica Hugo Mercier en su libro El enigma de la razón. O, como detalla la neurocientÃfica israelà Tali Sharot en su libro The Influencial Mind, disfrutamos mucho de que otros nos escuchen cuando hablamos. Ambos rasgos hablan de una caracterÃstica evolutiva: estamos diseñados para cooperar con otros y compartir conocimiento. Es probable que eso nos haya mantenido vigentes como especie. Nos hizo prosperar.
La sociologÃa también le dedica atención a nuestras interacciones, porque en ellas se construyen las normas sociales. El pionero Erving Goffman escribió especÃficamente sobre el comportamiento que tenemos en un ascensor.
Si estas interacciones son tan centrales para la especie humana ¿estamos ante un nuevo tipo de civilización? La pregunta es difÃcil, bella e interesante, y nos lleva a pensar cuánto necesitaremos a los psicólogos y sociólogos para responderla. Les podemos pedir que interactúen entre ellos y analicen el tema lo antes posible.
La autora es directora de Sociopúblico