Imaginemos que las IA no solo hablan con personas, sino entre sí.
Me encantó este resumen del estudio reciente sobre como sería el escenario en el que las IA no solo hablan con personas, sino entre sí y sus consecuencias.
“Imaginemos que las IA no solo hablan con personas, sino entre sí. Este estudio analizó qué sucede cuando un grupo de estos agentes de IA simplemente intenta llevarse bien con quien interactúa en ese momento, sin un plan general ni un líder que les diga qué hacer.
La idea clave es la aparición de convenciones sociales, como la forma en que todos acordamos usar ciertas palabras o formas de saludarnos.
A continuación, algunos hallazgos clave:
Las convenciones surgen espontáneamente: Incluso con este simple incentivo local para coordinarse, la población de agentes de IA no se mantuvo caótica. Espontáneamente, comenzaron a elegir un único "nombre" que todos en el grupo comenzaron a usar. Esto refleja cómo las convenciones humanas se forman orgánicamente sin un comando centralizado. El modelo teórico utilizado en el estudio se basa en cómo los humanos desarrollan convenciones lingüísticas a través de la interacción repetida.
Aparición de sesgo colectivo: Se podría pensar que cualquier "nombre" de la lista podría convertirse en el popular. Sin embargo, el estudio encontró un fuerte sesgo colectivo: ciertos nombres tenían mucha más probabilidad de convertirse en la convención del grupo que otros. Es importante destacar que este sesgo no se debía únicamente a que los agentes individuales tuvieran una fuerte preferencia desde el principio. Surgió dinámicamente de las propias interacciones, a medida que los recuerdos de los agentes sobre intentos de coordinación exitosos y fallidos se diversificaban.
El poder del colectivo: Esto resalta la inteligencia colectiva o el comportamiento grupal de los agentes de IA. La preferencia del grupo (el sesgo colectivo) era una propiedad emergente de cómo interactuaban e influían mutuamente a lo largo del tiempo, algo que no se predeciría necesariamente al observar a un solo agente de forma aislada. El comportamiento del grupo era más que la suma de sus partes.
Cambio de reglas (puntos de inflexión): Una vez que un "nombre" se convertía en la convención establecida, se mantenía estable. Sin embargo, los investigadores descubrieron que un grupo pequeño y decidido de agentes que insistía en usar un nombre diferente podía, de hecho, obligar a toda la población a cambiar, si alcanzaban una "masa crítica" o punto de inflexión. Este fenómeno —donde una minoría comprometida puede impulsar un cambio social generalizado— también se observa en las sociedades humanas.
En esencia, este estudio demuestra que los sistemas de IA, al interactuar, pueden desarrollar dinámicas sociales complejas notablemente similares a las de los humanos: forman reglas compartidas, desarrollan preferencias grupales mediante la interacción e incluso experimentan cambios de normas impulsados por minorías determinadas. Comprender estos comportamientos colectivos emergentes es vital a medida que los agentes de IA se integran más en nuestro mundo.”
Estudio completo
https://www.science.org/doi/10.1126/sciadv.adu9368
En AIOS Center estamos ayudando a grandes empresas desde hace 2 años a implementar IA en sus negocios de forma efectiva a través de nuestro software bajo método para empresas AI-First.
Si necesitas saber qué puede hacer la IA en tu negocio no dudes en consultarnos sin compromiso y nos reunimos 30 minutos sin compromiso. 👇👇👇
https://calendly.com/ai-os/30min