En una secuencia de la célebre película Rebelde sin causa, Jim (James Dean) y un contendiente se desafían manejando a alta velocidad dirigiéndose hacia un precipicio. El primero en aplicar los frenos pierde la apuesta y es un “gallina”. Se trata precisamente de una variación del juego de la gallina en el que dos participantes se enfrentan uno al otro en rumbo de colisión y es derrotado aquel que frena o se aparta primero.
Sábado 20 de junio de 2015
Fuera de todo aspecto ficcional, este tipo de “juegos” forman la base para modelar y estudiar las interacciones entre dos agentes que pueden ser individuos, empresas, países, equipos, partidos políticos, en los que intervienen componentes de presión psicológica.
Un caso real, de cierto dramatismo se vivió cuando estalló la crisis de los misiles de Cuba en 1962. Un avión espía U2 de EEUU sobrevolando el territorio cubano había descubierto el emplazamiento de misiles con capacidad de portar ojivas nucleares. Esa amenaza a apenas 150 km de las costas norteamericanas exasperó a Kennedy y su gobierno dispuso una zona de exclusión alrededor de la isla (un bloqueo militar que denominaron cuarentena).
En esas circunstancias una flota rusa que se dirigía a Cuba cesó su avance y emprendió el regreso. Fue entonces que el secretario de estado norteamericano Dean Rusk dijo “Nos mirábamos directo a los ojos y el otro parpadeó” refiriéndose a ese acontecimiento como una señal en la que la URSS de Jruschev había decidido rehuir a la confrontación. El caso fue reducido por varios analistas como una instancia de juego de “gallina” nuclear. Pero lo cierto es que el asunto es mucho más complejo y se requieren otros modelos de juegos para ajustarse al evento real.
El artífice de la teoría de juegos es del físico y matemático John von Neumann (1903-1957). Aficionado al póker, se interesó no solamente por el juego en sí, las estrategias desarrolladas, sino también por el elemento de psicológico que opera en jugadas que impacientarán, confundirán o sorprenderán al contendiente. Se dió cuenta que esos mismos elementos se hallaban en la economía y junto a O. Morgenstein publicó en 1944 el libro “Teoría de juegos y comportamiento económico”.
El dilema del prisionero
Por los años 50, a los matemáticos Merrill Flood y Melvin Dresher que trabajaban en RAND Corporation (un laboratorio de ideas de las FFAA de USA), explorando la teoría de juegos de von Neumann. Se les ocurrió incluir la tentación en la interacción entre dos agentes.
Al modelo se le conoce como Dilema del prisionero, y es el arquetipo de los modelos en teoría de juegos que llevó a importantes aplicaciones en sociología, biología evolutiva, sistemas de computación en red y ciencias políticas entre otras. Juegan dos agentes. Se trata de dos prisioneros sospechosos de haber cometido un crimen. A ambos, en forma separada y sin posibilidad de comunicación entre ellos, se les ofrece la posibilidad de testificar contra el otro. Aquel que testifica consigue la libertad, mientras que el otro es condenado. Si ninguno de los dos accede a testificar, ambos serán condenados, pero a una pena leve por la escasez de pruebas. Si ambos testifican uno contra el otro, las sentencias de los dos serán superiores, pero no tanto como la que recibiría quien resulte condenado si sólo uno de ellos testifica, dado que los elementos de prueba son escasos.
La tentación está en testificar contra el otro prisionero. Pero si lo dos testifican, la sentencia para ambos será mayor que si ninguno testifica. ¿Qué deberían hacer los prisioneros? ¿No testificar con la esperanza de que el otro haga lo mismo? Si los dos actuaran racionalmente, ambos deberían testificar contra el otro. Porque de esa manera cada prisionero obtiene el mejor resultado sin importar lo que haga el otro. Veamos; si el prisionero 1 testifica y el prisionero 2 no lo hace, el 1 no recibe ninguna condena, que es lo mejor que puede pasarle. Si el prisionero 2 testifica, testificar sigue siendo la mejor opción para el prisionero 1 porque obtendrá una pena más leve si lo hace que si no lo hace. Así testificar es una estrategia dominante pero lleva a un resultado magro respecto de si ambos hubieran cooperado y no hubieran testificado. He ahí el dilema. Aunque no lo fue tanto para los “halcones” de la Casa Blanca. ¿Qué conclusiones sacaron del dilema del prisionero los Señores de la Guerra Fría? Aumenta tu arsenal nuclear porque tu enemigo está haciendo lo mismo. Sé el primero en golpear, porque si no lo hará aquél. Si tu enemigo se distrae y no lanza su ataque de inmediato, déjalo como un iluso y atácalo. Tú ganas, ellos pierden.
A pesar de estas deshonrosas conclusiones, surge una esperanza de cooperación si el juego se juega más de una vez. En el esquema original los prisioneros no pueden comunicarse y ponerse de acuerdo para cooperar. Eso lleva a que cada prisionero dé por supuesto que el otro prisionero será un delator, terminando en que ambos defeccionan. Pero si se juega reiteradamente, las posibilidades de cooperar aumentan, porque si bien los jugadores no pueden comunicarse directamente, si pueden, por su forma de jugar, dar idea de sus intenciones. Si un jugador revela su voluntad de cooperar haciéndolo en una ronda, es posible que el otro decida cooperar en la ronda siguiente. Los jugadores que habían comenzado defeccionando, luego empiezan a cooperar, se percatan de que así pueden obtener mejores resultados. No hay culpa ni obligación moral, simplemente persiguen el mejor resultado posible. En palabras de Robert Axelrod: “la cooperación basada en la reciprocidad puede evolucionar y sostenerse, incluso entre egoístas, siempre y cuando exista la perspectiva de una interacción a largo plazo”.
Sin embargo, subsiste un problema. En el contexto de nuestro modelo iterado, si un jugador descubre que su oponente tiende a cooperar, es probable que se sienta tentado a traicionar con el fin de obtener mayor ventaja a la larga. Si no sabemos cómo actuará nuestro oponente ¿Qué estrategia habría que tomar?
Axelrod ideó un experimento computacional para responder a esta pregunta. Organizó un torneo de computadora en el que puso a prueba distintas estrategias que le hicieron llegar investigadores de la teoría de juegos. Algunas eran del tipo cooperar durante tantas rondas y defeccionar en la siguiente. Otras eran más complejas. Finalmente ganó una bastante sencilla que elocuentemente se la llamó “Ojo Por Ojo”. Consistía en una sola regla: comenzaba cooperando y de ahí en adelante hacía lo que su adversario había hecho en la ronda anterior. Cuando se enfrentaba a un cooperador empedernido, Ojo Por Ojo (OPO) coopera siempre. Frente a un traidor empedernido, OPO salía mal parado en la primer ronda (porque en ella coopera) pero luego castiga al traidor delatándolo permanentemente. Cuando se enfrenta a una mezcla de cooperación y defección, es cuando OPO obtiene los mejores resultados (fuera del caso –poco realista- del contrincante cooperador empedernido). Repitiendo lo que hace su adversario, OPO puede adaptarse a lo que la situación requiere.
Aún después de haber repetido nuevos torneos con nuevas estrategias propuestas por un amplio abanico de profesionales, OPO permaneció ganadora, alentando la cooperación y desanimando a la defección, siendo nunca la primera en defeccionar. Esta última característica la ubica entre las estrategias “amables”, que Axelrod descubrió más exitosas.
Con la estrategia OPO se han hecho otros ensayos interesantes. Si los jugadores jugaban unas pocas rondas y luego eran mezclados sin darles oportunidad de ir creando confianza mutua, se observó que la cooperación también tiende a aumentar, si las normas incluían algún tipo de castigo a los que defeccionan. Dicha penalización la denominaron “castigo altruista” porque era poco probable que beneficiara al ejecutor. Opera como un acto de justicia revelando que no solo importan las interacciones mutuas sino las que se producen con toda la comunidad.
Bibliografía
R. Axelrod, La evolución de la cooperación, Ed. Alianza, 1996.
R. Axelrod, La complejidad de la cooperación, Fondo de Cultura Económica, 2004.