martes, 22 de agosto de 2017

La paradoja del diablo


Esta es la paradoja del diablo:

Estás en el infierno, condenado para toda la eternidad. El diablo te ofrece una salida. Solo tienes que decidir qué día participar en una lotería en la que, si ganas, vas al cielo también para toda la eternidad y, si pierdes, te quedas como estabas, en el infierno para siempre jamás. El truco es que las probabilidades de ganar cambian cada día de la siguiente manera: si eliges que la lotería sea hoy la probabilidad de ganar es 1/2, si eliges que sea mañana pasará a ser 2/3, pasado mañana será 3/4, al día siguiente 4/5 y así sucesivamente. Como vemos, a medida que esperas la probabilidad de ganar aumenta. Permíteme que insista: la lotería es solo una vez, ganes o pierdas, ya no habrá más. Suponemos, habrá que decirlo, que el infierno te disgusta mucho (quema y eso) y el cielo te encanta (hay más atracciones aparte de estar tocando la lira).

La paradoja surge porque pareciera que siempre conviene esperar un día más. Por mucho que te disguste el infierno y te guste el cielo, esperar un día más supone estar un día en el infierno a cambio de un aumento de la probabilidad de estar infinitos días en el cielo. Por pequeño que sea este aumento, es un aumento y es por infinitos días. Claro que si siempre merece la pena esperar, entonces te quedas siempre en el infierno, cosa que tampoco quieres.

Este es el planteamiento. Hay quien lo relaciona con la apuesta de Pascal (podéis verlo aquí). Yo las veo muy distintas, pero de eso ya hablaré en otro momento. Ahora os dejo la paradoja para que le deis vueltas. En una próxima entrada explicaré la falacia y en otra daré la solución.

-----------------------------------------------------------------------------------------------------------
Hace tres años en el blog: Preguntas últimas, preguntas siguientes.
-----------------------------------------------------------------------------------------------------------

lunes, 21 de agosto de 2017

El dilema del tranvía



Hace unas semanas hablamos de los problemas de tranvías en el Otto Neurath y poco después acudí a un seminario del psicólogo Robert Kurzban, que los utiliza como ejemplo de su tesis sobre la mente modular. Me persiguen desde que me dedico a la teoría de los juegos, así que aquí va una entrada para ellos.

Un tranvía está en loca carrera sin frenos a punto de arrollar y matar con toda seguridad a un grupo de 10 personas. La única posibilidad de salvarlos es desviar el tranvía a otra vía en la que solo hay una persona, que también morirá irremediablemente si se hace ese desvío. ¿Qué harías si tuvieras la posibilidad de apretar el botón que active el desvío?

Este tipo de problemas nos muestran que nuestras posiciones morales pudieran no tener una buena justificación.

Esto último es así porque está documentado en experimento tras experimento (mentales, claro, nunca se mata a nadie) que las respuestas a la pregunta crucial depende de variables aparentemente irrelevantes.

Por ejemplo, la respuesta varía si la persona a la que sacrificar es un trabajador de la compañía que hace su trabajo reparando la vía o es una persona que camina irresponsablemente por ella, o si en lugar de desviar el tranvía lo que se puede hacer es arrojar a una persona desde un puente para que caiga delante del tranvía y lo haga descarrilar, o si no se sabe en qué posición está el interruptor que hace desviarse al tranvía, pero se puede dar la orden de que se quede en la que queremos, y así infinitas variaciones del tema.

¿Por qué habría de cambiar la respuesta? ¿Qué tal si esas 10 personas son ciudadanos en un hospital que morirán si no reciben un transplante y la persona que puede salvarlos y morir al donar sus órganos es un ciudadano cualquiera? En todos los casos se trata de 10 vidas frente a una.

Esta es mi postura ante el problema del tranvía. Por una parte debo decir que si el dilema es exactamente como se describe en cada problema, entonces la decisión debe ser la misma en todos ellos. El problema, a mi entender, radica en que no hay manera de pensar ninguno de los problemas en su descripción exacta. Me pasa lo mismo que cuando intento explicar el equilibrio en un juego. Logro ser más convincente cuando exagero hasta el ridículo el contexto del juego: dos personas nacen, juegan el juego, son lo felices que les toque ser según el resultado y se mueren. Ese es todo su universo. En esas circunstancias es más aceptable el equilibrio. Claro que esas son exactamente las circunstancias del modelo, pero es claro también que no existen de esa manera en el mundo real.

Pienso que nos ocurre los mismo con los problemas de tranvías. Tomados al pie de la letra requieren una solución única, tomados en contexto –y cada uno es libre o esclavo de sus instintos de montarse un contexto- pueden estar pidiendo a gritos soluciones distintas.

Una sociedad que sacrifique al azar un ciudadano para donar sus órganos es poco apetecible y poco viable. Sospechosamente, los órganos de los familiares de los ministros o de los médicos se verán poco en el quirófano, los ciudadanos dedicarán grandes recursos a esconderse de las patrullas que buscan donante, .... Este tipo de arbitrariedades, con sus costes añadidos puede estar detrás de una regla impresa en nuestro cerebro que diga que es una mala manera de decidir. Otras reglas, tal vez justificadas, tal vez confundidas, pueden estar detrás de reacciones distintas en las otras versiones del problema.

domingo, 20 de agosto de 2017

La Teoría de Juegos y el dilema discursivo (2)

Esta es la segunda parte de la versión en español de mi artículo de mayo en Mapping Ignorance. Debe leerse la primera parte para entender esta.


Clipper y Eliaz (2015) [2] usan los juegos bayesianos para desarrollar su análisis. Esto significa que las distintas creencias de los miembros del jurado se deben a que cada miembro tiene acceso a distinta información. En el modelo bayesiano, ex-ante todos los miembros del jurado están de acuerdo en las probabilidades a priori de que cada premisa sea cierta. En un segundo momento cada miembro del jurado tiene acceso a una información privada (llamada señal) a partir de la cual pueden actualizar sus creencias de acuerdo con la regla de Bayes. Como cada uno puede recibir información distinta, los tres miembros pueden acabar con distintas creencias acerca de las premisas. En el modelo de Clipper y Eliaz (2015) la señal está restringida a los valores 0 y 1 para cada una de las premisas y las reglas de decisión comprenden todas la reglas super-mayoritarias (una proposición es aceptada si una mayoría cualificada de los votantes están de acuerdo en que es cierta, donde el valor cualificación puede ser cualquier proporción de votantes entre la mitad, para una mayoría simple, hasta la casi unanimidad).

Expliquemos esto con el ejemplo primero. Hay cuatro posibilidades para el verdadero estado: (1,1), (1,0), (0,1) y (0,0), donde un 1 en la primera posición de la señal significa “la primera premisa es cierta”. Un cero significa “falsa”, y la segunda posición se refiere a la segunda premisa. Hay una probabilidad a priori de que cada uno de estos estados posibles sea cierto y los tres miembros del jurado conocen estas probabilidades. A partir de ahí cada miembro recibe una señal sobre el estado. En el caso más simple hay tantas señales como estados. El primer miembro del jurado recibirá una señal correcta o incorrecta con unas probabilidades. Por ejemplo, si el estado verdadero es (1,1), puede recibir la señal (1,1) con probabilidad 0,7, la señal (1,0) con probabilidad 0,2 y cada una de las señales (0,1) y (0,0) con probabilidad 0,05. Los otros dos miembros recibirán sus señales con sus propias probabilidades. Cada miembro del jurado desconoce las señales que reciben los otros, pero sabe las probabilidades. Usando la regla de Bayes, cada miembro del jurado puede calcular la probabilidad de que cada premisa sea cierta y puede también calcular la probabilidad que cada uno de los otros miembros asignará a cada premisa dependiendo de qué señales reciben.

En el juego de la premisas, después de recibir las señales, los miembros votan sí o no a cada proposición de la forma “la premisa x es cierta”. Según los votos, una premisa se declarará cierta o falsa. En el juego de los resultados, votan a favor o en contra de la aceptar la conclusión lógica. En ambos casos cada miembro del jurado quiere minimizar la distancia esperada entre la decisión y el estado verdadero. Por ejemplo, si el estado verdadero implique que el candidato debe ser aceptado (1), pero en equilibrio se acepta solo con probabilidad 0,6, la distancia será 1-0,6=0,4. Por supuesto, los miembros no saben si el estado cierto implica que el candidato deba ser aceptado, pero pueden calcular las probabilidades de acuerdo con las señales recibidas y, a partir de ahí, calcular el valor verdadero esperado y la distancia esperada entre el equilibrio y el este valor.

En el modelo, los autores logran probar los siguientes teoremas:
  1. Para cada grupo finito de individuos, recabar opiniones sobre las premisas es sistemáticamente por lo menos tan bueno como recabarlas sobre los resultados, pero lo contrario no es cierto. Para ser más precisos, la primera parte dice que para cada equilibrio de Nash bayesiano simétrico en el juego basado en resultados existe un equilibrio de Nash bayesiano en el juego basado en premisas tal que, par cada vector de realizaciones de la señal, el perfil estratégico del segundo juego induce la misma distribución de probabilidad sobre las decisiones que el primero.
  2. Genéricamente, las ganancias del juego basado en las premisas sobre el juego basado en el resultado solo pueden llegar a ser marginales cuando muchos individuos expresan su opinión independientemente.
  3. Ambos procedimientos son casi siempre eficientes asintóticamente.
En lenguaje llano, la conclusión puede resumirse así: a pesar de que el método basado en las premisas es mejor que el basado en los resultados, solo lo es de manera marginal, puesto que ambos métodos tienden a ser eficientes cuando el número de miembros aumenta, excepto en casos extremadamente raros.

Referencias:

2. de Clippel, G., and Eliaz, K. 2015. Premise-based versus outcome-based information aggregationGames and Economic Behavior 89, 34–42. 

----------------------------------------------------------------------------------------------------------
Hace tres años en el blog: Alemania-Grecia.
Hace cinco años en el blog: El que quiera entender que entienda.
-----------------------------------------------------------------------------------------------------------

sábado, 19 de agosto de 2017

La Teoría de Juegos y el dilema discursivo (1)

Esta es la primera parte de la versión en español de mi artículo de mayo en Mapping Ignorance.


He aquí un ejemplo del “dilema discursivo” o “paradoja doctrinal”: Pongamos que hay un jurado de tres miembros que deben decidir mayoría si un candidato debe ser aceptado en un grupo. Las reglas especifican que el candidato debe cumplir dos requisitos, A y B, para ser aceptado. El primer miembro del jurado cree que el candidato cumple ambos requisitos, el segundo miembro cree que solo cumple el A, mientras que el tercero cree que solo cumple B. La paradoja aparece cuando uno compara dos métodos diferentes para decidir la admisión del candidato.

El primer método requiere que el jurado vote sobre si el candidato cumple el requisito A y, a continuación, sobre si cumple el B. Si el candidato obtiene una mayoría en ambas votaciones, será aceptado. Dos de los tres miembros creen que se satisface la condición A (el primero y el segundo así lo creen), y también dos de tres creen que se satisface la condición B (ahora lo creen el primero y el tercero). De acuerdo con este método el candidato es aceptado.

El segundo método requiere que el jurado vote directamente si piensa que el candidato debe ser aceptado. Ahora solamente el primer miembro piensa que se cumplen ambas condiciones y votará a favor. Los otros dos, al creer que una de las dos condiciones no se cumplen, votarán en contra.

Podemos entender los dos métodos de votación como dos maneras diferentes de agregar información. La paradoja muestra que la regla mayoritaria da resultados inconsistentes cuando agrega información sobre las premisas frente a la situación cuando agrega las conclusiones. En el ejemplo, la conclusión se sigue de la conjunción de las premisas, pero se podrían usar otras proposiciones lógicas para mostrar la paradoja. Más aún, numerosos resultados han mostrado que este no es un problema especial de la regla mayoritaria. De hecho, estos resultados muestran que es imposible encontrar un método de agregación que ofrece juicios lógicamente consistentes, esto es, que dan el mismo resultado sin importar sin se agregan premisas o conclusiones. Para obtener un panorama de sobre estos resultados léase List y Puppe (2009) [1].

Dada la imposibilidad de encontrar consistencia, la siguiente cuestión es saber qué procedimiento, agregar opiniones acerca de premisas o resultados, es la mejor. Para enfrentarse a este problema, lo primero que se necesita es especificar qué significa “mejor”. Clippel y Eliaz (2015) [2] comparan ambos procedimientos en términos de su capacidad para agregar información en presencia de individuos que toman decisiones estratégicas y que tienen intereses comunes. Contrariamente a lo que se asumía en el ejemplo introductorio, los individuos estratégicos pueden votar o no de acuerdo con su información privada (la literatura sobre votaciones está llena de ejemplos en que los votantes no lo hacen). El interés común significa que todos los votantes quieren lo mismo: agregar la información y generar una correcta conclusión a partir de premisas correctas. In nuestro ejemplo eso significaría que los tres miembros del jurado quieren que el candidato sea aceptado si se cumplen las premisas y quieren saber si estas premisas se cumplen verdaderamente. Las consideraciones estratégicas en la paradoja doctrinal han sido estudiadas por primera vez en Dietrich y List (2007) [3], pero solo para agregadores por unanimidad (donde todas la premisas deben ser ciertas para que se cumpla la conclusión).

Referencias:

1. List, C., and Puppe, C. 2009. Judgement aggregation. In Handbook of Rational and Social Choice, pp. 457–483. Chapter 19.

2. de Clippel, G., and Eliaz, K. 2015. Premise-based versus outcome-based information aggregation. Games and Economic Behavior 89, 34–42. 

3. Dietrich, F., and List, C. 2007. Strategy-proof judgment aggregation. Economics and Philosophy 23, 269–300.

----------------------------------------------------------------------------------------------------------
Hace tres años en el blog: Sobre el nacionalismo (2).
Y también: Economistas contra la crisis y el hombre de paja.
Hace cinco años en el blog: ¿El 99%?
Y también: O ano da morte de José Saramago.
-----------------------------------------------------------------------------------------------------------

viernes, 18 de agosto de 2017

Greguerías filosóficas

Debo el título a @ptarra, que así llamó a estas ocurrencias tuiteras de ayer. Las dos primeras son de Saturday Morning Breakfast Cereal e inspiraron las demás:

-Has leído la paradoja d Zenón?
-No puedo: antes d llegar al final debo pasar x la mitad, y antes, x la mitad d la mitad y así sucesivamente

-Conoces el mito de la caverna de Platón?
-Apenas unas nociones difusas y esquemáticas.

-¿Crees que el método de Descartes es correcto?
-Lo dudo.

-Haznos un comentario sobre el Tractatus de Wittgenstein.
-Mejor me callo.

-¿Me puedes explicar con detalle las tesis de la Dialéctica?
-No. Mejor te hago una síntesis.

-¿Entra Kant en el examen?
-Categóricamente, sí.

-¿Me puedes explicar el existencialismo?
-¿Para qué? Te vas a morir antes de entenderlo.

-¿En qué consiste tu filosofía, Nietzsche?
-Deja de preguntar cosas con esa moral de esclavo y crea tu propia respuesta.

-¿Es correcta la paradoja del gato de Schrödinger?
-Pues sí y no.

-¿Me puedes explicar el utilitarismo?
-Si eso te hace feliz...

-¿Cuál es tu filosofía, Parménides?
-Siempre estás con la misma pregunta, nunca cambiarás.

-¿Me puedes repetir lo del río, Heráclito?
-Ese era el tema de ayer, hoy toca otro.

-Hija, te quiero explicar el libre albedrío.
-Vale, cuando acabe los deberes.
-Es que luego tengo que arreglar la lámpara.
-Pues mañana.
-Ok

-Me gusta la filosofía de Freud.
-¿De ese? ¡Pero si es un inconsciente!

-¿En qué piensas, Hobbes?
-¿Otra vez atosigando? Déjame en paz o te parto la cara.

-Data, ¿te has hecho ya el test de Turing?
-Sí, he dado falso positivo.
-¿Cómo sabes que es falso?
-Ooops!

-Oye, Epiménides, ¿es verdad que los griegos para decir "sí" decís "nai"?
-Nai.
-¡Ya sabía yo que no podía ser!

jueves, 17 de agosto de 2017

Tus parejas han tenido más parejas que tú


Esta es la llamada paradoja de la amistad, que paso a explicar.

Tengamos un grupo de 10 personas numeradas del 1 al 10. Del 1 al 9 todas tienen como amigo al 10 y a nadie más que el 10, mientras que el 10 tiene como amigos a todos (suponemos que la amistad siempre es recíproca). De esta manera hay 9 personas que tienen un amigo y una persona que tiene 9, La media de amistades es (9x1+1x9)/10 = 1,8.

Pero si ahora contamos la media que tienen los amigos de estas 10 personas la cosa cambia. Del 1 al 9 tienen amigos cuya media de amistades es 9 (su único amigo es el 10, que tiene 9 amigos). La media de amigos de los amigos del 10 es 1. Así que la media de amigos que tienen los amigos de este grupo es (9x9+1x1)/10 = 8,2.

Esto es así con cualquier manera en que puedan ser las relaciones de amistad mientras haya alguien que tenga más amigos que los demás. La razón, creo que se ve claro, es que es más probable ser amigo de alguien que tiene muchos amigos que de alguien que tiene pocos. También vemos que, en la media de amistades de amigos, la persona número 10 aparece muchas veces (en cada una de las personas del 1 al 9).

Por supuesto es una media estadística que se cumple en términos generales, no para todos los casos. En el ejemplo tenemos 9 personas cuyos amigos tienen más amigos que ellas de media, mientras que tenemos a una persona cuyos amigos tienen menos amigos que ella.

Así que ya sabéis, lo más probable es que se cumplan estas proposiciones, siempre en promedio (léase en voz alta para mayor escarnio propio):

-Mis amigos tienen más amigos que yo.
-Mis parejas han tenido más parejas que yo.
-Mis conexiones de linkedin tienen más conexiones que yo.
-Mis familiares tienen más familiares que yo.
-Aquellos a quienes sigo en twitter tienen más seguidores que yo.
-Los blogs en los que comento reciben más comentarios que el mío.
-Los escritores que leo tienen más lectores que yo.

Después del escarnio propio, veamos el lado reconfortante. Si bien es cierto que, en media, mis amigos tienen más amigos, no es cierto que la mayoría de mis amigos tengan más amigos que yo. Ocurre muy a menudo que son esos pocos amigos muy populares los que hacen subir la media. En nuestro ejemplo vemos que la mayoría de los amigos de cualquiera de las personas de 1 a 9 tienen tantos amigos como ella, mientras que solo uno (el 10) tiene más.

Si nos tomamos la molestia de repetir las operaciones con el grupo de la figura veremos que la media de amigos es 2,85, mientras que la media de amigos de los amigos es 3,39. Sin embargo, para la gran mayoría de los 20 del grupo se cumple que el número de amistades con más amigos que uno mismo es una minoría.

------------------------------------------------------------------------------------------------------------
Hace tres años en el blog: O ano da morte de José Saramago.
------------------------------------------------------------------------------------------------------------

miércoles, 16 de agosto de 2017

Al monte se va con botas. La paradoja de Moore.

Nos recuerda Jesús, en su barco, la paradoja de Moore. Hela aquí en sus términos:

Considérense estas dos proposiciones, "Grecia saldrá del euro antes de 2015" y "Solbes cree que Grecia no saldrá del euro antes de 2012". ¿Son estas dos proposiciones lógicamente contradictorias? No, porque AMBAS pueden ser verdaderas a la vez. En cambio, supongamos que Solbes dice "Grecia saldrá del euro antes de 2015, pero yo creo que no". Esto sí que suena a paradoja, o sea, a autocontradicción, ¿verdad? Pero, ¿Cómo puede uno cometer una contradicción afirmando dos proposiciones que no son contradictorias?

Esta es mi contestación:

Querer manejar saberes y creencias con solo lógica proposicional nos lleva a eso. Al monte se va con botas, y para manejar creencias hacen falta más cosas. Hay varias maneras, uno puede definir varios operadores, uno que signifique "saber" y otro "creer", con axiomas distintos, pero eso es en general bastante insatisfactorio. En alguna parte debería entrar la incertidumbre que separe creencias de saberes. Si no, acaban siendo lo mismo y entonces las dos proposiciones primeras sí son contradictorias. Una vez que introducimos incertidumbre tenemos probabilidades y todo lo que eso conlleva (en particular el no liarse con la lógica proposicional para hacerle decir lo que no dice).

Una manera (no la única) de tener un modelo formal del asunto sería lo siguiente:

Ejemplo bayesiano de modelización: Antes de tener ninguna información, Grecia saldrá del euro o no con probabilidades 1/3, 2/3, respectivamente. En estas condiciones Sobes cree que no saldrá (la probabilidad es mayor).

Ahora puede haber una información que indique que la situación de Grecia es peor de lo que se pensaba, de manera que la probabilidad de que salga del euro antes de esa fecha es del 100%, pero Solbes ignora esa nueva información. Claramente se cumple que "Grecia saldrá del euro..." y que "Solbes cree que Grecia no saldrá del euro...".

En cambio, si Solbes dice "Grecia saldrá ... y yo creo que Grecia no saldrá..." estará incurriendo en contradicción, pues si tiene información para afirmar lo primero no puede afirmar también lo segundo. Por lo menos, no para cualquier sentido razonable que asignemos a esas proposiciones.

El verdadero problema es el de buscar una manera interesante y rigurosa de definir "saber" y "creer". Sostengo que esa manera interesante debe incluir considerar probabilidades y que todas las discusiones desde la lógica proposicional que las ignore están abocadas a la confusión. Una vez tengamos esto podremos resolver la paradoja. También podremos tener definiciones que la mantengan, pero tal vez no sean las interesantes.