11 de diciembre de 2014

¿Debe buscarse la extincion humana? A propósito de David Benatar. Autor: Gabriel Andrade

Las tres famosas leyes de la robótica de Isaac Asimov, postulan lo siguiente: 1) Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño; 2) Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera ley; 3) un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley.

Si bien estas leyes parecen muy propias del sentido común, e invitan a una adecuada cautela en el desarrollo de la robótica y la inteligencia artificial, muchos comentaristas han visto problemas en ellas. Los filósofos Nick Bostrom y John Leslie, por ejemplo, han advertido que, en la ejecución de estos algoritmos, las máquinas podrían interpretar que, para evitar que los seres humanos sufran, es necesario acudir a una esterilización masiva, y así, se asegurarían de que la especie humana no se reproduzca y se extinga pacíficamente: de ese modo, el robot cumpliría su deber de no permitir por inacción el sufrimiento. Por supuesto, el no tener hijos puede ser un sufrimiento para la generación estéril, pero los robots podrían interpretar que se ahorra mucho más sufrimiento haciendo desaparecer a la especie, y así, ante ese dilema, promovería la extinción humana. Pues, bajo esas acciones, no habría gente que sufra, y así, se resolvería el problema.
Esto parece monstruoso, por supuesto. Pero, el hecho de que los robots, en estricto cumplimiento de un algoritmo aparentemente racional, lleguen a esa conclusión, permitiría pensar que la extinción pacífica de la especie humana es una opción filosóficamente aceptable. De hecho, así lo han asumido los llamados filósofos ‘utilitaristas negativos’. El utilitarismo es una variante de la doctrina que identifica lo bueno con lo útil. Tradicionalmente, se asume que el imperativo utilitarista es la maximización del placer: crear la mayor cantidad de bien para el mayor número de gente posible, tal como lo postulaba la famosa frase de Bentham.
Pero, pronto aparecen problemas. Si queremos maximizar el bien, entonces aparentemente no estaría mal multiplicar la población humana, sin importar que se consiga un nivel de bienestar apenas tolerable. Con generar trillones de seres humanos que apenas sientan algún placer, se habrá creado el mayor bien para el mayor número de gente posible. Pero esto, como bien señaló el filósofo Derek Parfit, es una “conclusión repugnante”. Sabemos muy bien que un país con pequeña población, pero con buen nivel de vida (como Luxemburgo), es preferible a un país con mucha población, pero con condiciones deplorables (como Bangladesh).
Esto ha conducido a algunos utilitaristas a plantear que el mandato no debe ser la maximización del placer, sino la minimización del dolor. Pero, precisamente, para minimizar el dolor, la estrategia más fácil es, sencillamente, hacer que la gente desaparezca. Ello no implica una desaparición violenta a la manera de un genocidio, pues eso generaría mucho dolor. Pero, sí implicaría la muerte pacífica de la generación actual, y el aseguramiento de que no habría una generación de reemplazo. Para estos filósofos, el uso de métodos anticonceptivos son una obligación moral, pues con ello, se estaría impidiendo que venga al mundo gente nueva a sufrir, y así, eficazmente se minimizaría el dolor.
David Benatar es el filósofo que más defiende esta postura. A su juicio, no se hace ningún daño cuando se impide la concepción de un niño (nadie sufre por no haber nacido), pero en cambio, sí se ahorra mucho daño. En cierto sentido, el argumento de Benatar es parecido al argumento de Epicuro, según el cual, no debemos temer a la muerte, pues sencillamente, cuando la muerta está, nosotros ya no estamos, y no hay nadie para sufrir. Si no existimos, no hay problema.
He leído exhortaciones a la extinción de la especie humana por parte de filósofos como Arthur Schopenhauer, y siempre me han parecido extravagantes, propias de un tipo de filosofía alemana grandilocuente, pero insuficientemente analítica. Pero, los escritos de Benatar son harina de otro costal, pues con análisis éticos muy precisos, llega a una conclusión que parece repugnante, pero que con todo, resulta difícil de refutar. Y, además, el hecho de que los robots, quienes seguirían los lineamientos éticos que les programemos al pie de la letra, podrían terminar interpretando que es necesario el fin de nuestra especie, pareciera darle sustento a la recomendación de Benatar.
Por ahora, me parece que la mejor respuesta a la tesis de Benatar consiste, sencillamente, en rechazar el utilitarismo negativo. Si hemos de seguir el utilitarismo (y, en todo caso, es dudoso que debamos, pues el utilitarismo tiene muchos problemas), debemos seguir un mandato combinado: maximizar el placer y minimizar el dolor. Un mundo con nulo placer y nulo dolor no sería bueno, pues el placer no sería maximizado. Un mundo con mucho placer y aún más dolor tampoco sería aceptable, pues haría que aparezca un mundo parecido al que Parfit describe en su “conclusión repugnante”. Habría que buscar un intermedio: maximizar la cantidad de gente que siente placer, pero sin llegar a un punto en el que, en promedio, la vida sea muy cercana a la miseria.
Es cierto que nadie sufre por no existir, pero al mismo tiempo, el no tener la oportunidad de existir (o seguir existiendo) sí pareciera ser un tipo de pérdida. Por ello, contra Epicuro, yo argumentaría que la muerte sí es una tragedia, y que debemos hacer todo lo posible por evitarla; en este sentido, simpatizo con los transhumanistas que buscan la inmortalidad. Asimismo, contra Benatar, yo argumentaría que, si bien mis hijas seguramente van a sufrir en este mundo, tengo la esperanza de que ellas encontrarán muchos momentos de placer que, a la larga, sí harán valiosa su existencia.
Y, por último, yo recomendaría una modificación de las leyes de Asimov (pues éstas parecieran ser estrictamente utilitaristas negativas): no sólo los robots deben evitar que los seres humanos sufran, sino que también, deben maximizar sus esfuerzos por generar placer a los seres humanos. No obstante, con esto, también aparecerían otros problemas, pues como terroríficamente señala Nick Bostrom, existe la posibilidad de que los robots interpreten que la mejor forma de maximizar nuestros placeres es colocándonos en un mundo simulado (a la manera de Matrix), en el cual nunca haya dolor. Pero, este problema es ya harina de otro costal.

2 comentarios:

  1. Las "leyes" de Asimov son "leyes" en el sentido del Código Penal, no en el de un algoritmo. Lo jodido es inventar un robot que entienda lo que es una ley en el primer sentido. Y cuando lo entinda, hará lo que le salga de los bits, no lo que digan las "leyes".
    ;-)

    ResponderEliminar
  2. Un artículo muy interesante.Ya había oido propuestas "autodestructivas" del hombre.
    Si tenemos en cuenta el abuso que el ser humano hace de los recursos y empatizáramos un poco con el resto de seres vivos, tal vez medidas tan drásticas no serían propuestas viables.
    Un saludo!

    ResponderEliminar