LA MIRADA DE JOSÉ OVEJERO // Hay una escena en la película Yo, robot –leí el libro de relatos hace demasiado como para recordar si también aparece ahí-–en la que el detective Spooner tiene un accidente de tráfico; su coche y otro ocupado por un hombre y una niña caen al río. Un robot acude en su socorro y Spooner –como es de esperar– le ordena que salve a la niña y le deje morir a él. El robot desobedece.
Fundido en negro. Otra escena.
El país está asolado por una epidemia. Los hospitales están desbordados; las UCI no dan abasto; la gente muere en los pasillos. No hay respiradores para todos. Hay que tomar una decisión sobre a quién se intenta salvar y a quién se deja morir. Algunas autoridades deciden que los ancianos enfermos de gravedad no sean trasladados a los hospitales, con el fin de salvar a personas con más posibilidades de sobrevivir o de llevar una vida digna de ser vivida después de recuperarse. Se imparten las órdenes pertinentes, que son obedecidas.
Voz en off: el bien común no existe, es decir, nunca es común. Cuando se invoca es, precisamente, para restringir los derechos de una minoría o derechos que se consideran secundarios en un momento dado. En aras del bien común se expropian terrenos para construir una línea de ferrocarril o se confina a los ciudadanos para proteger la salud de la comunidad, por el bien común se delimitan zonas de baño o se prohíben ciertos vertidos en los ríos.
Todas las decisiones a favor del bien común exigen sopesar; la moralidad absoluta de esas decisiones es imposible. Adoptar criterios de moralidad máxima solo se lo pueden permitir quienes no tienen que decidir. A menudo esperamos de los políticos y reguladores que tomen esas decisiones difíciles por nosotros, y a menudo conservamos una idea falsa de nuestra pureza porque no nos manchamos la conciencia con elecciones que perjudican a un grupo; pero nos beneficiamos de ellas.
En Yo, Robot, el androide NS-5 desobedece a Spooner porque en el cálculo que realiza instantáneamente entiende que las probabilidades de sobrevivir del inspector son superiores a las de la niña (45% frente a 11%). Para él las consideraciones sentimentales no tienen valor (es una niña, se debe proteger a los más débiles, tiene muchos años por delante…).
En la novela de Kazuo Ishiguro Nunca me abandones –de la que también se hizo película–, una institución cría a niños cuyos órganos se utilizarán para trasplantes. Se les mantiene con vida todo el tiempo posible para usar el mayor número de órganos. Ellos lo aceptan como se acepta lo que no es solo inevitable, sino que está también refrendado por la mayoría. Como es lógico, ninguno de esos niños llega a viejo. ¿Es eso el bien común, sacrificar una vida –no solo eso: destinar de antemano una vida a ser sacrificada– para salvar tres o cuatro?
El androide NS-4 lo tendría muy claro. Como lo tenemos claro en nuestra sociedad al aceptar que una serie de individuos ofrezcan sus cuerpos, a cambio de una remuneración escasa, para que se realicen en ellos los ensayos de nuevas vacunas. Ya digo, el bien común no es común, y a menudo tiende a beneficiar a los privilegiados: en general son gente sin recursos quienes se convierten en cobayas para nosotros, y los ancianos enfermos con seguro médico privado sí eran derivados a los hospitales. También en el bien común hay clases.
Pero, aunque dejemos de lado la cuestión del privilegio de clase –que existe en todos los ámbitos de la sociedad y está enraizado en nuestras leyes– e independientemente de lo que hubiese hecho el androide, hay algo que no encaja en la decisión sobre los ancianos enfermos, una decisión difícil que yo no querría haber tenido en mis manos. Porque toda decisión se toma en un contexto y ese contexto puede volver inmoral incluso el hecho de tener que decidir: ¿habríamos estado en la misma situación si no se hubiese desmantelado la sanidad pública, que además ha beneficiado a muchos que dirigieron ese desmantelamiento? ¿No hay entonces una responsabilidad que vuelve culpables a quienes tomaron aquellas decisiones previas?
Otro rasgo importante del llamado bien común es que para que sea mínimamente legítimo debe partir de un consenso social, y no hay consenso posible sin información. Si, por ejemplo, el Gobierno de Madrid oculta sus decisiones, si no las somete siquiera a la Asamblea, si miente sobre cifras, fechas, razones y responsables, resulta difícil creer que sus decisiones estuviesen dirigidas a salvaguardar el bien para la mayoría y se crea la sospecha de que defendían no los intereses de todos sino los propios.
Es verdad que, independientemente de cómo se hubiese llegado a esa situación, en las circunstancias de ese momento había que tomar una decisión: salvar a unos o salvar a otros; la niña o Spooner; optar por los ciudadanos productivos o por los no productivos –como llamó a los ancianos el círculo de empresarios de Valladolid–; las probabilidades o la defensa de los débiles.
Spooner guardaba rencor a los robots porque uno de ellos dejó morir a la niña, un acto racional pero inmoral para él. “Un humano lo habría entendido”, dice. Y a lo mejor es eso, que muchos de los que nos gobiernan manejan estadísticas, probabilidades, cálculos electorales –que exigen ocultar las decisiones erróneas y las supuestas motivaciones corruptas–, en lugar de enfrentarse a esas difíciles decisiones de manera honesta, buscando no solo un consenso, sino un consenso lo más justo y amplio posible, en el que estuviesen involucrados los médicos, enfermeros, cuidadores, familiares, pacientes…
Quizá hubiesen aparecido otras posibilidades que no se exploraron. Quizá al final la decisión habría sido la misma, pero el acto de decidir sí habría sido distinto. Seleccionar a los vivos y a los muertos, un último recurso que no sabremos si fue de verdad necesario, nunca debería hacerse a escondidas y mezclando en ello los intereses del partido o los personales, y tampoco estableciendo categorías de clase. Eso también un humano lo habría entendido. De hecho, incluso lo habría entendido un androide.