Los cuatro periplos de Hilary Putnam: el periplo cronológico

El pasado 13 de marzo falleció el filósofo estadounidense Hilary Putnam. Con su muerte, la filosofía académica pierde a uno de los pocos «filósofos totales» todavía vivos. Es esta una denominación que define a aquellos pensadores que han cubierto de forma competente y muy personal, y desde una sólida formación humanística y científica, una gran variedad de disciplinas filosóficas. En este sentido, Putnam comparte podio con eximias y venerables figuras como Nicholas Rescher o Mario Bunge. Por fortuna, éstos aún habitan entre nosotros.

En efecto, Putnam ha abarcado en su quehacer de pensador cuestiones relacionadas con la fillosofía matemática, la filosofía de la computación, la filosofía de la ciencia, la filosofía del lenguaje y de la mente, la epistemología, la filosofía moral y la filosofía política. También ha realizado contribuciones importantes en estudios metamatemáticos de gran perfil técnico, como la resolución, en un sentido negativo, del décimo problema de Hilbert, relacionado con la existencia de algoritmos para la búsqueda de valores enteros que satisfagan las ecuaciones diofánticas (ecuaciones cuyos coeficientes son también números enteros). Esta formación matemática ha orientado, según creo, la forma en la que Putnam ha abordado algunos de sus estudios filosóficos más importantes y la manera en la que ha respondido a estas cuestiones.

Suele señalarse que la trayectoria intelectual de Putnam ha estado marcada por una serie de  volantazos que han causado algunos llamativos cambios de carril en su producción filosófica. Y es cierto, como veremos, que nuestro pensador ha atravesado distintos paradigmas filosóficos a lo largo de su dilatada carrera. Pero también es verdad que hay una continuidad que subyace al conjunto de su obra. Comentaremos ambos aspectos más adelante. Lo que parece importante resaltar en estos preliminares es el profundo compromiso de Putnam con la filosofía, como actividad diferenciada del resto de saberes humanos. A diferencia de sus mentores intelectuales, los positivistas lógicos (Hans Reichenbach fue el director de su tesis doctoral), Putnam siempre trato de sustanciar el pensamiento filosófico más allá de una pura caracterización lingüística y lógica del pensar. A diferencia de otros filósofos coetáneos como Michael Dummett o Richard Rorty, Putnam se resistió a la banalización conceptual de la noción de «verdad» (frente a Dummett) y fintó como pudo los embates del relativismo epistemológico (frente a Rorty). A diferencia de lo que Putnam consideraba como «dogma cientificista» del conocimiento, nuestro pensador no dudo en pasarse con armas y bagajes filosóficos a la trinchera de las humanidades (sobre todo en su última etapa intelectual Putnam sostuvo que la filosofía era un saber humanístico, no científico). Además, Putnam abordó prácticamente sin solución de continuidad algunas obsesiones filosóficas típicamente académicas: léase la referencia, la intencionalidad, la verdad, el significado o la relación mente-cuerpo. En este sentido, y como se verá más adelante, nuestro filósofo nunca dejó de responder al estereotipo de pensador académico, en curioso contraste con su marcado activismo político en los años sesenta y setenta.

Después de este breve desglose, pretendo abordar con inevitable trazo grueso el itinerario filosófico de Putnam desde cuatro puntos de vista. Y ya que el propio Putnam consideraría la actividad filosófica como una Peregrinatio academica, vamos a sugerir algunos periplos temáticos que, espero, ayudarán a entender un poco la obra de este ilustre pensador.

En primer lugar, el inevitable periplo cronológico, o biografía intelectual, que situará la evolución de la obra putnamiana a lo largo de tres estadios más o menos bien definidos. No se trata de un mero ejercicio escolar, sino de una descripción útil que permitirá encuadrar el pensamiento de nuestro autor.

En segundo lugar, el periplo icónico. Putnam, como otros muchos filósofos, acostumbraba a recurrir a experimentos mentales y a figuraciones de lo cotidiano para ilustrar sus puntos de vista. En su caso, han alcanzado expecial fortuna los experimentos mentales de los Cerebros en Cubetas y la Tierra Gemela. También ha utilizado imágenes familiares, como gatos sobre esteras, a modo de ejemplos de sus postulados sobre el llamado «problema de la referencia».

En tercer lugar, el periplo proponedor, que pretende recoger algunas de las tesis más celebradas de nuestro filósofo, como el funcionalismo mental, la teoría causal de la referencia, la relatividad conceptual, la equivalencia descriptiva o la inseparabilidad entre hecho y valor.

En cuarto y último lugar, el periplo patético (de pathos). En él, pretendo listar algunas de las guías emocionales de Putnam destinadas, en cierto modo, a convencer a sus lectores de la necesidad de asumir ciertos compromisos filosóficos. Entre éstos, la destrucción de la dicotomía entre el realismo metafísico y el relativismo, el diálogo conflictivo con el relativismo, la reivindicación de una agenda propia para la filosofía, la relevancia del sentido común y del marco democrático de discusión y la idea que, en cierto modo, corona a todas las anteriores: el florecimiento humano o eudaimonía.

Podríamos, sin duda, insertar un quinto periplo, el periplo vital. Pues Hilary Putnam no se limitó a ser un estereotipo de brillante y parsimonioso pensador académico. Antes bien, sus compromisos políticos, su inicial ateísmo y su posterior conversión al judaísmo (él era judío por parte de madre) hacen de él un personaje con un indudable interés biográfico. Putnam desarrolló una intensa actividad política en los años sesenta y setenta en favor de los derechos civiles en Estados Unidos y en contra de la guerra de Vietnam. Militó durante un tiempo en el Partido Progresista del Trabajo (Progressive Labor Party), una formación marxista escindida del Partido Comunista de Estados Unidos en 1962, que posteriormente abandonó. No obstante, nunca se desligó del todo de su compromiso social y preservó siempre  un enfoque progresista. No me adentraré, sin embargo, en esta interesante faceta de nuestro autor y preferiré centrarme en los aspectos puramente filosóficos de su biografía.

En esta primera entrada detallaremos el periplo cronológico. En una entrada posterior enfrentaremos el resto de periplos y trataremos de extraer algunas conclusiones sobre el carácter del pensamiento filosófico de Putnam. Por cierto, el libro del profesor Moris Polanco, Realismo y pragmatismo. Biografía intelectual de Hilary Putnam es un excelente estudio preliminar para los interesados en la filosofía putnamiana. De él se han tomado un número no pequeño de contenidos en el desarrollo de esta entrada, incluida la periodificación en diferentes etapas de la filosofía de Putnam y la caracterización de los aspectos más notables en cada una de ellas.

Vayamos, pues.

Putnam

Hilary Putnam (1926-2016). Imagen tomada de Wikipedia.

El periplo cronológico

Es habitual dividir el trayecto filosófico de Hilary Putnam en tres períodos más o menos bien establecidos. Un primer período, llamado de realismo metafísico, abarca el intervalo comprendido entre los años 1957 y 1976. En estos años, Putnam se centra fundamentalmente en cuestiones de filosofía de la lógica, filosofía de la ciencia y de las matemáticas y filosofía del lenguaje. En muchos casos, las diferencias con respecto al segundo período, el de realismo interno (que encaja temporalmente entre los años 1977 y 1985) son más de matiz o de énfasis en distintos problemas que de contenidos sustanciales. Pues en este segundo período la atención del filósofo se dirige hacia cuestiones semánticas, especialmente la referencia, la intencionalidad, la relatividad conceptual y la definición de «verdad».

En realidad, Putnam nunca fue un realista metafísico sensu stricto. Nunca afirmó la existencia completa y acabada de una realidad física exterior con un amueblamiento completo y perfectamente definido de cosas, propiedades y estados ya conceptualizados (ésta es una expresión del propio Putnam), ni tampoco sostuvo la posibilidad de una única teoría verdadera que describiera isomórficamente el mundo con base en una noción de verdad como correspondencia perfecta entre las palabras y las cosas, o entre las teorías y los estados de cosas. En su etapa de realismo «metafísico», sus intereses reflexivos van encaminados hacia cuestiones más concretas. Por ejemplo, la tesis del carácter semiempírico de la lógica, la matemática y de la geometría (Putnam afirmará que las nociones matemáticas se refieren a objetos reales, aunque no se trate de objetos propios ideales o platónicos). O la naturaleza esencialmente trivalente de la lógica de los fenómenos microcósmicos, un ámbito en el que las proposiciones pueden ser verdaderas, falsas, o poseer un valor de verdad indeterminado. Al igual que la función de onda, Putnam sostiene en este momento que la lógica cuántica trivalente «colapsa» en una lógica clásica bivalente aplicable al meso- y al macrocosmos.

Lo que en realidad define este período como metafísico es la hipótesis del funcionalismo y la defensa de algunos postulados habituales en este escenario, como la existencia independiente de la mente de los objetos de los que la ciencia se ocupa (ya sean electrones o gatos en esteras) o la consideración de las teorías científicas como aproximaciones sucesivas a la verdad, y no como conjeturas provisionales more Popper. Putnam propone  la tesis funcionalista como una interpretación de la naturaleza de los estados mentales que no sea deudora del materialismo fisicista de la teoría de la identidad. Esta teoría defiende la correspondencia biunívoca (uno a uno) entre estados mentales y estados cerebrales: cada estado mental es un estado cerebral físicoquímicamente determinado. Putnam, por el contrario, equipara los estados mentales a estados funcionales (inspirados en la teoría de la computación de Turing) y dice que los estados cerebrales son sólo instancias concretas de los estados funcionales; éstos podrían quedar también instanciados en soportes no biológicos, como circuitos impresos y redes de microchips, por ejemplo.

En el ámbito de este primer realismo también defiende Putnam la tesis no epistémica de la verdad, lo que viene a querer decir que la verdad de una afirmación referida a un objeto o a un estado de cosas  va más allá de las posibilidades de verificación empírica de esa afirmación. La razón estribaría en que los hablantes nunca pueden conocer completamente la naturaleza de las cosas a las que se refieren. No obstante lo cual, se pretende hacer valer la existencia de una cierta relación de correspondencia entre las palabras y las cosas; se trata de un guiño a la tradicional teoría realista de la verdad (la verdad como correspondencia). Ahora bien, en estos años de supuesto realismo metafísico Putnam idea ya dos de sus propuestas más célebres, y que mantendrá a lo largo de su larga carrera: se trata de la tesis de la relatividad conceptual y de la teoría causal de la referencia.

La primera dice que pueden existir múltiples descripciones epistémicamente equivalentes de la realidad física y que no existe un contexto de interpretación privilegiado, por la sencilla razón de que la compartimentación del mundo externo en objetos o grupos de objetos, así como la identificación de propiedades y relaciones entre aquéllos y la caracterización de estados, eventos y procesos es algo que corre de nuestra cuenta en tanto criaturas pensantes.  Por supuesto, no se trata de modelos interpretativos caprichosos, porque su mayor o menor bondad epistemológica va a venir dada por su mejor o peor funcionamiento y su grado de eficacia. Esto es lo que Putnam denomina una «negociación» entre la teoría en cuestión y la propia realidad. De este modo, el filósofo busca escapar del relativismo constructivista por el que siente un profundo rechazo. O al menos eso dice él, y tenemos la obligación de creerle.

La teoría causal de la referencia, por su parte, sostiene que el significado de las palabras y de las proposiciones no es un fenómeno puramente mental; es decir, no se trata de un determinado estado psicológico del hablante que establece de forma inequívoca la extensión del término en el que está pensando (la extensión de un término es el conjunto de cosas u objetos abarcados por dicho término). Más bien al contrario, es la propia realidad externa, aunque conceptualizada por nosotros, la que determina a qué cosas u objetos se refiere el término en cuestión. De este modo, la causa de la referencia no es mental, o no es sólo mental, sino también externa a la mente del hablante. Putnam completará esta teoría causal con una teoría social de la referencia, en el que los objetos o cosas referidos por un término vienen determinados por el uso del lenguaje que lleva a cabo una comunidad lingüística en «negociación» con la realidad conceptualizada. Para ilustrar esta tesis, nuestro autor nos llevará de viaje hacia una Tierra Gemela idéntica en todo a nuestra Tierra salvo por el hecho de que allí, el agua es un líquido de composición química diferente a nuestro «agua». Más adelante veremos de qué trata todo esto.

El período de realismo interno -consagrado y desarrollado en su libro Reason, Truth and History («Razón, verdad e historia») de 1981 mantiene esencialmente inalteradas -de hecho, quedan reforzadas- las dos tesis que he mencionado arriba, pero conlleva algunos cambios significativos en otros aspectos. Por ejemplo, renuncia a la teoría funcionalista de la mente por entender que se trata de una versión suavizada de la teoría de la identidad. También modifica su tesis sobre la verdad: de una noción no epistémica y no verificacionista (una proposición puede ser verdadera pero imposible de verificar) transita hacia una concepción aledaña al verificacionismo: la verdad será ahora equivalente a una justificación -aceptabilidad- racional idealizada. Y estas condiciones ideales de aceptabilidad racional remiten a una especie de función trascendente de la razón, algo que va a poner en contacto el recién estrenado realismo internalista de Putnam con la teoría kantiana del conocimiento. Pero en lo que más parece identificarse el filósofo americano con el ilustre pensador alemán es en la aceptación del papel de la mente como reguladora conceptual del mundo, como, diríamos, «amuebladora» de la realidad física exterior. Aunque, todo hay que apuntarlo, Putnam rechaza la idea de una realidad nouménica incognoscible, y ésta no es una diferencia pequeña. El lema de esta nueva fase en el pensamiento putnamiano podría ser una frase ya consagrada en su obra: «La mente y el mundo construyen conjuntamente la mente y el mundo». O bien, expresado de manera algo diferente: «los objetos son tanto construidos por nosotros como descubiertos por la experiencia».

En el realismo interno cobra una fuerza especial la teoría causal de la referencia como debeladora de algo que a Putnam le parece inquietante: la interpretación «mágica» de la referencia. Putnam problematiza de una forma pormenorizada el problema de la referencia y el aledaño problema de la intencionalidad. ¿Qué es lo que hace que nos refiramos a los objetos del mundo? ¿Es la referencia algún tipo de relación sustancial que empareja las palabras (los pensamientos, las imágenes mentales) con las cosas? ¿Cuál es la mediación, si la hay, entre la mente y el mundo a la hora de producir interpretaciones -teorías- verosímiles y que demuestran su eficacia en la manipulación del mundo físico y en la predicción acertada de eventos y procesos exteriores a la mente? Putnam tratará de responder a estos interrogantes echando mano de su tesis reforzada de la relatividad conceptual y de la equivalencia de las descripciones: si el amueblamiento del mundo, su partición en cosas y conjuntos de cosas, o en clases naturales de cosas es fruto de la mente humana al aplicar las habilidades de uso lingüístico que se dan en su comunidad, habilidades que surge de la «negociación» con el mundo, entonces el problema de la referencia se diluye, se convierte en un pseudoproblema. Y esto es así porque el presunto misterio de la correspondencia entre las palabras  y las cosas se transparenta en una corespondencia entre nuestros signos lingüísticos y nuestros propios conceptos, conceptos que reflejan una partición verosímil del mundo en cosas, conjuntos de cosas, estados de cosas y relaciones entre éstas. Y lo que separa a esta perspectiva del relativismo metafísico es, justamente, el enganche con la realidad, una realidad preexistente pero inconceptualizada. La referencia, esa extraña cualidad de correspondencia entre las palabras y las cosas, es siempre interna a un marco conceptual, a una partición teórica del mundo en objetos de uno u otro tipo, a un amueblamiento sobreimpuesto al entorno de los mentantes.

El tercer período, conocido como el del realismo directo, humano o natural, arranca en el año 1986, año anterior a la publicación del libro The Many Faces of Realism (1987) y se prolonga hasta los últimos días de nuestro filósofo. Dos insistencias marcan esta época: el rechazo de la teoría de los datos sensoriales (sense-data) y de las representaciones mentales como intermediarios entre la mente y el mundo y la pulsión pragmatista, que solidifica en una sentida reflexión sobre la naturaleza de la labor filosófica, la democracia como marco inevitable de discusión e intercambio libre de opiniones y, sobre todo, la idea de florecimiento humano o eudaimonía, verdadera piedra angular del edificio intelectual putnamiano, especialmente en este período.

Por una parte, el rechazo de la tesis de las representaciones mentales como intermediarios entre la mente y el mundo es resultado de la insatisfacción de Putnam con el propio concepto de intermediario mental. Pues, tal y como lo ve ahora, las representaciones mentales son, en definitiva, parte de la mente y por tanto no constituyen una interfaz válida que permita una comunicación real de doble cara entre el ser mentante y el mundo exterior. Animado por la lectura de los pragmatistas americanos, en especial William James y John Dewey, y por el filófoso británico John Austin, Putnam parece decidirse por un «giro hacia la inocencia» y aceptar la colisión directa entre la mente y el mundo: conocemos, no las cosas del mundo a través de nuestras representaciones mentales, sino las cosas del mundo directamente, sin intermediación alguna. En esta nueva transición intelectual, nuestro autor encontrará un nuevo apoyo filosófico en el segundo Wittgenstein, el de las Investigaciones Filosóficas y los juegos de lenguaje.

El realismo directo es un realismo de sentido común y un rechazo de las consecuencias epistemológicas de la escisión cartesiana entre un conjunto de estados mentales internos y un mundo exterior perfectamente amueblado y sólo describible por una única teoría definitivamente verdadera. Se trata de reivindicar el «sentido común» y el entramado de conceptos e ideas que emanan de él; se trata de repensar filosóficamente ese sentido común. Ahora bien, no se trata de recomponer alguna forma de realismo metafísico; antes bien, las tesis de la relatividad conceptual y la equivalencia de las descripciones siguen teniendo rabiosa vigencia en Putnam, al igual que el papel cuasitaumatúrgico del lenguaje y la habilidades y usos lingüísticos en la configuración de los hechos y el carácter de la verdad como un tipo de aceptación racional justificada. Prestemos entonces atención al enganche con el sistema de valores: aquél se da a través de la racionalidad, que opera como presuposición básica todo lo anterior (por ejemplo, de la producción conceptual de hechos), y presupone a su vez las ideas de coherencia, completitud inferencial, análisis de consecuencias, elección de medios y fines y otras similares. Tales ideas son otras tantas expresiones de valores humanos. Y así, mediante conexiones indirectas pero secuenciales llega a establecerse la pertenencia de los hechos y los valores a una misma realidad original.

La realidad de lo que supone ser un ser humano.

Publicado en Filosofía, Personajes | Etiquetado , | Deja un comentario

La insoportable levedad del test de Turing y la filosofía del Minotauro

Ojalá me lleve a un lugar con menos galerías y menos puertas. ¿Cómo será mi redentor?, me pregunto. ¿Será un toro o un hombre? ¿Será tal vez un toro con cara de hombre? ¿O será como yo?
[Jorge Luis Borges, «La casa de Asterión»]

NOTA PREVIA. Esta entrada quiere ser una reflexión filosófica sobre el denominado ‘test de Turing’, un experimento que pretende responder al interrogante sobre la capacidad pensante de las computadoras, tal y como Alan Turing lo planteó en su artículo de 1950 ‘Computing Machinery and Intelligence’. No se pretende, por tanto, elaborar una crítica de amplio alcance sobre la Inteligencia Artificial, ni sobre la posibilidad de que los ordenadores puedan llegar a pensar algún día, ni sobre la naturaleza computacional o no computacional del funcionamiento mental de los seres humanos, ni siquiera sobre la teoría materialista de la mente o sobre la perspectiva dualista mente-cuerpo. Trata este texto, por tanto, de ceñirse al diseño original de la prueba de Turing, a hacer explícitas algunas asunciones tácitas de dicha prueba, a realizar una crítica filosófica de tales asunciones y a extraer algunas consecuencias derivadas de aquéllas, como quien extrae el hilo de una madeja. Pero este desmadejado no siempre conduce a una zona limpia y clara: a veces, como en el caso de Teseo, uno se da de bruces con el Minotauro. Tal vez sea éste el caso.

Imaginemos la siguiente situación, haciendo abstracción de sus implicaciones éticas e incluso penales. Deseo gastar una broma a un amigo. Es un amigo soltero que frecuenta los canales de contactos por internet, en busca de pareja. Su canal preferido es uno cuya configuración permite que el intercambio de mensajes entre dos personas pueda ser observado, en modo oculto, por uno o  más terceros. Conozco bien a mi amigo, sé de sus gustos en cuestión de mujeres -vamos a suponer que es heterosexual, aunque esto resulta irrelevante para nuestro propósito- y de sus aficiones literarias, deportivas, gastronómicas y cinematográficas. Creando un perfil falso de mujer, el perfil A, me introduzco en ese canal y busco establecer un primer contacto con él. Al mismo tiempo, me aseguro de que ese intercambio esté a la vista de terceras personas en modo oculto para mi amigo, aunque no para mí. De un modo similar, puedo acceder a un foro paralelo, dentro del canal bajo un segundo perfil de usuario, el perfil B, en el que esos «mirones» intercambian sus propios puntos de vista. Poco a poco empiezo a mantener conversaciones cada vez más largas con mi amigo, siempre bajo el escondido escrutinio de los otros usuarios. Al cabo de un tiempo, los mensajes entre mi amigo y mi falso perfil femenino A llegan a ser extremadamente afectuosos. Conforme avanza nuestra relación virtual, voy leyendo y clasificando los comentarios que en el foro paralelo realizan nuestros emboscados observadores, sin intervenir en ellos o interviniendo de forma trivial bajo el perfil B. Transcurrido un tiempo prudencial, introduzco en el foro oculto de comentaristas la siguiente pregunta: ¿vosotros creéis que Menganita (en referencia a mi perfil de usuario A) se ha enamorado de Fulanito (en referencia a mi amigo)? Supongamos que de los veinte mirones ocultos, catorce opinan que sí y seis, que no. Es decir, un 70 % de los consultados afirman que Menganita (mi perfil A) se ha enamorado de Fulanito (mi amigo). ¿Sería lícito concluir que, puesto que hay una conspicua mayoría que así lo cree, Fulanita ama a Menganito? ¿Que existe un amor -tal vez correspondido, tal vez no, pero eso poco importa- entre ambos usuarios del canal de contactos?

Describamos una segunda situación, ésta real. Se trata del famoso experimento de Milgram, llevado a cabo por Stanley Migram, profesor de psicología de la Universidad de Yale, en 1963. En él, y con la excusa de la realización de una serie de estudios sobre el aprendizaje y la memoria, Milgram y su equipo diseñaron un experimento en el que unos cuantos voluntarios recibieron instrucciones de interrogar  sobre cuestiones triviales a un grupo de personas y de aplicar un castigo en forma de descarga eléctrica a aquéllas que respondiesen erróneamente. En la escenificación del experimento, el investigador y el voluntario se sentaban a un mismo lado de una mesa; al otro lado, y separada por una mampara que la ocultaba a la vista, se colocaba la persona interrogada. El voluntario debía aplicar descargas eléctricas de voltaje creciente -enre 45 y 450 voltios- a los sujetos interrogados que fallaran progresivamente en sus respuestas a las preguntas formuladas, siempre bajo la supervisión y la responsabilidad última del investigador. Conforme el voltaje aplicado aumentaba, los interrogados manifestaban un dolor cada vez mayor por medio de gritos, convulsiones y golpes en la mampara de separación. Por supuesto, el experimento era un simulación en todos sus aspectos: las personas interrogadas eran, en realidad, colaboradores del equipo de Milgram que debían fingir dolor y el cableado y el equipo de descargas eran falsos. Pero los voluntarios ignoraban ambos extremos. Los datos recabados tras la finalización de los ensayos fueron ciertamente sorprendentes: por supuesto, todos los voluntarios creían haber infligido daños físicos a las personas a las que habían interrogado. Más allá del intenso debate ético que el experimento ocasionó, y prescindiendo de consideraciones psicológicas y morales sobre la idoneidad de este tipo de protocolos experimentales, la cuestión que nos interesa es la siguiente: puesto que todos los voluntarios cayeron en el engaño de la simulación y creyeron sinceramente que estaban causando sufrimiento físico a otras personas, ¿realmente existió este daño físico?

Las dos situaciones descritas más arriba plantean una misma cuestión: ¿es condición suficiente para la existencia de un estado mental la creencia (por consenso o por amplia mayoría) de que tal estado mental existe? O, en otras palabras, ¿puede la existencia de un estado mental ampliamente compartido en un grupo de personas (la creencia, en este caso) producir o generar la existencia de un estado mental diferente (el amor o el sufrimiento) en una persona distinta, que no pertenece al grupo?

Esta pregunta subyace, se quiera o no, a uno de los textos científicos más importantes de los últimos cincuenta años, el artículo Computing Machinery and Intelligence («Máquinas de computación e inteligencia», aquí en castellano), que el matemático  británico Alan Turing publicó en la revista Mind en 1950. Se considera que este escrito constituye una reflexión seminal en el desarrollo de la inteligencia artificial y en el enfoque funcionalista del estudio de la mente y de su correspondiente aderezo filosófico, la perspectiva funcionalista y computacional de la naturaleza e los estados mentales.

Por supuesto, la interpretación habitual de este texto es que se trata de una exposición brillante y original -y ciertamente lo es, situada en su contexto histórico- sobre la capacidad que tienen las máquinas computadoras para «pensar». El propio artículo desvela al mundo sus intenciones en su mismo comienzo: Propongo someter a consideración la siguiente pregunta: ‘¿pueden pensar las maquinas?’.  Más que la respuesta a esta pregunta, que el propio autor no ofrece de una manera clara, lo interesante del artículo es el enfoque que presenta y los supuestos implícitos de los que parte, que se dan por obvios, pero que no lo son en absoluto.

Puesto que Turing se confiesa incapaz de definir lo qué es «pensar», ofrece una solución tan pragmática como arbitraria, y se remite al conocido «juego de imitación». Las dos situaciones que se han descrito al comienzo de esta entrada ilustran dos variantes de este juego, aunque Turing parte de una versión original ligeramente distinta que luego modifica para adaptarla a un hipotético experimento con máquinas computadoras. Algunos autores han llegado a identificar hasta tres variantes del juego de imitación, pero la idea original no resulta afectada, en lo esencial. Se trata de ver si a través de un juego de preguntas y respuestas entre dos participantes, que no se ven las caras ni se pueden oir, uno de ellos consigue engañar al  otro acerca de su identidad. En el caso del test de Turing, se trata de confrontar a un interlocutor humano de forma aleatoria con otro ser humano o con una máquina computadora, sin que el primer interlocutor conozca en cada momento la identidad de su contraparte. Si la persona que está realizando el test no es capaz de distinguir, en una proporción preestablecida de los ensayos, si su contraparte es otra persona o si es una máquina computadora, entonces uno está legitimado para afirmar que la máquina en cuestión, «piensa». Turing se atreve incluso a proporcionar un criterio numérico: si el examinador promedio no logra la identificación correcta más que un máximo de siete de cada diez veces durante intervalos de cinco minutos de preguntas y respuestas, puede afirmarse que la máquina ha superado el juego de imitación. Puede afirmarse que la máquina piensa.

The_Imitation_Game     Turing_Test_Version_1        Turing_Test_version_3

De izquierda a derecha: el juego original de imitación con tres interlocutores humanos, el juego de imitación con la sustitución de uno de los interlocutores oculto por una computadora y por último, la interpretación estándar del test de Turing, que aparece en el artículo ‘Computing Machinery and Intelligence’.   [Gráficos tomados del artículo de Wikipedia «El test de Turing»].

No es difícil darse cuenta de que la transición desde la pregunta original «¿pueden pensar las maquinas?» hasta la pregunta «¿pueden las máquinas computadoras pasar satisfactoriamente el juego de imitación»? se convierte en un enorme salto metodológico al vacío que Turing no se molesta en justificar más que con la ayuda de un argumento ad ignorantiam: puesto que no sabemos exactamente qué significa «pensar» y qué significa «máquina», utilícese un critero operacionalista que sustituya el significado de nuestro objeto de estudio por el diseño experimental de un test de control. Diseño experimental que por fuerza, y malgré el empirismo ingenuo, ha de incluir una idea preliminar de aquello que se quiere testar, aunque sea una idea que se maneja como si se tratara de una caja negra conceptual. Una caja negra de la que, sin embargo, se extraen algunas características observables. O, por mejor decir, las características que Turing postula como observables. Y este es el problema  que suelen arrastrar los criterios operacionalistas o empiristas del significado: la selección arbitraria de ciertas propiedades fenoménicas, visibles, de un objeto de estudio que funciona como una caja negra y del que ni siquiera se intenta una definición preliminar, siquiera a título provisional.

Dejando aparte el hecho de que, en la investigación científica, dar prioridad a la metodología sobre la semántica no es una buena idea -un investigador debería saber qué es lo que quiere estudiar antes de diseñar el correspondiente protocolo experimental, el qué antes del cómo– la propia selección de las mentadas características puede conducir a un sesgo indeseado en las conclusiones. ¿Por qué, por ejemplo, decide Turing que el juego de imitación, un juego basado en preguntas y respuestas sobre una variedad de temas, es más adecuado para monitorizar la capacidad pensante de una computadora que la realización de un complicado cálculo numérico? La única justificación que ofrece es que la realización de tales cálculos delataría de inmediato a la máquina en el propio juego de imitación. Pero se trata de una respuesta circular, ya que presupone el propio contenido de la pregunta. O, de otro modo, ¿por qué la capacidad de una computadora para jugar al ajedrez, o a una versión complicada del Tres en Raya, no se considera un criterio de inteligencia pensante suficientemente válido? Pues los juegos son, en el fondo, interacciones dialogadas a través de la utilización de un lenguaje normado, interacciones que echan mano de la capacidad de observación atenta, anticipación, razonamiento y  argumentación inferencial, características igualmente observables en lo que se entiende como «pensar». Y en esto, los fenomenistas y los empiristas lógicos estarían de acuerdo. Pero Turing no entra en explicaciones. Last but no least, en la época del floruit intelectual de Alan Turing existían varias definiciones y estudios disponibles sobre la mente y la actividad pensante, definiciones y estudios que podrían haber servido como una primera referencia para el diseño del experimento de las máquinas pensantes, pero nuestro autor parece ignorarlos deliberadamente.

A esta primera objeción, de carácter metodológico, cabría añadir una segunda, muy vinculada a ésta, pero con un perfil más epistemológico e incluso con cierta derivaciones ontológicas. En efecto, más allá de los cuestionables principios operativos del test de Turing, el instrumental epistémico que se pone en uso no puede ser más objetable. Veamos: se trata de determinar si realmente el hecho de que una computadora «supere» el juego de imitación -bajo la doble arbitrariedad de la elección del propio juego y del criterio numérico establecido para sancionar esa superación- implica que esa computadora pueda pensar. ¿Qué justificación presenta Turing en favor de esa tesis? Lo único que nuestro matemático puede alegar en su favor es el conductismo ingenuo y el criterio empirista del significado. El primero niega la pertinencia de los estados mentales en el estudio científico del comportamiento y sólo toma en consideración la conductas manifiestas. El segundo afirma que sólo las proposiciones protocolares que describen lo observado en un experimento o cuyo contenido puede ser confirmado por la experiencia tienen significado cognoscitivo. Contra el conductismo ingenuo, el propio Turing introduce la función mental del «pensar» como el objeto de estudio que debe ser testado; es decir, da por supuesta la existencia del pensamiento como un estado de la mente, aunque rehúse definirlo. Contra el criterio empirista del significado cabe argüir que todo diseño experimental y toda recolección de datos debe partir de una criba previa sistemática, cuyo fundamento es el conjunto de suposiciones teóricas preexperimentales que establecen cuáles son los datos pertinentes, a efectos explicativos, predictivos y confirmatorios o no confirmatorios. No todas las conversaciones, reales o simuladas, son expresiones fidedignas de la actividad pensante de los seres racionales. Pero Turing no establece un criterio preliminar en este sentido, porque no tiene una teoría sobre el pensamiento.

Además, la conclusión del experimento de simulación se apoya en la agregación de los resultados procedentes de los estados subjetivos y de las percepciones interiores de los participantes (su capacidad para ser o no ser «engañados» por la simulación computacional de una discusión con otra persona) , más que en el tratamiento estadístico de una serie de datos evaluables de forma objetiva y con márgenes definidos de error experimental. La agrupación de creencias individuales coincidentes -por ejemplo, coincidentes en que el interlocutor es un ser humano y no una máquina- no deja de ser una creencia agrupada o, si se quiere, una creencia compartida entre varios o entre muchos, pero creencia, al fin y al cabo ¿Es epistémicamente riguroso postular la existencia de un estado mental con base únicamente en la existencia de otro estado mental más o menos compartido? Retomando la primera situación con la que se abre esta entrada, ¿hay algún tipo de robustez inferencial en concluir que existe un estado mental de amor en una persona tan sólo porque existe otro estado mental compartido por terceros -la creencia o convicción más o menos conspicua- que así lo estipula?

Pero del planteamiento del test de Turing pueden, además, inferirse legítimamente algunas cuestiones ontológicas. Estas cuestiones cobrarían forma a través de una interpretación estricta y rigurosa de la propuesta de nuestro autor. Pues si lo que se propone en Computing Machinery and Intelligence es que la existencia de capacidad pensante en computadoras depende de una decisión basada en un agregado de reacciones individuales en el juego de simulación y en un cierto criterio numérico de corte aplicado sobre dicho agregado, ¿no se está afirmando que la existencia del pensamiento -y de la mente como conjunto de estados y funciones mentales- en un individuo o entidad surge de un acto volitivo -la decisión de postular esa existencia-, que no es, mutatis mutandis, sino otro estado mental, otra forma de pensamiento? ¿un acto volitivo que es además, exterior al individuo o entidad del que se postula su capacidad pensante? Ya no estamos hablando de la inferencia de la existencia de otras mentes por medio de un procedimiento epistemológicamente deficiente, sino de la creación de esas otras mentes por un acto, también mental, externo a éstas.  Una propuesta de esta naturaleza se situaría a medio camino entre el idealismo subjetivo clásico y un particular solipsismo colectivo de alcance reducido. Llevaría implícita, además, una confusión muy meritoria entre creer y crear. Volviendo a los dos ejemplos con los que se abre esta entrada, la aplicación estricta de los supuestos del test de Turing nos permitirían concluir que la creencia mayoritaria de los usuarios ocultos del canal de contactos en el enamoramiento de Menganita (mi falso perfil A de usuario) crearía, de hecho, ese amor en tanto estado mental. También nos daría todas las facilidades para afirmar que los voluntarios en el experimento de Milgran estaban generando un dolor real, tan sólo por su propia convicción de que tal dolor estaba ahí.

No acaba aquí el deshilachado de las consecuencias filosóficas que se derivan del test de Turing. Si, en efecto, sancionamos como pensante a un dispositivo computacional capaz de superar el juego de imitación (con independencia de las anteriores consideraciones epistemológicas y ontológicas), nos vemos obligados a preguntarnos si tal dispositivo puede conceptuarse como un ser vivo.  Hasta el momento, todo nuestro conocimiento científicamente avalado sobre pensamiento, mentes e inteligencias remite a los portadores de tales propiedades, es decir, a los organismos con un sistema nervioso mínimamente desarrollado. No consta, dado el estado actual de nuestro conocimiento, la existencia de mentes intangibles o incorpóreas o, como diría Gilber Ryle, de «fantasmas» dentro de máquinas. Y el enorme desarrollo experimental de la neurofisiologia cognitiva y emocional no sanciona de ningún modo esa tesis platónica y cartesiana. Más bien al contrario, los estados mentales, y la propia mente entendida como un conjunto (esto es, un objeto conceptual, no real, en el sentido de Bunge) de funciones mentales se identifican con procesos cerebrales empíricamente detectables. Lo que viene a avalar los supuestos de la teoría materialista de la mente de que no existen las mentes, sino los organismos «mentantes». Pero estas afirmaciones colocan a los postulantes convencidos del test de Turing ante un dilema importante: o aceptan que el juego de imitación no es un diseño válido para detectar capacidades pensantes o, si persisten en su empeño, han de certificar que las máquinas pensantes son, en algún sentido, seres vivos. O bien se mantienen fieles a una ontología idealista de corte platónico y, en contra de la creciente evidencia científica, siguen defendiendo la existencia de estados mentales inmateriales extracorpóreos. Algo que, por cierto, no resulta infrecuente entre matemáticos y, tal vez, entre programadores informáticos.

El artículo de Turing, pese a todo, ofrece interesantes reflexiones sobre las relaciones entre pensamiento y computación. Mencionemos unas cuantas.

  1. La tesis de que la capacidad de almacenamiento y la velocidad de procesamiento de una computadora resultan claves en el éxito del juego de simulación (características que, por otra parte, tienen una importancia manifiesta en la capacidad para jugar al ajedrez, por ejemplo).
  2. El argumento de desestimación de los archiutilizados teoremas de Gödel, cuyos contenidos Turing no considera relevantes en la discusión.
  3. Su reconocimiento del «misterio» de la conciencia, como una concesión (muy medida, eso sí) a la importancia de contar de algún modo con una teoría de la mente.
  4. Su esbozo teórico del funcionamiento de la mente, que él entiende, grosso modo, como la resolución algorítmica programada de un problema para el que la máquina (incluida la máquina humana) ha sido diseñada y la detección programada de errores en sus propios procedimientos algorítmicos.
  5. Su particular visión del «argumento de la sorpresa», esgrimido, según él, por quienes niegan la capacidad pensante en máquinas computadoras.
  6. El criterio nomológico para describir la conducta de los seres humanos, que pivotaría sobre el carácter natural-legaliforme de las pautas de comportamiento observadas.
  7. La muy interesante propuesta de las supuestas capacidades supercríticas de la mente humana (la generación de todo un hatillo de ideas, susceptibles de estructurarse en un cuerpo teórico, a partir de una idea inicial que obraría como simiente, como el árbol de la mostaza surge espléndido desde la modesta semilla) como criterio de constatación de la presencia de mentes inteligentes.
  8. La sugerencia de un proceso de desarrollo intelectual en la programación de las computadoras que imite el aprendizaje de los niños pequeños, desde una perspectiva de aprendizaje condicionado que bascularía sobre la recompensa y el castigo.
  9. La introducción, tal vez de contrabando, de la idea de un «lenguaje  simbólico» (es decir, un lenguaje referencial y por tanto con carga semántica), lenguaje orientado al proceso de aprendizaje mencionado en el punto anterior.
  10. Y, por último, la definición tentativa que Turing nos regala sobre el comportamiento inteligente: el comportamiento inteligente supuestamente consiste en apartarse del comportamiento completamente disciplinado que entraña la computación.

En definitiva, y pese a los premios Loebner, que pretenden actualizar la vigencia de la propuesta original de Turing y evaluar la «inteligencia» de los programas de ordenador siguiendo escrupulosamente las pautas del juego de imitación el diseño experimental ofrecido por este gran matemático suscita más dudas filosóficas de las que pretende solventar. Dudas profundas que atañen a la metodología, a la epistemología y a la propia ontología, especialmente desde un punto de vista realista y materialista. Probablemente por esta razón, el enfoque imitativo tiene en la actualidad una importancia muy acotada en el amplio escenario de las investigaciones sobre Inteligencia Artificial y en el diseño de nuevos experimentos de detección de la conciencia en ordenadores bajo criterios de discriminación visual, como los llevados a cabo por Christof Koch y Giulio Tononi en 2008.

Sólo cabe esperar y ver si, deshilachada la madeja, al final del laberinto nos aguarda la confusa figura del Minotauro o más bien el rostro reconocible de uno de los nuestros.

NOTA AL PIE: Me informa Eparquio Delgado sobre el carácter fraudulento de los experimentos de Milgram tal y como aparecen en su descripción habitual en los medios académicos y de comunicación. Me enlaza este artículo, cuya lectura recomiendo. También me advierte sobre las frecuentes simplificaciones que los críticos del conductismo ponen sobre la mesa al hablar de esta corriente psicológica. Creo que son dos matizaciones muy interesantes, pero que no afectan, en lo esencial, a la argumentación que presento en esta entrada contra el test de Turing. Por una parte, podríamos imaginar que la descripción canónica del supuesto experimento de Milgram es en realidad un experimento mental, y las conclusiones no cambiarían gran cosa. Pues lo que me interesa resaltar de la real o supuesta investigación de Milgram es un aspecto muy secundario -el juego de simulación y el convencimiento de los participantes de que estaban infligiendo un dolor real-, un aspecto que no resulta particularmente controvertido y sobre el que sólo cabe hacer matizaciones numéricas. En cuanto al conductismo, y con independencia de las propuestas reales de Watson y Skinner, el test de Turing, tal y como lo describe su autor, parece ejemplificar una forma radical, ingenua o incluso caricaturesca de las tesis conductistas más serias. Que quepa o no adscribir con rigor este test al conductismo tiene, en realidad, poca importancia, y no afecta a la crítica filosófica general que merece la propuesta de Turing.

Publicado en Epistemología, Filosofía de la mente, Ontología | Etiquetado , , | Deja un comentario

Breve alegato contra la neutralidad axiológica de la ciencia

La ciencia no es axiológicamente neutra. La ciencia está cargada de valores, que la constituyen de manera substancial. Afirmar que la ciencia es axiológicamente neutra sólo tiene sentido en el supuesto de que la definamos únicamente como un conjunto cerrado de teorías, enunciados y proposiciones aléticas, esto es, un conjunto de contenidos con valor de verdad. Pero este supuesto remite a una concepción platónica e idealista de la ciencia, esto es, a considerar a la ciencia como un eidos trascendente e inmutable, que habita en el reino platónico de las verdades intangibles y permanentes. O bien remite a una noción puramente formal de la ciencia, como una estructura algebraica compuesta por un conjunto M de enunciados y proposiciones y una relación de deducción lógica que operaría entre aquéllos como una relación de orden, es decir, 〈 M,〉.

Fue quizás Robert Merton, en su obra de referencia The Normative Structure of Science (1942)  el primero en abordar la axiología de la ciencia y en definir los conjuntos de valores que informan la actividad científica y la producción de teorías científicas. Estos valores, que configuran el ethos de la ciencia, son los siguientes: universalidad (todos los científicos deben contribuir al progreso de la ciencia, sin que importe su nacionalidad, etnia, género o cualquier otro factor de identificación cultural), desinterés (la actividad científica debe regirse por la máxima del incremento del conocimiento científico, dejando de lado cualquier pretensión de beneficio personal), comunismo epistémico (el conocimiento científico debe ser público y estar igualmente disponible para todos los miembros de la comunidad científica) y escepticismo organizado (todas las pretensiones de verdad enarboladas por los científicos deben estar sometidas a un estudio metodológicamente crítico, y no deben ser aceptadas en razón del principio de autoridad o por otras razones epistémicamente deficientes). Se trata, entonces, de valores políticos (universalidad), éticos (desinterés), organizativos (comunismo epistémico) y epistémicos y operativos (escepticismo organizado).

Javier Echeverría, en su libro Ciencia y valores (2002) propone una axiología formalizada de la ciencia, entendida ésta como actividad humana. Su sugerencia se inspira en la formalización fregeana del lenguaje en funciones y argumentos, y en este contexto define las llamadas funciones axiológicas, funciones no saturadas en el sentido de Frege: según Echeverría, un valor no sería una propiedad objetiva del objeto, ni una estimación subjetiva del sujeto, sino el resultado de aplicar una función axiológica a una o varias variables axiológicas. En definitiva, y de acuerdo con esta tesis, un valor sería equivalente a un enunciado axiológico. Este autor describe también un conjunto de doce subsistemas de valores que informan la labor del científico: valores epistémicos, éticos, operacionales, metodológicos, y otros.

También Mario Bunge sostiene, en Ética, ciencia y técnica (1996), la existencia de una axiológica, que afecta al procedimiento científico, aunque no a sus contenidos finales. Para Bunge, los valores presentes en el quehacer de la ciencia son entidades relacionales que conectan individuos con objetivos científicos. Como él mismo afirma en el segundo capítulo de su libro:

«(…) es cierto que la descripción, la teorización, la explicación y la predicción científicas son ajenas a la valuación y a la normatividad; en una palabra, el contenido del conocimiento científico es axiológica y éticamente neutral. Pero ¿acaso la ciencia se agota en su contenido? ¿Acaso la descripción, teorización, explicación y predicción científicas no están sujetas, a su vez, a valuaciones y normas? La ciencia es un organismo dinámico compuesto no solamente de proposiciones sino también de propuestas y de actos guiados por criterios, reglas o normas mediante los cuales los investigadores científicos procuran satisfacer ciertos desiderata (verdad, claridad, universalidad, etc.). Y algunos de los criterios que se emplean en ciencia son claramente normativos: dicen lo que debe hacerse para conseguir determinados fines; y algunos de los actos que el científico realiza qua
científico son actos de valoración, que a veces expresa explícitamente, como ocurre cuando coteja hipótesis rivales«.

Visto lo cual, la tesis de la neutralidad axiologica de la ciencia remite a un ideal inalcanzable, porque la ciencia siempre está incrementando y modificando sus contenidos. Pero incluso si aceptáramos esta visión estática y platónico-formal de la ciencia, ésta resultaría ser axiológicamente no neutra. ¿Por qué? Porque las teorías científicas están formuladas en un lenguaje semiformalizado que es deudor del lenguaje de las matemáticas (“las matemáticas son el lenguaje de la naturaleza”, como diría Galileo). Y el lenguaje de las matemáticas es, a su vez, deudor del lenguaje de la lógica de proposiciones y de la lógica de predicados de primer orden y de orden superior, así como del lenguaje conjuntista. Y todos estos lenguajes son portadores de valores tácitos y preferencias ontológicas que a veces no resultan evidentes.

De hecho las matemáticas, en la actualidad, están fundamentadas sobre la lógica proposicional y de predicados axiomatizada por Russell y Whitehead, sobre la axiomatización de la aritmética de Peano y sobre la teoría de conjuntos formulada por Cantor y axiomatizada, entre otros, por Zermelo y Fraenkel, con la adición del a veces problemático axioma de elección. Y estos fundamentos, a su vez, son el resultado de elecciones basadas en valores y en preferencias.

Por tanto, ni siquiera las matemáticas, las más exactas de las ciencias, son axiológicamente neutras. En el último tercio del siglo XIX y en el primer tercio del siglo XX se desarrolló una febril labor de búsqueda de los fundamentos de la matemática. En este escenario intelectual presentaron sus credenciales al menos cuatro escuelas de pensamiento o, por mejor decir, cuatro formas de contemplar la naturaleza de las matemáticas: el platonismo de Cantor, el logicismo de Russell y Whitehead, el formalismo de Hilbert y el intuicionismo constructivista de Brouwer y Heyting.

Uno de los principales ejes de discusión pivotaba en torno a la naturaleza de los constructos matemáticos. Así, los platónicos sostienen que las entidades matemáticas existen idealmente en una realidad superior e inmutable, de modo que la única obligación de los axiomas matemáticos es postular la existencia de estas entidades (por ejemplo, los conjuntos infinitos o los ordinales y cardinales transfinitos). Por el contrario, los intuicionistas afirman que todo concepto matemático debe ser construido, y que no puede postularse ningún concepto del que no pueda ofrecerse un método de elaboración. Por esta razón, los platónicos defienden la existencia de conjuntos infinitos actuales (colecciones de infinitos elementos tomadas como totalidades acabadas y disponibles para servr al razonamiento matemátco) en tanto que los intuicionistas sólo están dispuestos a aceptar el infinito potencial (es decir, el infinito cuyos elementos se van construyendo paso a paso a través de mecanismos bien establecidos). Por poner un ejemplo, un matematico platónico consideraría el conjunto de los números naturales (también el de los enteros, racionales, reales o complejos) como un objeto conceptual cuyos elementos estarían perfectamente definidos desde el primer momento; Tal era la postura de Cantor. Sin embargo, un matemático intucionista, como Brouwer, no admitiría la existencia acabada de tales entidades, sino únicamente una colección finita de objetos matemáticos iniciales, básicos e inanalizables (dados de forma directa a la intuición) y un procedimiento mecánico e iterativo para la construcción, a partir de ellos, de los siguientes elementos, en un proceso algorítmico que nunca terminaría, pero que no daría por supuesta la existencia de los componentes que aún no hubiesen sido «fabricados».

El formalismo de Hilbert, por otro lado, considera que la actividad matemática consiste en la manipulación de signos físicos de acuerdo con unas reglas sintácticas coherentes y bien establecidas que no den lugar a contradicciones formales y que sean capaces de dar cuenta de todas las construcciones sintacticamente correctas concebibles. Hilber, por tanto, no contemplaba la posibilidad de una semántica matemática, es decir, de un sistema de relaciones que pusiera en correspondencia los signos escritos con objetos conceptuales que actuaran como referentes. Por tanto, el formalismo descartaba la posibilidad de una matemática simbólica. Los signos hilbertianos tanto podían referirse a triángulos equilateros como a mesas o a sillas. Sin duda, esta neutralidad semántica es el resultado de una preferencia sustentada en criterios de valoración que no son ni necesarios ni universales.

En cuanto al logicismo de Russell y Whitehead, se trataba de una propuesta metodológica que pretendió en su momento hacer derivar toda la matemática de la lógica formal, fundamentalmente de la logica proposicional y de la lógica de predicados de primer y segundo orden. En honor a estos autores, hay que decir que casi lo consiguieron en su monumental obra Principia Mathematica (1919-1913). En cualquier caso, los famosos teoremas de incompletitud de Gödel (1931) -cuya importancia teórica es indudable, pero cuyo alcance práctico en la investigación matemática cotidiana es muy reducido- dieron al traste con esta ambiciosa pretensión.

Al final, el intuicionismo perdió fuerza, entre otras cosas porque los valores que sustentaban esta doctrina (rechazo de la estipulación no constructiva de conceptos matemáticos y del infinito actual) la hacían heurísticamente poco productiva. En efecto, los intuicionistas negaban la validez del principio lógico del tercio excluso y de la prueba por reducción al absurdo, en razón del principio de que sólo puede demostrarse la existencia de objetos conceptuales que puedan ser construidos de acuerdo con un procedimiento previamente establecido. Esta actitud hubiera perjudicado seriamente el potencial creativo de las matemáticas, que trabajan operativamente mucho mejor sobre la base de axiomas estipulativos y conjuntos infinitos.

Si bien es cierto que los desarrollos matemáticos anteriores no se habían ocupado particularmente de estas cuestiones de fundamentación, y que habían optado de forma implícita por un sano pragmatismo metodológico -lo cual nos devuelve otra vez a la cuestión de los valores y las preferencias- cabe preguntarse qué hubiera pasado si, colocando los bueyes delante del carro, la discusión sobre los fundamentos hubiese precedido a la investigación matemática práctica y si la perspectiva intuicionista hubiese triunfado. A final se terminó eligiendo (afortunadamente) la axiomatización que mejor servía a los intereses del desarrollo creativo de las disciplinas matemáticas, aunque sin duda el debate sobre los fundamentos estaba lejos de impresionar a los matemáticos de campo y es poco probable que hubiese incidido en sus modos cotidianos de investigación.

Como se ve de nuevo, cuestión de valores. En este caso, de valores epistémicos, pero también de valores filosóficos: recuérdese el platonismo de Cantor y Gödel y la matriz lógico-positivista del logicismo de Russell.

Es decir, incluso el propio lenguaje matemático de las proposiciones científicas, consideradas como un conjunto bien definido en una acepción platónica o algebraica de “ciencia”, está transido de valores, que informan las preferencias y la elección entre sistemas axiomáticos distintos e incluso la postulación entre unos u otros axiomas.

Podrían mencionarse, para terminar y cambiando de tercio, otros ejemplos en los que los valores religiosos de ilustres científicos influyeron en la formulación de sus modelos teóricos, como es el caso de Newton o Kepler. También sería pertinente mencionar la aportación de la teología natural británica al desarrollo de la historia natural en los siglos XVIII y XIX o la influencia del hábito de la clasificación dicotómica en la sistemática linneana: sobre esto último tiene Stephen Jay Gould un interesante libro de lectura muy recomendable, titulado Érase una vez el zorro y el erizo (2004).

Y es que la ciencia no es tal conjunto eidético de teorías, enunciados y proposiciones. Esta definición sólo recoge uno de los componentes de una auténtica descripción de la ciencia. La ciencia es, por supuesto, una actividad humana, y por lo tanto es una actividad cultural (en el sentido amplio del término “cultural”) sometida a valores y preferencias. La ciencia no es sólo el corpus de conocimientos registrados en un momento determinado en revistas científicas, libros de textos, ponencias de congresos, libros de divulgación, páginas web o notas de laboratorio. Este es únicamente el “resultado” de la ciencia, y no la ciencia misma. Por “ciencia” cabe entender todo un entramado de personas, actividades pautadas, instituciones de investigación y de enseñanza, instrumentos, conjuntos de publicaciones, normativas y reglamentos de funcionamiento, experimentos y, aquí sí, resultados. La ciencia, en tanto actividad científica, puede ser objeto de estudio de la axiología y de la praxiología. Estas disciplinas estudian los valores y las prácticas que aparecen en el desarrollo de toda actividad protagonizada por comunidades de sujetos intencionales.

Lo cual no tiene nada que ver con el excelente producto epistémico que la ciencia nos ofrece, ni con una visión relativista o posmoderna del conocimiento científico. En absoluto. Los contenidos de la ciencia, el corpus de teorías, enunciados y proposiciones científicas constituyen, sin duda, una aproximación fiable y crecientemente exacta de la realidad. No es eso lo que se está discutiendo. Afirmar que la ciencia no es axiológicamente neutra no implica, en modo alguno, abrir las puertas a concepciones anticientíficas o relativistas.

Por último, y a modo de corolario, compartimos esta pertinente reflexión de Mario Bunge, convertido en nuestro distinguido epiloguista:

«En resumen: el lenguaje de la ciencia contiene oraciones valorativas. No puede prescindirse de ellas al nivel pragmático porque en toda acción reflexiva —y la investigación científica lo es en alto grado— se dan relaciones de fines a medios. Y no podemos prescindir de los juicios de valor al nivel metacientífico porque a este nivel comparamos entre sí procedimientos y teorías, y damos normas a las que deseamos que se ajusten los objetos comparados. La dicotomía hecho/valor no existe, pues, en el caso de la ciencia; lo que refuerza la tesis de que la estimación del valor es un problema de conocimiento siempre que sea una estimación fundada«.

Publicado en Ciencia, Filosofía de la ciencia | Etiquetado , , | Deja un comentario

Una refutación davidsoniana del EAAN

Hola a todos. Hoy me propondré refutar el EAAN en su versión más explícita (ya que antes habríamos atacado tanto Corroza como quien escribe algunos aspectos de tal argumento, pero no al argumento entero).

El profesor Alvin Plantinga, uno de los epistemólogos

más renombrados de fines del siglo XX y el creador y

defensor del argumento que esta entrada pretende refuar.

Para empezar, el EAAN es la sigla de «Evolutionary Argument Against Nauralism», un ingenioso argumento desarrollado por Alvin Plantinga que intenta mostrar que para cualquier persona que crea en la evolución y en el naturalismo (la tesis según la cual la naturaleza lo es todo: no existe nada sobrenatural) es irracional al sostener ambas cosas. La expresión «evolutionary argument against naturalism» se puede traducir al español como «Argumento evolutivo contra el naturalismo».

En las siguientes líneas delineo el argumento en su versión de 1993.


Donald H. Davidson, (Springfield, Massachusetts,

6 de marzo, 1917 – Belkeley, California, 30 de agosto

 de 2003) uno de los filósofos más influyentes de la 

segunda parte del siglo XX. y en cuya tesis 

coherentista se basan buena parte de las ideas aquí 

expuestas (me refiero a mis intentos de refutación, 

desde luego).

(1) Pr(R/(E&N)) es muy baja, donde R = fiabilidad de nuestras facultades mentales (es decir, que nuestras facultades mentales produzcan creencias mayormente -a partir de 70% digamos- verdaderas) E = evolución y N = naturalismo. Por lo tanto la expresión Pr(R/(E&N) significa «la probabilidad de que nuestras facultades mentales sean confiables si asumimos como ciertos el naturalismo y la evolución».

(2) Cualquier posición que implique que nuestras facultades mentales son muy poco fiables y sea el resultado de un razonamiento y/o de evidencia, se basa en las facultades mentales de quien sostenga tal posición y la tesis de que tal posición es racional se auto-refuta.

(3) Por lo tanto, E&N es irracional.

(4) Cualquier evolucionista que crea que es racional al creer en la evolución, debe rechazar el naturalismo como irracional.

Bien. Todas las premisas son indiscutidas e indiscutibles, excepto la (1). Plantinga, para defenderla, usa el siguiente análisis. La evolución selecciona comportamientos. Hay cuatro posibles modelos de interacción entre creencias y comportamiento. El primero, llamado epifenomalismo, sostiene que las creencias son causalmente inertes, por lo que no causan ningún otro fenómeno. Por lo tanto, bajo el epifenomenalismo, las creencias son invisibles a la evolución, que podrá seleccionar comportamientos adaptativos, pero no creencias verdaderas. El segundo, llamado epifenomenalismo semántico, sostiene que de los dos aspectos de una creencia (las propiedades NF -neurofisiológicas- y el contenido semántico C), sólo NF tiene incidencia en la conducta. Pero los valores de verdad son propiedades de proposiciones, y la conexión con las proposiciones es cuestión de C y no de NF. NF no tiene valores de verdad. C, en cambio, sí los tiene, pero bajo el epifenomenalismo semántico es invisible a la evolución, la cual podrá seleccionar conductas adaptativas, e incluso propiedades neurofiológicas que las causen, pero no necesariamente creencias verdaderas. El tercer modelo, llamado maladaptacionismo, sostiene que la conducta recibe influencia causal por parte tanto de C como de NF, pero que los contenidos que remiten a proposiciones verdaderas son maladaptativos. En ese caso, la probabilidad de tener facultades mentales fiables es muy baja. El cuarto y último modelo (que es el más verosímil y se podría llamar no-maladaptacionismo) en el cual tanto NF como C influyen en el comportamiento, y los contenidos no son maladaptativos, no implica, según Plantinga, que nuestra facultades cognitivas sean probablemente fiables. Plantinga aquí usa un sub-argunento conocido como «belief-cum-desire argument» («argumento de las creencias y los deseos»). Este argumento nota que lo que incide, a grandes rasgos, en el comportamiento, no comprende sólo a creencias sino también a deseos. Y una conducta puede ser activada por múltiples pares deseo-creencia. Definimos un par deseo-creencia como «verdadero» si y sólo si el miembro asertivo (la creencia) es verdadero. Bien, según Plantinga, hay razones para creer que por cada conducta adaptativa hay igual cantidad de pares deseo-creencia falsos (no-verdaderos) que la pueden activar que pares deseo-creencia verdaderos que la pueden activar. Por ejemplo, la conducta de salir corriendo cuando uno ve un tigre, puede activada con los siguientes pares-deseo-creencia-verdaderos (me limito a algunos ejemplos; en realidad hay muchos más):

 

Quiero que no me coma + sólo si corro, no me comerá.

Quiero ejercitar mis pies + sólo corriendo ejercitaré mis pies

etc.

o por los siguientes pares-deseo-creencia-falsos:

Quiero que me coma + sólo si corro, me comerá.

Quiero que no me ahogue en el mar + sólo si corro, no me tirará al mar.

Quiero que me ahogue en el mar + sólo si corro, me tirará al mar.

etc.

Por lo tanto, cualquiera sea la posición del naturalista sobe la interacción de las creencias y la conducta, la evolución ciega (sin ningún ser inteligente y poderoso -y que le interese que sepamos la verdad acerca del mundo- que la guíe) según Plantinga, asegura que tus facultades mentales sean casi seguramente no fiables, lo cual garantiza la premisa (1) que era la única que estaba «bajo sospecha».

Ahora déjenme [intentar] refutar este hermoso argumento. Voy a tomar la única estrategia que me parece viable, la cual es decir «(A) todo el argumento es correcto excepto por la parte (el argumento belief-cum-desire más precisamente) que concierne al no-maladaptacionismo (la cuarta opción) & (B) la cuarta opción es la correcta.

No necesito justificar la tesis (B): no veo ninguna razón para no creerla pero sí veo razones para no creer en las demás opciones (entre otras, la que el mismo A. Plantinga expone).

Entonces, pasemos a la tesis (A): el argumento belief-cum-desire es falso.

La probabilidad de una creencia de ser verdadera, si el argumento belief-cum-desire fuera exitoso, sería de 50%. Entonces la probabilidad de tener, por ejemplo de 1.000.000 de creencias 700.000 verdaderas, sería inimaginablemente mínima 2^ (0.5*1.000.000-700.000), lo que es equivalente a un 0, 0000000….. así con aproximadamente ciento treinta y ocho mil quinientos ceros y luego un 1.

Entonces, aquí viene un argumento quasi-davidsoniano para refutar el argumento belief-cum-desire y salvar de forma heroica al naturalismo:

(i) Digamos que la vasta mayoría de creencias del tipo «X (un objeto concreto) pertenece a Y (una clase de objetos)» (por ejemplo, «esto es un sillón») son verdaderas por definición. Esto es por la siguiente razón: supongamos que Y fuera la clase de sillones. Habrá tres opciones: (I) que la gran mayoría de las veces que decimos «X es un sillón» X sea, efectivamente, un sillón. (II) que no la gran mayoría de veces que decimos «X es un sillón» X sea, efectivamente un sillón, pero que X sea la gran mayoría de las veces, otra cosa, digamos un farol. (III) que no la gran mayoría de las veces que decimos «X es un sillón» X sea, efectivamente un sillón y que además las veces que X no es un sillón, X no es otra cosa en especial -según (III), «la pifiamos de diferentes formas», mientras que, según (II), siempre erramos la tecla, pero la tecla que sí tocamos es casi siempre la misma-. En el caso de (I), el argumento belief-cum-desire quedaría descartado. En el caso de (II), el término «sillón» adquiere un nuevo significado, ya que el significado de un término depende, como notamos en (i), de su rango de aplicación (y al cambiar éste, «sillón» empieza a representar faroles, entonces cada vez que decimos «X es un sillón» en realidad estamos diciendo que X es un farol lo que es, bajo la opción (II), verdadero en la mayoría de los casos). Aquí mi oponente Plantingano podrá objetar «pero todos los sillones, por definición, son para sentarse, y los faroles, en cambio, no cumplen esa función; por lo que es imposible que el término «sillón» empiece a representar faroles». A esto yo replicaría: «bien, estás asumiendo que cada vez que digo «X es un sillón» estoy implicando «X sirve para sentarse». Pero esto no es más que decir «X es un objeto tal que X sirve para sentarse»: estoy asignando una propiedad P a X. Pero ¿qué razón hay para no suponer que si X cambia de significado, entonces P también lo hará, resultando por consecuencia la asignación de la propiedad P a X, en una proposición verdadera? La única razón podría ser que P ya tenga un alcance semántico bastante bien definido (por ejemplo, en el caso del farol, es mentira que sirve para sentarse, pero esa mentira es tal sólo porque «sirve para sentarse» es un predicado que se aplica, en la gran mayoría de los casos, a ciertas cosas que tienen un rasgo que el farol no tiene -a saber, la capacidad de servir para sentarse-). Pero, si tiene este alcance tan bien definido es porque la mayoría de las veces que utilizo el predicado «sirve para sentarse» en una proposición del tipo «X sirve para sentarse» estoy diciendo la verdad. Si, en cambio, no estuviera bien definido el alcance de P, entonces no hay razón alguna para no suponer que «X sirve para sentarse» (o, lo que es lo mismo, «XP» donde P = servir para sentarse, como dijimos anteriormente) sea verdadero». Ahora bien: ¿Qué hay de la opción (III)? ¿Podría ser que cuando decimos «X es un sillón» estamos equivocados, y a veces, X es una planta, y otras veces es un martillo, y otras veces es un asteroide, y otras veces… etc.? Yo pienso que esto es imposible, por razones evolutivas: alguien que piense que «X es un tigre» y X termine siendo otra cosa que nada tiene que ver en términos de apariencia o comportamiento o señales sensoriales (tales como algún olor o algún ruido) va a poder confundir cualquier cosa con un tigre, y va a terminar corriendo demasiado. Quizás se muera corriendo, o no sea atractivo para las hembras, o se extravíe, etc.. La cuestión es que sus chances de morir sin que sus genes sean traspasados a las siguientes generaciones suben considerablemente. Un competidor suyo con capacidad de discernir mejor los objetos de su campo visual tendría considerables ventajas tanto para cazar como para aparearse o como para huir de depredadores. Por lo tanto, la mayoría de nuestras creencias del tipo «X es un Y» son verdaderas. Se puede dudar de cada una en particular, pero no de todas a la vez.

Nótese que esto también aplica a cuando alguien dice «wP» («w tiene la propiedad P»): si en la mayoría de los casos no tuviera tal propiedad, entonces hay dos opciones: la primera opción es que la mayoría de las veces wQ donde Q es otra propiedad (en cuyo caso «P» representaría Q) o bien la clase de referencia de «P» engloba propiedades altamente disimiles (por ejemplo, humedad, alegría, fragilidad). Pero esto último sería descartado por la selección natural, por razones similares a las cuales (III) fue descartado (imagine el lector que un hombre primitivo cree que algo que en realidad es húmedo o alegre o frágil es «amenazante»: viviría asustado; esto es evolutivamente demasiado costoso para ser lo contraproducente que es).

(ii) Por ende, por cuestiones semánticas en conjunción con cuestiones evolutivas, la mayoría de nuestras creencias son verdaderas. Analicemos ahora el par creencia-deseo al que nos refermios antes: «quiero que [el tigre] me coma + sólo si corro me a a comer». Si alguien cree eso, correrá y verá que es falso. Si creyera que es verdadero la mayoría de las veces, entonces «me va a comer» pasa a significar «no me va a comer»: el significado es el resultado de una relación entre el pensamiento y el mundo; no reside sólo en nuestras cabezas. Y si a veces piensa que «sólo si corro me va a comer» es verdadero y a veces que es falso, necesitará que se activen diferentes deseos (quiero que me coma y quiero que no me coma, respectivamente) ante un mismo estímulo (el tigre), lo que es difícil e innecesariamente costoso desde el punto de vista evolutivo.

Como queda claro, esta fórmula «semántica+evolución=mayoría de creencias ciertas», no presupone ninguna forma de sobrenaturalismo y refuta por lo tanto al antinaturalista evolutivo plantingano, al que sólo le queda la opción de una semántica internalista, imposible (como acabamos de ver) de sostener.

Por Janou Glaeser.

Publicado en Epistemología, Sin categoría | Etiquetado , , , , | Deja un comentario

Mi posición actual sobre el libre albedrío.

Hola a todos. Hoy hablaré sobre mi posición actual sobre el libre albedrío.

Yo estoy tomando la decisión, según mi propias intuiciones introspectivas, de escribir esta entrada y hacerlo de la forma en que lo hago. Según el determinismo ontológico, sin embargo, en 2001, en la época de los Dinosaurios o durante el Big Bang, ya era verdadera la proposición «Janou Glaeser escribirá en el 29/12/15 una entrada sobre su posición-en-ese-momento sobre el libre albedrío». Era inevitable: nada que nadie hiciera podría cambiar eso. Parece que esta intuición (mi libertad) choca con esta concepción determinista del mundo que muy probablemente sea verdadera. En esta entrada me gustaría refutar la tesis según la cual el determinismo es incompatible con el libre albedrío y viceversa.

Ahora bien. Una definición de libre albedrío debe dar cuenta de la responsabilidad moral. Por ejemplo, si yo digo «yo elegí hacer tal acción porque elegí entre varios futuros uno en especial, el cual incluía el hecho de que yo llevara a cabo esa acción», entonces presupongo que libre albedrío = elegir entre diferentes futuros. Tengo, pareciera, una base conceptual sólida para dar cuenta de la responsabilidad moral. Sin embargo, no es necesario, si uno es de la idea de que existe la responsabilidad moral (como lo son todas las personas con buena salud mental, -incluso aquellas que en el ámbito filosófico dicen lo contrario) creer en esa concepción de libre albedrío, que es, ahora sí, inencajable en un mundo determinista. Por ejemplo, si yo realizo una acción pero quería hacer otra cosa (por ejemplo si me apuntan con un arma) no estoy ejerciendo plenamente mi libre albedrío (aunque tampoco tengo libre albedrío cero, ya que luego de pensarlo durante menos de un segundo, llego rápidamente a la conclusión de que hacer lo que me diga el sujeto que me está amenazando con un arma es la mejor opción; entonces a fin de cuentas hago lo que quiero, aunque no lo que quería inicialmente). Bien; supongamos que hay un sujeto que quiere llevar a cabo una acción A, y la lleva a cabo. ¿Qué importa si había otros futuros posibles en donde A no ocurriera? De haberlos, y de no estar el sujeto condicionado por ningún factor externo como puede serlo el hombre del arma, tal sujeto habría elegido, de todos modos, el futuro A. Entonces, para que se dé el fenómeno del libre albedrío, no se necesitan muchos futuros posibles, sino simplemente el futuro que uno quiere. El libre albedrío, entonces, pasa de ser una elección entre futuros (cosa imposible dado el determinismo), a ser simplemente una concordancia-por-motivos-causales entre la acción y la voluntad. Y esto, amigos míos, sí existe. ¿Pero cómo se da cuenta entonces de la responsabilidad moral? Bien, si yo (o cualquier ser humano) asesino a una persona, o le robo sus pertenencias a una persona, si tenía la intención de hacerlo eso implica que soy culpable. No elegí nada: simplemente actué de acuerdo a mi voluntad y eso es motivo suficiente para ponerme tras las rejas (aclaro por si las dudas: no recuerdo haber hecho nada semejante, esto es sólo a modo de ejemplo).

Revisemos, entonces (antes de despedirme) las siguientes objeciones a mi planteo:

A. «Si tu le deseas la muerte a alguien, no irás a la cárcel por ello, pero sí irás si te llevas a tu mismo a una instancia en la cual cumplís con tu deseo (i. e. asesinás a esa persona)».

RESPUESTA: hay que recordar que tener la voluntad de hacer cierta acción es necesario pero no suficiente para ser responsable de una acción; para ser suficiente se necesita añadir otro factor, a saber (y como dije antes), que el sujeto en cuestión intente llevar a cabo la acción -es decir que se de una de las siguientes dos condiciones: (i) el sujeto lleva a cabo la acción (ii) el sujeto no lleva a cabo completamente la acción pero esto se debe a factores externos inesperados (por ejemplo, en el caso de asesinar con un arma, que el tiro se desvíe y que lo atrapen al sujeto).

B. «Pero la voluntad también está predestinada según el determinismo»

RESPUESTA: las voluntades espontáneas (es decir, que surgen del individuo sin condicionamiento externo -por ejemplo, un condicionamiento externo podría ser alguien que te está supervisando-) no son ni libres ni no-libres: son, según la concepción que delineo aquí, el marco por el cual se determina si una acción fue libre o no.

Si alguien quiere seguir defendiendo las objeciones A o B, o tiene alguna otra objeción, me gustaría que me lo comuniquen por medio de los comentarios así podemos debatir sobre este tema tan interesante y complejo.

Michael Janou Glaeser.

 

 

Publicado en Filosofía | Etiquetado | Deja un comentario

Mero ateísmo.

Hola a todos. Hoy les quiero presentar algunos argumentos a favor del ateísmo y refutar otros a favor del teísmo. Espero que los disfruten.

PRIMERA PARTE.

ARGUMENTOS A FAVOR DEL ATEÍSMO.

(A) El argumento de la carga de la prueba.

(1) Dios no es un objeto de la experiencia inmediata (no lo percibimos del mismo modo que percibimos sonidos, imágenes, olores, etc. de objetos).

(2) Dios no es un ente cuya existencia sea sentido común (de lo contrario, no sería necesario el adoctrinamiento religioso para que sigan las religiones)

(3) Cualquier ente que no sea un objeto de la experiencia y cuya existencia no sea de sentido común y sea posible dudarla razonablemente, es un objeto tal que la hipótesis de su existencia tiene que ser respaldada con pruebas, mientras que su no existencia es una hipótesis que no necesita pruebas, al menos no al principio.

(4) No existen pruebas de que exista un Dios (un ser omnipotente, omnisciente, omnibenevolente, etc,).

(5) Por lo tanto, el ateísmo es la tesis más racional.

Para defender la tesis 4, está la segunda parte de mi post.

(B) Argumento del mal.

(1) Existe el mal.

(2) Dios si existiera podría evitar el mal, sabe que existe el mal y tiene razones para hacerlo.

(3) Por lo tanto si Dios existe, no existe el mal.

(4) Ergo, Dios no existe (de 1 & 3).

Aquí se podrá objetar que la premisa (3) es falsa y que la premisa (2) no basta para sustentarla. Por ejemplo, Dios podría tener otras razones para permitir el mal y esas razones podrían ser superiores a las que tenga para evitarlo. Aquí se cita a menudo el libre albedrío.

Sin embargo, quiero plantear un desafío al teísta: si existen tales razones para permitir el mal, un hombre que pueda frenar un mal, también debería evitar frenarlo, por las mismas razones que Dios. Pero entonces, estaría bien por ejemplo, que un doctor no cure el cáncer de un paciente, por la misma razón que Dios no lo cura. Esto, sin embargo, es insostenible. Además, y aquí me enfoco en el libre albedrío, éste es limitado: no puedo, por más que quiera, caminar por el techo y nadie anda diciendo que Dios está atentando contra mi libre albedrío. De la misma forma, si Dios nos hubiera creado incapaces de hacer el mal, aún así podríamos seguir teniendo algo (aunque menos, pero aún bastante) de libre albedrío. Por último, si el libre albedrío es la razón por la cual existe el mal, entonces en el cielo no hay libre albedrío. Pero si en el cielo no hay libre albedrío, entonces no es un lugar bueno para estar (ya que según el teísta el libre albedrío es más importante que el bien moral dado y recibido). Todo esto además que la defensa del libre albedrío sólo demostraría que el mal moral (ej: asesinatos, violaciones, tortura) no es incompatible con Dios. Pero el mal moral no es el único tipo de mal: también existe el mal natural (por ej: tsunamis, terremotos, erupciones de volcanes, etc.). Estos no parecen estar a cargo de ningún agente con libre albedrío. Sin embargo Dios permite que sucedan males naturales.

(C)

ARGUMENTO DE LA NO CREENCIA.

(1) Si existe un Dios todo-amor, entonces existe un ser que quiera tener una relación de amor con cualquier persona.

(2) Para que haya una relación de amor entre dos personas, cada una necesita creer que la otra existe.

(3) Si existe un Dios todo-amor, entonces existe un ser que quiera que cada persona crea en él.

(4) Si existe Dios, él tiene medios para mostrarse ante personas de tal forma que el amor previamente delineado llegue a ser el caso.

(5) Sin embargo, Dios no usa estos medios.

(6) O bien Dios no existe, o tiene razones para no revelarse en la vida de cada persona con el fin de crear una creencia en esa persona y luego una relación de amor.

(7) Dios no puede tener ese tipo de razones (ya que no habría razones para evangelizar; además, para Dios -si existiera- no hay nada más importante que la relación de amor que puede llegar a entablar con sus creaciones humanas).

(8) Ergo Dios no existe.

SEGUNDA PARTE.

REFUTACIONES DE ARGUMENTOS TEÍSTAS.

(A)

Argumento Cosmológico de Leibniz. Su primer premisa es de carácter taxonómico: divide los objetos existentes en dos: existentes necesariamente (que es inconcebible que no existan) y los existentes contingentemente (los objetos cotidianos, que a pesar de existir, es imaginable un mundo donde no existen, es decir, podrían no existir). La segunda premisa es la del principio de razón suficiente, el cual nos informa que la existencia de todo lo que existe contingentemente tiene una explicación en términos de la existencia de otra cosa externa; en cambio la existencia de entes que existen necesariamente se explica a través de que existen necesariamente. La tercera y última premisa es que hay cosas que existen contingentemente. De ahí se saca la conclusión de que existe una cadena de explicaciones en términos de cosas contingentes y que esa cadena, de ser infinita, sería de todos modos contingente, y necesitaría una explicación. Pero como hay sólo una dimensión del tiempo, la cadena contingente no puede ser infinita. Por lo tanto, tiene que parar en algún lugar, es decir: debe tener un comienzo. Y ese comienzo debe ser un existente necesario, ya que si no lo fuera la cadena continuaría. A este argumento se le pueden hacer tres críticas. La primera es que no muestra que exista un Dios, sino que sólo demuestra que existe un ser cuya existencia es necesaria y que puede causar la existencia de otros entes. Pero imaginemos que Dios fuera eso: un ser que existe necesariamente y que puede causar la existencia de otros entes. Entonces, tenemos una segunda crítica: consideremos el hecho “Dios crea cosas contingentes”. O bien es necesario, o bien es contingente. Si es necesario, entonces la existencia de las cosas contingentes también lo es (ya que según el argumento, Dios existe). Pero entonces no existen cosas contingentes, sino que todos los existentes son necesarios. Esto iría contra de la tercera premisa. De modo que a Leibniz le queda una única salida: postular que el hecho “Dios crea cosas contingentes” es contingente. Pero si es contingente, necesita una explicación, de modo que la cadena de explicaciones seguiría, y cada vez que se intentase parar, nos toparíamos nuevamente con este problema. Por último, tenemos una tercera objeción: que es que el principio de razón suficiente podría perfectamente aplicarse solamente a cosas que, además de ser contingentes, fueran temporalmente finitas, de modo que una cadena infinita de explicaciones no necesitaría a su vez otra explicación externa.

(B)

Argumento Cosmológico de Kalam. Su primera premisa es que todo lo que comienza a existir tiene una causa de su existencia. La segunda y última es que el universo comenzó a existir. La conclusión es que el universo tiene una causa de su existencia. A este argumento se le pueden hacer tres críticas: la primera, es que sólo demuestra que el universo tiene una causa inmaterial, pero ésta no tiene por qué ser Dios. La segunda, es que la primera premisa tiene menos evidencia que otra, alternativa, a la que llamaremos premisa 1b, la cual dice: “todo lo que no es el universo tiene una causa”. Sin embargo, partiendo de tal premisa, no se puede probar la conclusión. La tercera objeción es que la segunda premisa no es segura en la cosmología actual: el universo pudo existir siempre.

(C) Argumento Ontológico: considerar el ser más perfecto posible. Si no existe, hay un ser aún más perfecto: uno que sí existe. Por lo tanto, el ser más perfecto posible existe. Las críticas son tres. Primero, no prueba la existencia del Dios bíblico, el cual es bastante imperfecto. Y segundo, yo podría decir lo mismo, al revés: considerar el peor ser posible. Si no existe, hay un ser aún peor, uno que sí exista. Por lo tanto el peor ser posible existe. La tercera objeción es que “perfecto” significa que tenga cada propiedad desarrollada al máximo. Pero la existencia no es una propiedad.

(D) Argumento teleológico. Se habla de leyes que fueron “finamente ajustadas” para permitir la vida. Sobre eso diré lo siguiente: quien crea en el ajuste fino y en que éste implica un diseñador inteligente, debe admitir que el diseñador es, de una forma en la que no debería sorprendernos, más complejo que su diseño. Pero, el ateo podría decir entonces,  “las  leyes de la física son eternas, inalterables (invariables) y universales; no necesitan, por tanto, una razón suficiente”. El creyente entonces está en posición de jaque-mate: si concuerda con el ateo, entonces gana el ateo. Y si no lo hace, seguramente justificará la negación de la premisa del ateo con la siguiente frase: “es cierto que las leyes son eternas, inalterables, invariables y universales, pero son tan complejas (y/o posibilitan tanta complejidad) que igual necesitan una explicación”. Pero esta frase también es contraria al diseño inteligente: Dios, por más eterno o atemporal que sea, también crea cosas altamente complejas, y es por lo tanto también muy complejo, y por consiguiente debe tener una explicación externa. Así, tanto si el creyente dice que lo atemporal-pero-muy-complejo necesita una explicación, como si dice que no la necesita, estará en problemas. Lo único que puede hacer es decir que el creador se creó a sí mismo, pero si existe tal poder (es decir, un poder que desafía las leyes más intuitivas y confirmadas de la cronología), ¿por qué el universo físico y natural no lo puede tener? En otras palabras, ¿Por qué es necesario invocar a un Dios que tenga tal poder, en vez de directamente postular que el universo lo tiene?

(E) Argumento Moral. Su primera premisa es que si Dios no existiera, no existirían valores morales objetivos. Su segunda premisa es que existen valores morales objetivos. Por lo tanto, existe Dios. La primera premisa es totalmente falsa. Es verdad que matar está mal. Otra cosa es el problema es/debería ser, que plantea que no se pueden deducir hechos morales de hechos o conjuntos de hechos fácticos. Pero esto no implica que los hechos morales no sean verdaderos: es como decir que las leyes de la física son falsas porque no se pueden derivar de las leyes de la lógica.

Si algún creyente conoce otro argumento (y sí, que los hay, los hay: véase el argumento de la existencia de leyes de la lógica, el argumento de existencia de leyes naturales, el argumento conjuntista, etc.) que valga la pena y lo quiere defender, tengo un mensaje de Barack Obama para él: EXISTEN LOS COMENTARIOS.

Espero que les haya gustado. COMENTEN, NO SEAN TÍMIDOS

Publicado en Sin categoría | Deja un comentario

Dos Ensayos sobre el Contenido Mental

Hola a todos. Hoy hablaré sobre el contenido mental, entendiendo a éste como «el contenido mismo de los pensamientos, es decir, acerca de qué son». Y cuando digo pensamientos sigo la definición estricta de «proposiciones mentales», es decir, proposiciones (burdamente los podríamos llamar afirmaciones) que la mente fabrica o, como veremos más adelante, de los que la mente está hecha.


Los dos ensayos son defensas de dos tesis, respectivamente:

   

     1) Que el contenido mental es una propiedad real de los sistemas y procesos neuronales, pero que también es material (materialismo no eliminativista con respecto al contenido mental, lo podríamos llamar).

   

     2) Que el contenido mental es el único componente que se necesita para armar una consciencia.


Con esto intento establecer, una vez definidas y defendidas a fondo estas dos premisas, la conclusión que sigue naturalmente de éstas, la cual es que 


∴ Una propiedad material que se encuentra en sistemas y procesos materiales es suficiente para construir la mente. 


El resto de este artículo defiende la primera y la segunda tesis.




A. EL CONTENIDO MENTAL ES UNA PROPIEDAD MATERIAL DE LOS PROCESOS Y SISTEMAS NEURONALES.


Está claro que si una teoría materialista es posible, es también lo más probable. El fundamento de tal afirmación es el siguiente: no introduciremos nada de carácter inmaterial, a menos que sea necesario hacerlo. Lo mismo pasa con la eliminación. No eliminaremos nada de nuestro esquema a menos que sea necesario. Si demostramos que es innecesario tanto introducir algo inmaterial como eliminar algo material, tenemos la máxima posibilidad de triunfar con nuestra teoría materialista/no-eliminativista. Con esto quiero decir que una vez que defienda la tesis A, mi trabajo va a estar terminado.

Ahora bien, ¿Cuáles son las diferentes críticas que se le pueden hacer a la tesis A?


(i) El argumento de la inaccesibilidad. El contenido mental de un sujeto S no es accesible para  ningún otro sujeto F, tal que F≠S. Y si es accesible, no lo es del mismo modo (para S es a través de la experiencia y para F es a través de máquinas que detectan los pensamientos basadas en los conocimientos neurocientíficos y en escaneos del cerebro). Esto demuestra que el contenido no puede ser físico, ya que todos los hechos físicos son públicos. Refutación. Hay colores, como el ultravioleta y el infrarrojo que algunas especies pueden percibir y otras no, pero nadie anda diciendo que «el ultravioleta no puede ser físico, ya que la única forma de conocerlo para un hombre es a través de máquinas, pero para una abeja se lo experimenta a través de la experiencia [las abejas ven ultravioleta]», ya que esto sería un absurdo.


(ii) El argumento de las relaciones lógicas. Algunos pensamientos implican otros pensamientos, o son son coherentes con otros pensamientos, etc.. Pero las propiedades u objetos físicos comunes y corrientes no implican o son coherentes con otros. Ergo, el contenido de los pensamientos no es físico. Refutación: Acá vemos que algunos entes tienen un tipo de relación con otros de su misma categoría que el resto de lo físico no tiene. Pero esto no tiene por qué sorprendernos, ya que algo parecido sucede en química: yo tengo dos compuestos químicos; uno puede reaccionar junto con el otro dando lugar a otros compuestos químicos. Ahora bien, este proceso puede ser reversible o irreversible. Pero hay otras cosas físicas (tales como un piano) en las cuales «reversible» e «irreversible» son conceptos inaplicables (por lo menos no son aplicables en el mismo sentido con el que se aplican en química). Pero esto no significa que los pianos no sean materiales. Lo mismo pasa con procesos neuronales. Unos se «implican» o «contradicen» a otros, sin que esto pase con otros procesos físicos. Pero esto no significa que las neuronas tengan relación alguna con algo inmaterial.


(iii) El argumento de la materia ordinaria. La materia ordinaria no tiene contenido, por lo tanto las neuronas tampoco lo tienen, y el contenido viene «separado» de las neuronas. Refutación: supongamos que alguien descubre un cristal con un color que nadie antes había visto: no sería para nada válido afirmar que este color no corresponde al cristal porque ningún otro cristal tiene ese color.


(iv) El argumento de la descomposición del contenido. El contenido no se puede dividir, por lo tanto no es físico. Refutación: este argumento confunde cosas con propiedades. Dar bien la hora es una propiedad física que tienen los relojes y no se puede dividir. Fin de la cuestión. 


(v) El argumento de la intencionalidad. La materia no es intencional (sobre algo) pero el contenido mental sí. Esto significa que el contenido mental no es material. Refutación: La refutación del argumento de la materia ordinaria también se aplica a este argumento.


(vi) El argumento de la indeducibilidad. En este mundo hay un estado neuroquímico NQ1 de mi cerebro que corresponde con un contenido mental CM1. Pero imaginemos un mundo físicamente idéntico al nuestro, pero mentalmente diferente. Más precisamente, imaginemos un mundo donde NQ1 no corresponde con CM1, sino que corresponde con otro contenido mental al cual llamaremos CM2. Ese mundo es concebible, por lo tanto no se pueden deducir los contenidos mentales a partir de los estados neuroquímicos. Refutación: Si algo es concebible o no para cierta persona depende de los conocimientos de esa persona. Por ejemplo, para una persona que no sabe que la velocidad de las moléculas de un gas no sólo corresponde a, sino que es, la temperatura de un gas, digamos, es concebible para tal persona que un gas con cero movimiento de moléculas tenga una temperatura finita y no nula. Sin embargo esto no es posible. Lo mismo puede aplicarse a las propiedades de los procesos y sistemas neuronales en relación con los contenidos mentales: siguiendo el caso anterior, NQ1 es CM1, y como la relación de identidad implica necesidad (en el sentido de lógica modal), tenemos que al estado NQ1 solamente puede corresponder CM1, ya que NQ1 es CM1.


(vii) El argumento de la realizabilidad múltiple. Este argumento fue introducido originalmente por Hilary Putnam, con una formulación y un fin diferentes. Pero una modificación de éste puede llegar a parecernos una amenaza para la tesis que expuse y defendí en la refutación del argumento (vi) (es decir, la tesis según la cual los estados neuronales que nosotros decimos que ‘corresponden’ a un contenido mental en realidad son contenidos mentales); el argumento sería algo así: un reptil piensa en la comida, pero un humano también piensa en la comida. Pero los estados cerebrales que realizan dicho contenido mental son completamente diferentes (ya que los cerebros son completamente diferentes uno del otro tanto en complejidad como en estructura). Por lo tanto, es imposible que un contenido mental sea un estado neuronal, ya que no se puede ser dos cosas al mismo tiempo (y sería más de un estado neuronal posible en el caso de la realizabilidad múltiple). Refutación: Una temperatura puede corresponder a diferentes sistemas, siempre que éstos cumplan todos con un requisito (tener cierta velocidad promedio de las moléculas que los constituyen). Esto no significa que la temperatura no sea el movimiento de las partículas; tan sólo significa que hay un patrón que todas los sistemas con cierta temperatura tienen, que es el siguiente: todos tienen la misma velocidad promedio de las moléculas que los componen. Lo mismo pasa con los contenidos mentales: pueden ser realizados por diferentes estados neuronales, pero todos estos tienen algo en común, que la neurociencia o bien está descubriendo o bien empezará a descubrir en el futuro.

B. EL CONTENIDO MENTAL ES EL ÚNICO INGREDIENTE NECESARIO PARA CONSTRUIR UNA MENTE.


La mente está compuesta, o por lo menos eso parece, de las siguientes cosas: actitudes proposicionales (deseos, miedos, pensamientos, y creencias; estados mentales relacionados con una proposición) por un lado, y qualia (sensaciones, percepciones, emociones, cualquier cosa que uno perciba de sí mismo, del entorno o de su estado emocional, etc.) por el otro. Las actitudes proposicionales tienen siempre contenido. El problema serían los qualia, y el aspecto auto-consciente de la mente. Si pudiéramos reducir éstos a proposiciones, la defensa de la tesis B habría terminado. Como sabemos que eso es precisamente lo que queremos hacer, prosigamos:


Qualia: Imagine un síndrome o enfermedad llamado chromodelussia A. Quien tiene tal síndrome, ve todo en blanco y negro, pero sigue creyendo que ve colores, y cuando se le pregunta de qué color es cierto objeto O, el sujeto responde un color C, pero si se le pregunta a otro paciente con el mismo síndrome de qué color es O, también responderá C. Ahora imagine otro síndrome, chromodelussia B, que quien lo padece ve todo color verde, pero cree que ve todos y cada uno de los colores. Y cuando se le pregunta a un paciente con chromodelussia B de qué color ve a O, también dirá que lo ve del color C. Y estará perfectamente convencido de esto, al igual que un paciente que padece de chromodelussia A. Ahora bien, cuál es la diferencia entre la chromodelussia A y la chromodelussia B? Ninguna. ¿Por qué? Porque ni un observador externo ni el mismo paciente puede distinguir la diferencia. En realidad, y por esa misma razón, tanto la chromodelussia A como la B son idénticas a la vida real. Moraleja: no importa qué colores veamos, si es que los vemos (ya que podría haber ejemplos con ceguera total); sólo importa qué colores creemos (tan firmemente que no nos podemos imaginar que no sea así) que vemos. Y las creencias, amigos míos, son actitudes proposicionales. Ah, por cierto: lo mismo se aplica a los demás sentidos. 


Aspecto auto-consciente de la mente: Pasa algo similar que en el ejemplo anterior: el cerebro construye pensamientos con los siguientes contenidos mentales:

p1: yo soy el yo

p2: el yo es autoconsciente.

p3: el yo autoconsciente es consciente de p1, p2 y p4.

p4: el yo autoconsciente es consciente de p3.

etc.

Pero estos pensamientos no son verdaderos, pero el cerebro los toma por verdaderos.

Para que esto último tenga sentido, hay que formular una última tesis (con esto termino):

–> Las actitudes proposicionales «básicas», son las creencias. Por «básico» se entiende aquel tipo de

actitud proposicional al que las otras actitudes proposicionales se reducen, siendo éstas últimas una configuración del tipo de actitud proposicional «básica».

Janou Glaeser

Publicado en Sin categoría | 2 comentarios

De cómo probar que existe un mundo exterior.

Imagine un mundo distinto al nuestro, que albergue cerebros distintos a los nuestros. Imagine ahora que esos cerebros, con esos estímulos tan diferentes, a su vez «compensan» esa diferencia al ser ellos mismos diferentes a los nuestros verdaderos cerebros, de tal forma que las experiencias creadas por esos cerebros son idénticas a las nuestras.

Ahora imagine otro escenario: un científico loco conecta electrodos a un cerebro para que se produzcan los estímulos externos necesarios para que el cerebro crea que es un humano con un cuerpo y que está pescando en un día soleado en el río.

Ahora imagine que usted mismo está siendo engañado por un genio maligno que le presenta a sus sentidos una tormenta de estímulos que le hacen creer a ud. todo lo que usted cree.

¿Qué tienen en común esos tres escenarios? Son escenarios escépticos del mundo externo. Lo peor de todo, lo cual es no sólo filosóficamente, sino que también en la esfera práctica, de lo más incómodo, por no decir aversivo, es que el engañado podría ser ud. (sí, lo sé, yo también).

Muchos filósofos han tratado de hacer frente a estos retos escépticos, demostrando la imposibilidad de los escenarios que postulan, pero la mayoría de los que han emprendido tal batalla, la han dejado de lado, por su enorme dificultad, tildándola de absurda, o diciendo que el problema es un pseudo-problema, o incluso que no tiene significado alguno pensar en esas cosas.

Yo no soy un caso de los que han abandonado tal batalla. Me parece que se puede mostrar la imposibilidad de los escenarios escépticos. Sí, de todos. Y esto se hace buscando qué tienen todos estos en común (además de que todos nos dejan consternados).

Bien, ahora dejemos este tema suspendido. Veamos un tema muy diferente: la lógica modal, también conocida como lógica de los mundos posibles.

Si algo es posible (aquí no nos importará la probabilidad, sólo la posibilidad o imposibilidad), se dice que es real en un mundo posible. Si algo es verdadero, se dice que es real en el mundo actual. Ahora bien, un cuadrado con cinco lados, por ejemplo, es imposible, y se dice que no es real el ningún mundo posible. Los mundos posibles también nos sirven para expresar los contrafactuales, tales como «Si el actual presidente de X país no hubiera sido electo, el país andaría mucho mejor», o «si yo no hubiera estado en contacto con un piano en mi infancia, no sería pianista hoy»: esto significa que en los mundos posibles donde el actual presidente de X país no fue electo, el país anda mucho mejor, o que en los mundos posibles donde yo no conocí un piano, yo no soy pianista, respectivamente.

Ahora volvamos al escepticismo del mundo exterior.

Podemos decir que en el mundo actual (el «real») podría ser de dos formas. O bien (1) Hay verdades en el mundo actual que llegan al cerebro de forma fiable, y éste reconstruye el mundo fiel a la realidad, o bien (2) Hay verdades en el mundo actual que llegan al cerebro de forma no fiable y éste reconstruye el mundo diferentemente a como realmente éste es (esto es lo que postulan los escenarios escépticos del mundo exterior).

Ahora, con ayuda de la lógica de los mundos posibles, podemos construir dos escenarios: o bien (i) 1 es real en el mundo actual; o bien (ii) 2 es real en el mundo actual y 1 es real en otro mundo posible. Ahora bien: si (ii) es verdadero, nosotros no estamos aprendiendo verdades de este mundo cuando lo estudiamos y observamos, pero sí estamos aprendiendo cosas de otro mundo. Pero eso sería absurdo, ya que no nos estamos imaginando cosas, sino que estamos investigando a través de este mundo, otro mundo. Eso es absurdo totalmente, ya que los demás mundos no existen, y como sabemos lo no-existente no tiene ninguna relación causal con lo existente; e incluso si crees, como David Lewis y otros seguidores del realismo modal, que todos los mundos posibles existen de forma concreta, tendrás que admitir, como hace David Lewis, que de todo modos cada mundo posible está no sólo espaciotemporalmente, sino que también causalmente desconectado de todos los demás mundos posibles. Por lo tanto, la opción (ii) queda eliminada, y nos queda, por descarte, la opción (i), que nos dice que, en el mundo actual, 1 es cierto. Y, precisamente, 1 nos dice que «hay verdades en el mundo actual que llegan al cerebro de forma fiable, y éste reconstruye el mundo fiel a la realidad». Es decir, que 2 es falso, lo que equivale a anunciar alegremente que el escpeticismo del mundo exterior no es sostenible.

Michael Janou Glaeser.

Publicado en Epistemología | 4 comentarios

El Desafío del Dios Maligno de Stephen Law.

Este es Stephen Law.

Hola a todos.
Hoy voy a introducir el desafío del Dios maligno, de Stephen Law.
Es algo así:
Considerar un Dios omnipotente, omnisciente y todo-amor.
Considerar luego un Dios omnipotente, omnisciente, y todo-odio.
Después de todo, los argumentos cosmológicos y teleológicos no nos dicen nada sobre el estátus moral del Dios que intentan probar.
Ahora bien, ¿Se puede eliminar la tesis del segundo? Uno dirá, ¡desde luego!, ya que observamos mucho bien en el mundo como para que un Dios omnisciente y omnipotente, pero cruel y malvado sea quien está a cargo de este universo.
Uno podría decir entonces que el «argumento del bien» refuta al dios malo. Pero entonces ¿no se puede eliminar al dios bueno, con el «argumento del mal» (es decir, que hay demasiado mal en el mundo para que exista un Dios bueno)? El teísta podrá decir que el Dios bueno permite el libre albedrío para que hagamos cosas buenas porque realmente queremos, de modo que no seamos marionetas o autómatas, y que realmente hagamos el bien, por decisión propia. Pero el antiteísta  (aquí se usa ‘antiteísta’ no como alguien quien está en contra de la religión por razones sociales, sino como alguien que cree en el dios maligno) podrá decir «el dios maligno nos da libertad para que realmente hagamos el mal; él no quiere que seamos marionetas o autómatas, sino que hagamos el mal por decisión propia». El teísta puede decir entonces «los males del mundo los puso Dios para que nos hagamos más fuertes como personas, y espiritualmente». Pero el antiteísta podrá decir «el Dios maligno nos hace el bien por que quiere que el mal que hace sea más malo aún de lo que es per se, ya que si hay un poco de bien, el mal contrasta aún más y es más malo». El teísta podría decir entonces, «Dios nos hace el mal para que haya más bien (por ejemplo, lo que ocurre con la caridad, que es buena, pero que requiere que haya sufrimiento en el primer lugar)». El antiteísta podría decir entonces «Dios malo pone un poco de bien en el mundo para que luego haya mal, como ocurre con los celos: para que haya celos -que son algo malo- tiene que haber cosas buenas en la persona de la cual uno está celoso».
En resumen, casi todos los argumentos teístas se pueden revertir, resultando en argumentos antiteístas. No hay razones para preferir un tipo de Dios que otro, ¿o las hay?
Veamos el argumento de los milagros. Los milagros de los que se tienen registro suelen ser buenos (como por ejemplo curar de la lepra o de la ceguera). Eso, ¿no sería acaso un buen argumento en contra del Dios malo, y a favor del bueno? No: el Dios malo podría engañarnos para que creamos que él es bueno, y así maximizar el mal.
Uno podría decir «un mundo creado por un dios todopoderoso, todo-saber y todo-odio estaría plagado de sufrimiento, pero como no vemos eso, eso quiere decir que el dios malo no es el caso (es decir, no existe)». Pero el antiteísta podrá decir «un mundo creado por un dios todopoderoso, todo-saber, y todo-amor estaría plagado de alegría». Cualquier excusa se podrá revertir.
Ahora veamos algo más interesante: el argumento moral. Tal argumento tiene la siguiente estructura: 1) Si Dios no existe, no hay valores morales objetivos. 2) Hay valores morales objetivos. 3) Por lo tanto, Dios existe. Pero esto no te dice nada: el Dios en cuestión podría ser malo, y su esencia dictaría qué es el mal, y por lo tanto qué es el bien (que se definiría como lo contrario al mal).
A ver, ¿se pueden revertir más argumentos? Acá van tres ejemplos más:

a) El teísta puede decir que «las leyes de la naturaleza son un pre-requisito para que podamos manejarnos en el ambiente y saber las consecuencias de nuestras acciones. Podemos entonces hacer grandes bienes gracias a las leyes de la naturaleza. Sin embargo, las leyes de la naturaleza tienen ‘efectos secundarios’, que hacen mal. Es decir, para que haya bien, tiene que haber leyes de la naturaleza, que tienen efectos secundarios que pueden causar el mal». Veamos la respuesta del antiteísta: «las leyes de la naturaleza son un pre-requisito para que podamos manejarnos en el ambiente y saber las consecuencias de nuestras acciones. Podemos entonces hacer grandes males gracias a las leyes de la naturaleza. Sin embargo, las leyes de la naturaleza tienen ‘efectos secundarios’, que hacen bien. Es decir, para que haya mal, tienen que haber leyes de la naturaleza, que tiene efectos secundarios que pueden causar el bien».

b) El teísta puede decir «la vida después de la muerte compensa todo el mal que le ocurrió a la persona durante su vida terrenal; en otras palabras, la vida después de la muerte está llena de alegría». Veamos la respuesta del antiteísta: «la vida después de la muerte compensa todo el bien que le ocurrió a la persona durante su vida terrenal; en otras palabras, la vida después de la muerte está llena de sufrimiento».

c) El teísta puede decir «el bien de Dios no es lo mismo que el bien del hombre. Por eso el mal que observamos es en realidad un bien para Dios». Esto es fácil de revertir: «el mal de Dios no es lo mismo del mal de el hombre. Por eso el bien que observamos es en realidad un mal para Dios».

Veamos más casos:

d) Se puede ser escéptico de todas las pruebas empíricas del mal, y asegurar que en efecto la creación es pura alegría. Pero lo mismo puede hacerse con las pruebas empíricas del bien, y asegurar que en efecto la creación es puro sufrimiento.

e) Argumento ontológico: «1) Dios es el ser más perfecto concebible. 2) Si Dios sólo existiera en mi mente, habría un ser más perfecto aún: uno que existiera también en la realidad. 3) Ergo, por definición, el ser más perfecto concebible (dios) es real. Y la perfección incluye la perfección moral. Sin embargo, Law aporta un argumento ontológico para el Dios maligno: «1) yo puedo concebir un Dios maligno, del que no se puede concebir ningún ser peor. 2) Si el Dios maligno sólo existiera en mi mente, habría un ser peor aún: uno que existiera también en la realidad. 3) Ergo, por definición, el ser peor concebible (dios maligno) es real». De todos modos, los argumentos ontológicos son basura filosófica, y no deben ser tomados en serio.

f) Argumento de la simplicidad: «Es más simple un dios bueno que uno malo, por ejemplo: un omni-dios (un dios que es omnipotente, omnisciente, omnipresente, y todos los otros omni-xs) bueno se define como un ser con todas las propiedades positivas, mientras que un omni-dios malo se define como todas las propiedades positivas excepto el estátus moral». Pero esto no sirve de nada: si yo digo (i) Argentina está exclusivamente habitada por 1.000 gnomos que tienen todos un hada en la cabeza. (ii) Argentina está exclusivamente habitada por 1.000 gnomos que tienen todos un hada en la cabeza, excepto un gnomo que tiene dos hadas en la cabeza. ¿Es legítimo afirmar que (i) es más probable que (ii), por ser más simple? No. Por lo tanto el argumento de la simplicidad falla.

De modo que no hay razón alguna para creer que un omni-dios bueno es más probable que un omni-dios malo. Pero como nadie acepta al omni-dios malo, por sentido común, ¿por qué no descartar también al omni-dios bueno, por sentido común?

M. J. Glaeser

Publicado en Sin categoría | Deja un comentario

Los mimbres y el cáñamo: cordajes necesarios para una filosofía de la biología

Tradicionalmente la filosofía de la ciencia se ha centrado en el estudio de la física. Y siendo así, ha abordado una gran cantidad de cuestiones relacionadas: la naturaleza nomotética de sus leyes y su carácter hipotético-deductivo, las cuestiones referidas a los enunciados observacionales y al papel de los resultados experimentales como criterios de verificabilidad de las afirmaciones teóricas, la propia noción de «observación» y su estatuto epistemológico, la fortaleza y la debilidad de los procedimientos inductivos, los estudios sobre metodología, la elaboración del arsenal conceptual, los programas de formalización y matematización del lenguaje físico -«la matemática es el lenguaje de la naturaleza», que diría Galileo- el sentido del grado de confirmación, su relación con la verificabilidad y su uso como criterio para la formulación de leyes, la conveniencia de la presentación axiomática de las teorías, la evaluación gnoseológica del criterio falsacionista y de su incidencia real en el descarte de macroteorías, la importancia de las hipótesis auxiliares, el grado de información disponible sobre las condiciones iniciales y las condiciones de contorno y su función en el paradigma laplaciano de «conocimiento absoluto», el carácter determinista de las ecuaciones físicomatemáticas y otros tantos aspectos que no es necesario detallar aquí. Todo esto sin considerar la aportación de los estudios sociológicos de la actividad científica que, en muchos casos, buscan ejemplificar sus postulados abordando sobre todo los contenidos de la mecánica celeste newtoniana; éste es en el célebre caso de Kuhn y su modelo de las revoluciones científicas, que se centra casi en exclusiva en la revolución copernicana.

La biología, sin embargo, ha merecido mucha menos atención por parte de los filósofos de la ciencia. En parte, la explicación es cronológica; pues mientras la física paradigmática se constituye en sus aspectos esenciales en los siglos XVII, XVIII y XIX, la biología en tanto disciplina unitaria no se perfila como tal hasta el siglo XIX. Hay también aspectos epistemológicos: la primera revolución científica, de mimbres mayoritariamente físicos, proporciona una unidad de lenguaje, de concepto y de método que facilita el posterior desarrollo de la física y estructura el trasfondo lógico sobre el que se desplegará la segunda gran revolución física, la que dará lugar a la teoría de la relatividad y a la mecánica cuántica. En biología, sin embargo, el paradigma unificador, el que dota de sentido interpretativo al hacer de los varios naturalismos previos (fisiología e historia natural, fundamentalmente) no ve la luz hasta el año 1859, con la formulación grosso modo de la teoría de la evolución biológica. Una teoría que informó el desarrollo de la ciencia biológica a través de un escenario de conflictos teóricos permanentes que todavía, a día de hoy, distan de estar clausurados. Y la que podría considerarse como la segunda revolución biológica, la revolución de la genética y la biología molecular, ofrecerá sus espectaculares aportaciones en ese marco conflictivo previo de interpretaciones.

A día de hoy, la filosofía de la biología está plenamente integrada en el quehacer académico de los filósofos de la ciencia, en la edición de libros y manuales escolares, en la realización de congresos y reuniones profesionales y en la distribución de publicaciones y revistas especializadas. No obstante lo cual, parece interesante detallar algunos de los apartados que centran, o deberían centrar, la atención de la reflexión metabiológica; una reflexión orientada a reforzar y ensamblar los fundamentos teóricos y heurísticos que perfilan a la biología como una ciencia autónoma y, al menos en la actualidad, irreductible a otras ramas del conocimiento científico.

20150126_115457

Veamos brevemente estos apartados temáticos.

1. La naturaleza de las leyes biológicas. Las leyes formulables en biología, ¿tienen el carácter de postulados universalizables, necesarios y no locales, como las leyes físicas y químicas, o son únicamente generalizaciones empíricas contingentes y con jurisdicción parroquial? Por poner un ejemplo, existe un modelo matemático elaborado por tres científicos -Lisette G. de Pillis, Ami E. Radunskaya y Charles M. Wiseman- que describe, en unas determinadas condiciones, el modo en que el organismo hace frente a ciertos crecimientos tumorales a través de una respuesta inmunitaria mediada por células especializadas. Tal modelo se conoce como ley de de Pillis, Radunskaya y Wiseman. ¿Tiene esta ley un carácter absolutamente universal?¿tiene validez generalizable para cualquier sistema inmunológico similar presente en organismos biológicos basados en la química del carbono? ¿cuál es su potencial predictivo? ¿tiene condiciones de falsabilidad? ¿hasta qué punto está condicionada esta ley por la especificación de las condiciones iniciales y las condiciones de contorno?

2. La naturaleza de los procesos y de las explicaciones biológicas. ¿Son los procesos biológicos, a diferencia de los físicos, procesos teleológicos, esto es, «orientados a un fin» o «finalistas»? ¿requieren estos procesos explicaciones diferenciadas de las explicaciones hipotético-deductivas de las ciencias físicas? Y de ser así, ¿son estas presuntas explicaciones teleológicas esencialmente distintas, no sólo diferentes en apariencia, de las explicaciones de causa próxima que operan en el mundo inanimado? ¿o, por el contrario, son aquéllas reducibles a éstas?

3. Reduccionismo frente a emergentismo. ¿Existen en biología propiedades emergentes, propiedades que aparecen en determinados niveles de complejidad estructural y funcional y que no pueden derivarse de las propiedades de los componentes aislados del sistema complejo? ¿o bien estas supuestas propiedades emergentes son en realidad descomponibles en propiedades más básicas, propias de niveles de menor complejidad? ¿Se trata de un emergentismo ontológico, un emergentismo que forma parte del íntimo entramado de realidad del mundo físico? ¿o más bien se trata de un emergentismo epistemológico, es decir, de un fenómeno sólo aparente, que persiste únicamente porque, hoy por hoy, carecemos de una explicación satisfactoria en los términos actuales en los que están articuladas nuestras teorías físicas?

4. Matematización del lenguaje de la biología. Una gran parte de la biología actual, incluida lo que Ernst Mayr llamaba «biología funcional» (por contraposición a la biología evolutiva) despliega su contenido en forma de descripciones cualitativas -la citología, la histología, la zoología, la botánica, buena parte de la fisiología animal y vegetal, la microbiología y otras subdisciplinas- sin el recurso a un lenguaje numérico. Habida cuenta del postulado galileano sobre el lenguaje matemático de la naturaleza, ¿cabe entonces catalogar a la biología como una ciencia «de segundo orden» en comparación con la física y la química? ¿o bien debe aceptarse que existen ámbitos de la naturaleza matemáticamente irreductibles? ¿cabría aspirar a una futura matematización lingüística de las ciencias de la vida?¿o se trata de un programa condenado al fracaso?

5. Pensamiento tipológico frente a pensamiento poblacional. El biólogo evolutivo Ernst Mayr afirma que una de las grandes diferencias entre las ciencias físicas y las ciencias de la vida es que las primeras utilizan un sistema de clasificación tipológico para catalogar las diferentes entidades con las que se las tienen que haber (quarks, protones. átomos y demás), entidades que se supone permanecen constantes, idénticas entre sí e individualizadas, en tanto que las entidades biológicas se identifican mejor en términos poblacionales, definidos éstos por parámetros de variación, cambio y promedios estadísticos. Aunque es ésta una afirmación muy discutible, ¿cabe suponer que puede constituir, en términos generales un rasgo diferenciador de las ciencias de la vida frente al resto de las ciencias?

Biología

6. La especie y la delimitación conceptual de este taxón. Las discusiones sobre la especie como unidad biológica taxonómica y selectiva no parecen tener fin. Hay al menos tres enfoques, de acuerdo con Mayr, para identificar lo qué sea una especie: el criterio tipológico o morfológico linnenano, el criterio biológico o reproductivo y el concepto ecológico o de nicho medioambiental. La discusión gana en complejidad cuando a estos criterios sincrónicos se le suman los criterios diacrónicos, es decir, los que surgen de la consideración temporal y evolutiva de la especie y del estudio de la especiación a través de líneas filéticas continuas. ¿Cuándo se considera que desaparece una especie y surge una nueva para reemplazarla a lo largo de una única línea evolutiva (filética)? Es decir, ¿cómo abordar la anagénesis desde un punto de vista taxonómico?

7. La causación dual en biología. Mayr acuñó la expresión  «causación dual»  para referirse a la existencia de dos tipos de causas fundamentales en el surgimiento de las estructuras, funciones y comportamientos de los seres vivos. Por una parte, la causalidad física que está en el origen de todos los fenómenos del mundo inanimado; por otro lado, la causalidad genética, propia del espacio de lo vivo, y que cobra cuerpo en la noción de programa genómico. La idea de «programa» es una de las piedras ancilares en la arquitectura de la biología, y fundamenta en buena medida las pretensiones de originalidad y autonomía de esta ciencia; o al menos eso es lo que sostiene enfáticamente Mayr. De nuevo podemos preguntarnos: ¿es el programa genético una realidad emergente, irreductible en sus propiedades a las de sus componentes físicos y químicos? ¿o tan sólo opera como una causa segunda, causada a su vez por las leyes básicas del comportamiento del mundo inanimado? En otras palabras, ¿tiene sentido hablar de una causación dual o podemos remitir todo evento biológico a una única causa primera, formulable en términos puramente físicos?

8. La evolución biológica como trasfondo hermenéutico de toda la biología. «Nada tiene sentido en biología si no es a la luz de la evolución», afirmaba Theodosius Dobzhansky, el principal artífice de la llamada «teoría sintética de la evolución». ¿Hasta qué punto es cierta esta dependencia epistémica entre la teoría de la evolución biológica y el resto de las disciplinas biológicas? ¿debe y puede el paradigma utilizarse como un tipo de Deus ex machina a la hora de explicar e interpretar cada uno de los rasgos biológicos genéticamente heredados de una especie, o es permisible sostener que existen rasgos evolutivamente neutros? ¿cómo hay que entender la selección natural y qué papel juega en realidad en el proceso evolutivo? ¿representa la evolución el despliegue de un programa finalista o se trata nada más que de una secuencia ramificada contingente de eventos que se abren en el tiempo? ¿cuál es el estatuto nómico de la teoría de la evolución? ¿son los procesos adaptativos perfectos en cada momento o, por el contrario, existe un reajuste continuo entre los individuos y la estructura de su nicho ecológico?

9. El naturalismo explicativo, la etología y el comportamiento humano. Por «naturalismo explicativo» se entiende la tesis que afirma que el comportamiento humano, con todas sus complejidades culturales, es reductible últimamente a la configuración biológica de Homo sapiens. Es decir, el comportamiento se contempla como un epifenómeno de la etología. ¿Qué contenido de verdad hay en esta afirmación? ¿Qué evidencias podrían aportarse como falsaciones empíricas de la tesis naturalista? Más incluso, ¿hasta qué punto la cultura humana -en su más amplia acepción- posee un significado evolutivo?

10. La sociobiología. La sociobiología afirma que el comportamiento de los individuos en grupos sociales -incluido el ser humano- obedece a pautas fundamentalmente evolutivas, incluidos los comportamientos altruistas. También sostiene que los factores culturales no son suficientes para explicar el comportamiento humano en el entramado social. En el estudio de los grupos sociales, desde un punto de vista biológico, la sociobiología echa mano de los recursos teóricos y heurísticos de la biología evolutiva, la biología del comportamiento y la ecología biológica. La formulación moderna de esta disciplina surgió con el libro de Edward O. Wilson  Sociobiology: The New Synthesis (1975). Aunque se trata de una propuesta polémica que ha generado un intenso debate, debate que continúa hoy en día, ofrece un ámbito de reflexión filosófica que gira sobre cuestiones importantes, en especial las referidas a los seres humanos. ¿Hasta qué punto está genética y biológicamente determinado el comportamiento humano en las sociedades modernas? ¿existen anclajes puramente evolutivos, o al menos instintivos, de la moral? ¿cómo afecta esta propuesta a la discusión en torno a la importancia relativa de las características innatas frente a las adquiridas (el debate académico nature versus nurture)? ¿es legítima la extrapolación del paradigma de la selección natural al estudio de los conflictos en las sociedades modernas?

Todos estos temas representan una parte del actual debate filosófico en torno a la biología, pero no agotan los contenidos filosóficamente fértiles de esta ciencia. Lo que sí demuestran es que la reflexión teórica en torno a las ciencias de la vida no se ciñe al perímetro puramente científico y técnico de tales disciplinas. Los contenidos de la biología obligan a un profundo pensar sobre asuntos que, en tanto entidades animadas, nos conciernen de forma particular. Y las cuestiones que se han mencionado, y otras más que podrían añadirse a la lista, proporcionan un buen argumento en favor de la pretensión fuerte de considerar a la biología como una ciencia autónoma y en pie de igualdad con las ciencias físicas y químicas. Al menos en cuanto a su objeto de estudio, al instrumental conceptual utilizado, a la metodología a la que recurre, a sus pretensiones explicativas y a la propia reflexión filosófica a que da lugar.

Publicado en Ciencia, Filosofía de la ciencia | Etiquetado , , , | Deja un comentario