Bienvenidos !!!

Este blog no tiene ninguna otra finalidad que compartir y ayudar a reflexionar sobre lógica y filosofía de la lógica, filosofía de las matemáticas, de la ciencia etc.
El blog es absolutamente gratuito.Es importante difundir nuestras reflexiones, discusiones, investigaciones y logros en el campo de las disciplinas que nos apasionan .

Gracias por seguir el blog !!!

Claudio Conforti

jueves, 30 de abril de 2009

La lógica de Segundo Orden es Lógica?

Según Concepción Martínez Vidal:
Otro es el problema de si la lógica de segundo orden con semántica estándar puede ser o no considerada lógica. En general la lógica de segundo orden con semántica estándar se considera una extensión de la lógica de primer orden ya que el conjunto de las verdades lógicas de primer orden es un subconjunto de las verdades lógicas de primer orden, la noción tarskiana de consecuencia lógica se aplica directamente a la de segundo orden y la semántica estándar para la lógica de segundo orden es también la semántica modelo-teórica. Por tanto, parece que la noción de constante lógica debiera aplicarse también en segundo orden. Así los tipos de denotaciones adecuadas para las distintas categorías sintácticas básicas de un lenguaje de segundo orden serían las mismas que en primer orden para conectivas y cuantificadores de primer orden, mientras que al cuantificador universal de segundo orden (para toda propiedad, o para toda relación) le corresponde como valor semántico el conjunto potencia del universo del discurso de la posible realización (o el conjunto potencia del producto cartesiano del dominio por sí mismo n veces si la relación sobre la que estamos cuantificando tiene n argumentos) y al cuantificador existencial (para al menos una propiedad, para al menos una relación) le corresponde un subconjunto del conjunto potencia del dominio o del producto cartesiano del dominio por sí mismo n veces dependiendo del número de argumentos de la relación. Ahora, las denotaciones de los términos lógicos de segundo orden deben ser entidades lógicas, luego si ‘"’ y ‘$’ han de ser términos lógicos, ‘Ã(A)’ (o ‘Ã(Ax…xA)’) debe ser un conjunto invariante bajo isomorfismos. La noción de subconjunto ha de estar fijada por la función de interpretación para los cuantificadores. Pero, lo que ocurre en el caso de la lógica de segundo orden no es exactamente lo que ocurre en el caso de primer orden. En el caso de segundo orden, el compromiso con la noción de subconjunto, resulta del uso instrumental que la semántica modelo-teórica hace de la teoría de conjuntos. La operación potencia sobre el dominio de la posible realización que se utiliza en primer orden para establecer todos los valores semánticos posibles para las expresiones no lógicas; pero en ese caso no cuantificamos sobre esos subconjuntos, luego no hay compromiso con la noción de subconjunto. En el caso de la lógica de segundo orden, cuantificamos sobre los subconjuntos del dominio. Ahí radica el diferente compromiso ontológico (según el dictum quineano) de la lógica de primer orden frente a la lógica de segundo orden. Mientras que la de primer orden solo se compromete con los elementos del dominio, la lógica de segundo orden con semántica estándar se compromete con todos los subconjuntos del dominio, por lo que la noción de subconjunto resulta ser uno de los supuestos ontológicos de la lógica de segundo orden con semántica estándar. Debido a ese compromiso, la idoneidad de la semántica modelo-teórica de cara a representar todos los estados de hechos posibles para un lenguaje de segundo orden, se encuentra con una dificultad añadida: la incompletud de la teoría de conjuntos. Debido a esa incompletud, algunos enunciados fundamentales relativos a la noción de subconjunto son independientes de los axiomas estándar de Zermelo-Fraenkel. Por ejemplo, la hipótesis del continuo y su negación son ambas compatibles con los axiomas estándar de ZF. Lo que signifique un cuantificador de segundo orden depende de qué decidamos respecto a la hipótesis del continuo. Si la añadimos, los subconjuntos que se considerarán serán aquellos en los que esta hipótesis se cumple, mientras que si decidimos extender ZF con la negación de la hipótesis del continuo, los subconjuntos que serán tenidos en cuenta serán otros. Y así para otros muchos axiomas. A resultas de ello, el significado de los cuantificadores de la lógica de Segundo orden con semántica estándar es ambiguo.
Autores como Hartry Field han defendido que la matemática es prescindible (aunque útil) y se han embarcado en el ambicioso proyecto de reconstruir distintas teorías científicas (el lo hace para la Física newtoniana) prescindiendo de la matemática. Field utiliza la lógica como vehículo para evitar el compromiso ontológico con entidades matemáticas, compromiso que desde su rechazo de las entidades abstractas, resulta inaceptable. Pero, dado que la lógica de primer orden es insuficiente para formalizar teorías científicas, por ejemplo para reconstruir la física newtoniana, si la lógica de segundo orden es teoría de conjuntos disfrazada, entonces la lógica de segundo orden con semántica estándar no puede desempeñar el papel que los filósofos de la matemática que quieren evitar el compromiso ontológico con las entidades matemáticas le han otorgado (i.e., como instrumento alternativo a la matemática). Normalmente, los filósofos de la matemática contemporáneos que proponen la utilización de la lógica como alternativa al compromiso con entidades matemáticas, proporcionan semánticas alternativas para esa lógica, de manera que los compromisos ontológicos que conlleva la semántica estándar para la lógica de segundo orden (con entidades abstractas tales como propiedades, o conjuntos de conjuntos de entidades) no sean necesarios; así, Boolos interpreta la cuantificación sobre predicados en términos de pluralidades de entidades del dominio. Field toma como primitivos los conceptos lógicos básicos: consecuencia lógica y consistencia. Chihara intenta reconstruir la matemática prescindiendo de entidades matemáticas y sustituyéndolas por sentencias abiertas o por sentencias cuya construcción es posible y reinterpretando los cuantificadores en términos constructivos.
El problema de si la lógica de segundo orden es lógica se ha planteado también respecto a la cuestión de cuál es la lógica adecuada para dar cuenta de la practica matemática. Desde esta perspectiva, el problema radica en que en matemáticas nuestro propósito es el de caracterizar hasta isomorfía y esto sólo es posible en el marco de la lógica de segundo orden. Sin embargo, la lógica de segundo orden es incompleta (no hay una deducción para todo argumento válido formulable en un lenguaje de segundo orden). Dado que el problema radica en la teoría matemática elegida para formular la semántica, la teoría de conjuntos, se han formulado propuestas semánticas alternativas. Por su parte Awodey y Reck han analizado, desde un punto de vista matemático e histórico, la axiomática formal tal y cómo se desarrolla en los trabajos de Dedekind, Peano, Hilbert, Huntington y Veblen para defender la necesidad de utilizar lógica de orden superior en general, y de segundo orden en particular, si se han de satisfacer los objetivos que guiaban a estos autores clásicos. Proponen una semántica alternativa, una semántica topológica para la lógica de orden superior. Esta semántica dispone de un cálculo completo y, al contrario que en el caso de la lógica de segundo orden con semántica no estándar, la lógica tiene suficiente capacidad expresiva como para que podamos disponer de caracterizaciones categóricas, aunque, por supuesto, el significado de este término varía. La lógica de segundo orden con semántica topológica es completa sin que esto vaya contra los resultados de incompletud de Gödel. Esto se debe a que la semántica topológica utiliza universos integrados por entidades matemáticas que son una generalización de la noción de conjunto: conjuntos continuamente variables (sheaves). Los resultados de Gödel se basan en el uso del término ‘verdadero’ entendido como ‘verdadero acerca de todos los conjuntos constantes’; el sentido de ‘verdadero’ en la semántica que introducen es el de ‘verdadero en todos los conjuntos variables’. El hecho de que la lógica de segundo orden con semántica topológica sea completa, garantiza que la operación de consecuencia está determinada. Sin embargo, la idoneidad de este tipo de semántica no se considera aún establecida.
Por su parte Jané ha establecido que la lógica de segundo orden no es la apropiada para formular la teoría de conjuntos porque esa lógica presupone a nivel semántico la propia noción que intentamos caracterizar axiomáticamente. Si cambiamos la semántica modelo-teórica tradicional por la semántica topológica que proponen Awodey y Reck, entonces no se produce esa interferencia, ese presuponer a nivel semántico, en el metanivel, lo que estamos definiendo, de manera que los axiomas por sí solos recogerían la información relevante. En ese sentido la caracterización sería formal.

martes, 28 de abril de 2009

Una perspectiva apriorística de la Lógica

De acuerdo a lo pensado, en un primer momento es mi intención presentar tres artículos para estudiar el Estatuto Epistemológico de la Lógica. Durante el curso hemos trabajo el artículo de Boghossian (2000) “Knowledge of Lógic”, pero me resulta interesante sobre el tema del a priori otro artículo de Boghossian (1996) “Analicity Reconsidered” y por ese comenzaré. Luego, seguiré por dos de Hartry Field: “Apriority as an Evalutive Notion” en P. Boghossian and C. Peacocke (2000) New essays on the A Priori y “Recent Debates About de a Priori” (2005) . Finalmente tratare de recapitular ambos modos (aunque diferentes) de defender la aprioricidad.

ANALICITY RECONSIDERED
Boghossian comienza diciendo que Quine demostró que no puede haber distinción entre las oraciones que son verdades en virtud de su significado y las que no lo son. Al obrar así, Quine devastó los programas filosóficos que dependen de la noción de analiticidad: la teoría lingüística de la verdad necesaria, y la teoría analítica del conocimiento a priori.
Quine toma posturas más radicales sobre el significado, incluyendo la tesis de la indeterminación del significado y el escepticismo del significado. Como realistas sobre el significado, podemos tratar la discusión de Quine como base para una profunda penetración en la naturaleza de los hechos del significado. Podemos descartar las nociones de lo analítico y del a priori sin caer en cualquier clase de escepticismo desagradable sobre el significado.
Hay una noción de 'verdad en virtud del significado’ – que Boghossian llama noción metafísica- que está minada por un conjunto de consideraciones de indeterminación independientes. Puesto que esta noción es presupuesta por la teoría lingüística de la necesidad, debe ser abandonada.
Sin embargo, discrepa en que las mismas consideraciones también minan la explicación analítica de lo a priori. Sostiene que una noción enteramente distinta de analiticidad es la base de esa explicación, una noción que sea epistémica. Y al contrario de la noción metafísica, la noción epistémica se puede defender, con la condición de que un realismo mínimo sobre el significado sea verdadero.
La pregunta que Boghossian busca responder en este artículo es: ¿Se puede algo como la explicación analítica del a priori salvar de los restos de la teoría lingüística de la necesidad?
Creencia, Aprioricidad e Indeterminación
Necesitamos comenzar con una cierta comprensión de qué es creer algo y qué es necesario para que una creencia se la considere como conocimiento a priori.
Los objetos de creencia son, no proposiciones, sino más bien, oraciones interpretadas: para una persona T creer p es para T es sostener como verdad una oración S que significa eso p en T' idiolect (no encuentro traducción)
Contra eso podemos decir que para T saber p es para T justificar la afirmación de la verdad de S, con una fuerza suficiente para el conocimiento, y para que S sea verdadera. Y decir que T sabe p a priori es decir que para T la garantía de sostener la verdad de S es independiente de la experiencia externa, sensorial.
La pregunta interesante en el análisis del concepto de aprioricidad se refiere a esta noción de garantía: ¿Qué significa que una creencia sea justificada independientemente de la experiencia sensorial externa?
En una lectura minimalista, decir que la garantía para que una creencia dada sea a priori es afirmar que está justificada, con una fuerza suficiente de conocimiento, sin apelar a la evidencia empírica. En una lectura más fuerte, es decir eso y además que la justificación no es “defeasible” por ninguna evidencia empírica futura
La opinión de Boghossian es que la primera noción sirve de base a la idea del aprioricidad. Sin embargo, tratará de proporcionar el material necesario para mostrar que, bajo las circunstancias apropiadas, la noción de analiticidad puede ayudar a explicar cómo puede ser que tengamos conocimiento a priori incluso en el sentido fuerte.
Después de aclarar qué se entiende por la indeterminación del significado en Quine, Boghossian sostiene que el escepticismo sobre analiticidad epistémica no puede parar en seco la tesis de la indeterminación, una tesis que la mayoría de los filósofos rechazan.
Analiticidad: ¿Metafísica o Epistémica?
Tradicionalmente, tres tipos de declaraciones se pensaron como objetos del conocimiento a priori: las declaraciones lógicas, las declaraciones matemáticas y las “verdades conceptuales” como, por ejemplo, que ‘todos los cuadrados tienen cuatro lados’. El problema ha sido siempre explicar qué podría justificarnos para sostener estas declaraciones como verdades en el terreno de lo a priori
La historia de la filosofía ha dado un número de respuestas a este problema, entre las cuales la que sigue ha tenido influencia considerable: Nos equipan de una facultad de evidencia-acopio especial; “una intuición”, distinta de los cinco sentidos estándares; ejercitando esta facultad, podemos saber a priori verdades tales como las de las matemáticas y de la lógica.
El ímpetu central detrás de la explicación analítica del a priori es el deseo de explicar la posibilidad del conocimiento a priori sin tener que postular una facultad tan especial
El entendimiento del significado de S por T sería suficiente para que T esté justificado en sostener la verdad de S. Si S fuera analítica en este sentido, entonces, claramente, su aprioricidad sería explicable sin apelar a una facultad especial de intuición: el mero entendimiento de su significado por T sería suficiente para explicar la justificación de T para sostener la verdad de S. En esta comprensión, entonces, la analiticidad es una noción abiertamente epistemológica, una declaración es “verdad en virtud de su significado” a condición de que el asimiento de su significado solamente sea suficiente para la creencia justificada en su verdad.
Una lectura más metafísica de la frase “verdad en virtud del significado” es también pensable, sin embargo, según la cual, una declaración es analítica a condición de que, deba su valor de verdad totalmente a su significado, y en absoluto “los hechos.”
¿Cuál de estas dos nociones posibles han sido puestas en juego en el conflicto sobre analiticidad?
Boghossian de acuerdo con Quine sostiene que la noción metafísica es de valor explicativo dudoso y posiblemente también de coherencia dudosa. Afortunadamente la teoría analítica del a priori, puede demostrar que no tiene necesidad de esta idea desacreditada.

El concepto Metafísico.
¿Qué podría significar posiblemente decir que la verdad de una declaración es fijada exclusivamente por su significado y no por los hechos?
¿S es verdad si y sólo si para algún p, S significa que p y p?
¿Cómo podría el mero hecho de que S significa que p haga que S sea verdad? ¿No tiene que ser también el caso que p?
Boghossian cree que los positivistas no desearon simplemente proporcionar una teoría del conocimiento a priori; sino también una teoría reductora de la necesidad. La motivación no era puramente epistemológica, sino metafísica. Procuraron demostrar que todas las necesidades se podrían entender en que consisten en necesidades lingüísticas; en decisiones convencionales referentes a los significados de palabras. El significado lingüístico convencional, por sí mismo, fue supuesto para generar la verdad necesaria; y a fortiori, el significado lingüístico convencional, por sí mismo, fue supuesto para generar verdad. Este sería el concepto metafísico de la analiticidad
Considera esto como un proyecto vano. No tiene ninguna condolencia con la teoría lingüística de la necesidad o con el convencionalismo.
Uno de los puntos principales del artículo es mostrar que las dos nociones de analiticidad son distintas y que la teoría analítica del a priori sólo necesita de la noción epistemológica .Podemos tener una teoría analítica del a priori sin suscribir a un Convencionalismo.
El concepto de Epistemológico
Llegando a la noción epistémica de analiticidad nos enfrentamos a un rompecabezas serio: ¿Cómo podía una oración ser analítica en este sentido? ¿Cómo podía el simple asimiento del significado de una oración justificar a alguien para sostenerlo como verdad?
Claramente, la respuesta a esta pregunta tiene que ser semántica: algo sobre el significado de la oración, o sobre la manera que el significado es fijo, y debe explicar cómo su verdad es cognoscible de esta manera especial. ¿Cuál podría ser esta explicación?
En la historia del tema, dos diversas clases de explicación han sido especialmente importantes. Aunque éstas, se han combinado a menudo, es crucial distinguir entre ellas.
Una idea era formulada por Gottlob Frege. Según Frege, la analiticidad de una declaración (en el sentido epistemológico) debe ser explicada por el hecho de que es transformable en una verdad lógica por la substitución de los sinónimos por sinónimos. Cuando una declaración satisface esta condición semántica, la llama “Frege-analítica”.
Es obvio que la Frege_analiticidad es, en el mejor de los casos, una explicación incompleta de la analiticidad epistémica de una declaración y, por lo tanto, de su aprioricidad.
Quien suponga que una oración dada S es Frege-analítico debe tener en cuenta que dos asunciones más son necesarias. Primero, que los hechos sobre sinonimia son cognoscibles a priori; y segundo, que las verdades de la lógica existen. Dado su Frege-analiticidad, S es transformable en una verdad lógica por la substitución de los sinónimos por sinónimos. Frege , por su parte, parece no preocuparse de estas asunciones.
Boghossian analiza dos clases de declaraciones. Por un lado, declaraciones a priori que no son transformables en verdades lógicas por la substitución de los sinónimos por sinónimos; y, por otro lado, declaraciones a priori que son trivialmente transformables.
En cuanto a las primeras aparecen ser un número significativo de las declaraciones a priori que no son Frege-analíticas. Por ejemplo:
Lo que es rojo por todas partes no es azul.
Lo que tiene color tiene extensión.
Si x es más caliente que y, luego y no es más caliente que x.
Estas declaraciones no son transformables en verdades lógicas por substituciones.
La segunda clase de declaraciones consiste en las verdades de la lógica. Las verdades de la lógica satisfacen, por supuesto, las condiciones en Frege-analiticidad. Pero los satisfacen trivialmente. El conocimiento de la Frege-analiticidad presupone el conocimiento de la verdad lógica; entonces Boghossian no puede explicarlo. La solución propuesta por Carnap y Wittgenstein gira en torno a la sugerencia de que deben ser vistas como definiciones implícitas de los términos. Cuando una declaración satisface esta condición semántica, la llamará “Carnap-analítica”.
“Dos dogmas” y el rechazo de la Frege-analiticidad.
El problema de la aprioricidad está reducido al de la aprioricidad de la lógica y la sinonimia.
Para Boghossian no se ha apreciado suficientemente que en “Dos dogmas,” Quine está refiriéndose exclusivamente a la noción más débil de la Frege-analiticiad, y en absoluto al proyecto más exigente de explicar la aprioricidad de la lógica. Pero esto es muy claro para Quine:
Nuestro problema… es la analiticidad; y aquí la dificultad principal no está en la primera clase de las declaraciones analíticas, las verdades lógicas, sino en la segunda clase, que depende de la noción de la sinonimia. [1]
Aclara Boghossian que Quine desea oponerse en “Dos dogmas” que hay casos no triviales de la Frege-analiticidad
Tesis escépticas sobre Analiticidad
Llamara la primera a Non-factualism sobre analiticidad:
Sostiene que no se expresa ninguna característica coherente, determinada por el predicado “es analítica” (o, puesto que éstos son términos correlativos, el predicado “es sintético”); por lo tanto, no se expresa ninguna demanda efectiva coherente por las oraciones de la forma “S es analítica” y “S es sintético.”
Y la segunda Tesis del error sobre analiticidad:
Hay una determinada propiedad expresada por “es analítica”, pero es necesariamente no instanciada (no encunetro como traducir uninstantiated), por lo tanto, todas las oraciones de la forma “S son analíticas” son necesariamente falsas.
No-Factualismo sobre la Frege-Analiticidad
Comencemos con la versión no-factulista. Decir que no hay tal propiedad como la de la del Frege-analiticidad es esencialmente decir que, para cualesquier oración, no se da el caso de que la materia sea transformable en una verdad lógica por la substitución de los sinónimos por sinónimos.
Puesto que factualidad de la lógica no es el centro del conflicto, la única opción es el no-factualismo sobre la sinonimia.
La tesis del error sobre la Frege-Analiticidad
La pregunta es: ¿Esta forma de escepticismo sobre Frege-analiticidad evita derrumbamiento en la doctrina de la indeterminación?
Luego de una exposición de la postura del significado en Quine, Boghossian la resume en este argumento:
Premisa: El significado es radicalmente holístico en el sentido que: “Qué el significado de nuestras palabras depende en todo de lo que creemos, de todas las asunciones que estamos haciendo.”
Por lo tanto,
Conclusión: Es muy inverosímil que, en cualquier lengua dada, haya dos palabras de distinto tipo que signifiquen exactamente la misma cosa.
Boghossian coincide con este argumento y por eso sostiene que si un holismo radical sobre el significado fuera verdad, entonces las sinonimias entre las expresiones de diversos tipos serían raras.
Sin embargo, observa que “raro” no significa “imposible,”. Es fácil ver por qué, si un holismo radical sobre el significado fuera verdad, las sinonimias serían raras. Pues aunque no es inimaginable, es inverosímil que dos palabras de distinto tipo participen de todas las mismas creencias e inferencias.
Muchos Quineanos sostienen que el argumento crucial para esta visión intuitivamente implausible se encuentra en las secciones que concluyen de “Dos Dogmas”. En esa sección aparece la tesis de Quine-Duhem: la confirmación holística es que la garantía para cualquier oración dada dependa de la garantía para toda otra oración. Quine también asume la teoría de Verificacionista del significado, según la cual el significado de una oración es fijado por su método de confirmación. Poniendo estas dos tesis juntas, uno puede llegar rápido a la visión en la cual el significado de una palabra depende en todo de sus links deductivos con otras palabras, y por lo tanto a la tesis del significado-holista.
Boghossian rechaza la postura de los Quineanos:
Primero: porque la discusión sobre holismo del significado se encuentra en las ultimas paginas de “Dos Dogmas”, mucho después del rechazo de la Frege-analiticidad, que ya había sido establecido.
En segundo lugar, la discusión depende del verificacionismo sobre el significado, una visión que rechaza, y que de hecho ha sido rechazada por la mayoría de los filósofos contemporáneos.
Finalmente, y quizás lo más importante, cualquier argumento que se funde en el holismo en contra la posibilidad de sinonimia necesita ser apoyado por algo que nadie ha proporcionado: la razón para creer un resultado tan intuitivamente implausible sobre sinonimia no es en sí mismo más que la reductio del holismo del significado
La Analiticidad de la lógica
Si lo anterior es correcto no hay ninguna objeción a la existencia de la Frege-analiticidad, y, por lo tanto, ninguna objeción a la existencia de las declaraciones que son cognoscibles a priori si es que la verdad lógica lo es.
¿Es la verdad lógica cognoscible a priori? ¿Y si lo es, cómo lo es?
¿Cómo sabemos a priori, por ejemplo, que todos los casos de la ley de la no-contradicción son verdaderos, o que todos los casos del modus ponens son válidos?
Como observa arriba, Frege pensó obviamente que no podría haber respuesta sustantiva a tales preguntas; él estaba inclinado, simplemente a asumir la aprioricidad de la lógica.
Michael Dummett no cree en la existencia de un verdadero problema aquí. Como él ha precisado, la clase de circularidad que encontramos no es una “gross” circularidad de un argumento, que consistiría en incluir la conclusión, a la que queremos arribar, en las premisas. Sin embargo, tenemos argumentos que pretenden probar la validez de una ley lógica dada y deben tomar algunos pasos deductivos de acuerdo con esa ley… Dummett llama a esto una circularidad “pragmática”.
La pregunta que le interesa particularmente en el actual ensayo es ésta: ¿hay alguna razón para dudar de que nuestro conocimiento de la lógica se puede explicar desde la noción de analiticidad?
La visión clásica y la definición implícita
La teoría analítica del aprioricidad de la lógica surge indirectamente, como subproducto de la tentativa de explicar en qué consiste el significado de las constantes lógicas, según sostiene Coffa.
Hablando de las constantes lógicas presenta Boghossian la posición de Wittgenstein:
El Flash- Grasping: : Captamos el significado de, por ejemplo, “no” “en un de destello” -- antes de, e independientemente de, decidir cuál de las oraciones que implican “no” son verdad.
En este cuadro históricamente influyente, el Flash-Grasping fue combinado con la doctrina de la intuición para generar una epistemología para la lógica:
Intuición: Este asimiento del concepto, por ejemplo, de la negación, junto con nuestra intuición de sus características lógicas, explica y justifica que nuestra creencia lógica implica la negación – por ej: “si no no p, entonces p” es verdad.
Coffa demuestra, que esto comenzó a venirse abajo cuando se intentó explicar la aprioricidad de la geometría. Particularmente, el flash- grasping de los indefinibles de la geometría, junto con intuiciones referentes a sus características necesarias, fue tomado para explicar y justificar la creencia en los axiomas de la geometría euclidiana.
Sin embargo, con el desarrollo de geometrías alternativas, tal visión hizo frente a un dilema desagradable. Surgió el dilema de que las geometrías euclidianas y las no euclidianas sostenían iguales características geométricas, pero discrepaba en cuál de ellas era verdadera. Pero esta opción amenazaba la tesis de la intuición: ¿Si de hecho aprendemos verdades geométricas por la intuición, cómo habría podido esta facultad engañarnos?
Ocupar el otro cuerno del dilema era la opción de decir que geometrías euclidianas y las no euclidianas están hablando diferentes características geométricas -- uniendo diversos significados, por ejemplo, “distancia” – y no discrepando tanto después de todo. Pero esta opción amenaza la doctrina de Flash-Grasping. ¿En qué consistirá entonces la diferencia de “distancia”? ¿En estados psicológicos? La visión es que un estado primitivo constituye la asunción de la distancia euclidiana, y otro de la distancia no-Euclidiana. Pero parecería ser una maniobra desesperada ad hoc y no-explicativa.
Lo importante de estas consideraciones es hacer manifiesta la idea que el asumir los indefinibles de la geometría consiste exactamente en la adopción de un conjunto de verdades que los implican, como opuesto a otro. Aplicado al caso de la lógica, genera la tesis semántica que Boghossian llamara:
Definición implícita: Está arbitrariamente estipulado que para que ciertas frases de la lógica sean verdad, o que ciertas inferencias sean válidas, unimos un significado a las constantes lógicas. Más específicamente, una constante particular significa que el objeto lógico, si lo hay, es el que hace válido un sistema especificado de las oraciones y/o de las inferencias que lo implican.
Ahora bien, la transición de esta suerte de definición implícita a cerca del “asimiento” a la teoría analítica del aprioricidad de la lógica, puede aparecer inmediatamente.
1. Si la constante lógica C significa lo que significa, entonces el argumento-forma A tiene que ser válido, porque C significa cualquier objeto lógico que hace válido a A
2. C significa lo que significa
Por lo tanto,
3. A es válido.
Carnap y Wittgenstein, parecen inclinados a negar un realismo intuitivo sobre la lógica, afirmando en su lugar la tesis del No-Factualismo lógico o la tesis de Convencionalismo lógico, o ambas tesis.
Por No Factualismo lógico entiende Boghossian la visión de que las oraciones de la lógica que definen los primitivos lógicos no expresan afirmaciones de hecho y, por lo tanto, no son capaces de verdad o de falsedad genuinas. ¿Cómo podemos pensar en su función semántica? En la versión más popular, debemos pensarla como preceptivas, como la manera de expresar una regla referente al uso correcto de expresiones lógicas. Por el contrario, el Convencionalismo lógico es la visión que, aunque las oraciones de la lógica son efectivas -- aunque pueden expresar verdades -- sus valores de verdad no son objetivos, sino que son determinados por nuestras convenciones.
A pesar de esta diferencia importante entre ellos, hay un sentido interesante en el cual el resultado de ambas opiniones es igual, un hecho que explique probablemente porqué eran de uso frecuente alternativamente y porqué dan vuelta en la teoría analítica de la lógica. Lo que implican ambas opiniones es que no puede haber un hecho epistémico de la cuestión. En fin, ambas opiniones implican un relativismo epistémico sobre lógica. El Convencionalismo implica esto porque dice que la verdad en lógica depende de nosotros, así que no hay desacuerdo substantivo posible; y el No-Factualismo implica esto porque dice que no hay verdades en lógica.
Sin embargo ambas visones son distintas e incluso incompatibles entre si. Convencionalismo es una opinión del Factualismo: presupone que las oraciones de la lógica tienen valores de verdad. Difiere de una opinión realista de la lógica en su concepto de la fuente de esos valores de verdad, no en su existencia. Por lo tanto, aunque es posible, como ha observado Boghossian, encontrar textos en los cuales un regla-prescriptivismo sobre lógica se combina con el Convencionalismo, solamente puede ser una confusión.
La pregunta importante es: ¿Por qué los autores de la definición implícita sentían la necesidad de ir más allá de las doctrinas más radicales del No-Factualismo y/o del Convencionalismo?
Al parecer, Carnap y Wittgenstein parecen haber pensado que el tema era forzado, que la definición implícita entrañaba una u otra tesis anti-realista. Carnap, por ejemplo, creyó que la definición implícita trajo el Convencionalismo; y Quine parece haber estado de acuerdo. Lo que los separó fue su actitud hacia Convencionalismo. Carnap lo abrazó; Quine, por el contrario, parece haber sido preparado para rechazar cualquier premisa que condujera a él; por lo tanto, su ataque a la doctrina de la definición implícita.
Boghossian sostiene que ambos se equivocan porque ninguna de las dos formas de anti-realismo sobre lógica se sigue de la tesis de la definición implícita.
Definición implícita y No-Factualismo
¿La definición implícita exige el No-Factualismo?
Para ayudarnos a pensar de esto, consideremos el ejemplo de Kripke de la introducción del término “metro”. Como Kripke lo imagina, alguien introduce el término en su vocabulario estipulando que la oración siguiente es verdadera:
[1] El Palo S es un metro de largo en t.
Supongamos que ese palo S existe y está a cierta longitud en t. Entonces sigue que “metro” nombra esa longitud y por lo tanto que [1] dice que el palo S es esa longitud en t, y puesto que él es esa longitud en t, [1] es verdad.
El saber todo esto no puede ser mucho más que un logro epistémico, pero ése no es el punto. El punto es que parece no existir incompatibilidad alguna entre reclamar que una oración dada sirva para definir implícitamente un término y reclamar que la misma oración exprese algo de hecho.
Del mismo modo no hay inconsistencia alguna en suponer que un principio lógico dado -- por ejemplo, el de tercero excluido – sirva implícitamente para definir una constante lógica, y suponer que esa misma oración expresa una declaración de hecho capaz de verdad y de falsedad genuinas.
Definición implícita y Convencionalismo
¿Se sigue el Convencionalismo de la definición implícita?
Según la definición implícita, “si, entonces”, por ejemplo, viene a significar el condicional exacto por asignar el valor de verdad Verdadero a ciertas oraciones básicas como por ejemplo, a:
Si, si p entonces q, y p, entonces q.
Y en un sentido importante, asignar a esta oración el valor Verdadero es arbitrario. Antes de asignar que el valor de verdad, ella no tenía un significado completo. El proceso de asignarle el valor Verdadero es simplemente fijar su significado. Antes de la asignación no habría podido haber una pregunta substantiva con respecto a su valor de verdad. Y después de que la asignación no podría ser una pregunta substantiva si esa asignación era correcta. En este sentido, entonces, el valor de verdad de la oración es arbitrario y convencional. ¿No sigue, entonces, que la definición implícita exige el Convencionalismo?
En absoluto. Toda que lo que está implicado en la tesis de la definición implícita es que la asignación convencional de la verdad a una oración determina qué proposición la oración expresa; tal visión es enteramente silenciosa sobre lo que determina la verdad que de tal modo se expresa -- a fortiori, es silenciosa también acerca de si nuestras convenciones la determinan.
Anticipa la queja que el entailment entre la definición implícita y Convencionalismo se bloquea solamente con el uso tácito de una distinción entre una oración y la proposición que expresa, una distinción que ni Carnap ni Quine habrían aprobado.
Quine contra la definición implícita: Regreso
Boghossian enfrenta las criticas de Quine a la tesis de la Definición Implícita y dice que debemos ahora encarar los argumentos de Quine.
Según la definición implícita, las constantes lógicas tienen un significado particular en nuestro vocabulario por nuestra estipulación convencional de que ciertas oraciones (o las inferencias) que las implican son verdades. Por ejemplo, asumimos que el significado para “y” es fijado por nuestra estipulación de que las inferencias siguientes que la implican son válidas:
[2] A y B A y B A, B
-------- -------- ---------------
A B A y B
Ahora, la primera crítica importante de Quine de esta idea es de “Verdad por Convención”. Como Quine allí precisa, hay un número infinito de casos del esquema [2]. Por lo tanto, las inferencias de esta colección infinita no se habrían podido estipular convencionalmente para ser válidas, uno por uno. Quine argumenta: Adoptamos ciertas convenciones generales de las que se sigue que todas las oraciones de la colección infinita están asignadas con el valor Válido.
Sin embargo, el problema es que para indicar una convención tan general hemos tenido, inevitablemente, que utilizar todas las clases de términos lógicos -- “cada”, “y”, y así sucesivamente. Entonces, si todas nuestras constantes lógicas adquieren su significado vía la adopción de asignaciones convencionales formuladas explícitamente de validez, esto es imposible.
Bogghossian adopta lo que se conoce como la “semántica del rol conceptual”
Según esta visión, las constantes lógicas significan lo que significan en virtud de figurar en ciertas inferencias y/o oraciones que las implican y no en otras. Si algunas expresiones significan lo que significan lo hacen en virtud de figurar en ciertas oraciones e inferencias, entonces las inferencias y sentencias son constitutivas del significado que una expresión tiene y de otras expresiones no.
Cualquier “semántica del rol conceptual” debe encontrar el camino sistemático para poder contestar la pregunta: ¿Que propiedades debe tener una inferencia o una oración que tenga una constante C si esa inferencia u oración es constitutiva del significado de C?
Quine contra la definición implícita: Verdad constitutiva
La segunda objeción de Quine a la definición implícita puede resumirse diciendo que no habrá manera de hacer lo que arriba Boghossian acaba de afirmar que debe hacer la semántica del rol conceptual-- a saber, especificar sistemáticamente las inferencias que constituyen el significado. Quine formuló este punto en un número de lugares. Aquí está una versión que aparece en “Carnap y verdad lógica”:
Si intentamos combinar la doctrina lingüística de la verdad lógica en algo como una tesis experimental, quizás una primera aproximación funcionará así: Deductivamente el desacuerdo irresoluble de como una verdad lógica es evidencia de la desviación en uso (o significados) de las palabras.… [sin embargo] la evidencia o la evidencia potencial de la lógica elemental se puede ver para presentar un obstáculo insuperable a nuestro asignar cualquier significado experimental a la doctrina lingüística de la verdad lógica elemental….esa teoría ahora parece no implicar nada que no esté ya implicado por el hecho de que la lógica elemental es obvia o se puede resolver en pasos obvios.
El punto importante de Quine aquí es que no hay manera substantiva de distinguir entre un altamente obvia, una oración no definida y una oración que sea definida de manera implícita. Ambos tipos de oración -- si de hecho existen ambos tipos -- tendrán la característica de que prepararán a cualquier locutor de la lengua para consentir a los casos de ellas, “por cualquier razón o ninguna.” ¿en qué consiste pues, la diferencia alegada entre ellas? ¿Cómo es el contenido distintivo que se dará a la doctrina de la definición implícita?
No hay duda de que es una pregunta muy buena; y la impresión que no tiene ninguna respuesta buena ha contribuido grandemente al rechazo de la doctrina de la definición implícita. Fodor Jerry y Ernie Lepore, por ejemplo, basan la totalidad de su discusión reciente contra la semántica del rol conceptual en su acuerdo con Quine.
La semántica del rol conceptual parece ser la única visión plausible sobre cómo el significado de las constantes lógicas es fijo.
El punto simple aquí es que si la única visión disponible sobre cómo las constantes lógicas adquieren su significado está en términos de inferencias y/o oraciones de las que forman parte, entonces cualquier indeterminación en cuáles son ésos significado-que constituyen oraciones e inferencias serán traducidos a un indeterminación sobre los significados de las expresiones mismas.
Ha habido una tendencia curiosa a contradecir este punto relativamente simple. Fodor Jerry parece un caso particularmente de desconcierto. Fodor lleva a cabo los tres de las visiones siguientes.
(1) Él rechaza el indeterminación discutiendo poderosamente contra ella
(2) Él sigue a Quine en rechazar la noción de una inferencia que constituya el significado
(3) Él sostiene la opinión sobre semántica del rol conceptual en los significados de las constantes lógicas.
Por lo que puede juzgar, Boghossian sostiene que sin embargo, esta combinación de opiniones no es consistente.
La parte de la explicación para esta ceguera curiosa deriva de una tendencia de ver la discusión de Quine no como una indeterminación sobre el significado, sino, un holismo sobre él. De hecho, según Fodor y Lepore, el argumento principal para el holismo del significado en la literatura funciona como sigue:
A. Algunos de los enlaces deductivos de una expresión son relevantes para fijar su significado.
B. No hay ninguna distinción principal entre esos enlaces deductivos que sean constitutivos de los significados y los que no lo son.
Por lo tanto,
C. Todos los enlaces deductivos de una expresión son relevantes para fijar su significado. (Holismo del Significado)
Temiendo la validez de este argumento, y no viendo ninguna manera de contestar al desafío de Quine, pasan su libro entero intentado minar la primera premisa de la discusión, a saber, la demanda muy plausible que por lo menos algunas de las expresiones de enlace inferencial son relevantes para fijar su significado.
Después de descalificar las posturas de Fodor y Lepore y la de Harman, Boghossian dice:
“Pienso que no hay realmente evitar la conclusión severa de que el significado sea indeterminado, si el desafío de Quine a la constitutividad del significado sigue sin respuesta. Estoy inclinado a pensar, por lo tanto, que cualquier persona que rechaza la indeterminación radical del significado debe creer que una distinción entre constituir-significado y constituir- no significado puede ser esbozada. La única pregunta es cómo”.
Parece acertado suponer que una teoría plausible de significar para las constantes lógicas es dada por algo como el siguiente:
Una constante lógica C expresa ese objeto lógico, si lo hay, que hace válido su significado-constituyendo inferencias.
Definición, justificación y el derecho implícitos
¿Ahora, cómo esta ayuda justifica la teoría analítica del aprioricidad de la lógica, la idea que la lógica es epistémicamente analítica? Consideremos una forma particular de la inferencia, A, en un particular pensador del repertorio (T); supongamos que la forma de la inferencia es constitutiva del significado de una de sus constantes C. ¿Cómo, exactamente, la fuerza de estos hechos ayuda a explicar el analiticidad epistémica de A para T?
Decir que A es epistémicamente analítica para T es decir que el conocimiento de T del significado de A solamente es suficiente para justificar T para A, para no requerir la ayuda empírica. Y parece que la semántica del rol conceptual puede proveernos de un modelo de cómo eso podría ser. Dados los hechos relevantes, podemos argüir como sigue:
1. Si C significa lo que significa, entonces A tiene que ser válido, porque C significa cualquier objeto lógico (sea el que sea) que de hecho hace valido a A
2. C significa lo que significa
Por lo tanto,
3. A es válido.
Ahora, es verdad que esto es equivalente a un uso bastante amplio “conocimiento del significado de A,” pues este conocimiento incluye no simplemente el conocimiento de lo que A significa, sino también el conocimiento de cómo ese significado es fijo. Pero esto es, por supuesto, predecible e inevitable: nunca habría una verdadera perspectiva de explicación de la aprioricidad simplemente en base de un conocimiento del contenido proposicional. Incluso Carnap sostiene que uno necesita saber que una inferencia dada o una oración tienen el estado de un “postulado del significado”.
Pero no es requerido, para explicar la justificación a priori de T para las verdades básicas de la lógica, ¿de que T sepa los premisas a priori también? Todavía, no se ha demostrado eso de que T puede saber las premisas a priori.
Es absolutamente correcto que Boghossian no procura demostrar que los hechos relevantes sobre el significado citado en las premisas son cognoscibles a priori aunque creo que está absolutamente claro que lo son intuitivamente. Ha evitado adrede de discutir todos los puntos que se relacionaban con el conocimiento de los hechos del significado. Su propósito aquí ha sido defender analiticidad epistémica; y esto requiere demostrar solamente que ciertas oraciones son tales que, si alguien sabe los hechos relevantes sobre su significado, entonces esa persona estará en una posición para formar una creencia justificada sobre su verdad. No requiere demostrar que el conocimiento de esos hechos del significado es en sí mismo a priori (aunque, repito, parece absolutamente claro que lo es)
¿No es un problema para las aspiraciones del presente trabajo que un pensador tuviera que utilizar el modus ponens para conseguir de las premisas la conclusión deseada?
No si la distinción de Dummett entre la circularidad pragmática y viciosa se acredita con abrir un espacio para un epistemología para la lógica, según lo discutido arriba.
¿Finalmente, cómo podríamos explicar al hombre medio la justificación para creer en las verdades de la lógica? Para tal persona, no sólo los hechos relevantes del significado serían absolutamente opacos, él incluso no sería probablemente capaz de debatirlos. Con todo justifican a tal persona obviamente en la creencia de las verdades elementales de la lógica.
Los filósofos están a menudo en la posición de articular la garantía para una creencia ordinaria que el hombre medio no entendería. Si insistimos que una persona cuenta según lo justificado solamente si está enterado de la razón que autoriza su creencia, entonces tendremos que simplemente encontrar otro término para la clase de garantía que la gente ordinaria tiene a menudo y que intentan los filósofos articular. Tyler Burge lo ha llamado un “derecho”:
La distinción entre la justificación y el derecho es ésta. Aunque ambos tienen fuerza positiva en el soporte racional de una actitud proposicional o de una práctica cognoscitiva, y en constituir un derecho epistémico a ella, los derechos son derechos epistémicos o garantías que no necesitan ser entendidos o aún ser accesibles al sujeto ….El sencillo se dá derecho para confiar en su creencia perceptiva. Los filósofos pueden articular estos derechos. Pero siendo dado el derecho no requiere poder justificar la confianza en estos recursos, o aún concebir una justificación. Las justificaciones, en el estrecho sentido, implican razones que la gente tiene y tiene acceso a.
Cuando dan derecho a alguien, todos los hechos relevantes para la justificación de la persona están ya en su lugar
Si la semántica del rol conceptual es verdad, y si A es de hecho constitutivo del significado que hace C, entonces esos hechos por sí mismos constituyen una garantía para A; la ayuda empírica no es necesaria. A puede solamente ser falsa por significar otra cosa de lo que significa. Pero estos hechos no necesitan ser sabidos por la persona ordinaria. Son suficientes para su derecho, aunque no para su verdadera justificación. Esta verdadera justificación puede ser tenida solamente sabiendo los hechos relevantes sobre el significado.
Conclusión
Quine nos ayudó a ver la vacuidad del concepto metafísico del analiticidad y, con él, de la futilidad del proyecto que fue supuesto subscribir -- la teoría lingüística de la necesidad. Pero esas discusiones no afectan la noción epistémica del analiticidad que es necesario para los propósitos de la teoría del conocimiento a priori. De hecho, parece que la analiticidad epistémica se puede defender absolutamente vigorosa, especialmente contra la perspectiva de un realismo sobre el significado.
En la asunción que nuestra garantía para creer en verdades lógicas elementales no puede ser explicada, el problema excepcional es explicar nuestro conocimiento a priori de verdades conceptuales. Para este propósito, la noción semántica crucial es la del Frege-analiticidad Boghossian sostiene que esta noción está limitada para estar en la buena situación para un realista del significado.
Finalmente ha intentado demostrar cómo la doctrina que parece ofrecer la cuenta más prometedora de cómo “agarramos” los significados de las constantes lógicas -- a saber, definición implícita -- puede explicar el analiticidad epistémica de nuestra creencia lógica y, por lo tanto, de nuestra garantía a priori para creerla. Mientras no estemos preparados para consentir la indeterminación radical, debemos tener confianza que esta forma de explicación se puede llevar a cabo.
Hasta aquí el artículo de Boghossian, y mi “lectura”…
Boghossian intenta defender que la lógica es a priori basándose en la noción epistémica de analiticidad, aunque va a reconocer que no tenemos un criterio que nos permita diferenciar el caso del condicional, del tonk de Prior[2], debemos defender el carácter a priori de nuestro conocimiento de la validez de las reglas como el Modus Ponens basándose en que aceptar esas reglas es condición necesaria para poner el concepto de condicional.[3]
Creo que es de suma importancia distinguir entre las reglas de inferencia y las leyes lógicas. Creo que el artículo de Boghossian no asume esa distinción entre regla de inferencia y ley lógica. El Modus ponens es una regla en el sentido que me permite derivar y obtener otras reglas, pero el principio de no contradicción es de naturaleza distinta, obviamente. (Conversando con Raymundo Morado él me decía que cree que el principio de no contradicción siempre permanece aunque todos los humanos dejáramos de existir, es decir la ley lógica sigue existiendo).
Si realizamos esa distinción podemos decir que la lógica cambia en un sentido (sus métodos, sus reglas, sus objetivos) pero en otro permanece igual: sus leyes son universalmente verdades necesarias, las cuales no se pueden justificar ya que caeríamos en un círculo. Mi intuición es que la verdad lógica es a priori en las leyes, no en las reglas.
Me surgen preguntas: ¿pretendemos abordar la validez sobre las reglas de inferencia, en especial el Modus Ponens? O ¿buscamos la justificación de la lógica a través de la noción de a priori?.
Frege asume creo yo, que el fin de la lógica es encontrar un conjunto de leyes lógicas a las que él llama verdades lógicas. Frege es un kantiano convencido respecto a la noción de lo a priori… ¿estoy en lo correcto?
Lo interesante es que Carnap y Tarski ya no buscan una noción de leyes lógicas, sino un conjunto de propiedades que puedan caracterizar a un sistema lógico. En Carnap son reglas de derivabilidad y en Tarski son las propiedades de las consecuencias lógicas.

He elegido otros dos artículo de Hartry Field (2000) “Apriority as an Evaluative Notion” y Hartry Field (2005) “Recent Debates about the a Priori”, como otro modo de defender la aprioricidad de la lógica.
APRIORITY AS AN EVALUATIVE NOTION
En “Apriority as an Evaluative Notion” presenta su trabajo diciendo que defenderá una forma fuerte de justificación a priori pero que esto no implica ningún tipo de pretensión de acceso a priori a las propiedades del mundo físico.
El concepto de aprioricidad.
Define proposición a priori como aquella que no sólo puede ser razonablemente creída sin evidencia empírica (sentido débil) sino que además no admite evidencia empírica en su contra. Este requisito de no rechazable empíricamente constituye el sentido de aprioricidad que le parece de auténtico interés filosófico
Un argumento en contra que analiza es que si una experiencia puede contar como evidencia a favor de una proposición, entonces una experiencia podría contar como evidencia en contra de ella.
Por ejemplo una proposición de la forma ((p → q) →p )→ p es obviamente justificada por p, pero si alguien no se diese cuenta que es una verdad lógica podría justificarla, justificando empíricamente p. Por lo tanto, si la experiencia vale para confirmarla, vale también para recharzarla. Field sostiene que este tipo de justificación empírica no sería una justificación ideal realmente, que es lo que podría entenderse como una autentica evidencia empírica. Si una observación no proporciona la credibilidad ideal para la proposición no debería contar como evidencia para ella ni en contra de ella.
Considera que es importante señalar no sólo la noción de aprioricidad en las proposiciones sino también en las metodologías o reglas para formar o revisar creencias. Toma como ejemplo de metodologías la inferencia deductiva clásica, la inferencia inductiva, y las reglas de formación de creencias perceptuales (rules of percentual belief fomation) . Llamará a un tipo de metodologías o reglas débilmente a priori si y solo si pueden ser razonablemente empleadas sin evidencia empírica; no rechazables empíricamente si ninguna evidencia empírica puede minar la razonabilidad de su empleo; y a priori, si se encuentran ambas condiciones. Sin embargo, piensa que el componente más interesante de la aprioricidad es que sea no rechazable empíricamente.
Default Reasonableness
Con respecto a las débilmente a priori, Field habla de que son razonables por defecto porque si requerimos algún tipo de justificación no empírica de “si la nieve es blanca, entonces, en blanca” o de reglas básicas de la deducción como el modus ponens o la eliminación de la “y”, deberían ser excluidas del rango de a priori. Son simplemente razonables por defecto. Ahora bien, si nuestro concepto de aprioricidad fuera la simple debilidad entonces tendríamos el problema opuesto: proposiciones razonables por defecto pasarían a ser automáticamente a priori. Pero no hay razones obvias de por qué posposiciones como "La gente suele decir la verdad" no deben contar como razonables por defecto, y sería extraño considerarlas como una proposición a priori. El que no sean rechazables empíricamente parece la manera obvia de distinguir las proposiciones razonables por defecto que son, a priori, y las que no lo son.
Con lo dicho simplemente tenemos razones para poder pensar que las proposiciones a priori son verdaderas y las metodologías son fiables, ya que si no las tuviéramos no sería razonable creer las proposiciones o usar las metodologías.
Resumiendo: “Proposiciones débilmente a priori son aquellas que son razonables por defecto, mientras que Proposiciones a priori son las razonables por defecto y empíricamente no derrotables. Análogamente, una regla o metodología será débilmente a priori, si y sólo si, puede ser empleada razonablemente sin evidencia empírica; (fuertemente a priori) si y sólo si es débilmente a priori y empíricamente no derrotables”[4]
Field afirma que las justificaciones deductivas de la deduccion valdrían en caso de que sin ellas dudáramos acerca de algo. No cree que exista ese riesgo en el caso de la deducción, la inducción y la percepción.
Los defensores de la justificación circular señalan que si ésta vale como tal es porque ya se cuenta con una inicial credibilidad, una vez que usamos nuestro método para alcanzar la conclusión de que el método es fiable, la proto- razonabilidad se convierte en razonabilidad completa, no se convierten en razonable sólo en su uso en un procedimiento autofundante
Está en contra de la ´postura coherentista.
Field concluye que su razonabilidad por defecto le da un contenido positivo a lo que los autores que defienden la justificación circular llaman proto- razonabilidad, Entre las consideraciones para esto está, por ejemplo, el que en el caso de la inducción es imposible usar reglas inductivas para argumentar características cruciales de las reglas, así que si defendiéramos el coherentismo estaríamos defendiendo un umbral inalcanzable de razonabilidad para buenas reglas inductivas y perceptuales.
Default Reasonableness and the Evaluativist aproach to apriority
Planteando la cuestión de qué se entiende por razonabilidad, analiza críticamente la aproximación realizada por lo que él llama el reduccionismo naturalista.
La razonabilidad de una regla estriba en si esa regla es buena para producir verdad y evitar falsedad y, por lo tanto, en ciertas características o propiedades de las reglas que las hacen fiables.
La corrección objetiva en el caso de las reglas deductivas, y alguna característica similar “orientadora de verdad”, en el caso de las reglas inductivas y perceptuales.
Field considera esta aproximación inadecuada por numerosos motivos, señalo algunos:
No es correcto identificar o unir fiabilidad y razonabilidad. Suponiendo que la lógica correcta para tratar con la vaguedad o las paradojas semánticas no fuera la lógica clásica, si intentamos resolverlas o superarlas con la lógica clásica, aunque no fuésemos “fiables”, no por eso seríamos “no razonables”.
La fiabilidad no es lo único que buscamos de una regla. Buscamos que tenga más alcance aunque no proporcione verdad, sino sólo aproximación a la verdad, normalmente las características que valoramos de nuestras reglas entran en competencia con otras y difícilmente podríamos combinarlas en un paquete constitutivo de racionalidad.
Frente a esta consideración naturalista de la razonabilidad como una propiedad forzosamente factual, Field propone que considerarla como una propiedad evaluativa, que no consiste en nada ya que no es una propiedad factual, simplemente es que inevitablemente creemos que nuestros métodos serán mejor que otros distintos para conducirnos a la verdad y evitar el error.
El evaluativismo que defiende comparte con el no-naturalismo la convicción de que es equivocado intentar reducir propiedades epistemológicas como razonabilidad a otros términos.
Difiere del no-naturalismo al mantener una postura escéptica respecto a la creencia de la existencia de una propiedad no natural de algunas reglas y métodos. Desde la perspectiva evaluativista la cuestión de “¿en virtud de qué tiene una propiedad o un método dado la característica de ser razonable por defecto o débilmente a priori”
Field dice ser no dogmático, y piensa que se debiera ser suficientemente falibilista para reconocer la posibilidad de que nuevos desarrollos conceptuales socaven el apriorismo y que el no distinguir adecuadamente entre apriorismo e infalibilismo es lo que está detrás de la creencia de que Quine ha proporcionado una alternativa al apriorismo sobre lógica.
Según Field, la propuesta de Quine socava el infalibilismo pero no la aprioricidad.
An epistemological puzzle
Plantea la discusión entre fiabilismo y evaluativismo, de una forma que se inspira en un puzzle epistemológico, tal como lo formuló Pollock en el 87, en el que se argumenta contra el externalismo normativo (contra el falibilismo), y que plantea la suposición de que investigando en el pasado descubriéramos que algún método empírico alternativo al que estamos usando y que hubiera sido mucho mejor.
Encontrar evidencia empírica en contra de que nuestro método actual (que creemos el más fiable), con lo cual debiéramos concluir que nuestro método es menos fiable, pero entonces deberíamos cambiarnos al alternativo, pero en todo caso la decisión de no usarlo se basaría en el método que hemos usado y que hemos considerado menos fiable. Esto es incoherente.
Field hace suponer la existencia de una regla inductiva específica que se base en la evidencia empírica
(R) “Si en el pasado has observado n cuervos y m de ellos han sido negros, deberías creer en grado m+j /n+k de cualquier cuervo que aún no observamos que es negro” pág 132[5]
Aunque la regla tiene defectos, el examen de su funcionamiento es utilizado para mostrar que es erróneo suponer que si la regla no era fiable en el pasado probablemente no fuera fiable en el futuro. Muestra que las posibles evidencias en contra sirven para autocorregir la regla, no para socavarla, y que cualquier posible candidata como regla básica de la inducción tendrá el mismo carácter auto-corrector que R.
Field concluye señalando que de suponerse que se puede justificar inductivamente la inducción, se introduciría la idea de que la regla inductiva básica podría ser inductivamente socavable y esto es imposible.
La justificación inductiva de la inducción es una ilusión.
Desde una perspectiva evaluativista, la única cuestión es si debiéramos aceptar cualquier evidencia posible como capaz de minar nuestra regla, y puesto que la regla misma se emplea para hacer evaluación de lo que debiéramos hacer, no podemos dar una respuesta positiva.
En la discusión con el Fiabilismo, afirma que muchos defensores del reduccionismo naturalista ponen la “fiabilidad” como la más alta propiedades que una regla debiera tener, pero que si se aplica la auto-corrección a reglas como (R) o (P), no está muy claro lo qué es la fiabilidad, presentando el problema de las siguientes tres maneras:
1.- We can say that the rule was not reliable in its early uses, but bécame so later; after all, the degrees of belief produced by late uses of de rule closely reflected the actual frenquencies, but degrees of belief produced by early uses were wildly at variance with actual frecuencies.
2.- We can say that de rule was not reliable in aerly or late uses: the fact that it initially produces degrees of belief wildly at odds with frequencies shows that it simply isn’t a reliable rule, but merely gives results in its later uses that closely match the results given by realible rules (those with more optimal ratio j/k)
3.- We cuold say that it was reliable in both: that the apparent unrealibility in early uses results from taking too short-term a pespective.
Razonabilidad no consiste en fiabilidad o alguna otra cosa, no es una propiedad factual. Cuando decimos que una regla es razonable la estamos evaluando, y todo cobra sentido al preguntarnos qué es lo que valoramos.
More on epistemological evalutivism
La distinción entre externalismo e internalismo: una consideración evaluativista será externalista en cuanto a las cosas que valoramos en nuestras reglas, por ejemplo, fiabilidad; será también internalista, pues otorgamos un alto valor a nuestras propias reglas.
Field se opone al relativismo extremo, a la posibilidad de que diferentes personas tengan diferentes estándares básicos de evaluación. Admite un relativismo moderado, ya que al evaluar sistemas de reglas epistemológicas, podemos reconocer que determinadas modificaciones producen resultados que tienen ciertas ventajas sobre los resultados, es decir que una ligera modificación de nuestros objetivos, nos podría conducir a una preferencia por un sistema alternativo.
Por último intenta resolver las quejas que se le suelen plantear al evaluativismo:
- Ausencia de límites respecto a lo que un logro epistemológico debiera ser
- Ausencia de objetividad en las creencias aunque los objetivos epistemológicos estén fijados.
Field dice que la evaluación tiene un tipo de circularidad: al afirmar en qué medida un sistema de reglas inductivas o perceptuales satisface objetivos tales como fiabilidad, uno necesita usar creencias factuales, a las cuales se ha llegado usando reglas factuales, con lo cual la circularidad es innegable, pero ésta no socava el evaluativismo simplemente conduce a la conclusión de que nuestro sistema básico de reglas inductivas se evalúa positivamente a sí mismo sobre sus competidores.
La virtud fundamental del evaluativismo es proporcionar la manera de evitar los argumentos escépticos, ya que muchos dependen de asumir que la razonabilidad es una propiedad factual de creencias o reglas.

RECENT DEBATES ABOUT THE A PRIORI
Antecedentes.
Por lo menos a partir de la época de los Griegos antiguos, la mayoría de los filósofos han sostenido que algo de nuestro conocimiento es independiente de la experiencia, o “a priori”. De hecho, un tema recurrente en la tradición racionalista filosófica era que mucho de nuestro conocimiento tenía este carácter: incluso Kant, pensó que la estructura del espacio podía conocerse a priori, al igual que muchos de los principios fundamentales de la física; y Hegel tiene la reputación de haber deducido con argumentos a priori que el número de planetas es exactamente cinco.

Había sin embargo una tradición alternativa fuerte, el empirismo, que era escéptico de nuestra capacidad de conocer tales cosas independientemente de la experiencia. Para la mayor parte de esta tradición no negó la existencia del conocimiento a priori en conjunto, puesto que las matemáticas y la lógica y algunas otras cosas se parecían a priori cognoscibles; pero intentó limitar drásticamente el alcance del conocimiento a priori.

Pero en una serie de los artículos influyentes, W. V. Quine (1936, 1951a, 1951b) hay una mirada escéptica en la manera en la cual los empiristas intentaban explicar un conocimiento del priori de la lógica y de las matemáticas. Sus críticas condujeron a algunos (incluyendo a Quine mismo) a un verdadero empirismo en el cual no hay conocimiento a priori, ni en lógica y ni en matemáticas. Otros (Bonjour 1998) fueron conducidos en una dirección opuesta, a un racionalismo: puesto que la lógica y la matemáticas son a priori, y las tentativas de explicación empiristas son dudosas, debemos concluir que la mente tiene la energía de comprobar la “materia de los hechos” independientemente de la experiencia, quizás por una facultad de intuición racional. Todavía otros (Boghossian 2000, Peacocke 2000) han intentado basar el conocimiento a priori en significar de una manera más sutil que los empiristas.
Una aprioricidad: débil y fuerte, dogmática y no dogmática.
¿Qué `significa el conocimiento a priori'. Alguien sabe probablemente ese p solamente si p es verdad, el cree eso, y el tiene derecho para creerlo; la aplicación de aprioricidad se refiere a la clase de derecho que está en cuestión. El derecho a priori es el derecho que es independiente de la experiencia.
¿Qué significa que el derecho sea independiente de la experiencia? Hay por lo menos tres posturas aquí:
(i) Tener la creencia que p requiere que tengamos los conceptos implicados en p. La experiencia está implicada en la adquisición de conceptos; si hay una posibilidad realista de conocimiento a priori, la experiencia implicada simplemente en la adquisición de los conceptos debe “no cuenta”. Ahora bien ¿cómo permitir que no cuente, dado que aprender esos conceptos implica la adquisición de la información?
(ii) Las pruebas en lógica y matemáticas se parecerían conferir el derecho a priori. Pero las pruebas largas necesitan ser comprobadas cuidadosamente, que implica normalmente el mirar de la prueba escrita, y quizás pidiendo a otros para buscar errores. La experiencia está implicada claramente aquí, pero esta clase de implicación experimental aquí tampoco debe “contar”.
Field dice que no se va a ocupar de ninguna de estas dos cosas.
Considera más importante para la discusión (iii) “El derecho independiente de la experiencia” es ambiguo. En una postura débil, decir que una persona tiene derecho a creer que p, independiente de la experiencia, significa decir que tiene derecho y nada de la experiencia que tiene puede tomarse en cuenta. En una postura fuerte, también requiere que la experiencia no tenga ningún papel en darle a ella derecho: requiere que ninguna experiencia que ella puede tener sirva para derrotar ese derecho.
La noción más fuerte es filosóficamente más importante: el interés filosófico de que la geometría euclidiana o la lógica clásica son a priori sería reducido en mucho si esa demanda fuese tomada como compatible con la demanda de que la experiencia pudo minarlas
Obsérvese que para que p sea fuertemente a priori, no es requerido que p sea racionalmente no-.revisable: si el pensamiento solo, sin ayuda de la evidencia, pudiera racionalmente minar la creencia en p, eso no tiene ninguna incidencia sobre la aprioricidad del nuestro derecho a creer que p.
Lo que se requiere para una aprioricidad es solamente que p sea no-revisable con argumentos empíricos. Pero incluso esto podría engañar, porque es levemente ambiguo: significa, por supuesto, que es posible revisar racionalmente la creencia en los argumentos empíricos, pero la cuestión es si entendemos la posibilidad como “genuina” o “simplemente epistémica”. El concepto “simplemente epistémica” de la posibilidad es el que utilizamos cuando decimos que “es posible, aunque inverosímil, que la teoría determinada estándar pueda ser inconsistente”.
Por el contrario, la “posibilidad genuina” que una teoría determinada sea inconsistente exigiría que la teoría determinada sea realmente inconsistente: pero si la teoría determinada es consistente (es decir, no es posible derivar una inconsistencia de ella), entonces ella es necesariamente consistente. La mayor parte de nosotros creemos que una teoría determinada es consistente, por lo tanto, no creemos que haya allí ninguna “posibilidad genuina” de inconsistencia; pero somos no-dogmáticos en esta creencia, en que creemos que hay progresos concebibles (e.g. la derivación de una contradicción dentro de ella) que nos conduciría a alterar nuestras opiniones.
En la interpretación epistémica, una aprioricidad fuerte implicaría la demanda de que no hay posibilidad epistémica de revisar nuestras matemáticas o lógica con argumentos empíricos. Adherir a una postura tan increíblemente fuerte parecería un dogmatismo puro. Field sostiene que una aprioricidad fuerte en esta versión dogmática es indefendible.
Pero en la interpretación de la “posibilidad genuina”, no se requiere ningún dogmatismo: la demanda es simplemente que los buenos estándares de la evidencia no permitirían evidencia empírica contra matemáticas o lógica, en cualquier circunstancias genuina posible.
Geometría física.
Este tema no lo traduje….
Lógica, matemáticas, y metodología.
Field sostiene que la geometría física no parece ser un candidato para un conocimiento fuertemente a priori.
Quizás los mejores candidatos son la lógica y las matemáticas puras. La razón del pensar en éstas como fuertemente a priori es evidente: no parece que se basen en evidencia empírica, y es difícil ver cómo la evidencia empírica podría minarlas.
Otro caso digno de mencionar es la metodología empírica en sí misma: hay razones para pensar que la metodología empírica es fuertemente un priori, en el sentido que sus reglas son utilizables racionalmente independientemente de la evidencia y no se pueden minar por la evidencia. La imposibilidad de minar la evidencia puede ser menos evidente en el caso de la metodología empírica que en el caso de lógica y de matemáticas. Nuestra metodología empírica incluye probablemente un prejuicio (sesgo) para la simplicidad. Reconocemos que en cuanto podemos explicar todo con el cuerpo de la teoría T, y podríamos explicarlo igualmente bien para una teoría alternativa T* según la cual T se sostiene hasta el 1 de enero de 2004, después de que la física aristotélica, la biología de Lamarckian, etc. asuman el control. ¿Por qué eliminamos T*, y basamos nuestras predicciones en la verdad aproximada de T? No tenemos ciertamente ninguna evidencia el favorecer de T sobre T* (puesto que rinden exactamente las mismas probabilidades para todo en el presente y el pasado), sin embargo presumimos que probablemente T es una manera sumamente más simple de acomodar nuestra evidencia que T*. Pero ahora puede ser que parezca que nuestra metodología de elegir lo más simple es empíricamente revisable.[6]
En el caso de matemáticas, es difícil encontrar un caso de revisión de la evidencia-basada en una teoría aceptada (por ejemplo, la teoría de números reales).
El caso de la lógica es más interesante, porque ha habido ofertas para revisar la lógica en orden a solucionar ciertas anomalías. Según lo observado antes, parece dogmático insistir en que no hay posibilidad epistémica de un caso para tal revisión; por otra parte, ahora no entendemos incluso como podríamos utilizar las lógicas revisadas como nuestra lógica única.
¿La revisión de la lógica se basaría en argumentos empíricos?
Por ejemplo, la propuesta de abandonar la ley del tercero excluido (`B o no B') como principio general para ocuparse de la paradoja del mentiroso. Tal propuesta permite el guardar de todos los casos del tercero excluido que no impliquen, y particularmente el de tercero excluido se puede asumir para todas las oraciones matemáticas (aunque puede ser degradado al estado de un axioma no-lógico ).
El mismo punto parecería presentarse para una revisión de la lógica con los argumentos empíricos.
Field piensa que hay fuertes razones para sostener que la metodología empírica es fuertemente a priori, es decir no puede ser minada por la evidencia. Con respecto a la lógica cualquier revisión lo es siempre por motivos conceptuales
El problema de Benacerraf para las matemáticas.
Incluso en casos, como las matemáticas, donde el conocimiento a priori fuerte parece altamente plausible, es discutido. El más famoso fue articulado por Benacerraf 1973. (Él lo levantó no como problema específicamente alrededor del a priori del conocimiento de las matemáticas, sino alrededor de cualquier clase de conocimiento de las matemáticas.)
Field sostiene que las matemáticas no son algo que pueda evaluarse adecuadamente en términos de verdad o falsedad.
¿ Un problema de tipo Benacerraf para la lógica?
Muchos filósofos creen que si existe un problema del tipo Benacerraf para la matemática también existe uno para la lógica: el hecho de que la Matemática tiene que ver con objetos especiales y la lógica no, es en su opinión una diferencia irrelevante. A primera vista esto parece razonable: la preocupación parecería ser que no existe una explicación obvia de cómo nuestras creencias lógicas pueden depender de hechos lógicos, y esto debería producir escepticismo sobre si ellos dependen de hechos lógicos. Parecería que solo una gran coincidencia podía haber hecho que nuestras creencias lógicas reflejaran cuidadosamente los hechos lógicos.
Esta no es realmente una formulación óptima del problema lógico. Después de todo, la lógica parece preocuparse en primer lugar no de “creencias lógicas” sino de deducciones. Las deducciones relacionan afirmaciones (no en primer lugar acerca de la lógica con otras afirmaciones) con otras afirmaciones (no en primer lugar acerca de la lógica); ellas implican afirmaciones condicionales, que son distintas de las creencias. Entonces “creencias lógicas” no entran en el cuadro de manera directa. Sería mejor entonces, colocar el problema de Benacerraf en términos de la falta de una explicación de cómo nuestras deducciones lógicas dependen de los hechos lógicos. Y aquí deberíamos supuestamente tomar los hechos lógicos para involucrar meta-propiedades de la deducción: es decir el hecho de que la deducción es (necesariamente) conservadora de la verdad. Decir que la deducción de A a A o B es (necesariamente) conservadora de la verdad solamente significa que (necesariamente) si A es verdad entonces así lo es A o B; sobre una mínima noción de la verdad esto es equivalente a la afirmación que (necesariamente) si A entonces A o B.
Entonces la manera de plantear un problema Benacerraf para la lógica es algo parecido a esto:
(i) Parece en principio imposible explicar cosas tales como nuestra aceptación de la deducción de cómo a partir de A hasta A o B dependen del hecho lógico de que necesariamente si A luego A o B.
(ii) Sin tal explicación creer en una correlación entre nuestra aceptación de las deducciones que hacemos y los hechos lógicos requiere creer en una coincidencia masiva.
(iii) La necesidad de creer en tal coincidencia masiva socava la creencia en la correlación, que a su vez debería socavar nuestra aceptación de la deducción.
A primera vista esto puede ser tan convincente como lo es el problema sobre los objetos matemáticos.
En una segunda mirada, el caso lógico parece muy distinto del caso matemático. Porque en el caso lógico, ¿no es claro que la evolución provee la respuesta? ¿no es claro que las creencias lógicas correctas son seleccionadas?. En el caso matemático por otro lado, es difícil ver cómo tal selección podría funcionar: dado que los objetos matemáticos no tienen relaciones de tipo causal , espacio- temporal, etc, ¿cuáles mecanismos podríamos seleccionar para que las creencias sean correctas en ese caso?.
En una tercera mirada la explicación evolucionista no es ni siquiera satisfactoria en el caso lógico. Porque en el caso matemático no es problemático en principio ver cómo una teoría matemática particular T podría haber sido seleccionada: quizá la creencia en T lleva a un olor sutil que según Field sus depredadores encontraron repulsivos. Lo que es problemático es descifrar la conexión entre aquello que es seleccionado y los verdaderos hechos matemáticos. ¿No afecta esto la situación para la lógica también? Se podría fácilmente contar algún tipo de historia sobre las cuales hubo presiones de selección para la aceptación de la lógica clásica. Pero aquello que nosotros necesitamos es una historia sobre la cual existan una presión de selección para la aceptación de la lógica correcta, cualquiera resultara ser. Y no es tan obvio que podamos hacer eso, así que el problema de Benacerraf para la lógica parece permanecer.
En una cuarta mirada (Field 1998) uno podría plantearse la distinción entre
(i) presión de selección para la aceptación de una lógica dada, la cual es de hecho correcta
(ii) presión de selección para la aceptación de la lógica correcta, cualquiera que resultase ser
En el caso matemático, tal distinción parece verdaderamente clara: los hechos matemáticos en sí mismos no jugaban ningún rol en nuestra sobrevivencia entonces en este caso no hay duda de que la presión de selección fue para la aceptación de una teoría particular en lugar de que para cualquiera que sea verdad. Pero parte de aquello que lo hace claro es que nosotros podemos suponer, con por lo menos cierto nivel de claridad un mundo sin objetos matemáticos, o un mundo en el cual su particular teoría T en la cual nosotros creemos no es verdad; y con la lógica ordinaria podemos luego argüir que la creencia en T aún produciría olores, por lo tanto que la teoría seleccionada sería falsa. ¿Pero cómo podríamos dar razones de aquello que sería seleccionado en un mundo con una alternativa lógica?. Aparentemente necesitaríamos llevar el argumento en la lógica alternativa en cuestión y tenemos tan poca idea de cómo hacer esto que lo contrafactico empieza a parecer sin sentido. Esto arroja serias dudas sobre la inteligibilidad de la distinción entre (i) y (ii).
Si esa y otras distinciones parecidas parecen verdaderamente incomprensibles esto puede proporcionar en sí mismo una respuesta al problema Benacerraf para la lógica (Field 1998). El problema Benacerraf en la matemática o en la lógica parece surgir del pensamiento de que hubiéramos tenido exactamente las mismas creencias lógicas o matemáticas, aún cuando los hechos matemáticos o lógicos fueran diferentes; debido a esto, solamente puede ser una coincidencia si nuestras creencias matemáticas o lógicas son correctas, y esto socava aquellas creencias. En el caso matemático hay un contenido razonablemente claro (por lo menos prima facie) del pensamiento que nosotros hubiéramos tenido exactamente las mismas creencias matemáticas aun cuando los hechos matemáticos fueran diferentes; esto es lo que da al problema de Benacerraf su fuerza inicial en el caso matemático. Pero en el caso lógico, no tenemos idea de cómo determinar lo que hubiéramos creído si los hechos lógicos hubieran sido diferentes: el razonamiento sobre lo que serían nuestras creencias en circunstancias alternativas requiere lógica, y si contemplamos una lógica radicalmente alterada no tenemos idea de cómo conducir el razonamiento. Esto parece socavar la inteligibilidad de lo contra factual (sobre lo que hubiéramos creído dado distintos hechos lógicos); en cuyo caso hemos socavado, no solamente la solución evolucionista al problema Benacerraf para la lógica sino el propio problema.
Justificación, desacuerdo y significado
Muchas de nuestras creencias y reglas inferenciales en matemática, lógica y metodología pueden dar razón de muchas más creencias y reglas básicas, sin ninguna circularidad. Pero esto no es así para la más básicas creencias y reglas: nosotros debemos, en un sentido tener derecho a ellas sin hacer nada. No debemos considerar nuestro derecho a obtenerlas sin hacer nada como misterioso fenómeno metafísico: básicamente nosotros consideramos legítimo tener esa creencia y emplear esa regla aún en ausencia de argumento para ella y no tenemos otra obligación que diga que no deberíamos considerarlas así . Naturalmente hay cosas que podríamos decir sobre el porqué nosotros consideramos legítimo tener estas creencias y emplear estas reglas y porqué cualquiera que no lo hiciera sería peor, pero las cosas que podemos decir serían disputadas por cualquiera que no tuviera esa creencia y empleara esa regla, por lo tanto la justificación es circular. La circularidad es rota por nuestras actitudes- por aquello que consideramos legítimo. (Ver Field 2000 para mayor detalle).

Muchos filósofos creen que es necesario decir más para explicar default- entitlement: ellos creen que la sola manera en la cual podemos tener derecho a algo es porque debe haber algún “origen” para el derecho, y ya que las características básicas de nuestra metodología lógica y empírica y quizás matemática no puede tener su origen en un argumento no circular, ellos deben tener algún otro tipo de origen. Una posibilidad ( Boghossian 2000, Peacocke 2000) es que los significados de nuestros conceptos sirvan como la fuente deseada de derecho.
Por lo menos en el caso de la metodología lógica y empírica, una razón a prima facie por pensar una fuente del derecho que se necesita es la posibilidad de puntos de vistas alternativos que se encuentran en conflicto genuino. La posibilidad del conflicto genuino es clara en el caso de la metodología empírica: nuestros conflictos metodológicos ampliamente inductivos con metodologías contrainductivas, y con metodologías escépticas que no autorizan la creencia en nada que no haya sido observado aún, y con innumerables metodologías que mientras ampliamente inductivas también difieren de las conclusiones autorizadas sobre ciertas cuestiones. Parece existir un asunto acerca de cual metodología empírica es más razonable. Nosotros supuestamente pensamos que la nuestra es la más razonable, pero ellos creen lo mismo de la de ellos; si la nuestra es verdaderamente más razonable, ¿no debería existir una fuente de esta razonabilidad? ¿no debería haber algún tipo de justificativo que no suplique una pregunta aunque sea en el sentido de una justificación en la cual las justificaciones no necesitaran ser argumentos?.
En el caso de la matemática puede no existir tal conflicto genuino entre teorías alternativas (por lo menos cuando las teorías alternativas no están basadas en distintos puntos de vista lógicos): es natural creer que distintas teorías matemáticas, en el caso de que ambas fueran consistentes, son simplemente sobre temas distintos. Debido a esto, la necesidad de una justificación (distinta a la justificación de la consistencia de la teoría) no parece ser tan necesaria en el caso matemático. O quizás, en lugar de disminuir la necesidad de una justificación significa que la justificación para las teorías matemáticas consistentes es bastante barata: simplemente gracias al conocimiento lógico la teoría es consistente. Una manera de desarrollar esta idea es decir que los axiomas definen de manera implícita los términos matemáticos y que la definición implícita consistente en las matemáticas garantiza la verdad así que solamente se necesita la justificación de la consistencia de la teoría.
Pero la lógica parece ser más como una metodología inductiva que como las matemáticas en este aspecto. En primer lugar un acercamiento o una definición implícita parece enfrentarse a una seria limitación en el caso de la lógica: es solamente una definición implícita consistente que podría con toda probabilidad garantizar la verdad, por lo tanto necesitamos una noción anterior de consistencia que no sea generada por una definición implícita; ¿y qué justifica una creencia acerca de la consistencia? (debemos admitir que la noción de consistencia que aquí se necesita puede ser una sobre la cual estén de acuerdo los defensores de distintas lógicas, por lo tanto si este fuera el único punto que debemos hacer parecería que la estrategia de definición implícita podría por lo menos servir como una justificación de las partes de la lógica sobre la cual las controversias son probables).
Un punto más fundamental es que aquellos que invocan el uso de lógica alternativas (y las invocan como más que simples álgebras para tratar temas especiales, sino más bien para razonamientos generales) parecen estar en auténtico desacuerdo con nosotros, dice Field. Parece existir un asunto con respecto el cual el punto de vista es correcto (o por lo menos es mejor); uno que no puede ser eliminado diciendo simplemente “ellos usan sus conceptos, nosotros usamos los nuestros”.
Existen casos donde esto no es así: por ejemplo alguien podría estar de acuerdo con nosotros que no hay camino para una afirmación a partir de A y no A a B que no sea conservadora de la verdad, sin embargo considera la afirmación inválida simplemente porque falla con respeto a algunas condiciones de relevancia que ella impone sobre la consecuencia. Aquel desacuerdo parece ser uno simplemente verbal sobre el significado de “consecuencia”. Pero considera que tales casos no son los interesantes. Lo que sería interesante sería si alguien rechazara las reglas porque ella considera que no era conservadora de la verdad: este es el punto de vista de los “dialetheists” (Priest 1998), los cuales creen que algunas afirmaciones de la forma “A y no A” son verdad. Los Dialetheists parecen encontrarse en auténtico (no simplemente verbal) desacuerdo con los defensores de la lógica clásica. Así lo están los “lógicos fuzzy” los cuales no aceptan la afirmación “ ya sea que Harry es pelado o no lo es” en casos donde Harry parecer ser un caso límite. (Las “lógicas fuzzy” pueden ser consideradas como una versión más débil de la lógica clásica; produce una lógica clásica completa cuando se le agrega la ley del tercero excluido, y “B o no B”)
Debemos admitir que es tramposo ubicar aquello sobre lo cual están en desacuerdo los partidarios de las distintas lógicas. Por ejemplo los defensores de la lógica clásica y los “lógicos fuzzy” están ambos de acuerdo en que la lógica clásica completa incluyendo el tercero excluido, es válida con respecto a la semántica estándar de bivalente, también están de acuerdo en que la lógica fuzzy es válida con respecto a las semánticas de valoración continua de Lukasiewicz y que la lógica clásica no lo es. ¿ Entonces dónde están en desacuerdo?. ¿Están en desacuerdo sobre si las instancias del tercero excluido son necesariamente verdad?. Si esto es todo lo que podemos decir, es difícil ver porque la distinción no es verbal: los lógicos fuzzy podrían simplemente emplear una noción más restrictiva de necesidad. En resumen Field cree que la única forma de darle sentido a la diferencia es en términos de las leyes que ellos toman en cuenta para gobernar la creencia racional: por ejemplo el lógico fuzzy tolera tener un bajo nivel de creencia en casos de tercero excluido, el lógico clásico no.
En lo que sigue Field va a justificar que ni la lógica dialéctica ni la lógica borrosa están en desacuerdo, en el fondo con la lógica clásica pues aceptan la ley del tercero excluido. La diferencia entre ellas tiene que ver con el grado de creencia que le atribuyen.
A veces se ha afirmado que es el significado lo que provee tal derecho. Existen dos concepciones de significado que uno podría invocar: teorética de la verdad y rol inferencial. Un defensor de la ley del tercero excluido podría “justificar” esto utilizando una concepción teorética de la verdad del significado como sigue:
Si B es verdad entonces B o no B es seguramente verdad. Y si B no es verdad entonces no B es verdad, por lo tanto nuevamente B o no B es verdad. Entonces de cualquier manera, B o no B es verdad.
Pero esto es groseramente circular: la expresión “entonces de cualquier manera” disfraza un uso del tercero excluido en un meta-nivel, supone que B es ya sea verdad o no verdad. El hecho es que los defensores de la lógica clásica y de la lógica fuzzy pueden estar de acuerdo en la misma regla de composición sobre la verdad; si estas leyes convierten en realidad todas las instancias de tercero excluido depende de si uno presupone el tercero excluido. Un punto similar se emplea para las reglas inferenciales, como el modus ponens o la inferencia a partir de A y no A hasta B: las reglas de verdad garantizan que la inferencia es verdad preservando si tu presupones una lógica que emplea la regla, pero no lo garantizan de otra manera. (Nótese que la circularidad para reglas inferenciales parece no menos nociva que aquella para las creencias, contrariamente algunos partidarios de “justificaciones regla circular”).
La manera en la cual una semántica deductiva proveería una fuente o justificativo del derecho es distinta: aquí la filmación sería (i) que la aceptación de algunas creencias lógicas o inferencias es central a los significados de las conjunciones, y (ii) que esto de alguna manera garantiza la legitimidad de estas creencias o inferencias.
Si esto es de ayuda con nuestro ejemplo, la ley del tercero excluido debe ser de una de esas que son centrales para los significados de “o” y “no”. Además, para que (i) apoye (ii) debe interpretarse como que requiere que cada alteración de las creencias y deducciones que son centrales al significado de las conjunciones engendra un cambio en el significado de las conjunciones. Sobre esta interpretación, (i) es de alguna forma cuestionable: seguramente un lógico clásico no tendría mejor traducción de “no” o “o” que la de un lógico fuzzy en su propio idiolect que las traducciones homofónicas “no” y “o”. Por lo menos, si este es un cambio de significado, no es lo que Putnam 1969 llamó un “simple cambio de significado”, una simple nueva rotulación: más bien, el lógico fuzzy debería considerar el empleo de las conjunciones con significado clásico como ilegítimo, y sustituir nuevas conjunciones, que su oponente considere ilegítimas, en su lugar.
En todo caso, el asunto central es (ii): porque debería el hecho, si esto es uno, de que algunas creencias o deducciones son integrales al significado de un concepto, ¿mostrar que esos principios son correctos? ¿por qué debería mostrar el hecho, si esto es uno, que abandonando aquellas creencias o deducciones requeriría un cambio de significado, nosotros no deberíamos abandonar aquellas creencias o deducciones? Quizás el significado que le hemos otorgado a esos términos es uno malo, que se encuentra irremediablemente atado al error, y la verdad solo puede lograrse abandonando esos significados a favor de otros diferentes (que se parezcan a ellos en aspectos claves pero eviten el error irremediable).
Hay razón para creer que esta debe ser una posibilidad: en días anteriores, si no ahora los principios de la teoría naive de verdad eran probablemente centrales al significado del término “verdad” y los principios de la lógica clásica eran centrales para el significado de las conjunciones; pero ahora sabemos que no podemos mantener de manera sistemática ambas teorías de la verdad naive y lógica clásica, entonces por lo menos algunos de los significados que otorgamos a nuestros términos debe haber estado ligado al error.
Duda Field que entonces el llamado al significado de los términos lógicos sirva de verdad al propósito justificativo para el cual algunos han intentado colocarlo.
Entonces ¿qué se toma en cuenta en justificar una lógica o una política inductiva?. Para repetir:
(A) Nuestro derecho a utilizar una lógica o una política inductiva no puede depender de que poseamos un argumento para ello, tenemos derecho a ello por default
(B) Nuestro derecho no necesita depender de la existencia de algún tipo de justificativo distinto al argumento (“fuente de derecho”). El derecho no “fluye afuera de” nada; al decir que tenemos derecho propio a nuestra lógica y metodología,
Pero para agregar un nuevo punto
(C) Existe todavía espacio para la justificación: cuestiones de justificación pueden aparecer cuando se avanzan consideraciones en contra de nuestra lógica o metodología. Por ejemplo es seguramente posible argumentar que la lógica clásica se ve en problema al verse implicada en ciertos dominios, tales como la vaguedad o la paradoja semántica; y defender la lógica clásica contra tales argumentos es una forma de justificación. Postular default entitlement para, digamos, las reglas de la lógica clásica, no hace de ninguna manera sacrosanta la lógica clásica, simplemente permite que el razonamiento clásico sea legítimo hasta que haya sido construida una imagen del mundo suficiente para debates razonables sobre los principios del razonamiento clásico.
Existen misterios sobre cómo los debates acerca de la lógica y la metodología deberían ser conducidos, enigmas que se encuentran más allá de la finalidad del presente artículo. Field sostiene que los debates implican consideraciones realmente holísticas: las consecuencias de cambiar opiniones lógicas, por ejemplo acerca del tercer excluido, pueden ser de largo alcance, y debemos mirar a consecuencia verdaderamente distintas del cambio y decidir si los beneficios del cambio de nuestra visión global del mundo tendrían más peso que los costos. Como Quine (1951) señaló como respuesta a Carnap, el hecho de que tales debates sean pragmáticos no los excluye de ser basados en datos objetivos: todos los debates de alto nivel basados en datos objetivos son pragmático en este sentido realmente, en el caso de la lógica es difícil ver como tales debates podrían ser considerados como nada más que basados en datos objetivos. Pero el hecho de que los debates sobre la lógica y la metodología sean holísticos y pragmáticos no muestra que tales debates sean de ninguna forma empíricos; y es muy difícil imaginar cómo la evidencia empírica podría ser considerada relevante para tales debates.
Estos debates serian holísticos y pragmáticos de ninguna manera empíricos.
Hasta aquí los artículos de Field, mi lectura , mis agregados….

Recapitulando:
Comienzo con Concepción Martínez: “Boghossian (1996) estima que es posible el conocimiento a priori sin postular extrañas facultades de conocimiento (como vimos más arriba), apoyándose en el concepto de analiticidad. Field (1996, 1998, 2000) explica como es posible el conocimiento a priori sin postular extrañas facultades y sin apoyarse en la nocion de analiticidad”[7]
Como tantas veces repetimos Field es un naturalista y tiene una concepción pragmática de la justificación. La cuestión de qué reglas debemos emplear es una cuestión estrictamente factual. Depende de cuestiones pragmáticas también. Field parece sostener que debemos tener un sistema epistémico y adoptar ciertas metodologías a priori. Estas teorías considera que no pueden ser refutadas ya que serían condiciones de posibilidad de la mente humana que se construyen en el hacer epistémico.
Según Field (2000) rechaza las justificaciones circulares porque considera que no son justificaciones genuinas, en cambio Boghossian considera que no tenemos derecho a considerar nuestras creencias lógicas como injustificables, y son justificadas mediante el razonamiento deductivo. Para Boghossian un argumento exitoso regla circular llega a la conclusión de que esa regla es necesariamente preservadora de la verdad en cualquier aplicación posible. Recordemos que para Boghossian tenemos derecho a aplicar estas reglas si y solo si la regla en cuestión es constitutiva del significado.
Hay que tener en cuenta los siguientes elementos: (i) los significados de las constantes lógicas son determinados por sus roles conceptuales. No cualquier rol conceptual determina un posible significado, (ii) si una disposición inferencial es constitutiva del significado, luego es razonable, utilizada de manera justificada sin argumentos que la respalden.
Si se asume la postura de Field de que las justificaciones no pueden ser circulares, entonces algunas metodologías deben ser razonables sin justificación. Son razonables por defecto. Por lo tanto son débilmente a priori.
Toda justificación utiliza o razonamientos deductivos, o inductivos o creencias basadas en la experiencia.
“El requisito de no derrotabilidad debe jugar un papel en la noción de aprioricidad, pero entender la aprioricidad como aprioricidad por defecto daría lugar a otras proposiciones o metodologías fueran consideradas fuertemente a priori. Por otra parte, caracterizar la noción de aprioricidad – sin distinguir entre aprioricidad por defecto y aprioricidad fuete- estableciendo que una proposición o metodología es a priori si y sólo si puede ser justificada a priori, dejaría fuera las proposiciones y metodologías que considera a priori por defecto, ya que el único tipo de justificación posible, la circular, no es, según Field, una justificación genuina”[8]
Para Field la lógica es débilmente a priori, pero irrefutable y por eso fuertemente a priori. Como sostiene Martínez Vidal (2007) una razón pragmática es la que fundamenta la afirmación de Field de que los principios lógicos son fuertemente a priori.






Bibliografía:
BOGHOSSIAN, Paul, “Analicity Reconsidered”, Nous, vol. 30 . n 3,pág. 360-391
FIELD, H, “Apriority as an Evaluative Notion” en Boghossian P. and Peacocke C. New Essays on the A priori, Oxford, 2000 pág. 117-149
FIELD, H, “Recent debates about the A priori” (en la Web) y en Oxford Studies in Epistemology 2005, pág. 69- 88
MARTINEZ VIDAL, C, “Naturalismo y Lógica” 2003
MARTINEZ VIDAL, C, “La justificación de la Lógica según Hartry Field: exposición y critica”, 2005
MARTINEZ VIDAL, C, “ El status epistemológico de la Lógica: Verdad y Necesidad”, 2007





[1] “Statements which are analytic by general philosophical acclaim are not, indeed, far to seek. They fall into two classes. Those of the first class, which may be called logically true, are typified by:
(1) No unmarried man is married.
The relevant feature of this example is that it is not merely true as it stands, but remains true under any and all reinterpretations of 'man' and 'married.' If we suppose a prior inventory of logical particles, comprising 'no,' 'un-' 'if,' 'then,' 'and,' etc., then in general a logical truth is a statement which is true and remains true under all reinterpretations of its components other than the logical particles.
But there is also a second class of analytic statements, typified by:
(2) No bachelor is married.
The characteristic of such a statement is that it can be turned into a logical truth by putting synonyms for synonyms; thus (2) can be turned into (1) by putting 'unmarried man' for its synonym 'bachelor.' We still lack a proper characterization of this second class of analytic statements, and therewith of analyticity generally, inasmuch as we have had in the above description to lean on a notion of 'synonymy' which is no less in need of clarification than analyticity itself.”

[2] Afirma Gladys Palau (2002) pag. 40: “La critica fundamental de Prior fue dirigida a la Deducción Natural de Gentzen. El eje central de su argumentación consistió que a fin de especificar el uso de una conectiva o constante lógica, es necesario que la constante deba ya tener un significado fijado un significado independiente. A fin de mostrar que el significado de las constantes lógicas no puede darse sintácticamente , o sea, por medio de reglas, Prior propone adicionar a un lenguaje lógico, las reglas de uso de una supuesta conectiva tonk a saber:
(i) A - A tonk B
(ii) A tonk B - B
De forma tal que ella permita deducir, cualquier proposición a partir de cualquier proposición , es decir : A- B. Con esto Prior pretende haber demostrado que definir las conectivas lógicas por reglas permite cualquier arbitrariedad en la deducción, en particular, la indeseada afirmación de que una proposición se deduce de cualquier otra. Por lo cual – concluye Prior- tal inferencia no es válida en los sistemas lógicos porque previamente a la formulación de las reglas se tenía en mente la tabla de verdad de la conectiva correspondiente. La refutación al argumento de Prior fue dada por Belnap (1962)”
[3] Williamson (2003) argumentó que no es preciso aceptar el Modus Ponens para tener el concepto de condicional. La propuesta de Boghossian quedo “herida de muerte”.
El Modus Ponens condición necesaria solamente para el condicional clásico y no lo es para el condicional derrotable, por lo cual tiene razón Wiilliamson.
[4] Concepción Martínez Vidal (2005), pág. 2
[5] J/k es el grado de creencia inicial
[6] Propone el ejemplo de tenemos evidencia de que las leyes físicas cambiaron drásticamente el día de Año Nuevo, en los años anteriores. El hecho de que no cambien en Año nuevo de 2004, no es camino obvio para que mine nuestra evidencia empírica.
[7] Martínez Vidal , C (2007).
[8] Martínez Vidal, C (2005)