Blogia

expresionesdeintelectuales

LA TESIS DOCTORAL: APROXIMACIÓN TEÓRICA.

POR SANDRA GARCÍA.

                   LA TESIS  DOCTORAL: APROXIMACIÓN TEÓRICA.

     Resulta claro expresar el compromiso, entrega y disciplina que exige realizar una Tesis Doctoral la cual es un estudio escrito sobre una investigación de carácter original efectuada por un escritor  de un análisis  de publicaciones hechas por otros sobre un tema dado. Es por esta razón que permite acceder al grado de Doctor; en el marco que allí se adopta  debe definirse dentro de dos paradigmas que son el cuantitativo y cualitativo  en cuanto al cuantitativo  según Arias (2006) son aquellas que se expresan en valores o datos numéricos. Y el cualitativo según Arias (ob. cit) son características o atributos  que se expresan de forma verbal (no numérica), es decir, mediante palabras. No obstante  a modo personal surge la iniciativa de promover e incluir aquellos paradigmas pocos explorados  por el investigador como lo es el cualitativo  pues considero incluirlo  dentro de mi Tesis Doctoral con el fin de complementar conocimientos debido a que en anteriores  oportunidades como lo fue  bachillerato, pre-grado, Maestría, aplique el paradigma cuantitativo quedando muy satisfecha más sin embargo  a medida que se adquiere experiencia se deben explorar nuevos saberes  y para mi uno de ellos  es el paradigma cualitativo y es por esta razón  que mi investigación tendrá dicho enfoque  como una meta personal de la cual quiero cumplir para complementar el conocimiento ya adquirido y a través de  el  realizar aportes educativos a la sociedad.

     En otro orden de ideas,  a continuación se presenta los conceptos exigidos como actividad en clases:

     Modelos de simulación: la experimentación puede ser un trabajo de campo o de laboratorio. El modelo de método usado para la simulación seria teórico, conceptual o sistémico. Modelo teórico: es aquel que  debe contener los elementos que se precisen para la simulación. Modelo conceptual: es aquel que desea establecer por un cuestionario y con trabajo de campo, la importancia de la discriminación o rechazo en una colectividad y hacerlo por medio de un cuestionario en forma de una simulación con una escala de actitud. Después de ver si la población es representativa o adecuada, ahora la simulación es la aplicación del cuestionario y el modelo es el cuestionario para confirmar o rechazar la hipótesis de si existe discriminación en la población y hacia qué grupo de personas y en que cuestiones. Gran parte de las simulaciones son de este tipo con modelos conceptuales. Modelo Sistémico: el modelo sistémico es más pretencioso y es un trabajo de laboratorio. Se simula el sistema social en una de sus representaciones totales. El análisis de sistemas es una representación total. Un plan de desarrollo en el segmento de transportes con un modelo de ecología humana.

 

Referencias Bibliográficas.

      Arias F. (2006). “El proyecto de investigación”. Introducción a la Metodología  Científica 5ta Edición. Editorial Episteme C.A. Venezuela.

    Eco. (1997). “Como se hace una Tesis”. Disponible en Wikipedia.org/wiki/tesis_doctoral.

   Wikipedia la enciclopedia libre.(2011) “Simulación”. Disponible en es.wikipedia.org/wiki/Simulación.

LAS SIETE TRADICIONES DE ROBERT CRAIG EN LA FORMACIÓN SACERDOTAL

LAS SIETE TRADICIONES DE ROBERT CRAIG EN LA FORMACIÓN SACERDOTAL

POR. POLITO RODRIGUEZ

CI. 11186940

En la tesis doctoral basándose en la formación de los futuros sacerdotes en el Seminario Nuestra Señora del Pilar en Barinas, ha querido incorporar las siete tradiciones de Robert Craig, ellas porque juegan un papel determinante y eficaz en el momento en que el futuro sacerdote tiene que desempeñar su rol protagónico en medio de la sociedad.

No se pudiera avanzar, si antes no se aborda la dimensión vocacional como llamado por parte de Jesucristo a cumplir una determinada misión. Es así que se entiende que seguir a Jesús en el ministerio sacerdotal exige un discernimiento progresivo y profundo con miras a suscitar una donación personal de sí con disponibilidad y generosidad. Esta donación exige una decisión personal, ya que la vocación es una propuesta que viene de Dios y un programa de santidad que se realiza en todo aquél que lo asume como su propio proyecto de vida. A lo largo de la historia de la Iglesia, muchos hombres han sido llamados por Dios y han respondido con una entrega personal, única e irrepetible.

            Dios continúa llamando a los jóvenes de hoy. Esto constituye una experiencia profunda del amor de Dios. Por eso es necesario iluminar a los elegidos, por medio de la reflexión y la oración, sobre su experiencia vocacional, con el fin de que puedan comprender la vida, misión y el destino del ministerio sacerdotal.

            La identidad por su parte de quien ha recibido el llamado al ministerio presbiteral está relacionada con la misión ya que ha sido llamado a vivir en el misterio de la Iglesia, como misterio de comunión trinitaria en tensión misionera, y, por tanto, la identidad especifica del sacerdote y su ministerio. Cada candidato al sacerdocio que se dispone a dar su respuesta libre debe dejarse enviar por el Padre, por medio de Jesucristo, Cabeza y pastor de la Iglesia, con el cual debe configurarse de modo especial para vivir y actuar con la fuerza del Espíritu Santo al servicio de la Iglesia y de la salvación del mundo.

            Desde esta óptica de llamada, servicio y adhesión del candidato a la persona de Cristo es que se pueden entender y aplicar las tradiciones de Robert Craig.

            La tradición retorica, abordada en su momento por Aristóteles, puede ser integrada en la formación del candidato al sacerdocio desde la practicidad, si se entiende la comunicación como lo practico del discurso. El candidato en las homilías o sermones tiene que acudir con frecuencia a este recurso, pues desde él, el futuro sacerdote se comunica y se hace entender en la trasmisión del Evangelio o Buena Nueva.

            Mientras la semiótica se relaciona de una manera más visible a todo lo que tiene que ver con la liturgia. Ésta se encarga del culto y el culto está impregnado de signos y significados. En este orden de ideas, ha habido algunos teólogos que han expresado que no hay una obra de arte por excelencia como es la liturgia. Ésta que tiene que ver de una manera especifica con la Santa Misa, desde el momento en que se inicia hasta que termina se compone de gestos, expresiones, silencio, posturas, recogimientos entre otros que van manifestando toda una simbología y significados que enriquecen la vida inmanente y trascendente de la persona.

El candidato en la formación para su ministerio sacerdotal se enriquece en el dialogo entiéndase aquí todo lo referente a la fenomenología, que en su expresión más pura de Edmond Husserl, la comunicación se concibe como la experiencia del uno con el otro por medio del dialogo. De manera que es para eso que se forma el futuro sacerdote, y empieza a hacerlo desde que entra al seminario, casa de formación y escuela del Evangelio. Es ahí donde las relaciones humanas se hacen presentes y la comunicación empieza a darse por medio de la escucha.

            En la actualidad se vive toda una globalización e intercambio cultural, en la cual el futuro sacerdote no escapa y muchas veces es absorbido por el poco manejo de las tecnologías. Entiéndase aquí la cibernética, aunque la comunicación en este orden de ideas está reducida a la mera de transmisión y a sistemas meramente prediseñados no dejan de tener un efecto determinante en la formación de la conducta del candidato.

            Por su parte la tradición socio psicológico es determinante en la formación de los futuros sacerdotes, tomando en consideración que el hombre con el pensar y el hacer crea la cultura y esa cultura psicológicamente puede determinar o coaccionar el actuar del candidato. Esta tradición puede manipular los conocimientos o al contrario puede facilitarlos; más aún cuando la persona es toda pueda ser afectada.

            No hay un área tan rica en contenidos simbólicos como es la teología. Ésta puede conectarse a la tradición sociocultural y es que la comunicación se entiende en esta tradición como un proceso simbólico, partiendo de una noción ordinaria y racionalista, eh ahí que el candidato en formación se pregunta el por qué de las cosas, fruto del ejercicio propio que hace de la razón de buscar el por qué de las cosas y concluir en la verdad como objetivo último de la misma.

            Mientras la tradición critica surgida de las ideas de Marx, se concentra en las formas materiales ideológicas que impiden o sustituyen la reflexión. En teología como en la filosofía, pero más aún en la formación integral del candidato al sacerdocio se le orienta en la capacidad de dialogar con cualquier cultura, religión o ideología. Ésta no deja de ser una de esas ideologías que en su comunicación y a fan de conservarse para influir en la sociedad, no deja de impedir el valor, el humanismo, la convivencia y la pluralidad.

Concluyendo se determina que las sietes tradiciones presentadas por Robert Craig, juegan un papel determinante en la formación del futuro sacerdote. La Iglesia abierta al dinamismo humano y a la globalización no se cierra, al contrario, se abre para dialogar y evangelizar las culturas y no puede haber evangelización si ante no se forma integralmente al candidato al sacerdocio.

LAS TESIS DOCTORALES Y SU EVALUACIÓN.-

Criterios Teóricos y Metodológicos Aplicados a las Ciencias Sociales.-

 

Dr. Arístides Alfredo Vara Horna.

Compilador: Iván J. Alvarado A.

 Todos los programas doctorales en el mundo proponen un modelo curricular destinado a la formación del doctor como investigador de alto nivel, experto en la investigación capaz de resolver problemas sustanciales de la sociedad y de aportar conocimiento a sus profesionales.

La tesis doctoral es la prueba "de fuego" que demuestra las competencias requeridas para obtener el máximo grado académico. Se espera de ella que sea una evidencia indiscutible de las competencias de investigación desarrollada por el doctorando y se espera, además, ser un aporte original al conocimiento, cumpliendo con la rigurosidad científica requerida.

La tesis doctoral moderna, a diferencia de otras tesis de grado, es históricamente hija del método científico y como tal no puede escapar a las exigencias de su proceder. La rigurosidad científica es un inevitable "deber ser" del doctor, pero cómo medirla, cómo valorarla, ¿es posible hacerlo? Hasta ahora las evaluaciones de la rigurosidad han sido relizadas por los jurados que conforman la "banca examinadora" de la tesis, pero -lamentablemente- sin un criterio estandarizado; por el contrario, con bastante subjetividad y contradicciones.

La necesidad de evaluar la rigurosidad científica de las tesis doctorales es un imperativo contemporáneo. La cultura de la calidad y de la excelencia educativa exige criterios e instrumentos para evaluar la producción científica en las universidades. Hasta ahora se ha evaluado la calidad de los postgrados utilizando crierios administativos, pero estos se han mostrado muy limitados para una aproximación rigurosa.

De lo dicho, proporcionar un modelo de evaluación de la calidad del producto de la formación doctoral es una empresa urgente que ya no puede postergarse.

 Por tanto a lo anterior, sería de suma importancia proponer una obra que presente los criterios conceptuales y metodológicos fundamentados para evaluar la rigurosidad científica de las tesis doctorales en las ciencias sociales. Es allí donde el Dr. Arístides A. Vara H. se manifiesta puntualmente a través de su libro:¿Cómo Evaluar la Rigurosidad Científica de las Tesis Doctorales?.

DEFINICIONES SOLICITADAS:

I) ¿Qué es una Tesis Doctoral?

La tesis es una proposición o pensamiento, cuya veracidad fue demostrada y justificada a través de la exposición de argumentos o alguna prueba.

Es común y materia obligatoria en la mayoría de las carreras académicas que se dictan en las Universidades que existen en todo el mundo y cuyo objetivo es forjar profesionales aptos y responsables, la presentación primero y luego la aprobación de una tesis para lograr el título o grado académico correspondiente.

Entre las características  más salientes que debería observar una tesis se cuentan las siguientes: llegar a una conclusión clara y definida, no ser el resultado de una copia, llegado el momento de su defensa, respetar a rajatabla los postulados que fueron escritos y defendidos, no contradecir los fundamentos que promueve otra tesis que fue aprobada, no observar contradicciones lógicas, no resultar evidente y estar avalada por hechos comprobables.

Como comentaba más arriba, de entre las distintas tesis que existen, la doctoral es aquella más regular y conocida y se trata de un trabajo hecho a máquina o por computadora, que oscilará entre las 150 y 400 páginas, en el cual un estudiante atenderá y tratará un problema referente a los estudios por los cuales quiere doctorarse, ya que la aprobación de la misma permite lograr el grado de doctor, en algunos casos, o de licenciado en otros.

II) Modelo Teórico Y Modelos de Simulacióm.-

* Modelos de simulación:

La experimentación puede ser un trabajo de campo o de laboratorio. El modelo de método usado para la simulación seria teóricoconceptual o sistémico.

Después de confirmar la hipótesis podemos ya diseñar un teorema. Finalmente si éste es admitido puede convertirse en una teoría o en una ley.

* Modelo teórico:

El ’modelo teórico’ debe contener los elementos que se precisen para la simulación. Un ejemplo con trabajo de laboratorio es un programa de estadística con ordenador que genere números aleatorios y que contenga los estadísticos de la media y sus diferentes versiones : cuadrática- aritmética-geométrica-armónica. Además debe ser capaz de determinar la normalidad en términos de probabilidad de las series generadas. La hipótesis de trabajo es que la media y sus versiones también determinan la normalidad de las series. Es un trabajo experimental de laboratorio. Si es cierta la hipótesis podemos establecer la secuencia teorema, teoría, ley. Es el modelo principal de todo una investigación científica, gracias a ello podemos definir o concluir la hipotesis, las predicciones, etc.

* Modelo conceptual:

El modelo conceptual desea establecer por un cuestionario y con trabajo de campo, la importancia de la discriminación o rechazo en una colectividad y hacerlo por medio de un cuestionario en forma de una simulación con una escala de actitud. Después de ver si la población es representativa o adecuada, ahora la simulación es la aplicación del cuestionario y el modelo es el cuestionario para confirmar o rechazar la hipótesis de si existe discriminación en la población y hacia que grupo de personas y en que cuestiones. Gran parte de las simulaciones son de este tipo con modelos conceptuales.

* Modelo Sistémico:

El modelo sistémico es más pretencioso y es un trabajo de laboratorio. Se simula el sistema social en una de sus representaciones totales. El análisis de sistemas es una representación total. Un plan de desarrollo en el segmento de transportes con un modelo de ecología humana, por ejemplo. El énfasis en la teoría general de sistemas es lo adecuado en este tipo de simulaciones. Este método, que es para un Sistema complejo, es sumamente abstracto, no se limita a la descripción del sistema, sino que debe incluir en la simulación las entradas y salidas de energía y procesos de homeostasis, autopoiesis y retroalimentación.

Tanto el programa de estadística, como la escala de actitud, como el sistema total, son perfectas simulaciones de la realidad y modelizan todos los elementos en sus respectivas hipótesis de trabajo. Son también un microclima y el ambiente o el escenario en los procesos de simulación/experimentación. Otras propiedades que deben contener las simulaciones es que sean repetibles indefinidamente. Que eviten el efecto de aprendizaje que incita al encuestador a rellenar él mismo los cuestionarios y que se podrá evitar con algún control, que sean flexibles o mejorables y que no sea invasivo o cambiar la población de las muestras sucesivas.

 

                                                 Compilador: Iván J. Alvarado A. 

 

"PARADIGMAS" DE INVESTIGACIÓN EN CIENCIAS SOCIALES

"PARADIGMAS" DE INVESTIGACIÓN EN CIENCIAS SOCIALES

Un enfoque curricular

 

JOSE PADRON GUILLÉN

Papel de Trabajo, Postgrado, USR

Caracas, mayo de 1992

http://padron.entretemas.com/paradigmas.htm

ESPACIO PARA UN PROGRAMA DE FORMACION DE INVESTIGADORES

      Dentro del ya célebre tema de los "paradigmas", este traba­jo no se sitúa en el plano de las polémicas ni de los proselitis­mos. Más bien, se parte de considerar que la investigación en ciencias sociales plantea un gran reto de orden curricular: mien­tras las circunstancias exigen eficientes procesos de formación de investigadores, las definiciones por hacer, los conceptos por clarificar y los desacuerdos por superar son tantos que bien puede formularse la necesidad de un espacio de reflexión orien­tado a determinar un PROGRAMA UNIFICADO DE FORMACION DE INVESTI­GADORES en ciencias sociales. Así, un PROGRAMA de este tipo debe­ría encar­garse, primordialmente, de resolver en una esfera opera­tiva los problemas o desacuerdos que hasta ahora se han planteado sólo en esfe­ras filosóficas, epistemológicas y teóricas en gene­ral, ha­biéndo­se agotado su discusión en estas esferas o habiéndo­se pro­longado por demasiado tiempo la espera de abordajes intere­santes e inno­vadores surgidos de prácticas investigativas exito­sas que apoyen alguna de aquellas posturas teóricas. El hecho es que la formación de investigadores, ante el actual ritmo so­cio­histórico, no puede seguir estancada ni frag­mentada ante el ago­tamiento de las polémi­cas epistemológicas ni puede seguir espe­rando por pau­tas emanadas de alguna posible "revolución cien­tífi­ca" en el terreno de las ciencias sociales. Ante los desa­cuerdos, compleji­dades y carencias, el curriculum debería optar por solu­ciones prácticas que, como sustrato teóri­co, sean capaces de reconstruir plataformas ubicadas en los míni­mos niveles de enten­dimiento, simplicidad y clarificación.    

            Obsérvese, de paso, que estos currículos, en cuanto modelos de procesos de formación de investigadores, no son algo tan eté­reo como podría pensarse: se pueden ver muy concretamente en la per­plejidad de nuestros estu­diantes ante, por ejem­plo, dos profe­so­res de "metodología de la investigación" que les enseñan y exigen cosas opuestas e in­compa­tibles entre sí o ante un jurado de "te­sis" cuyos miembros mani­fiestan juicios inconciliables o, inclu­so, ante un mismo asesor que hoy considera un acierto lo que ayer consideró un error, etc. y, en general, en el simple hecho de que la formación de investi­gadores depende mucho más del punto de vista de cada docente (o de una particular institución educa­tiva, en el mejor de los ca­sos) que de un programa unificado en torno a las necesi­dades globales de investigación en ciencias sociales. La idea de un programa de formación de investigadores radica en la posibili­dad de estudiar los modos prácticos en que puedan manejarse las dife­rencias teórico-filosófico-metodológicas a partir de una base mínima de entendimiento y en que puedan com­pensarse las limita­ciones propias del estado de madurez de las ciencias sociales, siempre en función de las actuales necesidades de progreso de la acción social y de consolidación de conocimien­tos fiables que soporten dicha acción.

    Desde luego, un programa de formación de investigadores exi­ge, ante todo, un espacio de reflexión y exploración en que se determinen las bases mínimas de consenso y de acción docente eficaz. Dentro de este espacio, y para ir de una vez al tema de este trabajo, una de las primeras preocupaciones es la del "paradigma". En las esferas epistemológicas hay, evidentemente, todo un cuadro de desacuerdos (reconocidos): ¿"Ciencia" o "Cien­cias Naturales vs Ciencias del Espíritu"? ¿Rea­lismo o Idealismo? ¿Objetividad o Simbolismo? ¿Lenguaje artifi­cial o Lenguaje natu­ral? ¿Explicación o Interpretación? etc. Hay también todo un cuadro de confusiones (no siempre reconocidas): ¿cantidad vs cualidad? ¿muestreo vs estudio de casos? ¿evidencia vs vivencia? ¿objetividad vs intersubjetividad? ¿conocimiento vs acción com­prometida? etc. Pero, al lado de estos desacuerdos y confusiones, hay también la posibilidad operativa de acuerdos mínimos y de clarificaciones básicas, respectivamente. Es, precisamente, lo que se aborda en este trabajo, unicamente en lo que se refiere a los "paradigmas". Se intenta aportar algo a esa base mínima de a­cuerdos y clarificaciones. Las ideas aquí expuestas pueden ser ú­tiles en dos niveles curriculares: primero, en un nivel institu­cional, para la reflexión acerca de los diseños instruccionales en metodología de la investigación, filosofía de las ciencias so­ciales, etc.; segundo, en un nivel individualizado, para que los "tesistas" y cursantes de asignaturas de investigación tengan a mano un conjunto de datos heurísticos que, una vez desarrolla­dos, les permita "hacerse fuertes" ante jurados y profesores (lo cual no equivale a otra cosa que a un programa de formación de inves­tigado­res impulsado desde "abajo"). En fin, éste no es un trabajo de trascendencia epistemológica, sino de intención curri­cu­lar. Está dirigido a docentes y estudiantes en el área de meto­do­logía de investigación y se orienta hacia una base mínima de entendi­miento filosófico y de clarificación conceptual, como recurso o­perativo ante el agotamiento de los debates y ante la colateral avalancha de confusiones y mixtificaciones.

EL TERMINO "PARADIGMA"   

     A raíz del debate epistemológico, la palabra paradigma, en cuanto expresión lingüística asociada al campo de la investiga­ción, ha conquistado ciertos espacios connotativos que la sitúan en un lugar privilegiado y que le otorgan un cierto carácter de concepto unívoco, casi obligante, hasta el punto de que mucha gente cree que al hablar de paradigma se habla de investiga­ción o de filosofía de la investigación. En realidad no es así. Paradigma es, en sí misma, una palabra tan banal e intras­cendente como cualquier otra. Su fama se debe a la cir­cunstancia particular en que fue usada por el sociólogo Thomas Kuhn, quien se interesó en los radicales cambios de aceptación pública que ocurrían en el terreno de las ciencias naturales y quien intentó explicar tales cambios desde una perspectiva histó­rica y socio­cultural (Kuhn, 1975). Thomas Kuhn utilizó la palabra paradigma para referirse a cada una de estas conquistas de conocimiento científico que se iban imponiendo con el tiempo y que, como si fueran "modas" u ondas artísticas (casi como los ciclos de los cantantes), comenzaban por desplazar a la tendencia vigente, seguían hasta imponerse como tendencia dominante y ter­minaban siendo desplazadas por otro nuevo paradigma naciente y así, sucesivamente, siempre dentro de un mismo esquema estruc­tural que él proponía como explicación a las revoluciones cien­tíficas. Su influencia fue tan grande que la palabra paradigma se populari­zó y se convirtió en una verdadera referencia concep­tual. Sin embargo, ni el mismo Kuhn, para el momento de su famosa publica­ción, tenía un concepto bien claro y definido de esa pala­bra (Kuhn, 1978). El resto lo hizo toda aquella secuela de reseña­dores, lectores y filósofos que dieron a la obra de Kuhn u­na notable resonancia internacional. No obstante, la palabra en cuestión ya había sido usada por Platón y Aristóteles en el sen­tido de "mode­lo" y "ejemplo" (Abbagnano, 1986:888), que no tenían nada que ver con las revoluciones científicas, e, incluso, era de uso común en la lingüística de mediados del siglo XX para aludir a ciertas estructuras "semiológicas" (Saussure, 1969) en un sen­tido muy dife­rente al de Kuhn. Así, pues, en sí misma, esta ex­presión no tiene por qué estar vinculada  univocamente a un con­cepto episte­mológi­co importante ni tiene por qué ser de uso sa­cralizado u obligato­rio cuando se hace referencia a las varia­cio­nes en la ciencia o a las opciones de investigación científi­ca. En reali­dad, no pasa de ser un término estrecha­mente conecta­do a la in­terpretación socio­histórica de Kuhn, término que se llena de riesgos cuan­do se le intenta exten­der a las cuestiones filosó­fi­cas subya­cen­tes. De hecho, un célebre filósofo contem­poráneo de Kuhn, sensible a las importantes observaciones de éste, prefi­rió rein­terpretar­las bajo el concepto de "pro­gramas de inves­tiga­ción" (Lakatos, 1983). Mientras con el término paradigma las revo­lu­ciones científi­cas parecen concebirse como enfrenta­mientos súbi­tos e inesperados entre particulares cons­trucciones de cono­ci­miento y entre deter­minadas tendencias epis­temológico-metodoló­gi­cas, el término "pro­grama de investigación" parece incluir la i­dea de "paternidad" o "generación" (más que de "cho­que") entre dos hitos de conocimien­to, casi como si cada uno de ellos contu­viera en sí mismo la semilla de un sucesor "revolu­cionario" que lo habrá de desplazar en su momento oportuno; en ese sentido, ca­da vez que un movimien­to científico empieza a crecer y a des­pla­zar al anterior, está al mismo tiempo gestando en sí mismo a otro movimiento que, tarde o temprano, terminará a su vez plan­teando una subsiguiente revolu­ción. Visto así, la diferencia estaría en que, mientras la pala­bra "paradigma" conci­be las revo­luciones científicas como estruc­tura de SUCESOS, la palabra "pro­grama’ las concibe como estructu­ra de PROCESOS (más adelante se entenderá esta diferencia). En todo caso, lo impor­tante de esta acotación está en que "paradig­ma" no es un concepto tan neutro o tan gene­ral que pueda ser usado ingenua e inocente­mente para hacer refe­rencia, sin más, a cualquier opción de in­vestigación, a cualquier tendencia o a cualquier movimiento cien­tífico. Por tal razón, al aludir a estas cosas, preferimos usar corrientemente las palabras enfoque o modelo (científico o de in­ves­tiga­ción), dejando el término pa­radigma, siempre con sus comillas, como especie de cita textual que haga alusión a la célebre polé­mica en las cien­cias sociales.

      En conclusión, paradigma se usa comúnmente hoy en día para designar una postura, una opción o un modo sistemático de investigar, opción que se expresa en típicas vías técnico-instrumentales y que responde a un fondo filosófico o manera de ver el mundo, el conocimiento humano y sus procesos de produc­ción. Si se entiende así, si se consideran los riesgos de inexac­titud al generalizar esa palabra más allá del concepto origi­nal y si, además, queremos un curriculum libre de tomas polémicas de posición, entonces convendría más, probable­mente, hablar de enfo­ques o modelos de investigación (teóricos, epistemológicos o metodológicos).

DOS PERSPECTIVAS POSIBLES EN EL ANALISIS DE LOS PARADIGMAS      

            Arriba se dijo que las revoluciones científicas (y, en este caso, las confrontaciones de enfoques investigativos) podían verse ya sea como sucesos, ya sea como procesos. En el primer punto de vista, de carácter histórico, des­criptivo e inductivo, se parte de examinar cómo, a través del tiempo, las propuestas científicas van sucediéndose unas a otras por la vía del choque insurgente inesperado y desplazador: ... Þ Tolomeo Þ Copérni­co Þ Galileo, Kepler, Newton Þ Einstein Þ ... Se termina definiendo una estructura subyacente de sucesos (como aquélla de  CIENCIA NORMAL1 Þ CRISIS Þ REVOLUCION Þ CIENCIA NORMAL2  Þ CRISIS Þ REVOLUCION Þ CIENCIA NORMAL3, y así sucesivamente) y caracterizando cada una de las tendencias que han ido apareciendo en la cadena histórica (positivismo, fenome­nología, etc.). Este punto de vista se halla suficientemente desarrollado en múltiples trabajos (véase p. ej. Dendaluce, 1989, en general) y no parece haber conducido, hasta el momento, a una solución curricular unificada. En otras perspectivas de análisis, como la que sigue, podría haber, tal vez, más ofertas de solu­ción.

      En el segundo punto de vista, de carácter explicativo, se comienza por suponer que las confrontaciones de paradigmas, más allá de su apariencia de sucesos históricos más o menos particu­lares y más o menos parecidos entre sí, obedecen a un proceso universal en el que intervienen siempre, en distintos esquemas de interrelación, unos mismos factores generativos, de tal modo que la cadena de confrontaciones en el eje histórico no tiene la forma de una secuencia lineal sino, más en el fondo, la forma expansiva de una espiral donde cada uno de los puntos de las curvas se correlaciona con otros puntos ubicados en una misma de las coordenadas que describen toda la espiral. Queda entonces por indagar cuáles son esos factores generativos del proceso, aqué­llos que conforman las coordenadas de la espiral. Si echa­mos mano de los tradicionales análisis filosóficos, recordaremos que el viejo marxismo ortodoxo (ubicado, por cierto, en este segundo punto de vista), solía explicar este tipo de contradic­cio­nes (léase ’confrontaciones de paradigmas ’) mediante dos factores muy generales: idealismo vs materialismo. Pero, buscando una explicación menos general y siempre dentro del análisis gno­seoló­gico tradicional, podemos intentar una propuesta según la cual las confrontaciones científicas y los enfoques investigati­vos tienen una base de generación en combinaciones elaboradas a par­tir de tres ejes dicotómicos: (a) empirismo vs racionalismo, (b) realismo vs idealismo y (c) dogmatismo vs escepticismo. Si combi­namos los valores de estos tres ejes, obtendríamos ocho combina­ciones posibles (serían infinitas combinaciones si supu­siéramos valores continuos entre los dos polos de cada eje, lo cual sería más "verosímil" teóricamente, pero menos manejable en la prácti­ca):

 i) empirista-realista-dogmático

ii) empirista-realista-escéptico

iii) empirista-idealista-dogmático

iv)empirista-idealista-escéptico

v) racionalista-realista-dogmático

vi) racionalista-realista-escéptico 

vii) racionalista-idealista-dogmático

viii) racionalista-idealista-escéptico

      No es difícil, para los expertos en filosofía e historia de la ciencia, identificar estos ocho tipos de enfoques en el curso de las investigaciones científicas y filosóficas desde la Grecia antigua hasta la época actual. Los estudiantes y noveles podrían también hacerlo si se les describe cada uno de los tres ejes en referencia. La siguiente es una descripción aproximada y vulgar que luego podría ser ampliada y precisada (nótese, al menos desde este punto de vista, la necesidad curri­cular de asignaturas en filosofía de la ciencia y epistemología en general (véase, entre otros, Bunge, 1981)):

(a1) EMPIRISMO: el conocimiento fiable se produce y se valida a partir de los datos recogidos por vía sensorio-perceptiva en aquellas situaciones en que típicamente ocurren los eventos estu­diados (ejemplo: conducir bajo efectos del alcohol produce acci­dentes de tránsito, ya que así lo muestran las estadísticas de accidentes y/o las experiencias de cualquier persona).

(a2) RACIONALISMO: el conocimiento fiable se produce y se valida a partir de las cadenas de pensamiento y de los mecanismos de razonamiento controlado (ejemplo: conducir bajo efectos del alco­hol debe producir accidentes de tránsito, ya que, comparadas las características de las sustancias alcohólicas con las de la neu­rofisiología humana y con las del funcionamiento mecánico-vial del automóvil, se deduce que aquellas sustancias distorsionan las reacciones neurofisiológicas ante los requerimientos críticos del funcionamiento mecánico-vial).

(b1) REALISMO: las realidades que son objeto del conocimiento humano existen en sí mismas, independientemente de las personas y del sujeto que trate de conocerlas. El mundo exterior no se modi­fica por lo que las personas piensen de él, sino que sigue su propio curso aunque el ser humano lo interprete de diversas maneras (ejemplo: al estudiar las relaciones entre el alcohol y los accidentes de tránsito, debe excluirse cualquier ingerencia de las condiciones personales, tanto del investigador como de los sujetos investigados y de los sujetos sociales en general, en la descripción y explicación de los hechos; cualquier ingerencia de este tipo constituye un sesgo importante que tiende a mostrar la realidad no como es en sí misma sino como la ven las personas).

(b2) IDEALISMO: las realidades objeto de conocimiento pueden o no existir en sí mismas, lo cual es irrelevante. Lo importante, en cuanto objeto de conocimiento, es la reconstrucción mental que, a nivel de simbolismos socioculturales compartidos colectivamente, hacen de dichas realidades los miembros de una sociedad determi­nada en un momento histórico determinado. Poco importa la reali­dad como es en sí misma, ya que, como tal, la gente no interactúa con ella; importa en cuanto representación simbólica o construc­ción psico-social, que es el modo en que la gente interactúa con ella: las personas no actúan frente al mundo tal como éste es sino tal como ellas lo ven (ejemplo: en el caso de la relación entre el alcohol y el tránsito, son muy importantes los datos provenientes de la interpretación que tengan los sujetos acerca de dicha relación, es decir, más interesa plantear una relación entre el contexto simbólico sociohistórico, el alcohol y el tránsito automotor, antes que una relación parcializada y descontextualizada entre los dos últimos elementos).

(c1) DOGMATISMO: el ser humano es capaz de alcanzar verdades estables y unívocas; por tanto, la investigación debe aspirar a resultados que sean sin más verdaderos o falsos. Las verdades son tales independientemente de las épocas y espacios, de las creencias y opiniones (ejemplo: si se ha logrado determinar una relación significativa entre alcohol y accidentes y si este logro ha sido garantizado por los sistemas de investigación, no hay por qué seguir replanteándolo ni discutiéndolo: es una verdad esta­ble).

(c2) ESCEPTICISMO: no existen las verdades absolutas ni definiti­vas. Sólo existen aproximaciones que pueden ir ganando en "vero­similitud" y en grados de certidumbre con respecto a otras apro­ximaciones rivales. Los conocimientos no se verifican sino que sólo pueden desecharse. Ningún conocimiento plausible pasa de ser una "verdad-por-ahora". Las verdades se mantienen sólo provisio­nalmente, mientras funcionen y mientras no surjan hechos que la contradigan (ejemplo: las teorías que expliquen adecuadamente la relación alcohol-tránsito serán tomadas en cuenta sólo en una trayectoria evolutiva, a lo largo del curso de los hechos, y serán evaluadas en la expectativa de nuevos hechos posibles y bajo comparación con otras teorías rivales). Mientras la propuesta del marxismo ortodoxo (idealismo vs materialismo) parecía demasiado general, esta última propuesta de ocho combinaciones obtenidas desde tres ejes puede parecer dema­siado sutil, al menos para los efectos operativos de las solucio­nes curriculares. Podríamos entonces analizar más en amplitud y en contextualización estos tres ejes básicos (preservándolos como hipótesis nuclear inicial) e ir más allá de ellos en busca de un punto intermedio entre lo general y lo detallado. Es lo que se expone en el siguiente subtítulo, siempre a manera de propuesta dentro de un programa de formación de investigadores en ciencias so­ciales.

CATEGORIAS EN LA CONFORMACION DE UN PARADIGMA      

   Los tres ejes anteriores sólo son taxonomías tradicionales dentro de los análisis filosóficos. En sí mismos son tan poco explicativos que uno puede preguntarse cuáles factores, a su vez, subyacen al empirismo, al racionalismo, etc., es decir, a los ocho tipos propuestos antes. Si admitimos, como principio teórico inicial, que todo proceso de investigación o de producción de conocimientos es, sucesivamente, una ACCION, una SEMIOTICA y un TEXTO (Padrón, 1991), entonces es posible deducir al menos cinco categorías o criterios en función de los cuales se producen los ocho tipos anteriores. Pero, más en general, estas categorías se orientan a reducir la conformación de enfoques investigativos a sólo tres grandes tipos. Considérense las  cinco cate­gorías si­guientes (sus nombres son muy provisionales):

A) ESTILO DE PENSAMIENTO: dado que la producción de conocimientos no pertenece sólo a la ciencia sino también al individuo en el plano de su vida cotidiana (conocimiento del sentido común, según la lite­ratura corriente (Popper, 1982)), los individuos se diferencian unos de otros, entre otras cosas, por un estilo pecu­liar y siste­mático de buscar respuestas a las incógnitas que se formulan. A la hora de pasar al plano de la ciencia, este estilo es reelaborado y transferido como enfoque gnoseológico y operati­vo, ya que la ciencia es un plano de mayor elaboración de las mismas habilidades y competencias comunes (cotidianas, primitivas o ingenuas) del ser humano. Si se lograra tipificar esos estilos de búsqueda de respuesta, se tendrían, respectivamente, varias con­formaciones "paradigmáticas". A la luz de aquellos tres ejes tomados de las taxonomías filosóficas tradicionales, pueden pro­ponerse tres estilos de pensamiento suficientemente diferen­cia­dos:

A1) Estilo SENSORIAL: busca respuestas valiéndose de las percep­ciones de sus sentidos y partiendo de las evidencias encontradas en el mundo directamente observable.

A2) Estilo INTUITIVO: busca respuestas en instrospecciones subje­tivas, valiéndose de la capacidad de intuir soluciones.

A3) Estilo RACIONAL: busca respuestas valiéndose de razonamientos encadenados cuyas conclusiones son comparadas con la realidad.

B) ORIENTACION CONTEXTUAL: los eventos de la realidad suelen ser estructurados o reconstruidos (Piaget, 1975) por la mente humana según orientaciones diferentes, correlacionadas con aquellos aspectos de ocurrencia o manifestación del evento que resulten más ostensiblemente relevantes para el ser humano de acuerdo a sus rasgos individuales junto a los rasgos de un con­texto socio­cultural. Por razones análogas a las de A, estas orientaciones son también reelaboradas y transferidas al plano de la búsqueda científica, pudiendo determinar conformaciones de "paradigmas".

B1) Orientación a estructuras de COSA: la realidad es estructura­da en términos de objetos o productos terminados, estáticos, que mantienen entre sí diversas interrelaciones. No se atiende al eje evolutivo, temporal e histórico que condiciona la existencia y naturaleza de esos objetos, así como sus interrelaciones. Un ejemplo muy ilustrativo está en las ciencias taxonómicas de comienzos de siglo (la lingüística estructural bloomfieldiana, p. ej., se preocupaba por caracterizar las "partes" del discurso a diversos niveles de relaciones paradigmáticas y sintagmáticas: nombres, artículos, verbos, etc.; la botánica se preocupaba por sistemas tipológicos: fanerógamas, criptógamas, etc.), en que los hechos bajo estudio se concebían sólo como "productos", dejando de lado sus condiciones de "producción".

B2) Orientación a estructuras de SUCESO: los aspectos de ocurren­cia o manifestación de la realidad que resultan llamativos son aquéllos que responden a sus condiciones espaciotemporales. Los eventos son estructurados en términos históricos y psicosocioló­gicos y no en cuanto objetos estáticos, pero sin trascender desde el ámbito de singularidad del suceso hasta los esquemas universa­les que funcionan como estructuras generativas constantes (un ejemplo ilustrativo está en la antropología y sociología etnome­todológicas recientes: los ritos en la tribu x, las formas de parentesco en la cultura z, el saludo en la etnia w, etc.).

B3) Orientación a estructuras de PROCESO: la realidad circundante es estructurada en términos no de productos u objetos ni tampoco de transcursos dinámicos singulares, sino de esquemas generativos universales. Cada evento, cada objeto del mundo es reconstruido en atención a los mecanismos sistemáticos que lo producen, los cuales resultan ubicados en un plano abstracto que sobrepasa los límites espaciotemporales y desde el cual se establecen vías o nexos especícicos para su asociación con cada caso singular. Por ejemplo, mientras en la lingüística de comienzos de siglo las frases u oraciones se examinaban en busca de patrones y regulari­dades taxonómicas, en la lingüística transformacional lo que se examinaba era el sistema de la actividad de todo hablante, siste­ma que hace posible la producción de frases y que permite discri­minar entre frases correctas e incorrectas.

C) EL LENGUAJE: toda producción de conocimientos implica un códi­go de representación de la realidad que está siendo conocida, es decir, un vehículo sistemático a través del cual se expresen (para sí mismo y/o para los demás) las reconstrucciones mentales del mundo. No es sólo un lenguaje social, sino también un lengua­je mental, cognitivo o de pensamiento. Los diversos tipos de lenguaje a través del cual se piensa y se conoce deberían, hipo­teticamente, constituir variables diferenciales en la conforma­ción de enfoques investigativos:

C1) Lenguaje NUMERICO-ARITMETICO: la realidad que está siendo conocida se representa o expresa a través de los sistemas de conteo y medición (suma, resta y división, incluyendo sus formas más complejas, como las descripciones estadísticas, p. ej.).

C2) Lenguaje VERBAL: la realidad objeto de conocimiento se repre­senta mediante reglas y estructuras verbales.

C3) Lenguaje LOGICO-FORMAL: la base de representación de la rea­lidad son los sistemas formales como los de la lógica simbólica y la matemática en general (que va bastante más allá de lo numéri­co o aritmético y que permite también el cálculo de propiedades y relaciones "cualitativas").

D) VIA DE CONOCIMIENTO: uno de los principios de más antigua y común aceptación es que los conocimientos suelen producirse a través de dos alternativas: la inducción y la deducción. El punto de vista de esta distinción está en considerar que los conocimientos mejor elaborados (sean individuales o científicos) consisten en estructuras generales y abstractas que abarcan una gran cantidad de casos singulares del mundo real (familias empíricas "isomórficas") y que están dotadas de especiales mecanismos de conexión para ser aplicadas a cualquiera de los casos singulares. Sobre esa base surge la distinción entre esas dos vías alternativas para construir conocimientos, entendidos como representaciones generales y abstractas:

D1) Via INDUCTIVA: si los casos singulares se consideran como clases de cosas o hechos, relacionados entre sí en virtud de ciertas propiedades comunes, una alternativa para representarlos es examinarlos todos o una parte significativa de ellos para determinar regularidades, explicaciones de las mismas y esquemas generalizados que con el tiempo se van reajustando o sustituyendo de acuerdo a lo que vaya resultando de sus confrontaciones con la realidad. En síntesis, el conocimiento obtenido inductivamente es aquél que se fundamenta en generalizaciones progresivas partiendo de los casos singulares.

D2) Via DEDUCTIVA: una vez en contacto con los casos particulares y con aquellos datos que permiten ubicar un contexto de búsqueda y formular una incógnita, se adelanta directamente, y a modo tentativo, una representación general y abstracta de los hechos, tal que sea posible ir haciendo concreciones progresivas hasta llegar a los casos singulares. Mientras en la inducción el conocimiento se logra mediante un proceso creciente de generalización, partiendo de los casos o muestras de casos, en la deducción el proceso de generalización es decreciente, partiendo de suposiciones audaces (Popper, 1962), de gran amplitud, abs­tracción y generalidad, hasta los hechos específicos.

E) REFERENCIAS DE VALIDEZ: todo conocimiento, sobre todo cuando de él dependen decisiones riesgosas y acciones de interés vital, ha de ser susceptible de crítica o de juicios de validez y, a su vez, toda crítica y toda validación exige referencias. La natura­leza de las referencias que se adopten como sustentación de jui­cios de validez varía de uno a otro individuo o grupo de indivi­duos, lo cual puede verse como un criterio adicional de conforma­ción de "paradigmas".

E1) Referencias situadas en el OBJETO UNIVERSAL: el mundo objeti­vo, perfectamente diferenciado del sujeto cognoscente, es el ámbito de validación de todo conocimiento. Este era o no verda­dero por relación con las cosas de la realidad, la cual se supone univocamente percepible bajo parámetros universales, o sea, independientes del punto de vista individual.

E2) Referencias situadas en el SUJETO SOCIOHISTORICO (temporal): las redes de simbolismos socioculturales típicos de aquel ámbito espaciotemporal donde interactúan los sujetos cognoscentes cons­tituyen la base de sustentación de la crítica. Dado un conoci­miento, su valor de adecuación dependerá del grado de CONSENSO o acuerdo entre los sujetos adscritos al contexto de producción de ese conocimiento (consenso que, a su vez, reproduce los signifi­cados compartidos socioculturalmente).

E3) Referencias situadas en el SUJETO UNIVERSAL: el concepto de estructuras de proceso, reseñado antes, conduce a identificar ciertos factores de universalidad en la noción de sujeto, de tal modo que, en vez de concebir sujetos cognoscentes temporales (que nacen y mueren en un lapso irrepetible), se conciben sujetos trascendentes en virtud de estructuras cognitivas constantes y de reglas estables de pensamiento (como las de la lógica). Dentro de esta orientación, se reconoce que la realidad en sí misma puede no ser unívoca (objeto universal) y que el concepto de objeti­vidad, en el sentido de los positivistas de Viena, es indefendi­ble; pero, por otra parte, se desconfía también del sujeto tem­poral (captado como suceso), el cual no garantiza cono­ci­mien­tos fiables, ya que la fiabilidad del conocimiento exige una independencia, al menos relativa, del lugar y momen­to históricos (so pena de caer en la inconmensurabilidad de las teorías, admitiendo que éstas sólo pueden ser adecuadas en relación con una época). Ante la insatisfacción por el objeto universal y por el sujeto sociohistórico, se postula el concepto de inter­subjetividad (Popper, 1982), según el cual se establece como referencia de crítica aquél sistema de racionalidad universal que, más allá de épocas y geografías, vincula entre sí a los seres humanos en torno a reglas de pensamiento y a convenciones de procesamiento de la realidad circundante.

IDENTIFICACION DE TRES PARADIGMAS BASICOS

     Vimos hasta aquí cinco categorías, cada una con sus respec­tivas variaciones, que podrían explicar aquellos ocho tipos de enfoques investigativos mencionados antes, y que ahora podrían tomarse en cuenta para distinguir varias configuraciones nítidas entre "paradigmas". Pero, a diferencia de la técnica combinatoria usada antes a propósito de los ocho tipos, esta vez relacionare­mos entre sí las variaciones que pertenecen a distin­tas categorí­as. Dicha relación responde a exigencias de coherencia entre las selecciones que pueden hacerse dentro de una y otra categoría, a tal punto que la elección de una variación dentro de la catego­ría A (elección de A1, por ejemplo) obliga a la elección de una sola variación correspondiente dentro de las categorías subsi­guientes (B1, C1, D1 y E1, en este caso) y no de otra. Estas relaciones de coherencia están dadas en el cuadro 1.

            Tomando en cuenta las relaciones de coherencia epistemológi­ca entre las variaciones de unas y otras categorías, tal como se muestran en el CUADRO 1, tendremos entonces TRES enfoques inves­tigativos elementales, descritos según cinco criterios cuyas variantes son coherentes entre sí:

1) EL ENFOQUE EMPIRICO-ANALITICO, también conocido como "positi­vista", "pragmatista", etc., marcado por un estilo de pensamiento sensorial, por una orientación concre­ta-objetiva hacia las "co­sas", por un lenguaje numérico-aritmético, por una via inductiva y por unas referencias de validación situadas en la "realidad objetiva".

 

A) PENSAMIENTO

B) ORIENTACION

C) LENGUAJE

D) METODO

E)VALIDACION

1

 Sensorial

Hacia cosas

Numérico

Inductivo

Objeto universal

2

Introspectivo

Hacia sucesos

Verbal

Inductivo

Sujeto temporal

3

Racional

Hacia procesos

Lógico

Deductivo

Sujeto universal

1= Enfoque Empírico-Analítico

2= Enfoque Crítico-Interpretativo-Sociohistórico

3= Enfoque Racionalista Crítico

CUADRO 1: COHERENCIA ENTRE VARIACIONES DE CATEGORIA 

2) EL ENFOQUE SOCIOHISTORICISTA, también conocido como "fenomeno­lógico", "hermenéutico", "naturalista", "interpretativo", etc., marcado por un pensamiento "intuitivo", una orientación vivencial hacia los "sucesos", un lenguaje verbal, una vía inductiva y unas referencias de validación situadas en los simbolismos sociocultu­rales de un momento-espacio ("sujeto temporal").

3) EL ENFOQUE RACIONALISTA, también conocido como "hipotético-deductivo", "teórico de base empírica", "teórico-analítico", etc., marcado por un pensamiento racional, una orientación hacia lo abstracto de los procesos, un lenguaje lógico-matemático, una via deductiva y unas referencias de validación situadas en la intersubjetividad racional universal.

¿EXISTEN LOS PARADIGMAS “CUANTITATIVO” Y “CUALITATIVO”?

     Con lo dicho hasta aquí, si es que se ha logrado la claridad y simplicidad esperadas, se dispone ya de elementos para respon­der a esta pregunta. La dicotomía cuantitativo/cualitati­vo (Alvira, 1983) no sólo se revela como una distinción desafor­tuna­da por los efectos de confusión o desorientación que hasta ahora ha causado a nivel curricular, sino que además encierra imperdo­nables inexac­titudes históricas e inadmisibles errores filosófi­cos, por lo cual todo programa de formación de investiga­dores debería excluirla. Entre muchos otros argu­mentos (véase p. ej. Ibáñez, 1988), consideremos solamente los dos que siguen.

     Un primer argumento es que la dicotomía en cuestión aisla, en un único sitial, a la postura fenomenológica (fila 2, en el cuadro 1), mientras mezcla en otro sitial a dos posturas que entre sí son radicalmente distintas: el positivismo (fila 1) y el racionalismo (fila 3). Lo absurdo de esta división radica en dos confusiones: la primera, de orden histórico, es que el enfoque empírico-analítico (positivismo, empirismo lógico, etc.) pertene­ció al Círculo de Viena (y, cuando mucho, a la received view o "concepción heredada"), cuya influencia comenzó en los años ’20 y terminó, precisamente por los cuestionamientos del racionalismo popperiano y los logros racionalistas de la física cuántica, en los años ’50, cuando se impuso definitivamente el enfoque racionalista en las ciencias naturales (y en ciertas ciencias sociales como la economía y la lingüística); así que, historica­mente, el racionalismo constituyó una revolución, un hito insos­layable, con respecto al empirismo analítico, lo cual hace imposible incluirlos dentro de una misma postura o "paradigma". La segunda confusión, de orden epistemológico, consiste en inadvertir que mucho mayor parecido hay entre el empirismo analítico y el sociohistoricismo (o fenomenología) que entre aquél y el racionalismo. En efecto, mientras el racionalismo no comparte con las otras dos posturas ninguno de los aspectos gno­seológicos (véanse las coincidencias en el cuadro 1), en cambio el empirismo analítico y el sociohistoricismo comparten entre sí un aspecto de enorme peso: ambos manejan la via de la inducción; ambos recurren al proceso de generalizaciones progresivas a partir de los casos singulares, uno porque se acerca a los ámbitos de ocurrencia mediante instrumentos de registro estructu­rados y el otro porque se acerca a los escenarios mediante instrumentos de registro no estructurados. Mientras sólo se diferencian significativamente por el tratamiento de datos (len­guaje aritmético vs lenguaje verbal) y por las concepciones de la realidad (realismo vs idealismo), comparten casi estrictamente el mismo proceso de producción de conocimiento sobre la base de la inducción, elemento que pesa demasiado como para establecer la dicotomía en referencia.

     El segundo argumento tiene que ver con los conceptos de cantidad y cualidad. Se supone que la dicotomía entre investigación cuantitativa e investigación cualitativa radica en que la primera cuantifica y la segunda califica, o sea, en la oposición entre CANTIDAD y CUALIDAD. Pero ¿hay realmente una disyuntiva entre estos dos conceptos? ¿Es cierto que el trata­miento de cantidades excluye el tratamiento de cualidades? ¿Es que a las ciencias de la naturaleza les toca cuantificar mientras a las ciencias del espíritu les toca calificar? ¿No será, en cambio, que hay un modo de cuantificar VERBALMENTE y otro modo de cuantificar LOGICOMATEMATICAMENTE, mientras, paralelamente, hay también un modo de calificar VERBALMENTE al lado de un modo de calificar LOGICOMATEMATICAMENTE? Si la respuesta a esta última pregunta es afirmativa, entonces sólo se trataría de una dife­rencia de lenguaje (que sería irrelevante), pero no de una disyun­tiva epistemológica. De hecho, el lenguaje lógico-matemático no prevé solamente números, conteos y cuantifi­caciones: existe, por ejemplo, una matemática DISCRETA, que se refiere a aspectos no numéricos (no continuos) y existe también una lógica de CUALI­DADES, que se refiere precisamente a rela­ciones no numerables (sin hablar de las lógicas polivalente y difusa, capaces de englobar esas "tendencias" y "misterios" típi­cos de la acción humana en contextos socioculturales "imposibles de definir").

     La dicotomía cuantitativo/cualitativo, siempre dentro de este segundo argumento, parece confundir una disyuntiva epistemo­lógica con una disyuntiva lingüístico-semiótica. En realidad, no hay producción de conocimientos que solamente aborde cantidades excluyendo las cualidades ni viceversa. El mundo contiene aspectos cuantitativos indisolublemente mezclados con aspectos cualitativos, de tal modo que resulta imposible reconstruirlo atendiendo sólo a uno de ambos aspectos. La única diferencia está en el lenguaje. Podemos decir, por ejemplo, algo como:

          1. Los explotadores son una minoría; los explotados son las grandes masas.

          2. Los docentes autoritarios hacen que sus alumnos no rindan.

Pero podemos también decir algo así como:

          3. x R y, /x Î A, y Î B,  Card A < Card B, (los x explo­tan a los y, tal que x es miem­bro de A, y es miembro de B, el conjunto A es cardinalmente menor que el conjunto B;).

          4. (Da & Aa & Eab) ® ~Rb  (si a es Docente, si a es Autoritario y si a Enseña a b, entonces no es cierto que b Rinde.

     Si asumimos la dicotomía en referencia, diríamos que los enunciados 1 y 2 pertenecen a una investigación cualitativa, mientras que 3 y 4 pertenecen a una investigación cuantitativa. Pero esto es totalmente erróneo, ya que la noción de cantidad está tratada en los enunciados 1 y 3, mientras que la noción de cualidad está siendo manejada en los enunciados 2 y 4. Lo único que diferencia a 1-2 de 3-4 es que en el primer par se usa el len­guaje verbal, mientras que en el segundo se usa el lenguaje lógi­co. Pero ¿es esta diferencia de lenguaje adecuada a la dis­tinción cantidad/calidad? ¿Pesa más una diferencia de len­guaje (lógico­matemático vs verbal) sobre una diferencia de métodos (induc­tivo vs de­ductivo) a la hora de hacer distinciones relevan­tes?

          En las investigaciones llamadas cualitativas suele emplearse la técnica del estudio de casos y muchas veces, al terminar el procesamiento de datos en un caso, suelen formularse mecanismos que hagan posible la transferencia de los resultados del caso hacia los demás casos dotados de las mismas caracterís­ticas. Esto, por más que esté formulado en lenguaje verbal y bajo parámetros sociohistóricos, no se diferencia sustancialmente de los conceptos estadísticos de muestra y po­blación, típicos de lo que se insiste en llamar investigación cuantitativa. Una vez más, la diferencia está en el lenguaje del tratamiento de los datos, pero no en el método de representación. Si sólo se trata, en el fondo, de una diferencia de lenguaje pero no de via de conocimiento, entonces no se justifica la distinción entre inves­tigaciones cuantitativas y cualitativas, especial­mente cuando se olvida algo que, en general, pasó inadvertido a las ciencias sociales: el paradigma RACIONALISTA.

     En todo caso, no se trata de defender o promover el enfoque racionalista en ciencias sociales, ni ningún otro en particular. Sólo se trata de hacer ver dos cosas que inciden radicalmente en un programa de formación de investigadores y que pueden conducir a bases de acuerdo operativo ante el agotamiento de discusiones epistemológicas: una, que la ubicación del investigador en un enfoque específico es lo que determina las "reglas del juego", lo que justifica y da coherencia al esquema lógico del trabajo y lo que permite establecer referencias con respecto a posibles líneas de investigación; otra, que la identificación correcta de los posibles enfoques investigativos, libre de errores, confusiones e ignorancias y dotada de la mayor capacidad explicativa posible, es una condición preliminar y una necesidad vital no sólo para la selección de estructuras investigativas (según la primera base de acuerdo que acaba de señalarse), sino también para el control de los logros de conocimiento en función de los proyectos sociales y las tomas de decisión. Es en atención a estas dos cosas en que se ha querido proponer aquí un conjunto de observaciones que podrían ser útiles para una discusión en torno a la necesaria unificación curricular y para una orientación práctica a los estudiantes que sufren apuros epistemológicos a la hora de planificar su "tesis".

 

REFERENCIAS

Abbagnano, N. (1986): Diccionario de Filosofía. México: FCE Alvira, F. (1983): Perspectiva Cualitativa-Perspectiva Cuantita­tiva en la Metodología Sociológica, en Reiss, 22, pp53-75

Bunge, M. (1981): Epistemología. Barcelona: Ariel

Dendaluce, I (1989): Aspectos Metodológicos de la Investigación Educativa. Madrid: Narcea.

Ibáñez, J. (1988): Cuantitativo/Cualitativo, en Reyes R.: Terminología Científico-Social. Barcelona: Anthropos.

Kuhn, T. (1975): La Estructura de las Revoluciones Científicas. México: FCE

 _________ (1978): Segundos Pensamientos sobre Paradigmas. Madrid: Tecnos

Lakatos, I. (1983): La Metodología de los Programas de Investiga­ción Científica. Madrid: Alianza.

Padrón, J. (1991): Patrones en Investigación Educativa. Informes de investigación. Caracas: USR (mimeo).

Piaget, J. (1975): Introducción a la Epistemología Genética. Buenos Aires: Paidós. 3 vol.

Popper, K. (1962): La Lógica de la Investigación Científica. Madrid: Tecnos

 __________ (1982): Conocimiento Objetivo. Madrid: Tecnos.

Saussure, F. (1969): Curso de Lingüística General. Buenos Aires: Losada.

 

 

Tendencias Epistemológicas de la Investigación Científica en el Siglo XXI

Tendencias Epistemológicas de la Investigación Científica en el Siglo XXI
Epistemological Trends in 21st Century Scientific Research

Dr. José Padrón (josepadrong@fundacionlineai.org) Universidad Simón Rodríguez (Caracas, Venezuela)

 http://investigacioneinnovacioneneducacion.blogspot.com/2007/09/tendencias-epistemolgicas-en-el-siglo.html

 

Abstract

Recent trends in epistemology of science and of scientific research are discussed in this paper, under an explanatory view that considers them as observational variations occurring in a timeline, generated from a few underlying ahistorical and pretheoretical frames called “epistemological approaches”, isomorphically as the known differences between “surface” and “deep” structures or between “type” and “token”, etc. Within this hypothetical assumption avoiding a merely narrative or historical description and within some other criteria, firstly an essential reference, the epistemology of science between 1920 and 1990, is characterized as the key for understanding variations and trends that take place during the last 16 years in the development of epistemology of science. In the second main part, recent trends are discussed and explained. A more general and deeper view concerning the applicability of epistemology to the everyday practice of research is stressed in the concluding section.

Key words: theory, research, scientific knowledge, trends, applications.

Resumen

En este documento se discuten las recientes tendencias de la epistemología (entendida como teoría de la ciencia y de la investigación), desde un punto de vista explicativo que las considera como variaciones observacionales que aparecen en un cierto lapso, pero que son generadas por marcos subyacentes de carácter ahistórico y preteórico, llamados “enfoques epistemológicos”, de modo isomórfico a las conocidas diferencias entre estructuras “superficial” y “profunda” o entre “type” y “token”, etc. Dentro de esta presuposición hipotética, alejada de una descripción meramente narrativa o histórica, y dentro de algunos otros criterios, en la primera parte se caracteriza una referencia esencial, el período entre 1920 y 1990, como clave para entender las variaciones y tendencias en los últimos 16 años de desarrollo de la epistemología. En la segunda parte se discuten y explican esas tendencias recientes. En la última sección se hace énfasis en una visión más general y profunda que tiene que ver con la aplicabilidad de la epistemología a la práctica cotidiana de la investigación.

Palabras Clave: teoría, investigación, conocimiento científico, tendencias, aplicaciones.

Recibido el 30 Ene 2007

Aceptado el 26 Feb 2007

Introducción

El objetivo de esta exposición es discutir las recientes tendencias en el desarrollo de la epistemología, atendiendo al surgimiento de nuevos problemas, al replanteamiento de problemas antiguos, a las nuevas propuestas de solución y nuevas vías de exploración. Toda esta discusión de tendencias epistemológicas tiene sentido sólo dentro de un marco de continuidad, de herencias y rupturas diacrónicas, y, sobre todo, por referencia a una cierto esquema de fondo que, hipotéticamente, explica y resulta responsable del surgimiento de esas tendencias y de sus variaciones diferenciales.

Ya al formular este objetivo y, en general, al hablar de epistemología, es inevitable la toma de una postura previa, debido a las múltiples divergencias y diversidades en torno a muchos de los términos y conceptos implícitos, desde el mismo momento en que se inicia el tema. Dado que las concepciones epistemológicas son siempre dependientes de un cierto Enfoque Epistemológico, una solución es hacer referencia a las diferentes perspectivas, sin exclusiones significativas, de modo que el discurso quede ubicado dentro de una cierta postura que pueda ser evaluada frente a otras. Así, por ejemplo, aquí queda identificada una toma de posición respecto a qué es epistemología, cuál es su estatuto disciplinario en cuanto área del saber y cuál es su objeto de estudio. Pero al lado de esa posición, también se describen otras diferentes, de modo que los usuarios puedan evaluar  esas diferencias.

Por esta razón, entre otras, las intenciones de esta exposición no están concebidas en un sentido dogmático ni se pretende en modo alguno sentar cátedra o definir seguridades. Todo lo dicho aquí tiene más bien un sentido hipotético, conjetural, de planteamientos que puedan ser discutidos, criticados y evaluados, siempre dentro de una función didáctico-aplicativa que pueda servir de aporte para el mejoramiento de los procesos investigativos universitarios en el seno de los programas de postgrado. Por eso se puso un empeño particular en proveer la mayor cantidad posible de referencias bibliográficas, de manera que el usuario tenga la opción de validar y continuar por sí mismo las ideas aquí tratadas.

Al hablar de “tendencias recientes”, y a pesar de que el título menciona al siglo XXI, se hace hincapié en el lapso comprendido entre 1990 y el 2006, pero tomando como referencia la trayectoria inmediatamente anterior, ubicada entre 1920 y 1990, sin cuya mención sería imposible entender esas “tendencias recientes”. La razón es que resulta imposible comprender las tendencias del siglo XXI sin considerar sus antecedentes en el tiempo. No se harán mayores referencias a las épocas previas al siglo XX, sin negar su importancia y su fundamental influencia. Por razones obvias, estos datos deberán quedar sobreentendidos en el marco de las presuposiciones de esta exposición.

En la primera sección se presentan algunas propuestas conceptuales básicas, algunas definiciones provisionales y determinados criterios para el análisis de tendencias epistemológicas, los mismos que permiten salir de un tratamiento meramente histórico-descriptivo de dichas tendencias para entrar en un marco explicativo de las mismas. En realidad, el objetivo de esa primera sección es ofrecer una herramienta con la cual no sólo podamos dar cuenta de las variaciones de tendencias en el lapso entre 1990 y 2006, sino también en cualquier otro lapso, de modo que podamos también hacer proyecciones más o menos acertadas sobre el desarrollo futuro de la epistemología.

En la segunda sección se trabaja una referencia fundamental, que es el desarrollo de la epistemología entre 1920 y 1990, es decir, entre el surgimiento del llamado Círculo de Viena y luego la fecha aproximada en la que parece cerrarse un importante ciclo de desarrollo y definiciones de los Enfoques Epistemológicos básicos que subyacen a la diversidad de tendencias en el planteamiento y tratamiento de objetivos y problemas (la hipótesis sobre la relación entre Enfoques Epistemológicos y variaciones observables de tendencias históricas queda planteada en la primera sección).

En la tercera sección, tomando como referencia lo tratado en la anterior, se discuten los principales tópicos, problemas, tratamientos y corrientes que han tenido vida en los últimos 20 años. Se examinan algunas ‘nuevas epistemologías’ y se expone la evolución reciente de algunos tratamientos divergentes en torno a problemas clave.

Para terminar (cuarta sección), se discuten algunos elementos que podrían ser útiles para una evaluación de los estudios en epistemología, más unas consideraciones acerca de la aplicabilidad de la epistemología en el terreno de la práctica académica y de la promoción de la investigación.

Finalmente, hay una aclaratoria necesaria respecto al título: se habla de “epistemología de la investigación científica”, lo cual sería redundante para quienes conciben la epistemología como teorización acerca de la ciencia, que es el caso aquí, como se explicará más adelante. Pero la redundancia deja de serlo para quienes conciben la epistemología como filosofía del conocimiento en general, no sólo del conocimiento científico.

1. Marco de Análisis

1.1. Conceptos básicos

Hay un acuerdo mínimo generalizado en que la epistemología tiene que ver con el conocimiento. De allí en adelante surgen no sólo las diferencias, sino también las dificultades y los problemas.

Una diferencia que vale la pena destacar es que para unos la epistemología estudia el conocimiento en general, desde un punto de vista filosófico, con lo cual el término resulta aproximadamente sinónimo de “gnoseología” (suele ser el caso en el mundo anglosajón, por ejemplo), mientras que para otros la epistemología se restringe a uno de los tipos de conocimiento: el científico (en general, suele ser el caso, por ejemplo, en Italia, Francia y Latinoamérica), con lo cual el término pasaría a ser sinónimo de las expresiones “Filosofía de la Ciencia”, “Teoría de la Ciencia”, “Teoría de la Investigación Científica”, etc. A lo largo de esta exposición se asume el segundo de estos dos sentidos del término.

Pero una dificultad de primera magnitud está en lo que podría concebirse como la paradoja de Gödel aplicada a la epistemología. Como se sabe, Kurt Gödel demostró la imposibilidad de hablar de cualquier sistema de cosas utilizando los mismos recursos internos del sistema en cuestión (es el caso célebre del mentiroso: “yo siempre miento” es una expresión paradójica). Todos tenemos determinados filtros preteóricos, precognitivos, que condicionan el modo en que conocemos y que implican ciertas preconcepciones sobre qué es el conocimiento y sobre cuáles son sus vías legítimas de producción y validación. Entonces, al hablar sobre el conocimiento, inevitablemente intervienen esos filtros y ocurre que hablamos sobre ‘conocimiento’ utilizando los mismos recursos de nuestras propias formas y procesos de conocimiento, lo cual enturbia los resultados y oscurece el asunto. Una solución clásica a la paradoja de Gödel (que se refiere al caso de los sistemas lingüísticos en general y más específicamente a los sistemas formales) está en crear un “meta-lenguaje” que nos permita hablar adecuadamente del “lenguaje-objeto” (para el ejemplo del mentiroso, podría ser algo así como “la frase ‘yo siempre miento’ es verdadera”). Pasando al caso de la paradoja epistemológica, esa solución consistiría en crear algún sistema externo que considere los distintos filtros preteóricos o precognitivos, o sea, las distintas perspectivas que condicionan nuestros propios procesos de conocimiento y que, por tanto, nos permitan hablar de éste según tal o cual perspectiva. Ese sería el único modo en que podríamos entender y manejar los debates entre, por ejemplo, las investigaciones “cualitativa” y “cuantitativa” o entre “empirismo” y “racionalismo” o entre “idealismo” y “realismo”, por sólo citar algunas divergencias. El hecho es que resulta imposible manejar cualquier tesis epistemológica sin considerar la perspectiva preteórica desde la cual fue planteada y por eso las discusiones entre perspectivas diferentes (como es el caso entre realismo e idealismo, por ejemplo) resultan lógicamente irresolubles: al estar condicionadas por esos filtros o perspectivas cuyo carácter es precognitivo (pre-racional y pre-lógico) resultan irreductibles en un plano lógico y racional. En consecuencia, la solución está en algún aparato conceptual que explique la generación de teorías del conocimiento a partir de diferentes perspectivas o filtros precognitivos. Esto resulta esencial para dar cuenta de las variaciones en las tendencias de la epistemología en cualquier lapso histórico, siempre que se desee una visión explicativa de las mismas, más allá de una visión descriptiva o anecdótica y más allá de un empeño en los debates y polémicas interminables. Más adelante, al exponer los criterios de análisis, se verá cómo esta solución se asocia a la hipótesis de los “enfoques epistemológicos”.

Un primer acercamiento al tema de las perspectivas precognitivas desde las cuales se puede hablar o teorizar acerca del conocimiento (o sea, desde las cuales se puede “hacer epistemología”), tiene su raíz en la conocida tesis de los tres mundos de Popper (1982), que a su vez puede ponerse en conexión con la anterior tesis del “triángulo de Odgens” (puede verse está conexión en Padrón 2000). Odgens había explicado el lenguaje como una estructura relacional entre tres elementos: el “Referente” (las cosas, el mundo perceptible), el “Pensamiento” (la idea o representación mental de esas cosas) y el “Símbolo” (las palabras que expresan ese pensamiento). El primer elemento remite al plano del Objeto, el segundo al plano del Sujeto y el tercero al plano de las relaciones entre Sujetos. De modo isomórfico, la tesis popperiana de los tres mundos supone esas mismas tres ‘realidades’: el mundo de las cosas objetivas (“mundo 1”, donde está todo lo que captamos con nuestros sentidos); luego, el mundo de los contenidos subjetivos (“mundo 2”, que incluye los contenidos de conciencia y de la vida interior del sujeto); y en tercer lugar, el mundo de las construcciones simbólico-culturales que trascienden al individuo para colocarse en el dominio de las sociedades (“mundo 3”, el de las ideas y representaciones colectivas, tal como la lengua, la religión, el arte, la ciencia, la ley, etc.). En el gráfico 1 se ilustra esta estructura relacional.

 

Si estas tesis fueran acertadas, entonces también podría suponerse el predominio de cualquiera de esos mundos o vértices triangulares sobre los otros dos en el modo preteórico o precognitivo en que conocemos y en que procesamos y producimos información. Es decir, podríamos imaginar una variable continua cuyos valores posibles se desplazarían hacia cualquiera de los puntos intermedios entre esos tres elementos y los cuales expresarían ciertas preferencias cognitivas (esquemas de conocimiento, manejo de información, resolución de problemas). Se tendría una primera perspectiva o postura precognitiva orientada a la percepción sensorial, al uso del poder de los sentidos y a las cosas observables (perspectiva desde el “mundo 1”). Se tendría también una segunda perspectiva o postura precognitiva centrada en los contenidos de conciencia, en la subjetividad y en el uso del poder de la intuición (perspectiva desde el “mundo 2”). Y se tendría, finalmente, una tercera perspectiva o postura precognitiva basada en los mecanismos de entendimiento colectivo, en los aparatos de vinculación con otros sujetos y en el uso del poder del razonamiento y la argumentación (perspectiva desde el “mundo 3”). Esas tres perspectivas jamás serían valores discretos ni excluyentes, sino predominios dentro de una variable continua, más o menos cercanos a alguno de esos tres mundos. Atendiendo a esas perspectivas, podemos asociar respectivamente tres variaciones importantes en las tendencias recientes de la epistemología.

En primer lugar, tenemos una perspectiva desde la cual se concibe la epistemología como Filoso­fía Analítica, siguiendo la herencia del Círculo de Viena y de la llamada “Concepción Heredada” (Received View). Esta perspectiva se caracteriza por su énfasis en la rigurosidad del análisis y por la fidelidad al programa trazado en las célebres tesis del Círculo de Viena, incluyendo la necesidad de reelaboraciones y respuestas a las objeciones lanzadas desde el falsacionismo popperiano y desde el sociohistoricismo kuhniano.

En segundo lugar, tenemos otra perspectiva desde la cual se concibe la epistemología como reflexión libre, tanto en un plano filosófico no analítico como en un plano socio-histórico, cultural, psicológico y antropológico, sin demasiadas preocupaciones acerca de los linderos entre esas áreas, sobre la base de nociones tales como el “pensamiento complejo”, el “holismo”, la “transdisciplinariedad”, la “reflexividad” o la “posmodernidad”.

En tercer lugar, hay otra perspectiva desde la cual se concibe la epistemología como ‘Meta-Teoría’ y como ciencia fáctica obligada a explicar, mediante teorías contrastables, los procesos del conocimiento científico, del mismo modo en que la biología se obliga a explicar los hechos orgánicos o en que la lingüística se obliga a explicar los hechos de lenguaje, etc.

Entender estas tres variaciones resulta sumamente importante a la hora de estudiar epistemología y de diseñar programas instruccionales, a la hora de analizar su desarrollo histórico y de aplicarla a los proyectos de investigación y a los programas de desarrollo científico-tecnológico.

En síntesis, lo que se ha querido exponer hasta aquí es que la noción de epistemología y, por tanto, la consideración de las diversas tendencias en su desarrollo histórico, no pueden ser tratadas unívocamente y ni siquiera descriptivamente, sino sólo por relación con determinadas perspectivas de fondo que generan diversidades en los modos de “hacer epistemología” y de hablar de epistemología. Entender esas perspectivas de fondo resulta vital para no extraviarse entre autores, propuestas y polémicas y, sobre todo, para organizar, explicar y evaluar las múltiples direcciones hacia las cuales se orienta el esfuerzo humano por entender el fenómeno de la ciencia, a partir de lo cual cada quien podría decidir y hacer sus propias selecciones de trabajo.

Aquí se ha propuesto, a modo de primer acercamiento, la tesis de Odgens y Popper como base conceptual para manejar esas perspectivas, pero, evidentemente, pueden imaginarse otras bases conceptuales que resulten más eficientes e, incluso, esas mismas perspectivas pueden deducirse a partir de otras tesis diferentes. En ello, precisamente, radica uno de los retos fundamentales para una teoría de la ciencia.

1.2. Criterios de análisis

Para sistematizar las variaciones en los tratamientos epistemológicos se han adoptado hasta ahora varios sistemas de clasificación y discriminación, todos los cuales se muestran insuficientes por diversas razones.

Uno de estos criterios, tal vez el más simplificador de todos, es el que distingue entre visiones cualitativa y cuantitativa. En la primera estaría ubicada la perspectiva subjetivista (“mundo 2”) y en la segunda, la perspectiva objetivista (“mundo 1”). Obviamente, queda por fuera la perspectiva intersubjetivista (“mundo 3”), con lo cual el tipo de ciencia desarrollado por Einstein, Mendeleiev, Chomsky, etc., escaparía a esa clasificación. Por tanto, o el trabajo del tipo desarrollado por estos autores no es ciencia o el sistema de análisis es incompleto. Pero en el mundo académico Einstein, Mendeleiev y Chomsky son sistemáticamente considerados como científicos. Entonces, el sistema que diferencia entre “cualitativo” y “cuantitativo” es incompleto. En realidad, la deficiencia básica de este sistema de análisis está en su presuposición dualista “subjetividad / objetividad”.

Otro de estos criterios, sumamente parecido al anterior, es el que distingue entre “Ciencias del Espíritu” y “Ciencias Materiales”. Su dificultad elemental está en la imposibilidad de establecer límites discretos entre ambas cosas. La lingüística, por ejemplo, es una “ciencia del espíritu” cuando aborda fenómenos de comunicación social, pero es una “ciencia material” cuando aborda fenómenos computacionales y lógico-formales: ¿habría que considerar dos ciencias diferentes cuando en realidad se trata de una misma teoría, sólo por el hecho de que se aplican a hechos distintos? Algo parecido podría aducirse en el caso de la clínica médica, con respecto a enfermedades “materiales” que tienen bases psicológicas (“espirituales”). ¿Cómo congeniar ambas cosas?

Tenemos también el criterio de las diferencias entre “Ciencias Empírico-Analíticas”, “Ciencias Histórico-Hermenéuticas” y “Ciencias Teórico-Críticas”. Lo único que puede distinguirse empíricamente en este sistema es la “ciencia empírico-analítica”, que constituye un mismo conjunto indiscriminado y confuso de toda la ciencia empirista y racionalista. Pero resulta imposible encontrar datos empíricos que diferencien entre “ciencias histórico-hermenéuticas” y “ciencias teórico-críticas”. Más bien, parece una discriminación “ad hoc” para resaltar el valor de ciertas perspectivas precognitivas, con total independencia de soportes empíricos. Si la historia de la ciencia se ventilara en términos de esta clasificación, el resultado sería confuso.

Ante estas dificultades, no parece posible establecer criterios de análisis de tendencias epistemológicas basados en estas clasificaciones. En cambio, se adoptará la hipótesis de los “Enfoques Epistemológicos” (resumida en Padrón 1998), según la cual las variaciones observables en los procesos de producción científica obedecen a determinados sistemas de convicciones acerca de qué es el conocimiento y de sus vías de producción y validación, sistemas que tienen un carácter preteórico, ahistórico y universal, denominados “Enfoques Epistemológicos”. Las variaciones observables generadas por estos enfoques pueden estandarizarse en “paradigmas” (en el sentido de Kuhn 1975), los cuales tienen lugar a lo largo de la historia de la ciencia y se suceden unos a otros en el control de los estándares científicos de las épocas (Ciencia Normal 1 -> Revolución 1 -> Ciencia Normal 2 -> Revolución 2 -> Ciencia Normal 3 …). Por más que estos paradigmas o “ciencias normales” puedan parecer únicos, diferentes y múltiples, en realidad sólo son manifestaciones empíricas de alguno de los Enfoques Epistemológicos. Así, por ejemplo, el paradigma de la ciencia baconiana estaría generado por el mismo enfoque epistemológico que generó al paradigma neopositivista, algunos siglos después, así como el paradigma cartesiano sería la manifestación empírica del mismo enfoque epistemológico que generó el paradigma chomskyano en la lingüística actual. Dicho de otro modo, el enfoque epistemológico vendría a ser una función que transforma determinadas convicciones de fondo, inobservables, de tipo ontológico y gnoseológico, en determinados estándares de trabajo científico, estándares asociables a las distintas comunidades académicas.

Se utilizan dos variables para sistematizar los Enfoques Epistemológicos: una es de tipo gnoseológico, referida a las convicciones acerca de la fuente del conocimiento, simplificada en dos valores: empirismo / racionalismo. La otra es de tipo ontológico, referida a las convicciones acerca de las relaciones del sujeto con la realidad, simplificada también en dos valores: idealismo / realismo. El cruce de esas variables nos lleva tentativamente a cuatro Enfoques Epistemológicos: el enfoque empirista-realista (mediciones, experimentaciones, inducción controlada…), el enfoque empirista-idealista (etnografía, diseños de convivencia, inducción reflexiva…), el enfoque racionalista-realista (abstracciones, sistemas lógico-matemáticos, deducción controlada…) y el enfoque racionalista-idealista (interpretaciones libres, lenguajes amplios, argumentación reflexiva…). En la Tabla 1 se muestran esos cruces.

Tabla 1: Variables para Clasificación de Enfoques Epistemológicos

VARIABLE GNOSEOLÓGICA

VARIABLE ONTOLÓGICA

EMPIRISMO

RACIONALISMO

IDEALISMO

Etnografía, diseños de convivencia, inducción reflexiva…

Interpretaciones libres, lenguajes amplios, argumentación reflexiva…

REALISMO

Mediciones, experimentaciones, inducción controlada…

Abstracciones, sistemas lógico-matemáticos, deducción controlada…

El estudio de cada uno de estos enfoques epistemológicos permite manejar las perspectivas o los marcos presuposicionales desde los cuales se conciben, desarrollan y evalúan los procesos  científicos, incluyendo la producción de investigaciones y, sobre todo, las tendencias en la evolución de la epistemología. Precisamente, esta hipótesis servirá, a lo largo de esta exposición, para explicar las relaciones de continuidad, y también las de ruptura, que tienen lugar en las variaciones de las tendencias epistemológicas de los últimos 16 años. En realidad, el supuesto básico de esta exposición está en que esas tendencias no son entre sí aisladas ni inconexas, sino que unas son prolongaciones de otras bajo un mismo enfoque epistemológico y otras son discontinuidades o rupturas con respecto a otras en virtud de enfoques epistemológicos diferentes. Asimismo, sobre la base de esta noción de Enfoque Epistemológico podrían también preverse las variaciones de tendencias que tendrán lugar en un futuro próximo.

Anteriormente (sección 1.1) se habló de ciertas perspectivas preteóricas, precognitivas, asociables a la tesis popperiana de los tres mundos. Nótese que esas perspectivas (o filtros) equivalen a la misma noción de “Enfoques Epistemológicos”, sólo que mientras en aquel caso se consideran tres grandes sistemas de convicciones. En este otro la discriminación es un poco más fina, ya que permite distinguir dos variaciones importantes en la epistemología interpretativista (o comprensivista, asociada a la idea de “ciencias del espíritu”), a saber, la variación experiencialista (convivencia, trabajos de campo, al modo propuesto por Alfred Schutz) y la variación reflexivista (argumentaciones, crítica sociohistoricista, al modo de Jürgen Habermas). Se trata de dos esquemas de análisis que resultan convergentes y que pueden utilizarse a conveniencia. Es lo que se hará en las secciones que siguen.

Otro criterio de análisis adoptado en esta intervención es el que se refiere a la “Estructura Diacrónica” (ver resumen en Padrón 1998), según la cual los desarrollos científicos y meta-científicos se basan en “Programas” de desarrollo progresivo (tal como en Lakatos 1978) que van más allá del individuo y, a veces, más allá de generaciones de individuos (piénsese en el programa de la gravitación, desde Newton a Einstein, por ejemplo, o en el del racionalismo, desde los griegos a la actualidad). Estos programas siguen una trayectoria temporal que comienza en una fase descriptiva (cuáles son los hechos), para luego pasar a una fase explicativa o interpretativa (según el enfoque, explicar por qué los hechos ocurren del modo en que fueron descritos o interpretar cuáles son los simbolismos subyacentes), yendo después a una fase contrastiva (evaluar las teorías elaboradas en la fase anterior), terminando en una fase aplicada o aplicativa (en que se intenta explotar las teorías ya evaluadas para el control de la realidad). En el Gráfico 2 se visualiza esta idea.

 

Este otro criterio refuerza también la idea de continuidades y discontinuidades en el tratamiento de las tendencias en los estudios epistemológicos, en el sentido de que dichas tendencias, así como los procesos científicos que son explicados por las mismas, se vinculan entre sí sobre la base de determinados “programas”.

Para concluir esta sección, conviene declarar que la exposición que sigue se apega a una concepción “naturalizada” de la epistemología (en el sentido que se explica más adelante, en 3.1.3). Es decir, se concibe esta disciplina como una teoría fáctica (meta-teoría) cuyo correlato empírico está en la historia de la ciencia y de las investigaciones científicas y cuyos resultados meta-teóricos tienden a ser insumos de una tecnología de la ciencia, en una fase aplicativa que busca más eficientes controles operativo-instrumentales sobre los procesos científicos. Una de las razones de esta toma de posición es que, así entendida, la epistemología resulta más provechosa para su aplicabilidad al terreno de la investigación universitaria

2. Referencia Esencial: La Epistemología en el Siglo XX (»1920-1990)

Aunque las actuales tendencias tienen sus antecedentes en épocas mucho más lejanas, se considerará sólo el período de las décadas centrales del siglo XX como base programática sobre la cual se emplazan dichas tendencias. En ese lapso hay, a su vez, dos hitos que vale la pena analizar por separado.

2.1. La matriz diacrónica hasta 1970, aproximadamente

Este primer hito marca un ciclo donde se completa el desarrollo paradigmático de los cuatro enfoques epistemológicos antes referidos, comenzando por el famoso Círculo de Viena, desde 1920, aproximadamente, hasta la visión hermenéutica y comprensivista de la Escuela de Frankfurt y la difusión del experiencialismo vivencialista de Schutz (investigación “cualitativa”), alrededor de 1970.

Sobre esta matriz diacrónica se ha escrito mucho y hay abundante literatura, por lo cual este examen pasará por alto los detalles ya divulgados y se limitará a una idea que no aparece en la documentación especializada y que parece interesante: este ciclo completa el recorrido desde una concepción de la ‘ciencia de los objetos observables’ (empirismo-realista, Círculo de Viena, neopositivismo, neoconductismo…), pasando a una concepción de la ‘ciencia de los objetos calculables’ o ‘pensables’ (racionalismo-realista, Einstein, Popper, Chomsky…), yendo luego a una concepción de la ‘ciencia de los objetos intuibles’ (racionalismo-idealista, hermenéutica, Teoría Crítica de Frankfurt…), hasta terminar en una concepción de la ‘ciencia de los objetos vivibles’ o ‘experienciables’ (empirismo-idealista, etnometodología, investigación cualitativa…). La idea es que en este ciclo se van definiendo los alcances que cada uno de los cuatro enfoques epistemológicos plantea para el conocimiento científico en relación con su objeto típico y legítimo y también como tarea epistemológica.

Recuérdese que una de las tesis centrales del Círculo de Viena es el empirismo: todo conocimiento proviene de los datos de los sentidos puestos en contacto con la realidad (“experiencia”). De ella se deriva otra tesis: que todo conocimiento es inductivo. En consecuencia, lo único que puede ser científicamente conocido es aquello que se ofrece directamente a la experiencia, aquello que se expone a la vía de los sentidos, caso por caso. Se define así como objeto típico y legítimo de la ciencia aquel tipo de realidades que resulta ‘observable’, desplazando todo lo demás a la esfera de la especulación o de la filosofía. En el área de las ciencias sociales, esta concepción de la ‘ciencia del objeto observable’ fue muy expresamente divulgada por el neoconductismo, en especial en sus aplicaciones a la instrucción: recuérdense las listas de verbos de “conducta observable” y las taxonomías de objetivos de aprendizaje que se imponían como norma para los diseñadores instruccionales durante la época dorada del conductismo.

Estas tesis del Círculo de Viena y de la llamada “concepción heredada” (empirismo lógico en general) fueron luego asaltadas por el falsacionismo popperiano y, sobre todo, por una visión deductivista, teoricista, de la ciencia, que asigna más valor a las estructuras de pensamiento y razonamiento que a la experiencia. Siendo así, ya entonces el objeto típico y legítimo de la ciencia queda ensanchado. No se trata sólo de los objetos que aparecen directamente a la experiencia, a los sentidos, sino también, y sobre todo, aquellos que pueden ser ‘imaginados’, razonados, aquellos cuya naturaleza oculta puede ser manejada mediante estructuras de razonamiento y puede ser expresada mediante sistemas lógico-formales. Se pasa así de los objetos “transparentes” (abiertos a la experiencia) a los objetos “opacos” (cerrados a la experiencia, pero abiertos al razonamiento).  Los casos de Einstein, en física, y de Chomsky, en lingüística, en su polémica contra el neoconductismo y el descriptivismo, fueron históricamente emblemáticos. A continuación, véanse dos citas de estos autores, ambas muy parecidas, en las que se ilustra bastante bien la noción de ‘ciencia de los objetos calculables’ o ‘pensables’: “Los conceptos físicos son libres creaciones de la mente humana y no están, por más que parezca, únicamente determinados por el mundo externo. En nuestro empeño por entender la realidad nos parecemos a alguien que tratara de descubrir el mecanismo invisible de un reloj, del cual sólo ve el movimiento de las agujas, oye el tic-tac, pero no tiene forma de abrir la caja para ver lo que hay adentro. Si se trata de una persona ingeniosa, podrá imaginar o suponer un mecanismo que sea el responsable de todo lo que se observa fuera de la caja, pero nunca podrá estar seguro de si su suposición o lo que él imagina es lo único que explica los efectos observados. Jamás podrá comparar lo que él imagina con el mecanismo real que está dentro de la caja y ni siquiera podrá saber si tal comparación tendrá sentido” (Einstein y Infeld 1950:34). “Imagine a un físico que se pregunta por lo que ocurre en el interior del sol. Ahora, una forma sencilla de responder a esto sería instalar un laboratorio dentro del sol y así experimentar. Pero Ud. no puede hacer eso, porque el laboratorio se convertiría en gas. Por tanto, lo que Ud. puede hacer es mirar la luz que proviene del sol e imaginarse lo que sucede dentro del sol que produce ese tipo de luz. Esto es muy parecido a tratar de imaginarse lo que ocurre en los mecanismos físicos del cerebro” (Chomsky 1988:187).

Es gracias a este ensanchamiento del objeto de la ciencia hacia lo ‘pensable’ o ‘calculable’ como, por ejemplo, en ciencias sociales se abre el camino a la famosa “revolución cognitiva” y a las teorías de la mente y del lenguaje, todo lo cual aun hoy día permanecería en el terreno especulativo o filosófico, si no hubiese sido por este cambio paradigmático generado por la irrupción del enfoque epistemológico racionalista-realista.

Dentro de esta misma concepción teoricista, Popper tuvo el gran mérito de plantear el problema de cómo crece el conocimiento científico, tras cuya búsqueda tuvo lugar su célebre polémica con Kuhn, así como las propuestas de Lakatos y Laudan (“programas” y “tradiciones” de investigación, respectivamente). Sin entrar en los pormenores de este hecho, suficientemente reseñados, cabe resaltar que, como consecuencia, dentro del racionalismo-realista surge la introducción del elemento socio-histórico en el análisis de la ciencia. Lo que Reichembach, en los años del empirismo lógico, había planteado como la diferencia entre “contexto de descubrimiento” y “contexto de justificación”, más la imposibilidad de que la epistemología considerara el primero de esos contextos, se revierte ahora, recibiendo importancia los aspectos culturales e históricos. De hecho, algunos de estos conceptos (“comunidad científica” e “intervalo histórico”, por ejemplo) pasaron a ser tratados formalmente dentro de algunos estudios sobre la estructura de las teorías (por ejemplo, Moulines 1982). Lo importante es que esta introducción de aspectos socio-históricos (sobre todo la “inconmensurabilidad” de Kuhn, llevada al máximo por Feyerabend) marca una cierta confluencia con algo que se venía manejando desde años antes en la llamada Escuela de Frankfurt, que representaba un enfoque epistemológico diferente: la ‘ciencia de los objetos intuibles’ o ‘interpretables’, implícita en la tesis de la “Teoría Crítica”, y que llevaba el germen de otro paradigma nuevo para el siglo XX.

Una de las tesis esenciales de la Escuela de Frankfurt atiende a la dialéctica de las relaciones de dominación, herencia del marxismo (vertiente racionalista). Otra de sus tesis, desde una vertiente idealista o subjetivista, recoge las filosofías de Dilthey, Husserl y Heidegger, principalmente la separación entre ciencias “de la naturaleza” y “del espíritu”, la “comprensión” en lugar de la “explicación”, la fenomenología, los procesos intuitivos y la hermenéutica como herramienta interpretativa (que había sido rescatada por Friedrich Schleiermacher, del romanticismo alemán, a su vez rescatado por Dilthey unos cien años después). El planteamiento de la “Teoría Crítica” surge de la necesidad de emancipación, la cual pasa por desentrañar el modo en que el ser humano es enajenado y sometido a través de los múltiples mecanismos socioculturales, incluyendo la ciencia en cuanto estructura de poder y dominación. Pero este desentra­ñamiento no puede ser llevado a cabo por las mismas vías “positivistas” (para Adorno y Habermas, por ejemplo, aun el racionalismo popperiano y la ciencia einsteniana vienen a ser “positivismo”), es decir, por los estándares de la “explicación” científica. Es menester la “comprensión” y la “interpretación”, que hagan efectiva la capacidad de captación fenomenológica, al modo de Husserl, y que pongan al descubierto los simbolismos socioculturales subyacentes a las relaciones sociales (hermenéutica, círculo hermenéutico, etc.). Esto es suficiente para entender el desplazamiento hacia una ‘ciencia de los objetos intuibles’ o ‘interpretables’, con lo cual renace en el siglo XX, a través del paradigma de Frankfurt, el mismo enfoque epistemológico racionalista-intimista de San Agustín, en el siglo IV (en sus Confesiones escribió: “¿Qué es el tiempo? Si nadie me lo pregunta, lo sé. Si quisiera explicárselo al que me lo pregunta, no lo sé”). En la práctica, al menos atendiendo a las investigaciones y estudios realizados desde la óptica de este paradigma de la Escuela de Frankfurt, el enfoque orientado a los ‘objetos intuibles’ se caracteriza por un discurso argumentativo que excluye los trabajos de campo (rasgo racionalista), pero que también viene marcado por un intensa auto-referencialidad e inclinación reflexiva volcada hacia el sujeto (rasgo subjetivista, idealista).

Finalmente, como derivación de este paradigma de la escuela de Frankfurt, la década de los ‘60 termina con una variante epistemológica que se desplaza hacia el empirismo (en términos de experiencialismo o vivencialismo), manteniendo los mismos estándares fenomenológicos, reflexivistas, subjetivistas, del paradigma de Frankfurt. Los trabajos de Alfred Schutz y de los antropólo­gos norteamericanos de comienzos de siglo fueron unas de las más importantes inspiraciones de este paradigma, en especial en lo que tiene que ver con nociones empíricas y metodológicas tales como “interac­ción social”, “mundo de la vida”, “vida cotidiana”, “historias de vida”, “triangulación” y otras por el estilo. Una de las tesis básicas es la necesidad de vivir aquello que se está investigando, tal como escribe Seiffert: “Los enunciados fenomenológicos descansan siempre en experiencias personales de la vida por parte del autor en el ámbito al que él se refiere. Por tanto, la instancia para la comprobación intersubjetiva de enunciados fenomenológicos no es un procedimiento empírico (...), sino el asentimiento del lector experimentado y competente en una impresión ‘sí, es así’. Tal lector competente comprueba, pues, hermenéuticamente, la contundencia de lo dicho en su propia experiencia de vida; él examina el texto bajo el punto de vista de si reproduce o interpreta adecuadamente esta experiencia” (1977:241). “La auténtica fortaleza del método fenomenológico está en el ‘nivel individual’ de los que lo aplican (amplitud de experiencia o de inteligencia o ambas cosas a la vez). Radica en el carácter de una ‘ciencia de la vida’ que no puede renunciar a este momento; pues de otro modo perdería sin necesidad un tesoro de experiencias interpretables de la vida, las cuales pueden contribuir mucho al esclarecimiento de la vida, aún cuando no sean estandardizables ni, por tanto, accesibles a cualquier investigador social” (1977:243-244).

Nace, así, la llamada “investigación cualitativa” en general y, en particular, numerosas corrientes  menores, que van desde la “investigación-acción” y la “observación participante”, pasando por la “etnometodología” y la “etnografía”, hasta la “investigación militante” y la “investigación comprometida”, etc. En todo caso, con este cuarto paradigma se visualiza el enfoque empirista-idealista, el de la ‘ciencia de los objetos vivibles’, ‘sentibles’ o ‘experienciables’.

Como balance general, se tiene ya desde los ’70 un panorama de coexistencia de esos cuatro paradigmas asociados a sus respectivos enfoques epistemológicos. En principio, los dos primeros, el empirismo-realista y el racionalismo-realista (objetos observables y objetos calculables) quedan anclados a las ciencias materiales y a algunas ciencias sociales (lingüística, ciencias cognitivas, inteligencia artificial, economía). Pero gran parte de la psicología, la sociología y la antropología ha sido abordada por los enfoques subjetivistas-reflexivistas. En la siguiente sub-sección se verán algunas prolongaciones que llegan hasta 1990, aproximadamente, y que, en general, consolidan este ciclo de desarrollo de esos cuatro enfoques.

2.2. Prolongaciones para 1970-1990, aproximadamente

Después de este ciclo que se termina de describir, hay una especie de prolongaciones o de profundizaciones temáticas en torno, aproximadamente, a los mismos problemas de fondo ya instaurados en ese ciclo. Esencialmente, estas prolongaciones se revelan en las tendencias que se reseñan a continuación.

2.2.1. La visión programática y transindividual de la ciencia

Esta prolongación, ubicada dentro del enfoque racionalista-realista (paradigma falsacionista), sigue  inmediatamente al problema popperiano de cómo crece el conocimiento científico, ante lo cual chocaron las soluciones del mismo Popper (el conocimiento crece por razones lógicas internas, por suplantación de teorías previas que resultan falsas, o “falsadas”, por teorías nuevas que a su vez están por falsar…, y así sucesivamente) y la de de Kuhn (el conocimiento crece por razones socio-históricas externas, a través de las ya mencionadas “revoluciones científicas”). En los albores de los ’70, Imre Lakatos intenta conciliar ambas soluciones mediante la noción de “Programas de Investigación”, según la cual una teoría es en realidad un conjunto de teorías menores ligeramente diferentes entre sí que coinciden en un mismo “núcleo duro”, o sea, al menos en una misma idea esencial, que es justamente aquello que la comunidad académica responsable se empeña en defender ante los ataques de la falsación, mediante hipótesis auxiliares, correctivas, que él llama “cinturón protector”. Mientras Popper consideró este recurso como justificaciones convenientes (‘hipótesis ad hoc’), Lakatos sostiene que no es necesariamente inválido, ya que la capacidad para proteger un “núcleo duro”, o para trabajar sobre el “cinturón protector”, dice mucho acerca de la potencialidad del “programa” para poder crecer o, al contrario, para degenerar, cosa que resulta mucho más interesante a la hora de evaluar una teoría. El asunto está en si esto conduce a explicar nuevos hechos o si, en cambio, la teoría queda estancada ante nuevos hechos, por más que se abulte el cinturón protector (más tarde Quine, 1951, propondría una idea algo parecida: el “holismo metodológico”, según el cual las teorías se falsean como un todo y no aisladamente, atendiendo a algunas de sus derivaciones particulares). Para ello, los programas de investigación siguen reglas metodológicas de dos tipos: unas que indican por cuáles vías hay que seguir trabajando (“heurística positiva”) y otras que indican cuáles vías hay que evitar (“heurística negativa”). La gran conclusión de todo esto es que las teorías no son aisladas, ni responden a un solo autor, ni se ubican en un solo momento histórico, ni pueden ser evaluadas en términos de sus componentes, evaluados aisladamente. En realidad, unas teorías generan otras, de modo que el crecimiento del conocimiento científico es cuestión de sucesiones, de conexiones y de nexos de familia entre las investigaciones individuales, incluso en largos plazos generacionales. La investigación científica viene a ser, entonces, un asunto programático y transindividual.

En ese mismo sentido, bajo la cobertura de esa misma conclusión, está también el aporte de Larry Laudan, quien propone la noción de “tradiciones de investigación”, en los mismos términos de continuidad temporal, bajo los parámetros de eficiencia de las distintas propuestas teóricas frente a los retos que van planteando los problemas de cada época en determinados contextos.

Lo más importante de esta prolongación está en la idea de que las investigaciones no son entre sí aisladas, sino que ofrecen nexos de ‘consaguinidad’, al punto de que ninguna investigación vale la pena si se la considera en sí misma, sino en relación con las conexiones que mantiene con respecto a toda una red.

En síntesis, todo esto remite a la noción de “estructura diacrónica” de los procesos de investigación: toda investigación puede ser analizada en sí misma, como hecho individual adscrito a una instantánea temporal, atendiendo a su composición interna y a las relaciones entres sus elementos estructurales. Pero esto sólo adquiere significado si se considera su ubicación dentro de una familia de investigaciones, el modo en que funciona como punto de continuidad, su aporte al progreso del programa de investigación, más el tipo de nexo que mantiene con otros trabajos individuales. En un plano empírico y aplicativo, todo esto sustenta la noción de “líneas” (grupos, equipos, centros) de investigación, es decir, conecta la epistemología con la esfera cotidiana de la organización y gestión de la producción-difusión de conocimientos (Padrón 2002).

2.2.2. El Programa de la “Sociología del Conocimiento”

Las referencias a una “sociología del conocimiento” en general datan desde comienzos del siglo XX (incluso antes del Círculo de Viena: Karl Marx, Max Scheler y Karl Mannheim, por ejemplo), luego reaparecen a mediados de siglo dentro de la tendencia del funcionalismo conducida por Merton y Parsons, entre otros, y asociadas al concepto de “vida cotidiana”, y tienen su auge con los trabajos de Kuhn y Feyerabend. Pero hay una referencia particular, comúnmente llamada “el Programa de la Sociología del Conocimiento”, que adquirió un significado especial dentro de las últimas tendencias del siglo XX y comienzos del XXI y que es la que interesa aquí (para una reseña amplia, ver Meja y Stehr, 1999, cuyos dos volúmenes explican cada una de estas dos referencias, respectivamente).

Este programa completo insiste en la influencia que tienen los factores socio-culturales y psicológicos en el desarrollo de la ciencia, más allá de los factores racionales o lógico-metodológicos (insisten en una visión “externalista” por encima de una visión “internalista”: en el predominio del “contexto de descubrimiento” sobre el de “justificación”). La difusión de este “programa” ha tenido tanta resonancia que a partir de 1970 se publican numerosos textos al respecto, se imponen los cursos y seminarios en los programas de postgrado de casi todo el mundo y nacen varias publicaciones periódicas dedicadas, entre las cuales está la revista Social Studies of Science (desde 1970) y el anuario Sociology of Science Yearbook (desde 1977). David Bloor (1976), uno de sus mayores exponentes, distingue entre un programa “débil” y otro “fuerte”. El “programa débil de la sociolo­gía del conocimiento”, según este autor, es más un acercamiento general y difuso antes que un movimiento sistemático y se diferencia por su tesis de que las creencias erróneas se explican a partir de factores socio-históricos (incluye a Lakatos y a Kuhn dentro de este programa, cosa que resulta muy discutible, a menos que ello se entienda como antecedente histórico inmediato), mientras que el “programa fuerte” es todo un movimiento organizado que considera los factores socio-históricos como responsables de todas las creencias, tanto las erróneas como las acertadas. Este “programa fuerte” tuvo a su vez dos ramificaciones importantes, nacidas en dos centros universitarios: una en la Unidad de Estudios de la Ciencia de la Universidad de Edimburgo, en Escocia, a la que pertenecen el mismo Bloor, Barry Barnes, Steve Shapin, Donald MacKenzie y John Henry, principalmente, y otra en la Escuela de Bath, de la universidad del mismo nombre, en Inglaterra, donde se gesta el conocido EPOR (Empirical Programme of Relativism), cuyos mayores representantes son Harry Collins y Trevor Pinch, el cual encabeza, a su vez, dentro de la metodología del EPOR, el programa SCOST (Social Construction of Science and Technology; véase Pinch y Bijker 1984). Las cuatro tesis centrales del EPOR, según Bloor (1976), son “los principios de causalidad, imparcialidad, simetría y reflexividad” (1976:7).

Un trabajo paralelo a este “programa fuerte” es el de la llamada “escuela francesa”, liderado por Michel Callon, Bruno Latour y John Law con su “Teoría de la Red de Actores”, y, más en general, el de la “Etnometodología”, conducido por Harold Garfinkel, Steve Woolgar, Aaron Cicourel, Karin Knorr-Cetina y el mismo Bruno Latour (para una reseña general, véanse Collins y Yearley 1992, y Linch, Livingstone y Garfinkel 1983). La crítica de este trabajo a todo el “programa fuerte”, en general, implica una radicalización de sus tesis del relativismo epistemológico hacia un relativismo ontológico (especialmente Woolgar 1988).

Todo este programa de la sociología del conocimiento, que surge en el seno del enfoque idealista o subjetivista (tanto empirista como racionalista), ha sido duramente criticado, entre muchos otros, por Mario Bunge (el cual hace, además, una buena reseña de ese programa): “Si bien los estilos respectivos presentan múltiples diferencias, no dejan por ello de adherirse todos a una cantidad de dogmas compartidos. Se trata del externalismo, tesis en cuyos términos el contenido conceptual es determinado por el marco de referencia social; el constructivismo o subjetivismo, según el cual el sujeto investigador construye no sólo su propia versión de los hechos sino también los hechos mismos y eventualmente el mundo entero; el relativismo, para el que no existen verdades objetivas y universales; el pragmatismo, que destaca la acción y la interacción a expensas de las ideas, e identifica a la ciencia con la tecnología; el ordinarismo, que reduce la investigación científica a pura transpiración sin inspiración, negándose a reconocer a la ciencia un rango especial y a distinguirla de la ideología, de la seudociencia y hasta de la anticiencia; la adopción de doctrinas psicológicas obsoletas, como el conductismo y el psicoanálisis, y la sustitución del positivismo, el racionalismo y otras filosofías clásicas por multitud de filosofías ajenas a la ciencia a incluso anticientíficas (…). Los sociólogos de la ciencia de nuevo cuño son incapaces de entender la ciencia: en efecto, no explican nunca qué es lo que distingue al hombre de ciencia de los demás mortales; cuáles son, en su caso, las suposiciones filosóficas tácitas y las normas metodológicas; qué diferencia a la investigación científica de otras actividades humanas; cuál es su lugar en la sociedad, y por qué la ciencia ha tenido tanto éxito en la comprensión de la realidad y como propulsora de la tecnología. Y lo que es aun peor, niegan que los hombres de ciencia posean un ethos propio y que desarrollen una actividad cultural específica” (Bunge 1998:15-17).

2.2.3. La Naturalización de la Epistemología y la Epistemología Evolutiva

En este período surgen dos prolongaciones importantes en el seno de los dos enfoques realistas (empirista y racionalista): el de la “Epistemología Naturalizada” y, para algunos insertado allí mismo, el de la “Epistemología Evolutiva”.

El programa de la naturalización de la Epistemología es planteado muy especial y definidamente por Willard Van Orman Quine (Quine 1969) sobre la base de su tesis empirista según la cual no hay conocimiento previo a la experiencia (todo conocimiento proviene en última instancia del mundo externo) y sobre la base de su crítica a la epistemología tradicional como proveedora de argumentos para la justificación del conocimiento. Otros trabajos más amplios al respecto, pueden verse en Goldman (2002) y en Kornblith(1994), donde también aparece un artículo de Quine: “La Epistemología continúa, pero en una nueva configuración y en un estado definido. La Epistemología, o algo como ella, pasa simplemente a tomar su puesto como un capítulo de la Psicología y, por tanto, de las ciencias naturales. Estudia un fenómeno natural, es decir, un asunto físico humano. Este asunto humano se entiende como una cierta entrada (input) experimentalmente controlada -ciertos patrones de irradiación en frecuencias variadas, por ejemplo- y al cabo del tiempo el objeto estudiado entrega, a la salida (output), una descripción del mundo externo tridimensional y de su historia”(Quine 1969:82-83).

En general, la epistemología naturalizada propone los mismos tratamientos de las ciencias fácticas a la explicación de los procesos científicos, pasando a ser un conjunto de teorí­as cuyo correlato empírico estaría en la historia de la ciencia y susceptibles de generar sus respectivas tecnologías, igual que cualquier otra ciencia fáctica. Esto contrasta con las visiones tradicionales que conciben la epistemología como algo independiente de los aspectos científicos relativos a los procesos cerebro-mente y como análisis filosófico apriorístico. A partir de esa noción general, hay distintas versiones de esta epistemolo­gía naturalista, las cuales difieren en el modo en que visualizan las relaciones con respecto a la ciencia fáctica, en la medida en que se fundamentan en dicha ciencia para explicar los procesos científicos y en el tipo de ciencias que consideran relevantes para el tratamiento de los problemas epistemológicos.

Por su parte, la epistemología evolutiva comienza a definirse con alguna claridad a partir de la noción de “ensayo y error” de Popper (1963): el crecimiento del conocimiento científico es comparable con la sucesión de adaptaciones en la evolución, según lo cual una epistemología evolutiva debería encargarse de explicar este tipo de crecimiento. Otros representantes de las primeras versiones de la epistemología evolutiva tradicional (ver Gontier 2006) son Konrad Lorenz (el conocimiento innato es ontogenéticamente a priori y filogenéticamente a posteriori), Jean Piaget (epistemología genética), Donald Campbell (a quien se le atribuye la expresión “epistemología evolutiva”), Stephen Toulmin (sobreviven las teorías más aptas y mueren las menos aptas) y Peter Munz (darwinismo filosófico).

La tesis general de la epistemología evolucionista es que la evolución biológica condiciona cualquier comportamiento cultural, social y cognitivo, de donde se sigue que los procesos cognitivos, incluyendo los que explican el conocimiento científico, tal como la misma epistemología, dependen de la evolución biológica. De allí en adelante, hay varias versiones de esta epistemología evolutiva, cuyas diferencias están en los límites que se conciben entre lo cognitivo y lo no cognitivo, en qué aspectos cognitivos pueden estudiarse mediante esta epistemología y en qué aspectos de la teoría evolutiva pueden aplicarse al estudio de los hechos científicos (para una reseña general, en español, véase Ursua 1993).

2.2.4. Otras prolongaciones

Dentro de los enfoques realistas, además de las ya reseñadas, surgen en este lapso dos importantes  nuevas tendencias, como continuaciones de los planteamientos elaborados en el lapso inmediatamente anterior: una que podría llamarse la visión Axiológica de las teorías y otra que podría llamarse la visión Pragmatista. Y, dentro de los enfoques idealistas-subjetivistas, además de las ya mencionadas, se plantean los primeros avances en la llamada “visión de género” (women studies), que luego, en los últimos 16 años, se consolidará en la llamada “epistemología feminista”. Vale la pena también mencionar, específicamente dentro del enfoque empirista-realista, como prolongación del neopositivismo, la llamada “concepción estructural de las teorías”. A continuación se describen brevemente estas tendencias.

La visión axiológica es planteada por Larry Laudan, el mismo de las “tradiciones de investigación”, pero en términos de valores epistémicos, cognitivos o intelectuales, entendiendo no “las normas éticas ni las normas de conducta, sino las reglas y normas metodológicas” (1984: XI), tales como verdad, coherencia, simplicidad y fecundidad predictiva. En tal sentido, esta visión axiológica de Laudan aparece en cierto modo vinculada a la llamada “epistemología de la virtud”, la cual discute ciertos ideales cognitivos, tales como concentración, apertura, tenacidad, coraje, visión, introspección, memoria, etc. Pero, más allá de esta concepción, se desarrolla luego una visión axiológica referida a la ética, que sí incluye valores en general (políticos, económicos, culturales, etc.), no sólo epistémicos, la cual, para el enfoque racionalista-realista, tiene su origen inmediato en las tesis sociopolíticas planteadas por Popper, especialmente en “La Sociedad Abierta y sus Enemigos”. Muchos años antes, Bertrand Russell había escrito que “El impulso hacia la construcción científica resulta admirable cuando no inhibe ninguno de los demás impulsos principales que le dan valor a la vida humana, pero cuando se le permite prohibir toda salida a cualquier cosa que no sea él mismo, entonces se convierte en una forma de tiranía cruel” (Russell 1931:596). Es lo opuesto a lo dicho por Bunge (1998) en su dedicatoria: “A la memoria de Guido Beck, mi profesor de física, quien me enseñó que mis opiniones políticas no debían interferir con mis estudios científicos”. La idea esencial es que el objetivo terminal de la ciencia es el control y la intervención sobre el mundo, en pos de la felicidad de las sociedades. De allí surge la necesidad de dar respuestas a preguntas tales como ¿cuáles son los criterios para definir la felicidad de las sociedades? ¿A favor de qué parámetros controlamos e intervenimos sobre el mundo? ¿Es lo mismo un control de tipo neo-liberal, individualista, que un control de tipo socialista, colectivista (Padrón 2004)? Es obvio que no se puede hacer ciencia sin tener en mente esos criterios, sin pensar en las proyecciones socio-políticas de los resultados de la producción científica. Sería absurdo pensar que los científicos sólo hacen ciencia, dejando que los políticos decidan qué hacer con el trabajo de ellos, con sus teo­rí­as y con las tecnologías derivadas. Esta misma visión axiológica racionalista-realista ya ha­bía sido trabajada desde mucho tiempo antes por el enfoque racionalista-idealista (en especial la “Teoría Crítica” de Frankfurt, con antecedentes en Marx, y por el “programa de la sociología del conocimiento”, arriba reseñado).

Íntimamente relacionada con esta tendencia, aparece también la visión pragmatista de la Ciencia, especialmente planteada por Ian Hacking (1983), quien, modificando la célebre sentencia de Hanson, sostiene que toda observación está cargada de práctica, de aplicaciones. Las intervenciones son previas a la observación y a la explicación. En realidad, esta visión pragmatista (ciencia como transformación) coincide plenamente con las recientes políticas de los países industrializados, que prefieren la investigación aplicada sobre la investigación básica, desplazando la mayor parte de los fondos hacia la primera.

Otro rasgo importante para este período es la explosión de los llamados “estudios de la mujer” (women’s studies), que en general empezaron a invadir prácticamente toda la vida de las universidades y centros académicos y que, en lo referente a la ciencia, sentarían las bases para una “epistemología feminista” (véase Alcoff, 1989, para detalles). La clave está en la noción de que el conocimiento científico varía en dependencia de los prejuicios que favorecen al hombre, como superior a la mujer. Esta tendencia nace dentro de los enfoques idealistas-subjetivistas.

Finalmente, en este mismo lapso, están los intentos de axiomatización o formalización de las teorías científicas, dentro del enfoque empirista-realista, como continuación del empirismo lógico de comienzos de siglo. Patrick Suppes, a la cabeza de la escuela de Stanford, promovió gran parte de estos intentos, seguidos luego por la axiomatización conjuntista o informal del programa estructuralista de Joseph D. Sneed, en el cual Moulines (1982, 1991) estudia la inserción de los elementos pragmáticos arriba mencionados (“comunidad científica” e “intervalo histórico”).

Con todo el ciclo descrito en 2.1 y las prolongaciones mencionadas en 2.2, se abre el paso a las tendencias epistemológicas en los últimos 16 años. Como se verá, estas tendencias recientes surgen bajo esta referencia del siglo XX.

3. La Epistemología en los últimos 16 años (1990-2006)

Sobre la base de lo dicho hasta aquí, se tiene ahora un enlace para comprender las tendencias recientes de la epistemología, examinando el nivel de desarrollo alcanzado y las potencialidades paradigmáticas o los gérmenes de nuevos planteamientos dentro de cada uno de los enfoques epistemológicos hasta 1990, aproximadamente. La exposición que sigue quedará organizada en dos puntos: el primero organiza esas tendencias recientes en términos de las “nuevas epistemologías” que se consolidan desde esa década hasta el presente. El segundo analiza las áreas problemáticas más destacadas. Sobra decir que los límites entre todos estos puntos no son discretos ni que los aspectos de cada punto no coincidan o se solapen con los de otros puntos.

3.1. Las “Nuevas Epistemologías”

La expresión “nuevas epistemologías” no es en absoluto una expresión técnica, sino divulgativa, tal vez un tanto retórica, probablemente nacida más de los deseos de impactar acerca de novedades paradigmáticas supuestamente revolucionarias que de la necesidad de análisis críticos (algo similar a expresiones como “nuevo paradigma”, “paradigma emergente”, etc.; ver Padrón 2000). Pero su uso es sumamente extendido (al consultar dicha expresión por uno de los buscadores de Internet, el resultado arrojó más de 900 citas en inglés, español, italiano y francés), al punto de que parece conveniente usarla en esta exposición, pero sólo para significar tendencias bastante cerradas y definidas en torno a una denominación particular suficientemente conocida.

3.1.1. Las epistemologías subjetivistas (racionalismo y empirismo idealistas)

Desde los ’90, aproximadamente, hasta hoy en día, dentro de los enfoques racionalista-idealista y empirista-idealista se han perfilado algunas nuevas epistemologías que constituyen el desarrollo de ciertos rasgos temático-problemáticos presentes desde las épocas anteriores, ya reseñadas arriba. Esencialmente, se trata de los siguientes rasgos: el externalismo o la influencia de factores socio-contextuales en los procesos científicos, la inclusión del sujeto y de los actores en los procesos de búsqueda y la interacción sujeto-objeto. Esto dio origen a las nuevas epistemologías que se mencionan a continuación.

La Epistemología Contextualista: Es una contraposición importante al internalismo y al innatismo (Popper había dicho: “el 99.9% del conocimiento de un organismo es heredado o innato y sólo una décima parte consiste en modificaciones de dicho conocimiento innato” 1982:74), al mismo tiempo que intenta resolver algunos problemas centrales planteados desde el escepticismo gnoseológico (lo que para unos puede ser verdadero, para otros puede ser falso). Es por eso por lo que la epistemología contextualista viene frecuentemente manejada en relación con el escepticismo y con el externalismo. Sostiene, en general, que los procesos científicos varían según el contexto y se esfuerza en explicar la ciencia, la tecnología y la investigación en dependencia de factores contextuales tales como las intenciones y presuposiciones del grupo académico dentro del que ellas tienen lugar, los estándares socioculturales locales, las creencias y relaciones interpersonales, etc. Las posiciones más radicales, ubicadas en el contextualismo ingenuo, al modo del relativismo de Knorr-Cetina, Woolgar y Latour, sostienen que es sólo el contexto cultural el que condiciona las variaciones en los procesos científicos y que ante ello no vale nada la lógica interna de dichos procesos. Como puede deducirse, algunos gérmenes de esta epistemología se encuentran en el racionalismo-realista de Kuhn y Lakatos y en el empirismo-realista de la visión estructural de las teorías de Moulines, los cuales comparten que el elemento socio-histórico (pragmático) juega algún papel modificador. Pero es básicamente en el enfoque racionalista-idealista (teo­ría crítica de Frankfurt, círculo hermenéutico) donde están los gérmenes más fuertes. En el enfoque empirista-idealista, por su parte, esta epistemología contextualista se ha vinculado a los trabajos de campo que exploran el contexto y se ha asociado a las nociones de “comunidad epistémica” o “ciencia comunitaria” (community science), en el sentido de que, si el conocimiento científico está limitado a un contexto, entonces la investigación epistemológica debe restringirse a estudiar sólo las ciencias contextuales, o sea, aquellos núcleos de producción científica que se justifican en sus relaciones con el contexto (véase, por ejemplo, Luke 2005, quien propone distintos métodos de investigación contextualista). Dentro de esta epistemología aparece el llamado perspectivismo, tendencia que parte de suponer que todo conocimiento es contextual o “situado” (localizado o focalizado, es decir, ligado a una comunidad de “conocedores”) y que todo conocimiento se funda en las experiencias de sentido común de los agentes. De allí infieren que todo conocimiento es defectuoso. El modo, entonces, de superar esa limitación consiste en adoptar muchas y diferentes perspectivas teóricas y metodológicas que permitan una mayor aproximación a la “verdadera” realidad (el perspectivismo parece diferenciarse del idealismo experiencialista en que admite la existencia de una realidad “verdadera”, externa, pero insiste en que la verdad es pura “ilusión”; véase Tebes 2005).

La Epistemología Feminista: Aun hoy en día esta epistemología luce como un movimiento poco sistematizado, a pesar de la impresionante difusión de trabajos y la asombrosa cantidad de centros académicos dedicados. Tal vez esto se deba a que los “estudios de la mujer” (women’s studies) se han planteado desde una óptica sumamente general, muy abarcante (feminismo, tendencias o corrientes feministas) que aborda prácticamente todas las áreas de la vida humana y no tan siquiera, específicamente, la filosofía ni mucho menos la teoría de la ciencia. Es ampliamente conocida, sin embargo, la expresión Epistemología Feminista, tanto en el sentido anglosajón (en cuanto “gnoseología” feminista, que resulta más abundante), como en el otro sentido de meta-teoría, adoptado en este trabajo. Un ejemplo que podría ilustrar episódicamente las motivaciones de esta epistemología puede leerse en un artículo de la prensa norteamericana (Billingsley 1966), en la cual se reseña un debate a raíz de la inclusión de científicas, feministas radicales, en la lista de lecturas del programa educativo “Proyecto Plutón”, del Laboratorio de Propulsión de Jet (Jet Propulsion Laboratory) de la NASA. Una de ellas, Sandra Harding, profesora universitaria en California, en uno de sus trabajos considera los Principia Matemática de Newton como “un manual de violación”, señalando que: “Las nuevas ciencias del siglo XVII incorporaron tendencias poderosamente burguesas, incluyendo la violación patriarcal, en que el hombre, como científico, fuerza a la naturaleza a sus propios deseos (…).Tendríamos que reinventar tanto la ciencia como el modo de teorizar acerca de ella para dar sentido a la experiencia social de la mujer” (Billingsley 1966).

En la misma lista del Proyecto Plutón, según el citado artículo de prensa, se incluyen los trabajos de Nancy Tuana (Feminismo y Ciencia), de Sue Rosser (Ciencia amigablemente femenina) y el de Mary Field Belenky y co-autoras (Formas de Conocimiento Femenino). Otra de las autoras incluidas en el Proyecto Plutón, Alison Jaggar, de la Universidad de Colorado, propone una transformación de la naturaleza humana que incluya capacidades físicas antes limitadas a un solo sexo: “Tal transformación podía incluir capacidades de inseminación, gestación y lactancia, de modo que, por ejemplo, una mujer pudiera inseminar a otra, que hombres y mujeres no parturientas pudieran amamantar y que en los cuerpos de mujeres y aun de hombres pudieran transplantarse óvulos fertilizados” (Billingsley 1966).

Entre las reacciones de algunos científicos está la de Robert Park, de la Sociedad Americana de Física en Washington: “Todo esto me parece espeluznante. Me refiero al argumento de estas mujeres, según el cual la ciencia es del todo culturalmente basada y no existe la verdad objetiva. Es algo espeluznante para un laboratorio dedicado a la ciencia” (Billingsley 1966). Y Paul Gross, jefe del Centro para Estudios Avanzados de la Universidad de Virginia: “Ninguna de las mujeres de esa lista sabe absolutamente nada de ciencia”.

La tesis general de la epistemología feminista parte de la crítica de que las teorías de la ciencia están masculinamente sesgadas, así que las mismas deberían reencuadrarse menos masculinamente. La ciencia es hasta ahora sensible al género, por lo cual, abandonando ese sesgo masculino, se promoverían avances más rápidos y amigables. Esta tesis, como es de suponer, es manejada desde ángulos que varían por su radicalismo, desde los más fuertes hasta los más moderados. En otras interpretaciones, esta tesis se focaliza en distintas perspectivas: las críticas al sexismo contra la mujer; el machismo como rasgo de la modernidad y el feminismo de la posmodernidad; el feminismo como variante del contextualismo; las metodologías femeninas en la ciencia; el razonamiento científico femenino, etc.

Entre los aportes dentro de la epistemología feminista puede citarse uno de los trabajos de la misma Sandra Harding, antes mencionada, en el que, además de otros documentos de reseña, incluye su propia versión de la epistemología feminista, basándose en un “materialismo histórico feminista” (Harding 2004). Por supuesto, sobran los enemigos de la epistemología feminista, incluyendo mujeres.

La Epistemología Social: Aunque algunos de sus gérmenes, e incluso la expresión, se remontan a  la década de los ’70, es desde los albores de los ’90 cuando llega a convertirse en movimiento sistemático, organizado, especialmente a raíz de la fundación de la revista Social Epistemology (la cual tiene su propia Web en http://www.tandf.co.uk/journals/routledge/02691728.html). En una de sus vertientes la epistemología social prolonga y desarrolla las tesis socio-historicistas de Kuhn, en general, postulando que los procesos científicos se ven estrictamente afectados por las relaciones sociales y por los hechos culturales. Pero otra de sus vertientes responde mucho más a los planteamientos del programa fuerte, relativista, de la sociología del conocimiento (en la versión del EPOR, antes reseñado). Como fundadores, dentro de la primera vertiente, suele citarse a dos autores importantes: uno es Steve Fuller (2002) y otro es Alvin Goldman (1999).

El primero responde a la pregunta de cómo debería organizarse la producción de conocimientos y concibe la epistemología social dentro de una visión filosófica empirista, como la principal meta de toda epistemología, sobre la base de que todo conocimiento es intrínsecamente social. Su visión del conocimiento científico en realidad se orienta a las aplicaciones políticas, gubernamentales, organizacionales y gerenciales, desde puntos de vista sumamente técnicos y analíticos. En el primer capítulo de su obra fundadora dice lo siguiente: “La pregunta fundamental del campo de estudio que llamo epistemología social es: ¿cómo debería organizarse la búsqueda del conocimiento, dado que en circunstancias normales el conocimiento es buscado por seres humanos, cada uno de los cuales trabaja en un área de conocimiento más o menos bien definida y está dotado de aproximadamente las mismas capacidades cognitivas imperfectas, aunque con diferentes grados de acceso a las actividades de uno con respecto a las de los otros? Sin saber nada más sobre la naturaleza de la epistemología social, se puede decir que la misma tiene un interés normativo, que es el de llegar a algún tipo de óptima división del trabajo cognitivo. En otras palabras, en palabras que sólo un marxista o un positivista podrían realmente apreciar, al epistemólogo social le gustaría poder mostrar cómo los productos de nuestras búsquedas cognitivas son afectadas al cambiar las relaciones sociales según las cuales los productores de conocimiento se vinculan entre sí. Como resultado, el epistemólogo social habría de ser el hacedor ideal de políticas epistémicos” (Fuller 2002:3).

Alvin Goldman, por su parte, parece conectarse más bien con la intersubjetividad y con el mundo 3 de Popper (1982), en cuanto que recoge la idea de que nadie produce conocimiento en solitario, no existen los “conocedores solitarios” (solitary knowers, en Goldman 1999) y cosas como la Escuela y la Educación, en cuanto transmisoras de conocimiento, además del fenómeno lingüístico de las preguntas, en que un interlocutor recibe información de otros, y además de las entidades del tercer mundo popperiano (el arte, la religión, la misma ciencia, etc.) revelan que el conocimiento es compartido, o sea, tiene bases, fuentes y justificaciones de tipo social, interpersonal. Además, en esta concepción de Goldman está implícita la noción de “transindividualidad” del conocimiento y de “programas de investigación” de Lakatos. En esa misma concepción puede re-interpretarse la divulgada frase de Newton (luego parafraseada por Einstein), según la cual el mérito individual de su trabajo consistió en “haberse montado sobre hombros de gigantes”. Puede decirse que la epistemología social de Goldman es consistente con el enfoque racionalista-realista: “Aunque el fenómeno de las preguntas es interpersonal, la búsqueda de la verdad no es universalmente o necesariamente social. Para comprobar la probabilidad de que llueva, uno puede personalmente mirar al cielo en vez de consultar los pronósticos del clima. Una enorme porción de nuestras búsquedas, sin embargo, es directa o indirectamente de carácter social. Es directamente social cuando uno verbalmente pide información a otros o cuando consulta textos escritos. Es indirectamente social cuando la propia actividad cotidiana, aunque autónoma, explota las habilidades intelectuales que otros adquirieron a través de la educación formal o informal. Las dimensiones sociales del conocimiento resultan dramáticas en la sociedad moderna, que abunda en empresas proveedoras de información, desde periódicos y bibliotecas hasta la Internet. Las sociedades complejas delegan las misiones de recolección y difusión del conocimiento en muchas agencias especializadas. Los sistemas de justicia se instituyen para determinar quién perpetra crímenes o agravios; los censos se orientan a obtener estadísticas poblacionales y las escuelas se establecen para transmitir conocimiento. Estas actividades y empresas conforman el punto de partida de la epistemología social, tal como aquí es concebida. La epistemología tradicional, especialmente en la tradición cartesiana, fue altamente individualista, centrándose en las operaciones mentales de los agentes cognitivos, con independencia o abstracción de otras personas. Este es, aproximadamente, el punto de vista tradicional que yo he llamado ‘epistemología individualista’ (…). Dada la naturaleza profundamente colaborativa e interactiva del conocimiento, especialmente en el mundo moderno, la epistemología individualista requiere una contraparte social: la ‘epistemología social’” (Goldman 1999:3-4).

Con lo dicho hasta aquí, parece claro que las fundaciones de la epistemología social no pertenecen  en modo alguno a los enfoques idealistas-subjetivistas, como se pauta en el encabezado de este aparte. La propuesta de Fuller es empirista-realista (en el marco del paradigma empirista lógico del siglo XX), mientras que la propuesta de Goldman es racionalista-realista (en el marco del paradigma falsacionista del siglo XX). Según esto, esta epistemología no debía haber sido reseñada en esta sub-sección. Pero, como se dijo antes, aparte de estos fundadores, la epistemología social fue un punto emblemático y generalizado para los paradigmas adscritos a los enfoques idealistas-subjetivistas, como se verá enseguida. Incluso, su tratamiento resulta actualmente mucho más explotado por el “constructivismo social”, subjetivista y relativista, que por los enfoques realistas de Fuller y Goldman (sin negar que estos siguen hoy en día su propio curso paralelo; un ejemplo es la revista “Episteme. A Journal of Social Epistemology”, nacida en el 2004 y que acaba de ofrecer su edición del 2006, disponible en http://www.episteme.eu.com/). Por esa razón, el lector entenderá que la epistemología social tiene sus versiones realistas, hasta aquí presentadas, que podrían reseñarse en su respectiva sección, pero que se exponen en esta otra por razones de economía expositiva, atendiendo al hecho de que sus versiones subjetivistas-relativistas han sido más emblemáticas, históricamente hablando.

La versión relativista de la epistemología social se revela en la negación práctica de la diferencia entre lo cognitivo o lo lógico-metodológico interno de la ciencia y lo social, externo. Mientras en las versiones anteriores se postulaba una interacción entre ambas a la hora de dar cuenta de los procesos científicos, aquí se propugna la idea de que la primera de ellas es producto de la segunda, con lo cual no existen sino relaciones socio-culturales que generan los mismos procesos cognitivos y la lógica interna del conocimiento científico. Un externalismo total y un marcado relativismo caracterizan esta otra tendencia de la epistemología social. Aquí intervienen tanto los del programa empírico del relativismo (el EPOR: Barnes, Bloor, Pinch, Collins, etc.; ver arriba) como los de la escuela francesa (Woolgar, Cicourell, etc.; ver arriba). Intervienen también otras corrientes recientes en las esferas del posmodernismo, constructivismo, reflexivismo, etc. (ver Ashmore, 2004, quien además hace toda una crítica a la versión de Steve Fuller). Más que proveer una explicación lógico-metodológica de la ciencia, o al menos una explicación que considere las interrelaciones entre lo lógico y lo social, lo que se plantea es la interpretación hermenéutica del funcionamiento de las comunidades productoras de conocimiento, a la luz de condiciones estrictamente socio-culturales o socio-simbólicas.

Hasta ahora, dado el auge que tienen en nuestras universidades latinoamericanas las visiones adscritas a este último enfoque epistemológico (investigación, cualitativa, posmodernismo, constructivismo…), esta versión subjetivista-relativista de la epistemología social parece ser la única conocida y divulgada.

Otras epistemologías subjetivistas: En esta parte se agrupan otras “nuevas epistemologías” adscritas al enfoque subjetivista, que resultan de menos resonancia en el mundo académico (sin negarles cualquier mérito intrínseco que pudieran tener). Una de ellas es la llamada “etnoepistemología” (Ethnoepistemology), asociada al enfoque empirista-subjetivista y al paradigma de los tratamientos etnográficos en general (cultural-focales, cultural-regionales), con fuertes raíces en la antropología de comienzos de siglo. Esta epistemología parte de la consideración de que la práctica científica convencional o estandarizada (“ciencia normal”, en términos de Kuhn) es apenas una entre muchas manifestaciones de la ciencia, al lado del conocimiento campesino y folklórico, por ejemplo, o el de los adivinos, shamanes, sacerdotes, magos, curanderos, etc. En este sentido, la ciencia occidental no es superior sino sólo paralela. La “ciencia”, entonces, no es lo que definen las comunidades científicas del mundo académico convencional, sino aquella actividad de construcción de conocimiento útil que ocurre al interior de las comunidades étnicas. Quedan planteadas tres áreas problemáticas globales dentro de la etnoepistemología: el conocimiento ordinario popular, el conocimiento especializado y el conocimiento epistemológico mismo. Para una reseña y amplia bibliografía, véase Maffie y Triplett (2003). Está también la epistemología constructivista, conectada unas veces con el constructivismo social del programa empírico del relativismo y con el relativismo ontológico de la escuela francesa (Woolgar 1988), otras veces con la llamada new age philosophy y con el posmodernismo (constructivismo idealista extremo y anti-racionalismo: la razón ha muerto, cualquier sueño es realidad y viceversa, etc.) y otras veces con las mismas tesis ya planteadas dentro del racionalismo realista, al cual se le ignora (el conocimiento es construcción cognitiva, las teorías no tienen por qué ser espejos exactos del mundo, etc., lo cual conduce a un constructivismo trivial). Es, aproximadamente, dentro de esta visión donde tiene lugar la crítica de Sokal y Bricmont (1999) y también, probablemente, la llamada “guerra de las dos culturas”.

3.1.2. Las epistemologías empiristas realistas

Aquí se agrupan aquellas nuevas epistemologías surgidas en las décadas recientes, muchas de ellas  con raíces lejanas en el pasado, caracterizadas por una visión empirista, inductivista, analítica y objetivista, bajo la tradición del paradigma neopositivista del Círculo de Viena (el enfoque de la ciencia de los objetos observables).

La Epistemología Testimonial: Es llamada también “epistemología del testimonio” (testimony epistemology, epistemology of testimony) y, para muchos, está incluida en la epistemología social (Fuller 2002). Surge dentro del problema de las fuentes del conocimiento y de la justificación del mismo y desarrolla las condiciones bajo las cuales el conocimiento en general, incluyendo el científico, resulta válido no a partir de las propias construcciones del agente, sino de los procesos de transmisión desde otras personas. Es, precisamente, en el caso de la ciencia donde más se revelan los mecanismos transmisivos, testimoniales, como fuentes de conocimiento válido, en el sentido de que gran parte de la producción científica se fundamenta en lo que otros investigadores han logrado y han comunicado. Las mismas nociones de comunicación, difusión y transferencia científicas sólo pueden ser explicadas dentro de una epistemología testimonial. Los orígenes remotos de esta tendencia están en los siglos XVII (John Locke) y XVIII (David Hume y Thomas Reid). Dos de los autores fundamentales en esta epistemología son Robert Audi y Anthony Coady (1995). Este último rebate la tendencia del sujeto (cartesiano, por ejemplo) a defender su propia autonomía de juicio respecto a lo que los demás le transmiten y, en cambio, sostiene que “las cogniciones racionales y empíricas no pueden suplantar completamente a las testimoniales, ya que dependen de esta última, al menos bajo el perfil del horizonte lingüístico y comunicativo dentro del cual son elaboradas” (1995:18). Sostiene también que “el testimonio es una fuente de información tan fundamental como lo es la percepción individual, la memoria individual y la inferencia individual. Todo nuestro mundo de entendimiento, creencias y conocimiento se funda fuertemente en nuestra confianza en lo que otras personas nos dicen” (entrevista en Radio ABC, 2004, en http://www.georgetown.edu/faculty/jod/encounter.htm).

Hay cuando menos cuatro áreas problemáticas a las que se orienta la reciente epistemología testimonial. La primera tiene que ver con la naturaleza del testimonio: ¿acoger una proposición testimoniada implica que el agente cree en dicha proposición? ¿En qué se diferencia un testimonio de una afirmación? ¿Exige el testimonio la condición de que el agente sea sincero? La segunda se refiere a la diferencia entre testimonios de expertos y testimonios de no expertos: ¿se requiere que el agente sea un experto en la información testimoniada? Y la tercera atiende a la relación entre testimonio y verdad: ¿cómo explicar los testimonios deliberadamente falsos? ¿Cómo explicar las reservas u ocultamientos deliberados de información? ¿Cómo explicar los testimonios que son de terceras personas pero que se fingen como propios u originales, que es el caso de los plagios y otras deshonestidades en la ciencia? Este tercer aspecto vincula estrechamente la epistemología del testimonio con la ética científica y con el concepto de “ciencia y valores”. Un cuarto aspecto problemático tiene que ver con la medida en que el testimonio depende de otras fuentes de conocimiento, lo cual divide a los especialistas en dos grupos: los reduccionistas, que consideran que la fuente testimonial se justifica a partir de otros elementos que están más cerca de una base (percepción, memoria, razonamiento…) y los no-reduccionistas o emergentistas, que consideran que la fuente testimonial es independiente de otros factores y se justifica en sí misma. Aunque en los últimos años ha habido una ingente producción de estudios dentro de esta epistemología, es evidente que quedan muchos problemas por resolver.

La epistemología probabilística o bayesiana: Aunque esta epistemología tiene sus raíces en el mismo Thomas Bayes, del siglo XVIII, y se desarrolló a mediados del siglo XX, en los últimos  años se ha fortalecido como tendencia epistemológica (véase una exposición reciente en Bovens y Stephan 2003). Originalmente la epistemología probabilística se orientó a la justificación de la inducción, tanto en el sentido de un aparato formal para la lógica inductiva (lo cual había sido una de las máximas aspiraciones del Círculo de Viena, en especial de Rudolph Carnap) como en el sentido de una prueba pragmática de la racionalidad epistémica (self-defeat test), ampliando las leyes que justifican la deducción de modo que también justifiquen la inducción.

Sin embargo, aparte de sus aplicaciones a la teoría de la decisión, a la psicología, al aprendizaje y a muchos otros campos, los más relevantes aportes de la epistemología bayesiana en los últimos 16 años tienen que ver con los procesos científicos. La teoría bayesiana de la confirmación, por una parte, permite el análisis de las prácticas científicas y, por otra parte, tiene amplias aplicaciones a la investigación social, concretamente en lo que desde no hace mucho se ha llamado epistemología social bayesiana (incluyendo una epistemología bayesiana del testimonio). Una de las ideas centrales en esto es que la investigación científica procede transindividualmente (ver arriba) y no es un solo científico, sino grupos de científicos quienes deciden lo que es o no aceptado den­tro de cada área de trabajo. De hecho, prácticamente todo trabajo de investigación es sometido a la aprobación de algún grupo de expertos (llámese “jurado”, “comisión de arbitraje”, “evaluadores”, etc.). En estos casos las aplicaciones de la epistemología bayesiana o probabilística permiten un manejo controlado del trabajo de los expertos en torno a las investigaciones sobre las que deben decidir. Estas aplicaciones permiten, por ejemplo, normar la estructura de confiabilidad de los reportes. Permiten también, dados múltiples reportes producidos por muchos evaluadores, usar un razonamiento probabilístico que determine el grado de confiabilidad de cada uno de ellos, para decidir cuáles merecen mayor credibilidad. En otro campo de aplicación, los razonamientos probabilísticos permiten también homogeneizar o integrar globalmente en un solo paquete múltiples reportes evaluativos, incluso divergentes entre sí, obteniendo un único resultado. En la práctica, para citar un ejemplo más concreto, en la investigación empírica basada en instrumentos abiertos (cuestionarios no estructurados, entrevistas libres, etc.) recientemente se ha difundido la aplicación bayesiana llamada “coeficiente de proporción de rangos”, dentro de la fase interna de validación de resultados: se someten los hallazgos a la consideración de un grupo de expertos y luego las valoraciones de estos expertos son procesadas mediante esta técnica del coeficiente de proporción de rangos. Al final de este procesamiento se obtiene una escala decisoria del tipo ‘igual o menor que 0.8, concordancia inaceptable; mayor que 0.8 y menor que 0.9, concordancia aceptable; mayor de 0.9, concordancia muy aceptable’. Con esto quedarían validados los resultados de la investigación, si se adopta esta aplicación.

Una de las consideraciones que resultan curiosas en la relación entre la epistemología probabilística y la investigación social (en especial atendiendo a este último ejemplo), es que queda implícita la posibilidad de hacer investigaciones empírico-realistas usando técnicas abiertas de recolección de datos, al modo de la investigación cualitativa, superando así la creencia tradicional de que ese tipo de investigaciones sólo podía trabajar con diseños experimentales o cuasi-experimentales, del tipo de análisis de varianza, regresión múltiple, etc. Es decir, parece abrirse la posibilidad de hacer investigación “neopositivista” mediante técnicas abiertas, no estructuradas, sin diseños referidos a medias poblacionales en el examen de relaciones entre variables, ya que uno de los principios de la epistemología bayesiana es la posibilidad de delegar la validez de los resultados en grupos de expertos (epistemología testimonial bayesiana). Habría así un acercamiento sorprendente, propio del siglo XXI, entre la investigación medicional y las instrumentaciones propuestas por la investigación cualitativa. El gran problema de esto es que parece contradictorio confesar un enfoque subjetivista (cualitativista, en la herencia de Alfred Schutz) y al mismo tiempo creer en las probabilidades (“el ser humano no es medible”), de lo cual se infiere que las ofertas de esta epistemología no se orientan a la llamada “investigación cualitativa”, sino sólo a los trabajos adscritos al enfoque empirista-realista. A pesar de eso, en nuestros postgrados es frecuente ver hoy en día trabajos de investigación de corte fenomenológico, vivencialista y hermenéutico que al mismo tiempo aplican estas derivaciones de la epistemología probabilista, incurriendo así en graves vicios de inconsistencia epistemológica (algo así como decir: “el ser humano no es medible, pero lo estoy midiendo”). No hay duda de que los próximos desarrollos de la epistemología probabilista habrán de ser clave en ciertos redimensionamientos de la investigación social para los años que siguen. De modo particular, hay que reconocerle a la epistemología bayesiana, aunque no se comparta, el mérito de abrir perspectivas con respecto a ciertas brechas epistemológicas del siglo XX. La muerte del positivismo, como aducía Popper (1977, ¿quién mató al positivismo lógico?), en realidad está todavía lejos, al menos en cuanto enfoque epistemológico subyacente.

La epistemología de la percepción: Como se infiere de todo lo dicho hasta aquí, el enfoque empirista realista (y los enfoques empiristas en general) están en la obligación de justificar la validez de los datos de los sentidos en contacto con la realidad (validez de la experiencia). Por tanto, nada más urgente que una epistemología de la percepción, es decir, una meta-teoría que justifique los procesos científicos alimentados por fuentes perceptuales. De allí la enorme importancia que tiene en la producción científica actual el desarrollo de una epistemología de la percepción.

El punto de partida es que todo nuestro conocimiento fáctico depende del modo en que vemos, oímos, olemos, gustamos y tocamos el mundo exterior. El problema está en si podemos confiar en los conocimientos generados por estas formas de contactarnos con el mundo. En primer lugar, está el asunto de saber cuáles de estos contactos sensoriales generan conceptos mentales, representacionales, y cuáles no, más las diferencias entre ambos tipos de cosas (creencias perceptuales y contactos perceptuales). Después está el problema de la potencialidad de estas percepciones (técnicamente, la diferencia entre justificación y causación): ¿generan conocimiento confiable (creencias justificadas) o sólo “causan” o “provocan” o “inducen” ciertos conocimientos, sin que podamos decidir si son falsos o no (recuérdese el caso de los espejismos en el desierto, por ejemplo)? Luego, sobre la base de esta diferencia entre sensación pura y creencia formada, queda la pregunta por el proceso en virtud del cual se pasa de la primera a la segunda: ¿cómo es posible la formación de conceptos mentales definidos, como es el caso del conocimiento científico, partiendo de sensaciones o experiencias sensoriales? Una respuesta histórica que debe ser considerada es el hecho de que el ser humano ha ido creando instrumentos cada vez más sofisticados que sustituyen y resultan más eficientes que nuestros sentidos (prolongaciones perceptuales: telescopio, microscopio, imaginología, acústicas, ecosonografías, etc.), lo cual, aunque permite prever ciertas posibilidades tecnológicas suprasensoriales, también revela la incapacidad natural de los sentidos: ¿hasta qué punto se puede confiar en un aparato sensorial que se demuestra limitado e, incluso, engañoso y, por tanto, hasta qué punto se puede confiar en prolongaciones tecnológicas que pueden ir mejorándose cada vez más sin que sepamos cuál es el punto de desarrollo máximo, perfecto? Finalmente, ¿cómo puede supeditarse la capacidad cerebral, responsable de la formación de conceptos y creencias, a la simple percepción? Imaginemos a un individuo que nace sin ninguno de los sentidos naturales: ¿sería incapaz de cualquier conocimiento? Al revés, imaginemos un individuo que nace con todos sus sentidos, pero que, imaginariamente, careciera de cerebro y de procesamiento mental: ¿podría formar conceptos y generar conocimientos? Este es un panorama general, tal vez rudimentario o escaso, al que se enfrenta la epistemología de la percepción.

Se distinguen varias divergencias en las interpretaciones de una psicología de la percepción, de las cuales es importante el debate entre fundacionalismo y coherentismo: lo que se discute es el modo en que se relacionan entre sí los elementos del conocimiento generado perceptualmente, con dos respuestas: fundacionalismo y coherentismo. Según la tesis del fundacionalismo, todo es como una especie de gran edificio, con conocimientos básicos (“fundamentales”) sobre los cuales descansan (se justifican) todos los demás que están por encima, de modo que cada uno de ellos se justifica sobre los que están más abajo, hasta llegar a los que están en la base, que son “fundamentales”, y que no requieren de otros para ser justificados (son incorregibles o irrefutables) y seguros (no pueden ser puestos en duda). El coherentismo, en cambio, ve todo como una red, en un mismo plano, en la cual unas creencias se justifican en el marco de esas relaciones reticulares, en la medida en que resultan “coherentes” unas con respecto a otras.

3.1.3. Las epistemologías racionalistas-realistas

En este aparte se reseñan las nuevas epistemologías surgidas en el seno del enfoque de las ciencias de los objetos calculables o pensables, caracterizadas por las convicciones de que es la razón la fuente genuina de la producción de conocimientos; de que, sin pensar en cómo podría ser la realidad en sí misma, la función de la ciencia es construir modelos que imiten su funcionamiento y de que no es necesaria la posibilidad de observar los hechos, sino que basta con poder imaginar (calcular) su estructura interna, mediante el doble recurso iterativo del ensayo y error (hipótesis 1 -> falsación 1 -> hipótesis 2 -> falsación 2…,-> hipótesis n -> falsación n).

La epistemología evolucionista: En la sección referida a los antecedentes del siglo XX (sección 2.2.3) se mencionaron las bases de esta epistemología, al lado (o dentro) de la epistemología naturalizada de Quine (1969). Esta naturalización de la epistemología nace en el seno de una visión empirista-realista y fue también recogida y reinterpretada, a su modo, por los enfoques subjetivistas (por ejemplo, la epistemología feminista, la etnoepistemología, las versiones idealistas de la epistemología social y aun el EPOR suelen declararse como naturalistas). Luego, más o menos paralelamente, surgen también las propuestas del racionalismo realista, pero esta vez bajo la noción de evolución. Sus proponentes para esa fecha (hasta 1990, más o menos: Popper, Lorenz, Campbell, etc.; ver arriba) son ahora considerados den­tro del grupo de los epistemólogos “evolucionistas tradicionales” o “epistemología evolutiva tradicional”, basados en la tesis general de la adaptación: “la ciencia, o el progreso de la ciencia, pueden ser considerados como medios usados por las especies humanas para adaptarse el medio” (citado en Losee 2003:140). Pero esta tesis después logró recorrer mucho camino, sufrió varios cambios y generó nuevas tesis en los últimos 16 años, siempre dentro del enfoque racionalista-realista. Se mantiene la idea muy general de que toda epistemología evolutiva consiste en explicar los procesos de conocimiento (incluyendo el científico) desde el punto de vista biológico de una teoría evolutiva, usando modelos y analogías que den cuenta de los cambios conceptuales y científicos y del desarrollo de teorías. Pero la simple tesis adaptacionista dio paso a la tesis de la selección natural (especificando los mecanismos universales de dicha selección o selectividad universal), a la evolución desde el punto de vista del organismo, a la evolución desde la perspectiva de los genes, a la interacción organismo-medio, a las teorías basadas en el principio de la simbiogénesis universal y varias otras innovaciones, casi todas las cuales provienen de la biología evolutiva y la mayoría de las cuales resultan más aplicables al estudio del conocimiento en general que al conocimiento científico en particular.

Sin embargo, al lado de esta vertiente orientada a la evolución del conocimiento en general, conocida como el “programa de la evolución de los mecanismos epistémicos” (el programa EEM, por sus siglas en inglés), dedicado a explicar la evolución de los aparatos cognitivos (sistemas cerebrales, motores, sensoriales), nació también el “programa de la epistemología evolucionista de las teorías” (programa EET: Evolutionary Epistemology of Theories), dedicado a explicar la evolución de las teorías, metodologías y culturas científicas, en buena parte desde el ángulo evolutivo de la selección natural. Dentro de este programa, hace cinco años se publicó en inglés el interesante libro de William S. Cooper, “La evolución de la razón: la lógica como rama de la biología” (The Evolution of Reason: Logic as a Branch of Biology), donde explica la derivación evolutiva de la matemática, la lógica de decisiones, la lógica deductiva, la lógica clásica y las lógicas no clásicas. Esta obra representa un paso importante en la epistemología evolutiva de al menos un área importante del conocimiento científico.

Por lo demás, recientemente se ha estado trabajando mucho en dos distinciones meta-teóricas: la que diferencia entre la evolución dentro de un mismo individuo (evolución ontogenética, cuyos orígenes están en la epistemología genética de Piaget) y la evolución a lo largo de la especie (evolución filogenética). Por ejemplo, la pregunta de si los Estilos de Pensamiento (Padrón 2002) pudieran cambiar a lo largo de la vida de una misma persona o si pudieran haber cambiado a lo largo de la evolución de la especie humana se enmarca dentro de esa distinción ontogénesis/ filogénesis. La otra distinción meta-teórica que se maneja en los desarrollos actuales es la de una epistemología evolucionista descriptiva-explicativa versus una epistemología prescriptita-normativa.

El futuro inmediato de esta epistemología evolucionista parece estar marcado por la oposición entre una visión progresista, acumulativa, conducida perfectivamente (podría decirse que casi teleológicamente y hasta determinísticamente) hacia un conocimiento científico convergente, que pueda llegar al máximo de los ideales popperianos de verosimilitud y certidumbre (también Einstein creyó en esta visión general en física) y otra visión indeterminista, aleatoria que, lejos de considerar una llegada a centros convergentes, considera una explosión de divergencias al término de una línea evolutiva anárquica, imprevisible y ateleológica. En breve, y por encima de la epistemología, es el debate entre la visión de una evolución centrada en fines, dirigida a metas, y la visión de una evolución azarosa.

La epistemología naturalizada racionalista: La ya mencionada tesis de Quine fue también recogida y reinterpretada dentro de este enfoque deductivista-teoricista, con mucho menos modificaciones que en el caso del subjetivismo. Esencialmente, el cambio ha estado en una inversión de la trayectoria de búsqueda entre el plano empírico (la historia de la ciencia) y las hipótesis meta-teóricas (explicaciones conjeturales). Mientras en la epistemología naturalista empirista (la original) se parte inductivamente del plano observacional de la historia de la ciencia para encontrar patrones de regularidad en el plano meta-teórico, en la epistemología naturalista racionalista se parte de modelos hipotéticos en el plano meta-teórico para luego ser falsados en el plano observacional de la historia de la ciencia, bajo el mismo estándar popperiano del ensayo y error. Esto implica un importante énfasis en la historiografía de la ciencia (más que en la simple historia de la ciencia), como terreno de contrastación de los modelos epistemológicos racionalistas.

Por otra parte, la misma propuesta de Quine en el sentido de que la epistemología se convierta en una rama de la psicología ha sido reinterpretada en el marco de la llamada “revolución cognitiva”, asociada a cosas como la inteligencia artificial, la lingüística computacional y generativa, las relaciones mente-cuerpo, la robótica, el conocimiento ordinario, etc., tendencias que, por lo demás, habían nacido también dentro de la tradición racionalista-realista de mediados del siglo XX. De hecho, ya para esa época el mismo Chomsky había sostenido que la lingüística debía ser parte de la psicología cognitiva y que el lenguaje había de ser estudiado como un objeto natural, sobre la base de su concepción del lenguaje como módulo cognitivo adscrito al equipamiento biológico del ser humano (al menos en parte, el célebre debate entre Quine y Chomsky pudo haber ayudado al desplazamiento del naturalismo empirista de Quine hacia un naturalismo racionalista y anti-conductista). De esto se deriva que una de las presuposiciones centrales de esta epistemología naturalizada racionalista está en que no existen diferencias estructurales significativas entre el llamado “conocimiento de la psicología ordinaria” y el conocimiento científico. En Padrón, Hernández-Rojas y Di Gravia (2005) se argumenta que las únicas diferencias relevantes entre ambos tipos de conocimiento están en las propiedades de “socialización” y “sistematización”, esto es, en el hecho de que el conocimiento científico tiene mayores alcances fuera del área de la individualidad subjetiva y, además, resulta replicable y canónico. Atendiendo a una visión evolucionista, es muy probable que el conocimiento científico haya sido el producto de un crecimiento progresivo del conocimiento ordinario primitivo hacia niveles cada vez más elevados en esas escalas de socialización y sistematización, nada de lo cual implica diferencias lógico-estructurales internas significativas.

La epistemología cognitiva: Entre las consecuencias de la epistemología naturalizada que se termina de sintetizar, el estudio del conocimiento científico vendría a ser parte de las ciencias cognitivas, es decir, los procesos científicos se analizarían desde el ángulo de los mismos modelos de las ciencias cognitivas. En realidad es esta visión naturalizada del conocimiento científico, dentro del enfoque racionalista-realista, lo que conduce directamente a una Epistemología Cognitiva, mediante un puente de continuidad y estrecha vinculación. Un estudio fundamental en ese sentido es el de Carruthers, Sigeal, Stich (2002), en cuyo prefacio se lee lo siguiente (las preguntas formuladas allí ilustran del sentido y alcance programático de esta epistemología): “La intención detrás de este proyecto fue la de agrupar a un conjunto seleccionado de filósofos, psicólogos y especialistas en ciencias cognitivas para orientar preguntas como las siguientes: ¿qué elementos hay en la cognición humana que nos habilitan o nos adaptan para hacer ciencia? ¿Tienen las competencias científicas algún tipo de bases innatas específicas o son en cambio socialmente construidas mediante mecanismos generales de aprendizaje? ¿De qué modo se adaptan entre sí diferentes elementos de nuestra cognición para sostener el tipo de razonamiento científico? ¿Hasta qué punto existen continuidades entre los procesos cognitivos involucrados en el desarrollo del niño (los mismos que están involucrados en las sociedades cazadoras-recolectoras) y los que son específicos de la investigación científica? ¿Hasta qué punto los mismos sesgos típicos del razonamiento humano impactan en la ciencia y qué puesto ocupan las emociones en una explicación adecuada de la actividad científica? ¿Qué tan importante es la dimensión social de la ciencia para comprender la ciencia y la cognición científica? (2002:XI).

Obsérvese una de esas preguntas: ¿Hasta qué punto existen continuidades entre los procesos  cognitivos involucrados en el desarrollo del niño (los mismos que están involucrados en las sociedades cazadoras-recolectoras) y los que son específicos de la investigación científica? Esto implica ya ciertas conexiones con las epistemologías naturalizada y evolucionista y entre los planos  ontológico y filogenético. Es lo que hace que dentro del enfoque racionalista realista haya una interrelación estrecha entre las diferentes epistemologías manejadas en los últimos años.

Como ya se sugirió, esta epistemología asume que la lógica de los procesos científicos inobservables tiene una base cognitiva, lo que también podría significar que no son las dimensiones sociales lo que centra el interés de la epistemología cognitiva, entre otras razones porque buena parte de los racionalistas tiene una visión internalista de los procesos mentales, incluyendo los de la ciencia. En la tradición del innatismo chomskyano y popperiano, por ejemplo, quedan marginados los esfuerzos por explicar los factores externos de la cognición.

Entre las respuestas más recientes de la actual epistemología cognitiva al problema del conocimiento científico, es representativo el trabajo de Gooding, Gorman, Kincannon y Tweney (2005), en el cual se compilan estudios como, por ejemplo, el de David Klahr (“Un marco para los estudios cognitivos de la ciencia y la tecnología”, Cap. 4, pp. 81-96), el de David Gooden (“Viendo el bosque por los árboles: visualización, cognición e inferencia científicas”, Cap. 9, pp. 173-218), el de Susan Bell y otros (“Rompecabezas y peculiaridades: cómo los científicos atienden y procesan las anomalías durante el análisis de datos”, Cap. 5, pp. 97-118) y el de Kevin Dunbar y Jonathan Fugelsanj (“El pensamiento causal en la ciencia”, Cap. 3, pp. 57-80).

Hasta aquí la reseña explicativa de las llamadas “nuevas epistemologías”. Alguien, quizás, podría extrañarse de que no hay mención a tendencias recientes importantes, tales como la “epistemología de la virtud” (virtue epistemology, sumamente frecuente en la bibliografía especializada), la “epistemología moral”, la “epistemología de la religión”, la “epistemología reformada” y algunas otras más. Una de la razones (además del espacio) es que dichas epistemologías no se refieren a la ciencia sino al conocimiento en general, ya que, como se dijo al principio, en ciertos ámbitos académicos se considera la episte­molo­gía como estudio del conocimiento humano, globalmente entendido, dentro de lo cual se manejan esas epistemologías, mientras que aquí se adopta una concepción más específica.

3.2. Problemas y debates en la epistemología reciente

Estas nuevas epistemologías que se terminan de reseñar y que constituyen tendencias recientes en el desarrollo de la epistemología, se han presentado como variaciones observables de unos pocos enfoques epistemológicos subyacentes, con lo cual se intenta cumplir con el objetivo de explicar esas tendencias, más que de describirlas como simple secuencia anecdótica de datos históricos. Lo importante de esto es que las variaciones observables o paradigmas, tanto en la ciencia como en la misma epistemología que analiza la ciencia, podrían ser explicadas como transformaciones o realizaciones de sistemas de convicciones preteóricos o precognitivos (enfoques epistemológicos). Es la hipótesis que se ha intentado manejar en toda esta exposición.

Pero, mientras por un lado estas variaciones pueden ser estudiadas en sus formas más compactas, organizadas y consolidadas, como es el caso de las “epistemologías” aquí presentadas, también es posible, por otro lado, estudiarlas en rasgos desagregables menores, como sería el caso de los problemas particulares y correlativas divergencias que han empujado tanto la formación de los anteriores paradigmas compactos como, globalmente hablando, el desarrollo reciente de la epistemología. Esto último es lo que se trata de hacer en esta sección. Sin pretensiones de exhaustividad, debido a la enorme proliferación de problemas y tratamientos divergentes, se tratará de apuntar hacia cuestiones esenciales, asociándolas siempre a la misma hipótesis de los enfoques epistemológicos. Se delimitarán en primer plano los problemas más importantes y, en segundo plano, se interpretarán las correspondientes soluciones divergentes desde la perspectiva de los distintos enfoques epistemológicos. No se mencionarán los problemas clásicos, anteriores al siglo XX (el origen del conocimiento, la relación con el objeto, etc.), ni tampoco aquellos de ese mismo siglo que no han llegado a tener mayores desarrollos ni avances significativos (algunos problemas han sufrido un cierto estancamiento), sino sólo aquellos en torno a los cuales se han reportado novedades interesantes. Como se dijo al principio, se descartarán también los tratamientos propios más de la gnoseología que de la epistemología (teoría de la ciencia).

3.2.1. El problema de la justificación

Obviando algunas discusiones en torno al significado del término “justificación”, este problema surge cuando el investigador o los usuarios de una investigación se preguntan por el grado de credibilidad o de confianza que se puede depositar en los resultados obtenidos. Los niños, por ejemplo, atraviesan una cierta etapa “contrastiva” en la que se empeñan en averiguar las bases sobre las cuales decidir si creen o no en aquello que se les dice: “¿y quién te dijo eso?”, “¿cómo sabes tú eso?”, “¿cómo sé si eso es verdad?” son preguntas típicas de esa edad. Se sabe ya, desde la época de la falsación de Popper, que jamás podríamos garantizar la verdad de los hallazgos de la ciencia, ni de ningún otro dato informativo, pero sí podríamos identificar sus errores. Y, mientras no se identifiquen errores, también podemos ir acumulando indicios que aumenten la verosimilitud o el grado de certidumbre de esos hallazgos. Los neopositivistas del siglo XX, por su parte, también identificaron que la investigación científica tenía dos aspectos: el de las circunstancias sociales, culturales y psicológicas que promueven un cierto hallazgo, al cual llamaron “contexto de descubrimiento”, y el de los pasos operativos bien-definidos (metodológicos, procedimentales, instrumentales) a través de los cuales se llega a tales hallazgos, al cual llamaron “contexto de justificación”. Para el enfoque empirista-realista, nadie creería en ciertos hallazgos atendiendo sólo al contexto de descubrimiento. Muy pocos tomarían en cuenta justificaciones del tipo “x es verdad ‘porque lo presiento…’, ‘porque lo soñé…’, ‘porque me lo dijo un ángel…’, ‘porque se le ve en los ojos…’”, etc. La dificultad está en que los hallazgos de conciencia, íntimos, exclusivamente subjetivos, son incomunicables, pertenecen sólo al individuo y nadie más puede replicar o reproducir esos hallazgos. Pero en los enfoques idealistas-subjetivistas, por el contrario, se confía en “el asentimiento del lector experimentado y competente en una impresión ‘sí, es así’. Tal lector competente comprueba, pues, hermenéuticamente, la contundencia de lo dicho en su propia experiencia de vida; él examina el texto bajo el punto de vista de si reproduce o interpreta adecuadamente esta experiencia (…). La auténtica fortaleza del método fenomenológico está en el ‘nivel individual’ de los que lo aplican (amplitud de experiencia o de inteligencia o ambas cosas a la vez)” (Seiffert 1977:241, 244).

Por otra parte, el problema de la justificación del conocimiento científico se plantea también desde  el plano de sus usuarios en la sociedad, el de las personas comunes: en una obra reciente (Ladyman 2002:13-14) se formula este problema a través de un diálogo en que uno de los personajes reta al otro a explicar por qué sus creencias, basadas en lo que dicen los científicos, están mejor justificadas que las creencias en los ángeles y los demonios o los espíritus y la brujería. “Desde luego”, dice el autor, “hay muchas cosas que todos creemos y que no podemos comprobar directamente por cuenta propia; por ejemplo, yo estoy convencido de que el arsénico en grandes dosis es tóxico, pero, hasta donde puedo recordar, ni siquiera he visto jamás un frasco de arsénico ni he comprobado sus efectos” (2002:13), de modo que uno suele confiar en lo que le dicen y uno justifica esas creencias por el hecho de que en sí mismas aparecen dotadas de justificación, pero al individuo común no le consta nada de eso. “Nos gusta creer, sin embargo”, continúa el autor, “que hay una diferencia entre nuestras creencias científicas y las creencias en la brujería, lo cual explica por qué gastamos tanto en medicinas y tratamientos médicos cuando todo sería mucho más barato con unos cuantos sortilegios y sacrificios de animales. (El individuo común) piensa que el método científico es lo que hace la diferencia, que sus creencias son producidas y comprobadas por dicho método y que todo ello tiene algo que ver con experimentos y observaciones” (2002:14). De hecho, la publicidad comercial, en sus intentos persuasivos, suele recurrir a expresiones como “científicamente comprobado”, “de base científica”, “producto de largas investigaciones científicas”, etc.

Las divergencias en el tratamiento e intentos de solución de este problema han sido múltiples y variadas en las últimas décadas. Cabe destacar, dentro del empirismo realista, los resultados “por evidencias”, prolongación del tradicional “naturalismo metodológico” o “naturalismo científico” (que no tiene que ver con la epistemología naturalizada) en el contexto del neopositivismo y de sus tesis respecto a la “confirmación”. En la medicina actual, por ejemplo, se ha difundido mucho el “diagnóstico por evidencias”. Igualmente, en ese mismo enfoque, la epistemología del testimonio (Coady 1995; ver arriba) intenta proveer respuestas serias a la justificación del conocimiento científico, no sólo en el mismo plano interno de la investigación científica sino también en el plano de los usuarios ordinarios de la ciencia, con lo cual buscan responder al problema antes mencionado de por qué los individuos comunes solemos confiar en los conocimientos científicos. Otra respuesta divergente, en el marco del racionalismo realista y de su representación popperiana, es el “falibilismo”. Ya formulada en pleno siglo XX (“no hay verdades terminantes, conclusivas o definitivas”), en los años recientes se ha detallado, profundizado y debatido mediante muchos estudios. Desde el 2000 para acá, el falibilismo ha debido responder a las acusaciones de escepticismo (no se plantea la imposibilidad del conocimiento, sino las limitaciones del equipamiento cognitivo, más la esperanza de ir progresando lentamente hacia la verdad; ver Hetherington 2002). También ha tenido que enfrentar los cargos de circularidad, precisando sus propias definiciones y nociones implícitas (si el conocimiento es falible, también lo es esa misma frase; ver Reed 2002) y, finalmente, ha desembocado en algunas variantes internas de esa misma tesis, que han generado otras formas de falibilismo, siendo una de las más interesantes el análisis de las teorías como organismos que tienen una especie de “fecha de vencimiento” o marca de caducidad (ver Morton 2003, en especial el capítulo 5).

Otras posturas respecto a este problema pueden ubicarse en relación con el debate externalismo/ internalismo, en una de sus varias acepciones corrientes. Para el externalismo, la justificación del conocimiento debe buscarse en áreas externas, más allá de una lógica de la ciencia. Allí pueden situarse algunas posturas del enfoque racionalista en la tradición de Kuhn, Lakatos, Laudan y de la epistemología social de Alvin Goldman (1999), tal como el “narrativismo” (narrative justification, que ubica la referencia justificativa en la historia y en los programas de investigación). También se encuentran en el externalismo las versiones sociohitoricistas herederas de la Escuela de Frankfurt (teoría crítica: el conocimiento se justifica en las esferas de poder y control y en las relaciones de dominación), así como las posiciones intimistas o subjetivistas en la línea de Seiffert (1977), desde donde se han acentuado las implicaciones de la hermenéutica y la fenomenología a favor de los factores intuitivos, reflexivistas (se ha llegado, incluso, a hablar de justificaciones “sujetológicas”). En el internalismo, en cambio, la justificación del conocimiento debe buscarse en áreas estructurales internas, lógico-metodológicas, como la relación observación-contrastación (empirismo realista) y las condiciones lógico-formales, meta-teóricas, de adecuación no empírica (racionalismo realista). Una tendencia internalista que se ha acentuado es el “instrumentalismo”, ya formulado desde hace mucho (el conocimiento científico se justifica no en su grado de verdad/falsedad, sino en su eficiencia para explicar, predecir y derivar tecnologías de control), pero recientemente reformulado mediante tesis pragmatistas y utilitarias vinculadas a la aplicabilidad de la ciencia (“toda observación está cargada de intervención”, al decir de Hacking 1983).

Quedan por fuera, por razones de espacio, muchas ofertas de solución que podrían ser tan importantes como las que se han mencionado. Sin embargo, el punto central es que hoy en día este problema de la justificación del conocimiento está sumamente lejos de ser medianamente resuelto y, probablemente, jamás se llegue a una solución, considerando que las bases de discusión se hallan en el plano pre-cognitivo de los enfoques epistemológicos (el plano de la indecidibilidad de los debates).

3.2.2. El problema de las ciencias sociales

Otro de los problemas que ha ocupado el desarrollo de la epistemología reciente es el de las ciencias sociales, sobre todo en su relación con las ciencias naturales (una buena reseña de este desarrollo puede verse en Turner y Roth 2003). Aparte de las producciones orientadas en sí mismas a una epistemología de las ciencias sociales (como el caso de Bunge 1999), lo más interesante está en la evolución del debate sobre las diferencias específicas, radicales y sustantivas entre “ciencias del espíritu” y “ciencias de la naturaleza”, para decirlo en los mismos términos en que se ventiló dicho debate desde comienzos del siglo XX. Como se sabe, Dilthey impugnó la concepción y métodos de las ciencias naturales en los estudios sociales, por considerar que se fundamentaban en las relaciones de causalidad (cosa que dejaría de ser cierta con el correr de los años), imposibles de aplicar en las “ciencias del espíritu”, proponiendo a cambio las nociones de comprensión e interpretación e introduciendo la “hermenéutica” (uno de sus primeros esfuerzos académicos había sido escribir la biografía de Schleiermacher, estudioso de la hermenéutica, para ese entonces casi olvidado). Luego Husserl ampliaría muchas de estas ideas y añadiría la concepción “fenomenológica” de los estudios sociales, quejándose de las imprecisiones anteriores. Tácitamente dirige su crítica también a Dil­they, a juzgar por lo que dijo en su famosa conferencia de Viena: “Actualmente en todas partes encontramos la ardorosa necesidad de entender el espíritu y ya la ambigüedad de la conexión metodológica y factual entre ciencias naturales y ciencias del espíritu resulta insoportable. Dilthey, uno de los grandes científicos del espíritu, ha dirigido toda su energía vital a clarificar la conexión entre naturaleza y espíritu (…). Los esfuerzos de Windelband y Rickert en ese mismo sentido desafortunadamente no han logrado formar la idea deseada. Como todos, estas personas siguen todavía atados al objetivismo” (puede verse la versión inglesa en http://www.users.cloud9.net/~bradmcc/husserl_ philcris.html).

La Escuela de Frankfurt recogería después estas mismas tesis (Habermas, por cierto, con su noción de “ciencias empírico-analíticas”, confunde en una misma clase tanto al empirismo como al racionalismo de su propia época, tal vez intentando reproducir la misma idea de “ciencias de la naturaleza”). Y, finalmente, desde el último cuarto de siglo hasta ahora, la tesis de la especificidad epistemológica y metodológica de las ciencias sociales frente a las ciencias naturales ha tenido un auge especial, igual que críticas también muy especiales. Y algo curioso en este auge es que no se ha limitado sólo a las publicaciones especializadas, sino que ha trascendido significativamente a la práctica cotidiana de la investigación universitaria en casi todo el mundo. Bajo declaraciones explícitas de complejidad del fenómeno social, de necesaria subjetividad y, a veces, de hostilidad dil­theyana hacia las ciencias naturales, en nuestras universidades se diseñan proyectos y trabajos de grado y ascenso que resultan fieles aplicaciones de esta tesis, aunque no siempre estén enraizadas en un dominio directo de las perspectivas de fondo, sino más bien en informaciones “testimonialmente” transmitidas por profesores y por alguna bibliografía puntual. Como en muchas otras cosas, de esta práctica investigativa resultan dos tendencias académicas: una que honesta y seriamente ensaya los postulados de las “ciencias del espíritu”, esforzándose en atender a las necesidades de credibilidad y validación intersubjetiva de los resultados, y otra que aprovecha las compuertas de la subjetividad y del relativismo para hacer retórica, literatura o discurso vanidoso, sin ideas de fondo (Padrón 2000). Es la misma motivación de las imposturas intelectuales de Sokal y Bricmont (1999), que además tiene muchos antecedentes (como la de Popper en Against the big words, entre otras muy numerosas).

Las últimas versiones de esta tesis de la especificidad de las ciencias sociales se asocian fuertemente al relativismo, al anti-realismo, a la subjetividad, al holismo indiscriminante y, en síntesis, al “todo vale” de Feyerabend. Parece inevitable citar, en este sentido, a Edgar Morin, con sus nociones de las tres teorías, la auto-organización, la epistemología de la complejidad, la oposición entre pensamiento lineal y pensamiento complejo, el conocimiento enciclopedante y, más recientemente, las de transcomplejidad, transdisciplinariedad, etc. (véase la célebre “carta de la transdisciplinariedad” de la reunión internacional celebrada en el convento de la Rábida, España, en 1994). La versión de Morin respecto a la especificidad de las ciencias del espíritu puede sintetizarse en la idea de que las ciencias naturales son desdeñables porque aíslan el objeto de estudio, excluyen al sujeto de su propia investigación y de su propia relación con su objeto y descartan todo aquello que no pueda ser expresado en términos lógico o matemáticos (de hecho, Morin comenzó siendo cinematógrafo surrealista y jamás se especializó en matemática, lógica ni en ciencias naturales, aunque impresiona su capacidad para aprovechar convenientemente ciertas nociones de la física, la matemática y la termodinámica de sistemas). Por supuesto, hay muchas objeciones obvias, sin profundizar demasiado, que se le pueden hacer a estas tres razones de Morin y, en general, a todo su trabajo y a su tipo de discurso, tan obvias que muchos no se explican la repercusión que ha tenido en niveles internacionales e institucionales (por ejemplo, la UNESCO creó en El Salvador la “Cátedra Itinerante de Pensamiento Complejo y Transdisciplinariedad”; se creó también la “Asociación por el Pensamiento Complejo y la Transdisciplinariedad” con sede en París y delegaciones en varios países; y, en la actualidad, son más bien pocos los seminarios doctorales en los que no se manejan las propuestas de Morin).

Uno de los recursos frecuentes de esta tendencia es la de reinterpretar arbitrariamente ciertas cosas de la física y la matemática, a su propio favor. Por ejemplo, la teoría einsteniana de la relatividad y los problemas del observador en física se malentienden como relativismo subjetivo (“todo es relativo al sujeto”), añadiendo además retóricas tremendistas del tipo “la relatividad conmocionó terriblemente los pilares de la física newtoniana”; las nociones de complejidad y caos, nacidas con los tres cuerpos de Poincaré y la mariposa de Lorenz, son malinterpretadas como necesidades de anarquía, desorden y pereza mental en las ciencias sociales; y la incertidumbre de Heisemberg, que por cierto está definida con una fórmula matemática muy precisa, es malentendida como preferencia por los misterios y oscuridades. De hecho, en muchas de las versiones actuales de esta tendencia resulta obvio el gusto por la zona de los misterios y los arcanos enigmáticos e impenetrables, aquella zona donde reinan a su antojo los gurúes y los profetas. Por lo demás, sobra añadir que todo esto aparece vinculado a las tendencias globalizantes del New Age, al constructivismo idealista, al pensamiento posmodernista y, más en general, a un cierto renacimiento del discurso deslumbrante y anticognitivo que, según parece, podría estar tipificando al naciente siglo XXI.

Las objeciones a esta tesis de la especificad sustantiva de las ciencias del espíritu o ciencias sociales pueden sintetizarse en lo siguiente: primero, no es cierto que las ciencias naturales sistemáticamente se orienten por la relación de causalidad ni por la necesidad de observación-experimentación; tampoco es cierto que sólo consideren los objetos observables; tampoco es cierto que excluyan lo que no es medible ni formalizable (en realidad, los sistemas formales son sólo recursos lingüísticos que traducen pensamientos, para lo cual el investigador puede contratar a cualquier experto que formalice sus ideas, en caso de que él mismo no sepa cómo hacerlo); tercero, el holismo es una operación mental que fija sus propios linderos de demarcación conceptual, de donde se sigue que el error metodológico estaría sólo en dejar por fuera elementos relevantes para el análisis, pero los “todos” carecen de existencia ontológica; finalmente, el hecho de que los objetos sociales puedan dar testimonio de sí mismos, lo cual no ocurre con una piedra o un cometa, por ejemplo, no implica un cambio epistemológico sustantivo, sino apenas, a lo sumo, un cambio procedimental e instrumental. En síntesis, los argumentos esgrimidos desde la óptica de esta tendencia no parecen rebatir los ideales de una ciencia unificada (por cierto ¿no es una contradicción al holismo la pretensión de ver como cosas separadas las “ciencias del espíritu” y las “ciencias de la naturaleza”? ¿Por qué no trabajar en una visión holística de ambas cosas?). En cualquier caso, las discusiones se hacen imposibles cuando se sostiene que este tipo de contra-argumentos pertenecen a un “pensamiento lineal”, ante lo cual se termina cualquier conversación.

Por otro lado, en los enfoques empiristas y racionalistas ha habido también importantes desarrollos en el tratamiento epistemológico de las ciencias sociales, independientemente del debate que se acaba de exponer. A modo de ejemplo, pueden citarse los estudios que relacionan lógica de decisiones y grados de creencia; los estudios en metodología de la elección racional; la modelación matemática y simulación computarizada de modelos en ciencias sociales; el análisis y evolución del concepto de comprensión en ciencias sociales, etc. (más detalles en Turner y Roth 2003). Para un trabajo bastante completo en epistemología de las ciencias sociales, que incluye una propuesta de superación del dualismo analiticidad/holismo, y muchos otros aspectos en discusión, véase Bunge (1999).

Sólo se consideraron dos grandes áreas problemáticas en la epistemología reciente, probablemente las más importantes, pero jamás las únicas. Ha quedado por fuera una gran cantidad de estudios y reseñas. Algunas áreas problemáticas no tratadas aquí son, por ejemplo, la de los fines o metas de la ciencia, tanto en el plano teórico como práctico; la que concierne al método (problemas de la inducción, deducción, intuición…); la que tiene que ver con el determinismo e indeterminismo, etc. Razones de espacio impiden un tratamiento que sea al mismo tiempo exhaustivo, práctico y referencial. Sin embargo, el objetivo de esta exposición fue la de proponer un marco explicativo, no histórico, no descriptivo y no anecdótico en torno a las tendencias recientes en epistemología. Es de esperar que, utilizando este mismo marco explicativo, cualquiera pueda ahondar en una visión mucho más completa.

4. Conclusiones

Lo que se ha expuesto conduce a varias preguntas y consideraciones. Una pregunta central se refiere a la función de los estudios de epistemología en los postgrados, en la formación de investigadores y en la práctica cotidiana de la investigación en nuestras universidades latinoamericanas. Sin pretensiones de respuesta, parece importante evaluar el tipo de orientación que en tal sentido se le suele dar a la epistemología. Si esta disciplina es orientada en un sentido de erudición filosófica, de discusiones pormenorizadas o de profundidades altamente especializadas, se perderían las necesarias conexiones con los intereses más concretos de los estudiantes e investigadores. Lo mismo, o peor, ocurre cuando la epistemología es orientada en términos de reflexión libre, subjetivista, relativista y cargada de buen hablar y de discursos brillantes. No se niega que la primera de esas dos orientaciones, aquella de tendencia profundamente técnica y erudita, es parte necesaria de la formación especializada de filósofos. Tampoco se niega que la segunda de ellas puede generar dividendos a la hora de ahorrar esfuerzo intelectual y hasta dividendos de prestigio individual e influencia. Pero, en términos muy generales, debería considerarse una orientación de la epistemología como fundamento para la investigación que se realiza en la práctica y para la gestión de la misma en los planos curricular e institucional. Se ha dicho hasta la saciedad que el conocimiento científico y tecnológico es la base del desarrollo social, de modo que las sociedades que produzcan ese conocimiento serán las más aventajadas, mientras que las que no lo hagan se verán condenadas a importarlo, acentuando así sus ataduras de subordinación y colonización y alejándose de las metas de soberanía e independencia. Es urgente, entonces, promover la investigación como recurso para la producción autónoma de conocimientos, lo cual depende no sólo de la creación de experticias y aprendizajes individuales y grupales, sino también de la eficiente gestión y organización de los procesos investigativos. ¿Y sobre qué bases, directrices y referencias podría promoverse y conducirse todo eso? Es allí donde interviene la epistemología, concebida como teo­ría que explica el conocimiento científico y no como erudición filosófica ni como reflexión retórica.

Ya el tiempo ha mostrado que las referencias para la investigación no están en los manuales de “metodología de la investigación” ni en los textos normativos institucionales. Las discusiones y decisiones en materia de ciencia se resuelven sólo en la epistemología teóricamente entendida, asociada a la historia de las investigaciones, que es su correlato empírico, y no en los seminarios, manuales y textos de metodología de la investigación. No basta, por ejemplo, con que nuestros estudiantes e investigadores justifiquen sus diseños o sus operaciones de trabajo remitiéndose a lo que dice el autor de tal o cual manual de metodología (manuales que, por cierto, a menudo omiten las referencias a una teoría de la ciencia), ya que estaríamos ante una simple falacia ex auctoritate, algo así como si se dijera “la operación p es correcta porque así lo estipula en su manual el señor o la señora k”. Es necesario que el estudiante maneje directamente nociones epistemológicas que expliquen o intenten explicar determinadas operaciones a la luz de un cierto marco conceptual insertado en un enfoque epistemológico determinado. Pero para ello se necesita una formación epistemológica de alcances explicativos, no normativos (ni, por supuesto, eruditos ni retóricos). En realidad, si la epistemología es una teoría, entonces debería ser posible derivar de ella sus tecnologías asociadas, con lo cual la vieja “metodología de la investigación” pasaría a ser sustituida por una “tecnología de la investigación”, en el sentido de sistemas prácticos, aplicativos, teóricamente basados y con mayores alcances.

Otro tanto habría que decir con respecto a los mecanismos de gestión institucional de investigaciones, donde no bastan las nociones prescriptivas tomadas de las áreas gerenciales y organizacionales en general, ya que la conducción de los procesos de investigación implica tomas de decisión que resultan sumamente específicas y cuyos fundamentos particulares no se hallan sino en una teoría de la investigación.

Otra consideración que podría ser importante concierne a la necesidad de visiones de continuidad e interrelación en el tratamiento de los contenidos epistemológicos, lo cual remite una vez más al carácter explicativo de la epistemología. Las visiones descriptivas, anecdóticas o históricas, en las que el estudiante se ve obligado a memorizar nombres de autores, fechas y títulos de obras no parecen conectarse con la necesidad de una base de discusión y de decisiones a la hora de diseñar investigaciones y de gestionar ese tipo de procesos. Hace falta que todos esos contenidos epistemológicos sean interrelacionados en cuadros coherentes de alcance explicativo. Aquí se trabajaron algunos de esos posibles cuadros (la hipótesis de los enfoques epistemológicos, la noción de estructura diacrónica, etc.; ver la sección 1) y, al menos superficialmente, parecen ser eficientes para interrelacionar los contenidos epistemológicos. Pero, evidentemente, no son los únicos ni, probablemente, los mejores, así que quienes tienen responsabilidades e intereses en el área de la epistemología podrían ir aportando nuevas y mejores ideas al respecto. Lo importante es contar con algún tipo de recurso que evidencie los nexos entre los contenidos epistemológicos y que los haga más fecundos y más próximos a las necesidades prácticas de la investigación universitaria.

Aunque el tema de esta exposición estuvo regulado por ciertas intenciones de actualización en la materia, se pretendió también, en el fondo, ofrecer un marco explicativo proyectado hacia la discusión de las posibilidades de aplicación práctica de la epistemología en nuestros postgrados. Es de esperar que estas ideas puedan ser un aporte para esa discusión.

Bibliografía

Alcoff, L. 1989. Justifying feminist social science. En: Tauna, N. (ed.): Feminism in Science. Bloomington: Indiana University Press. pp. 85-103.

Ashmore, M. 2004. Social epistemology and reflexivity: Two versions of how to be really useful. Argumentation 8 (2): 157-161.

Billingsley, K. L. 1996. Feminists Flavor NASA Program: Radical Authors on Lab’s Study List. The Washington Times. February 4: 5.

Bloor, D. 1976. Knowledge and social imagery. London: Routledge.

Bovens, L. y Stephan, H. 2003. Bayesian Epistemology. Oxford: Clarendon Press.

Bunge, M. 1998. Sociología de la Ciencia. Buenos Aires: Editorial Sudamericana.

Bunge, M. 1999. Buscar la Filosofía en las Ciencias Sociales. México: Siglo XXI.

Carruthers, P., Sigeal, M. y Stich, S. (eds.) 2002. The Cognitive Basis of Science. Cambridge: Cambridge University Press.

Chomsky, N. 1988. Language and Problems of Knowledge. The Managua Lectures. Cambridge, Mass.: MIT.

Coady, C. A. 1995. Testimony: A Philosophical Study. New York: Oxford University Press.

Collins, H. y Yearley, S. 1992. Epistemological Chicken. En: A. Pickering (ed.): Science as Practice and Culture. Chicago: The University of Chicago Press. pp: 301-326.

Einstein, A. y Infeld, L. 1950. La Física, Aventura del Pensamiento. Buenos Aires: Losada.

Fuller, S. 2002. Social Epistemology. Bloomington: Indiana University Press.

Goldman, A. L. 1999. Knowledge in a Social World. New York: Oxford University Press.

Goldman, A. L. 2002. The Sciences and Epistemology. En: Moser, P. (ed.). The Oxford Handbook of Epistemology. New York: Oxford University Press, pp. 144-595.

Gooding, D., Gorman, M., Kincannon, A. y Tweney, R. (eds) 2005. Scientific and Technological Thinking. Mahwah, NJ: Lawrence Erlbaum Associates.

Gontier, N. 2006. Evolutionary Epistemology. The Internet Encyclopedia of Philosophy. [Documento en línea. Disponible: http://www.iep.utm.edu/e/evo-epis.htm. Consulta: 01/11/06].

Hacking, I. 1983. Representing and Intervening: Introductory Topics in the Philosophy of Natural Sciences. Cambridge: Cambridge University Press.

Harding, S. (ed.) 2004. The Feminist Standpoint Theory Reader: Intellectual and Political Controversies. Dordrecht, Netherlands: Springer.

Hetherington, S. 2002. Fallibilism and Knowing That One Is Not Dreaming. Canadian Journal of Philosophy 32: 83-102.

Kornblith, H. (ed.) 1994. Naturalizing Epistemology. Cambridge, Mass: MIT Press.

Kuhn, T. 1975. La Estructura de las Revoluciones Científicas. México: FCE.

Ladyman, J. 2002. Understanding Philosophy of Science. London: Routledge.

Lakatos, I. 1978. Metodología de los Programas de Investigación. Madrid: Alianza.

Laudan, L. 1984. Science and Values. Berkeley: University of California Press.

Linch, M., Livingstone, E. y Garfinkel, H. 1983. Temporal Order in Laboratory Work. En: Knorr-Cetina, K. y Mulkay, M. (eds). Science Observed. London: Sage.

Losee, J. 2003. Theories of Scientific Progress: An Introduction. New York: Routledge.

Luke, D. A. 2005. Getting the big picture in community science: methods that capture context. American Journal of Community Psychology 35(3/4): 185-200.

Maffie, J. E. y Triplett, T. 2003. What is Ethnoepistemology. Colorado: University of Colorado. [Documento en línea. Disponible: http://ucsu.colorado.edu/~brindell/soc-epistemology/Bibliographies/Ethnoepistemology/ethnoepistemology.htm. Consulta: 01/11/06]

Meja, V. y Stehr, N. (eds). 1999. The Sociology of Knowledge. Cheltenham, UK: Edward Elgar Reference Collection.

Morton, A. 2003. A Guide through the Theory of Knowledge. Malden, Mass.: Blackwell.

Moulines, C. 1982. Exploraciones Metacientíficas. Madrid: Alianza.

Moulines, C. 1991. Pluralidad y Recursión. Madrid: Alianza.

Padrón, J. 1998. La Estructura de los Procesos de Investigación (mimeo). Publicado en Revista Educación y Ciencias Humanas 9(17): 33. [Documento en Línea. Disponible: http://padron.entretemas.com/Estr_Proc_Inv.htm. Consulta: 01/11/06]

Padrón, J. 2000. La Neosofística y los Actuales Sofismas. Cinta Moebio 8: 1-41. http://www.moebio.uchile.cl/08/padron.htm

Padrón, J. 2002. El Problema de Organizar la Investigación Universitaria. Diálogos Universitarios de Postgrado 11: 9-33. [Documento en línea. Disponible: http://padron.entretemas.com/Organizar_IU.htm. Consulta: 01/11/06]

Padrón, J. 2004. Investigación y Transformación Social. Conferencia inaugural en las X Jornadas de Investigación del Colegio Universitario Francisco de Miranda. Caracas, Venezuela. [Documento en línea. Disponible: http://padron.entretemas.com/Inv_TransfSoc/index.htm. Consulta: 01/11/06].

Padrón, J., Hernández-Rojas, A. y Di Gravia, A. 2005. Epistemología. Tutorial paso a paso. Materiales en CD Rom. Caracas: Fundación LINEA-i.

Pinch, T. y Bijker,W. E. 1984. The Social Construction of Facts and Artifacts: Or How the Sociology of Science and the Sociology of Technology might Benefit Each Other. Social Studies of Science 14: 399-441.

Popper, K. 1977. Búsqueda sin Término. Madrid: Tecnos.

Popper, K. 1982. Conocimiento Objetivo. Madrid: Tecnos.

Popper, K. 1990. Towards an Evolutionary Theory of Knowledge. En: A World of Propensities. Bristol: Thoemmes, pp. 27-51.

Popper, K. 1963. Conjectures and Refutations. London: Routledge & Keagan Paul.

Quine, W. V. 1951. Two Dogmas of Empiricism. The Philosophical Review 60: 20-43.

Quine, W. V. 1969. Epistemology Naturalizad. En: Ontological Relativity and Other Essays. New York: Columbia University Press.

Reed, B. 2002. How to Think about Fallibilism. Philosophical Studies 107: 143-57.

Russell, B. 1931. The Scientific Outlook. Reimpreso como Science and Values en Wiener, P. P. 1953. Readings in Philosophy of Science: Introduction to the Foundations and Cultural Aspects of the Sciences. New York: Scribner. pp. 596-601.

Seiffert, H. 1977. Introducción a la Teoría de la Ciencia. Barcelona: Herder.

Sokal, A. y Bricmont, J. 1999. Imposturas Intelectuales. Buenos Aires: Paidós.

Tebes, J. K. 2005. Community Science, Philosophy of Science and the Practice of Research. American Journal of Community Psychology 35(3/4): 213.

Turner, S. P. y Roth, P. A. 2003. The Blackwell Guide to the Philosophy of the Social Sciences. Oxford: Blackwell Publishing.

Ursua, N. 1993. Cerebro y Conocimiento: Un Enfoque Evolucionista. Barcelona: Anthropos.

Woolgar, S. 1988. Science: the very idea. London: Routledge.

 

INTERPRETACIONES HISTÓRICAS ACERCA DEL CONOCIMIENTO CIENTÍFICO

 

INTERPRETACIONES HISTÓRICAS ACERCA DEL CONOCIMIENTO CIENTÍFICO

 

 

José Padrón - Caracas – Postgrado, USR - (1992)

 http://padron.entretemas.com/interpretaciones_hist.htm

         Como ya se sabe, el conocimiento humano ha sido tradicionalmente un importante objeto de estudio de la Filosofía. “Gnoseología”, “Epistemo­lo­gía” o, simplemente, “Teoría del Conocimiento” son términos muy usua­les con que se denomina ese campo especializado dentro de la filosofía.

         Aparte de los estudios realizados en torno al conocimiento cotidia­no, a veces llamado “conocimiento vulgar”, la parte más interesante de esta es­pecialidad filosófica es la que se centra sobre el conocimiento institu­cionalizado, de carácter sistemático-socializado, aquél que se caracteriza primordialmente por su función de generar cambios en las sociedades, de sustentar acciones racionales colectivas, de producir innovaciones instru­mentales y tecnológicas, de definir perfiles histórico-culturales de las sociedades, etc. El conocimiento “Científico” o “Ciencia”, de modo muy particular, es la variante más representativa y evolucionada del conoci­miento institucionalizado o sistemático-sociali­zado. Por ejemplo, la de­terminación del clima organizacional existente en una cierta empresa co­mercial, obtenida mediante instrumentos refina­dos y métodos rigurosos, es un caso muy concreto de conocimiento siste­mático que no necesariamente es conocimiento científico, pero que, aún así, es mucho más creíble, confia­ble o corregible que, por ejemplo, las opiniones personales o las corazo­nadas del gerente. En cambio, la teo­ría de la relatividad es, estrictamen­te, un caso de conocimiento cien­tífico.

         Pero ¿dónde están los límites y diferencias entre estos tipos de co­noci­miento? Más en detalle, ¿qué rasgos específicos distinguen el cono­cimiento científico? ¿En qué consiste, <<<esencialmente? ¿Cómo se produce? ¿Cuál es su valor? Preguntas como éstas han constituido un problema central en el mar­co de la Epistemología, en cuanto especialidad filosófica. Y, como suele suceder en todas las áreas de la Filosofía, las respuestas son, a través de la historia, múltiples y frecuentemente in­compatibles entre sí.

         Aunque tales respuestas se han venido produciendo desde épocas muy remotas, impo­sibles de precisar, es en el siglo XX cuando adquirieron su mayor relevan­cia, hasta el punto de que expresio­nes tales como “Filosofía de la Cien­cia” o “Metodología de la Ciencia” resultan imprescindibles en el lenguaje académico actual. A pesar de su gran complejidad y controversialidad, es sencillo explicar el interés, la importancia y la relevancia histórica del tema: preguntarse por el conocimiento científico equivale, en términos muy generales y primiti­vos, a preguntarse por la validez o credibilidad que tienen ciertos da­tos cognoscitivos sobre otros; equivale a preguntarse por la garantía o seguridad que ofrece un planteamiento cualquiera en cuanto posible fun­damento de las acciones humanas. En tal sentido, unas preguntas como, por ejemplo, “¿Cómo sé que lo que dices es verdad?” o “¿Cómo sé que puedo guiarme por tus explicaciones e informaciones respecto a esta du­da?” revelan la importancia del conocimiento sistemático y, más en es­pecial, del conocimiento científico. Cuando alguien hace una pregunta de ese tipo no hace más que revelar, en el fondo, la necesidad de una Filosofía de la Ciencia. Es así como esta área filosófica  se ha con­vertido en uno de los grandes núcleos de interés humano, sobre todo en este siglo, cuando se han revolucionado practicamente todos los conoci­mientos anteriores y cuando la tecnología derivada de la ciencia ha de­mostrado su gran poder de penetra­ción y control sobre el comportamiento de la naturaleza y del ser humano.

         En la exposición que sigue se intentará resumir la problemática e­piste­mológica a través de la historia. Se hará más énfasis en el siglo XX y se evitarán las referencias continuas (la base referencial es bastante general y de dominio común; en particular, véanse AA VV, 1978; Abbagnano, 1986; Ayer, 1965; Echeverría, 1989; y García-Bacca, 1963).

1. ANTES DEL SIGLO XX

         En el período grecorromano clásico, el conocimiento científico se con­cibió, en líneas generales, como respuesta a dudas absolutamente u­niversa­les, que interesaban a todos, que trascendían cualquier necesi­dad indivi­dual o grupal  y que se derivaba de reglas previamente  bien definidas de construcción y demostración. Unas veces, tales reglas se basaban casi ex­clusivamente en sistemas precisos e inequívocos de razo­namiento y argumen­tación (Zenón, Parménides, Heráclito, Demócrito, Eu­clides, Sócrates, Pla­tón); otras veces, en la conjugación de sistemas de razonamiento con sis­temas de registro sensorial tal como la observa­ción sistemática y la aten­ción a hechos constatables (Aristóteles); o­tras veces, en la conjugación de sistemas de razonamiento con sistemas observacionales y, además, con sistemas experimentales o de manipula­ción (Arquímedes). Como denominador común de estas interpretaciones, hay una base eminentemente racional en la interpretación de la ciencia. Es decir, el conocimiento sistemático busca su garantía en los mecanis­mos de la razón humana y no en los sentimientos ni en la percepción sensorial ni en las posibilidades adivinatorias, fan­taseadoras o sobre­naturales de la mente humana: o sea, siempre la razón por encima del corazón y de los sentidos biológicos. De hecho, el modelo axiomático e hipotético-deductivo fue el aparato formal en que los anti­guos griegos concibieron la producción de conocimientos científicos, a los cuales se les exigía, ante todo, mecanismos definidos de demostración o comproba­ción. Este fue, en general, el denominador común de esa interpre­tación histórica. Las diferencias, en cambio, en sus aspectos más nota­bles, radicaron en sus concepciones acerca de la relación entre el hombre y el mundo, es decir, entre el sujeto y el objeto de conocimiento. Para u­nos, había un mundo objetivo e independiente del hombre, directamente ubi­cados uno frente al otro, lo cual planteaba dudas o misterios que podían ser dilucidados (el realismo de Arquímedes y Aristóteles, entre otros); para otros, ese mundo aparentemente objetivo era engañoso, era un reflejo proyectado sobre la mente humana en forma de ideas, prove­niente de otras esferas ocultas y que sólo podía ser conocido en rela­ción con otros mundos originales subyacentes (el idealismo de Platón, por ejemplo); para otros, finalmente, el conocimiento total y definiti­vo del mundo era una ambición utópica, un proyecto desmedido en rela­ción con las escasas capacidades de la mente humana y con la vasta com­plejidad del mundo (el escepticismo y agnosticismo, en general). Sin embargo, por encima de estas diferencias, el conocimiento científico se interpretó, en términos globales, como un proceso sometido a reglas ex­plícitas y organizadas, como una respuesta se­gura a intereses universa­les duraderos y como una construcción teórica de base axiomática e hi­potético-deductiva.

         Muchos siglos después, en la época del Renacimiento, el conocimiento científico se reinterpreta como aproximación al mundo físico observa­ble, en evidente omisión del mundo constituido por los hechos de la mente huma­na y de las tendencias o actos de los hombres. Se hace hinca­pié en el en­foque de la experimentación, propuesto por Arquímedes, y en la fase de las comprobaciones empíricas, observables, directamente aso­ciadas a la expe­riencia medible. Se vincula el conocimiento científico a un tipo de len­guaje diferente al lenguaje cotidiano, literario y, en suma, verbal: es a­hora el lenguaje aritmético el que signa los procesos de la ciencia (Gali­leo, Newton, Leibnitz). Aunque la interpretación re­nacentista de la cien­cia seguía fiel al patrón racionalista de los griegos, su énfasis en los aspectos experimentales y observables, acom­pañado de los éxitos derivados en el ámbito de la física mecanicista  (teoría heliocéntrica, teoría de la gravitación universal, etc.), da paso posteriormente a una interpretación empírico-inductivo-cuantitati­va de la ciencia, formulada expresamente por Bacon en términos de un proceso mecánico y estereotipado de observación, clasificación, genera­lización y confrontación de hechos constatables, so­bre la base de un lenguaje aritmético. Así, el conocimiento científico co­menzaba por los hechos evidentes, se ampliaba a través de generalizaciones de tales he­chos y se validaba, finalmente, en confrontación con los mis­mos. Así, el científico era alguien que veía, observaba, medía, clasifica­ba, ge­neralizaba y experimentaba esas generalizaciones, valiéndose casi siem­pre de lenguajes aritméticos.

         Con Descartes y Leibnitz hubo una reacción a la interpretación for­mu­lada por Bacon y una vuelta al racionalismo de los griegos. Centraron su atención en el aspecto de razonamiento y pensamiento como base fun­damental del conocimiento, por encima de los datos observacionales-sen­soriales y de los procesos empíricos. Ampliaron, además, el lenguaje a­ritmético hasta dimensiones matemáticas mucho más integrales y abstrac­tas (álgebra, geome­tría analítica, cálculo infinitesimal, lógica simbólica y lenguajes forma­les...). De ese modo, reinterpretaron el conoci­miento científico como un proceso estrechamente vinculado a estructuras de pensamiento, que luego se acoplaba a los datos sensoriales exploran­do en éstos aquellos sistemas de cosas que satisfacían las estructuras abstractas de pensamiento. Hubo, sin embargo, un hecho histórico que e­clipsó la interpretación racionalista de Descartes y Leibnitz, favore­ciendo el enfoque empírico-inductivo de Bacon: mientras, por un lado, la interpretación racionalista adolecía de mecanis­mos de vinculación con la experimentación y la observación, por otro lado la interpreta­ción empirista satisfacía en modo más rápido e inmediato las aspiracio­nes de expansión y consolidación de los grupos sociales dominan­tes a través de aplicaciones técnico-instrumentales en la esfera del con­trol económico y militar. Así, el concepto de ‘ciencia moderna’ se asoció al concepto de posesión de medios de producción y control social. Las in­terpretaciones de Herschell, Stuart Mill y Whewell no hicieron sino re­for­zar el sentido empírico-inductivo de la ciencia, tras la propuesta de Ba­con, siempre bajo la referencia de los intereses técnico-instru­mentales de las clases sociales dominantes.

         Por lo que se refiere a la relación entre sujeto y objeto de conoci­miento, en todo este período, entre los siglos XVI y XIX, la ciencia se interpretó de acuerdo a dos posiciones esenciales: una, según la cual el mundo era cognoscitivamente válido en sí mismo y otra, según la cual el mundo, en cuanto objeto de conocimiento, era producto de la cons­trucción de la mente humana. Esta última posición, calificada usualmen­te como ‘ide­alismo’, insiste en el carácter de producto mentalmente procesado o de constructo mental que tienen las cosas y hechos de la realidad bajo estu­dio. Kant, por ejemplo, suponía el filtro constante de esquemas mentales (formas apriorísticas de pensamiento) a los cuales se amoldaban los datos empíricos en términos de contenidos variables. De esto resulta que el ob­jeto de conocimiento científico no es tanto el mundo en sí mismo, sino el constructo generado a partir de la relación entre formas constantes de pensamiento y contenidos variables de la re­alidad. Supuso, además, que la demarcación sustancial entre ‘Ciencia’ y ‘Conocimiento Cotidiano’  estaba en el concepto de ‘Sistema’ unificado o unidad sistemática: mientras el conocimiento cotidiano era una simple colección de datos, la ciencia era un sistema ordenado de datos unifi­cados bajo categorías y niveles jerár­quicos. En esta misma línea kan­tiana se ubicaron también, en general, las interpretaciones de carácter teológico-metafísico y psicologista impregna­das por los rasgos de la época del romanticismo y, más tarde, del existen­cialismo (Fichte, Schel­ling, Hegel, Husserl, Dilthey, Heidegger...).

Sintetizando, tenemos hasta aquí, en el período anterior al s. XX, dos  grandes interpretaciones del conocimiento científico: una, que si­túa la validez del conocimiento en los mecanismos de la razón; otra, que sitúa e­sa validez en los datos de los sentidos y de la experiencia. La primera es, esencialmente, la interpretación RACIONALISTA del cono­cimiento científico, asociada comunmente al método deductivo de descu­brimiento y compro­bación; la segunda, la interpretación EMPIRISTA, que privilegia el método inductivo. En el primer enfoque se destacan los filósofos y científicos de la época helenística clásica (practicamente todos), los filósofos escolás­ticos (Sto. Tomás, Duns Scoto...) y cier­tos pensadores que conjugaron la filosofía con la lógica y la matemáti­ca (Descartes, Leibnitz y Kant, quien específicamente aplicó el término “racionalismo” a su propia posición). Pero, desde otro ángulo, esas dos interpretaciones varían, se modifican o se especifican de acuerdo a dos puntos de vista también interpretativos que se les superponen o se les cruzan: según el primero de esos dos puntos de vista, el mundo cognos­cible o los objetos de conocimiento son indepen­dientes de la mente hu­mana, existen por sí mismos y están allí, frente a nosotros, separados de nuestra mente, sin que resulten alterados por nues­tra presencia ni por nuestros actos de conocimiento. Según el otro punto de vista, el mundo es “según  el cristal con que se le mire”; nuestro co­nocimiento de las cosas siempre estará condicionado por nuestra manera de ver, por nuestras estructuras de percepción y pensamiento, hasta el punto de que, en definitiva, no nos acercamos nunca a las cosas como son en sí mismas sino como las representamos en nuestra mente.

         El primer punto de vista constituye, esencialmente, una interpretación REALISTA del cono­ci­miento científico, asociada a una base de objetividad, mientras que el se­gundo constituye una interpretación IDEALISTA, asociada a una base de sub­jetividad. Evidentemente, entre ambas posiciones hay matices in­termedios que van desde el  “realismo ingenuo”, pasando por el “realis­mo crítico”, por ejemplo, hasta el idealismo “absoluto” o “dogmático”. 

2. EN EL SIGLO XX

         En este período las interpretaciones anteriores se llevan a extremos de elaboración, de detalle y de profundización, casi siempre bajo una re­ferencia sumamente importante de la que no disponían los pensadores de an­tes y que ahora se mostraba en toda su magnitud: las conquistas tecnológi­cas derivadas de determinados logros del conocimiento científico, espe­cialmente en Física. Puede decirse que todas las interpreta­ciones de la investigación científica durante el siglo XX se han visto obligadas a con­frontarse, en un eje histórico y socioeconómico, con los fundamentos teórico-metodológicos de los hallazgos más productivos y ‘rentables’ en el plano del control de la naturaleza y de las socieda­des. Dado que las más significativas necesidades humanas estuvieron diagnosticadas en función del confort, la sobrevivencia y el dominio social y dado que dichas nece­sidades dependían estrechamente del apro­vechamiento de recursos materiales (tecnologías militares, medicinales, industriales, etc.), sucedió que el conocimiento científico se evaluó exclusivamente por su relación con la satisfacción de tales necesida­des, casi primarias, y por su rendimiento en la explotación de recursos materiales. La Física, de modo muy particular, fue entonces el área de desarrollo científico más adecuada y más presiona­da, promovida y favo­recida. Sus logros se convirtieron, de ese modo, en referencia obligada para el estudio de las vías y de la naturaleza del co­nocimiento científico. A medida que, con el tiempo, aquellas necesidades iniciales se fueron diversificando y contextualizando, se fueron también ampliando las referencias sociohistóricas y los intereses hacia otras áre­as del conocimiento científico, hasta tocar el área de los procesos psico­lógi­cos y sociológicos, incluyendo el caso de la Educación.

         En todo caso, sobre la base de estas referencias progresivamente más amplias, las interpretaciones del conocimiento científico y de sus res­pec­tivos procesos de producción estuvieron agrupadas, durante el siglo XX, en torno a  cuatro claves sociohistóricas esenciales, que se expo­nen a conti­nuación. En estas claves se forjan, durante el siglo XX, tres modelos básicos de interpretación del conocimiento científico que aquí se llamarán: Empirismo Lógico, Sociohistoricismo Humanista (o "interpretativo")  y Ra­cionalismo Crítico.

 

2.1. La reacción contra el Pensamiento Especulativo   (Religioso, Metafísico, Político, Retórico, etc.)   

         Después de Arquímedes y de su hidrostática, hasta los aportes de Ga­lileo (¡más de  setecientos años!), la humanidad dejó de producir cono­cimientos científicos actualmente registrados. En todo ese tiempo, tan­to los produc­tos de conocimiento como sus procesos investigativos de producción fueron anulados, respectivamente, por ‘verdades’ impuestas desde los vértices de la autoridad político-religiosa y por artificios retóricos de especulación confusa. El mundo concreto observable y cons­tatable y, por tanto, las ne­cesidades materiales humanas (enfermedades, pobreza, ignorancia...) queda­ba totalmente ignorado ante los ‘dogmas de fe’ y ante el discurso ambiguo manipulador. El discurso religioso impo­nía aseveraciones indiscutidas e indiscutibles, mientras el discurso filosófico imponía temas y modos de pensamiento que eran inmunes e im­punes a toda crítica, a todo análisis. No tenía valor alguno el mundo sensible ni el mecanismo biológico para perci­birlo ni la capacidad men­tal para explicarlo. A excepción de las verdades de fe, casi el único parámetro de ‘conocimiento’,  no había medios ni re­ferencias para eva­luar la realidad ni para analizar las interpretaciones del mundo.

         Llegada la época del Renacimiento y el consecutivo auge de las de­man­das comerciales, surge el EMPIRISMO como pensamiento crítico-revolu­ciona­rio y como propuesta para la producción de conocimientos científi­cos (dis­cutibles, validables). Paralelamente, el RACIONALISMO se ofrece también como vía revolucionaria para la liberación del pensamiento de las cadenas del dogmatismo y de la especulación. Pero, a pesar de las conquistas y a­portes empiristas y racionalistas (Bacon, Leibnitz..., Newton, Kepler...), el dogmatismo religioso aún controlaba buena parte de los centros académi­cos y la filosofía se encerraba en la ‘metafísi­ca’ (= lo que está más allá de lo físico), con un lenguaje imposible de evaluar. El dogma y la especu­lación se enfrentaban a los hallazgos de la Física, la Biología y la Química, los cuales, ya en el siglo XIX, comenzaban a influir sobre ciertas disciplinas ‘humanísticas’ tales co­mo la Sociología y la Lingüística (Lin­neo, Darwin, Curie, Comte, Saus­sure...). El siglo XIX, precisamente, fue el gran escenario del debate entre el discurso ambiguo y el discurso exac­to, entre el dogma y la crítica, entre lo “metafísico” y lo “físico” y, en fin, entre la espe­culación y la ciencia. Por una parte, en este siglo se aceleraron los descubrimientos generadores de tecnología; pero, por otra parte, el dogma, el escepticismo y el pensamiento ambiguo recibieron un fuerte impulso de parte del ROMANTICISMO, el cual pregonaba la desconfian­za en la razón y en la capacidad sensorial a favor del sentimiento, la in­tui­ción y la emotividad. Al comenzar el siglo XX, el EXISTENCIALISMO añade aún más fuerza al pensamiento metafísico, ambiguo e incontrolado. Fren­te a estas amenazas, fue el EMPIRISMO inductivo, mucho más que el RA­CIONALISMO  deductivo, el que evidenció mayores aportes tecnológicos y mayor fuerza polemizadora. De ahí que el empirismo inductivo, bajo ciertos cánones i­dentificados con la palabra POSITIVISMO, se convirtie­ra en la primera y más influyente interpretación del conocimiento cien­tífico en el siglo XX, reaccionando contra el pensamiento anárquico o especulativo y propugnando el conocimiento riguroso, sometido a reglas de validación fundadas en la experiencia constatable.

         Después de 1920, en la ciudad de Viena se conformó un célebre grupo co­nocido como ‘CIRCULO DE VIENA’. Fue un grupo de académicos que se i­nició como equipo informal de reflexión, discusión e intercambio inte­lectual, con ocasión de un seminario dirigido por Moritz Schlick en la cátedra de Filosofía de las Ciencias Inductivas de la Universidad de Viena, en 1922. Algún tiempo después, este grupo se convirtió en un núcleo influyente de concepciones definidas en torno al conocimiento científico y a sus proce­sos de producción, sobre todo a partir de 1929, cuando declaran sus con­vicciones a través de un documento público titu­lado “La Concepción Científica del Mundo. El Círculo de Viena”. Inme­diatamente después, publicarían muchos documentos más a través de artículos de una revista propia (“Erken­ntnis” o “Conocimiento”) y de ensa­yos monográficos sucesivos. Aunque esta escuela era, en general, de procedencia alemana, pronto adquirió carácter internacional, especial­mente a través del mundo anglosajón (los psicólogos conductistas en EU, Alfred Ayer en Inglaterra, Jorgen Jorgensen en Dina­marca, Philipp Frank en Checoslovaquia, etc.). Su mayor grado de interna­cionalización e influencia tuvo lugar a raíz de la invasión y persecución nazi en Aus­tria, cuando sus miembros emigraron a distintos países donde continua­ron, cada quien a su manera, difundiendo las ideas del Círculo (“Inter­national Enciclopedy of Unified Science”, desde Chicago; “The Jour­nal of Unified Science”, desde La Haya, etc.). Los miembros del Círculo fueron, en su gran mayoría, profesores universitarios de formación científica: Rudolph Carnap, Kurt Gödel, Hans Hahn (lógicos y matemáti­cos), Otto Neurath (economista), Hans Reichembach, Philipp Frank, Carl Hempel (físi­cos) y muchos otros, todos vinculados de alguna manera al trabajo filosófico en torno a la investigación científica.

         En general, las posiciones del Círculo de Viena estuvieron directa­men­te influenciadas por cuatro antecedentes básicos, los primeros dos de ca­rácter filosófico, el tercero de carácter histórico y el otro de carácter instrumental.

         En primer lugar, el “empirio-criticismo” del físico austría­co Ernst Mach nacido en 1838 y muerto en 1916, con fuertes implicaciones neopositivistas, el cual sólo reconocía como datos váli­dos de conocimiento aquellos elementos ubicados en la experiencia y traducidos en señales de captación sensorial, excluyendo todo enunciado `a priori’ y todo juicio que no pudiera ser confrontado con datos sen­soriales.

         En segundo lugar, las posiciones de Viena se apoyaron en el “análisis lógico del conocimien­to” de Wittgenstein, nacido en 1889 y muerto en 1951, así como en sus te­sis sobre la naturaleza “analítica” de la Lógica y la Matemática y en sus críticas a la filosofía especula­tiva.

         En tercer lugar, y como influencia de tipo histórico, la revolu­ción de la Física Cuántica fue interpretada como demostración del ca­rácter analítico de la ciencia y de la fuerza del pensamiento riguroso orientado hacia los hechos observables y hacia los mecanismos de com­probación. Finalmente, como antecedente de carácter ins­trumental,  las  herramientas de la lógica matemática, consolidada unos veinte años an­tes en los “Principia Mathematica” de Russell y Whitehead y profundiza­da por los lógicos polacos y los trabajos de Hilbert, ofrecieron al Círculo de Viena un importante aparato para traducir datos de conoci­miento empírico a un lenguaje preciso, riguroso e inequívoco que conci­bie­ron como modelo del lenguaje científico: de allí las célebres expre­siones “empirismo lógico” y “atomismo lógico” con que se identificó el Círculo (la Lógica de Bertrand Russell había distinguido entre hechos/ proposicio­nes “atómicos” y hechos/proposiciones “molecu-lares”).                           

         Sobre la base de tales antecedentes, esta escuela produjo un conjun­to de tesis bien definidas que interpretan el conocimiento científico. Entre ellas, hay cuatro que vale la pena mencionar:

-EL CRITERIO DE “DEMARCACION: lo que esencialmente distingue al cono­cimiento científico frente a otros tipos de conocimiento es su verifi­cabilidad con respecto a los hechos constatables. Un dato de conoci­miento será, por tanto, científico si y sólo si  es susceptible de ser confirmado o corroborado por la experiencia objetiva, aquélla que se traduce en captaciones sensoriales. Un enunciado científico aceptable será sólo aquél que resulte verdadero al ser comparado con los hechos objetivos. Así, la VERIFICACION empírica constituye el criterio específico de demarcación entre ciencia y no-ciencia.

-LA INDUCCION PROBABILISTICA: la producción de conocimiento científico comienza por los hechos evidentes susceptibles de observación, clasifi­cación, medición y ordenamiento. Sigue con la detección de regularida­des y relaciones constantes y termina con las generalizaciones univer­sales formuladas mediante leyes y teorías. Sin embargo, dado que el conjunto de todos los datos de una misma clase suele escapar a las cir­cunstancias de tiempo/espacio del investigador  (es imposible, por e­jemplo, observar todas las vueltas que ha dado y dará la tierra alrede­dor del sol o todos los cisnes que han existido y existirán sobre el planeta, etc.), entonces el proceso de generalización de observaciones particulares tiene que apoyarse en modelos de PROBABILIDAD (al Círculo de Viena, a Carnap en particular, se debe la construcción de la Lógica Probabilística), base de los tratamientos estadísticos utilizados ac­tualmente en todas las áreas de investigación. De acuerdo al concepto de probabilidad, es posible inferir leyes generales a partir de un subconjunto o muestra representativa de la totalidad de los casos estu­diados. Esto implica que el conocimiento científico debe tomar en cuen­ta ciertos índices de error y ciertos márgenes de confiabilidad previa­mente establecidos.

-LENGUAJE LOGICO: los enunciados serán científicos sólo si pueden ser expresados a través de símbolos y si pueden ser relacionados entre sí mediante operaciones sintácticas de un lenguaje formalizado (indepen­diente de su contenido significativo). Por ejemplo, si se dice que “Fuerza” es el producto de la “Masa” de un cuerpo y de su “Acelera­ción”, deberá ser posible expresar que  f = m.a. Además, deberá ser po­sible operar con esos símbolos sin tomar en cuenta su significado, de acuerdo a reglas formales que permitan formar expresiones tales como  m= f/a  o  a = f/m. En tal sentido, los enunciados científicos estarán dotados de una expresión sintáctica, formal o simbólica, por una parte, y de una correspondencia semántica, significativa o empírica, por otra parte. La base de esta correspondencia estará, por supuesto, en los e­nunciados observacionales más concretos dados por la experiencia (len­guaje “fisicalista”).

-UNIFICACION DE LA CIENCIA: todo conocimiento científico, cualquiera sea el sector de la experiencia sobre el cual se proyecte, estará iden­tificado (construído, expresado, verificado...) mediante un mismo y único patrón. En un sentido epistemológico y metodológico, no se dife­renciarán entre sí los conocimientos científicos adscritos a distintas áreas de la realidad. Además, todo conocimiento científico en cualquier ámbito de la descripción del mundo deberá buscar relaciones de compati­bilidad e integración con los demás conocimientos científicos elabora­dos en otros ámbitos. Ya que la realidad constituye globalmente una so­la estructura compacta y coherente (ordenada), también el conocimiento científico de la misma debe resultar, en definitiva, una misma cons­trucción igualmente integrada. Según tal planteamiento, existe una úni­ca Filosofía de la Ciencia, es decir, un único programa de desarrollo científico para toda la humanidad. La Lógica y la Matemática  serán el esquema básico para toda expresión comunicacional ‘verificable’ de la ‘ciencia’.

         A pesar de su impacto inicial y de su enorme influencia, estas tesis se vieron sometidas a crítica por otros filósofos de la ciencia que, aunque coincidían en los aspectos básicos ya planteados, disentían en otros más específicos (Quine, Putnam, Toulmin, Hanson, Nagel, etc.). Los mismos in­tegrantes del Círculo fueron haciendo revisiones y recti­ficaciones propias (Carnap, especialmente, Hempel y otros). De estas críticas y revisiones nació una ulterior interpretación del conocimien­to científico que respeta­ba las bases del Círculo, pero que imponía mo­dificaciones y correcciones de interés. En esencia, se abandonó el “em­pirismo ingenuo” implícito en las tesis iniciales;  se reajustó el con­cepto de “reglas de corresponden­cia” entre los planos teórico y obser­vacional, volviendo a Whewell, quien casi un siglo antes sostenía la relatividad de la distinción “teórico/em­pírico”,  advirtiendo (Whewell, 1967:30) que “nuestras percepciones en­vuelven nuestras ideas” (lo cual Hanson parafraseó al decir que toda ob­servación está “cargada de teoría”); se hizo más flexible el concepto de “reducción” de unas teorías a otras y se amplió el modelo de las teorías científicas para dar cabida a otras opciones válidas. Todas estas revisio­nes y ajustes conformaron una diferente interpretación que se divulgó bajo el término “Received View” o “Concepción Heredada” que, en pocas palabras, consistió en una versión menos radical y más reflexiva de las tesis del Círculo de Viena.  

 

2.2. La Posición Racionalista frente al Empirismo Inductivo

         Ya desde las primeras declaraciones del Círculo de Viena, había críti­cas de corte racionalista a las tesis empírico-inductivas de esa es­cuela y aún a las posteriores revisiones de la “Received View”, antes mencionada. De hecho, el más importante representante de estas críti­cas, el filósofo austríaco Karl Popper, publica una obra fundamental, su famosa “Lógica de la Investigación Científica”, apenas en 1934, cuando las tesis de Viena se hallaban en pleno desarrollo. Pero es sólo desde 1960 cuando realmente se divulgan y adquieren fuerza estas críti­cas racionalistas, hasta llegar un momento en que se imponen muy por encima de todos los enfoques preceden­tes. Aunque no fue precisamente en el sector de las Ciencias Sociales  donde el racionalismo del siglo XX tuvo su mejor acogida (y mucho menos en la  Educación, donde ha pasado casi inadvertido), sí logró dominar cómodamente en el terreno de las investigaciones tecnológicas, de las ciencias “duras” o “pesadas” y en algunos ámbitos tradicionalmente humanísticos co­mo la Economía y la Lingüística (que, por cierto, luego de haber sido an­tes áreas especula­tivas y después disciplinas taxonómicas o descriptivas, se convirtieron, bajo el modelo racionalista, en ciencias teóricas, ex­plicativas, de alto nivel metodológico e instrumental).

         Es cierto que después de haberse impuesto esta posición racionalista surgieron numerosas reacciones contrarias, como las que se mencionan más adelante, aparte de las propias revisiones y modificaciones ubica­das den­tro del mismo enfoque. Pero también es cierto que aún la versión original perdura actualmente en amplios sectores de la investigación científica y de los ambientes académicos internacionales (un simple ejemplo está en las cartas, ponencias y discusiones publicadas  en Hamburger, 1989).

         Desde cierto punto de vista, en esta corriente de oposición raciona­lista al empirismo inductivo se pueden agrupar interpretaciones episte­mológicas no del todo coincidentes entre sí, pero que muestran, en con­junto, un trasfondo coherente de acuerdos elementales suficientes para definir una misma orientación de la investigación científica. En ese e­je se pueden si­tuar, entre otras, las propuestas de Bachelard, Popper, Braithwaite, Laka­tos y Bunge. Sin hablar de las discrepancias filosófi­cas, algunas impor­tantes, entre estos autores, debe tomarse en cuenta una diferencia histórica fundamental entre ellos y es que cada uno asu­me sus posiciones bajo la motivación de propuestas particulares que son distintas entre sí, cada una de las cuales es asumida por cada autor como referencia específica de impugnación o de modificación. Popper, por ejemplo, está esencialmente o­rientado a impugnar la concepción em­pírico-inductiva concentrada en el Círculo de Viena, sin prestar mucho interés a otros enfoques; Lakatos, en cambio, se interesa en adecuar las tesis de Popper a ciertas exigencias e­videnciadas por otras críti­cas; Bunge, por su parte, enfrenta referencias bastante generales, que van desde las dificultades surgidas de Popper y del seno del mismo ra­cionalismo, pasando por las objeciones al empirismo inductivo, hasta la impugnación a las nuevas versiones del subjetivismo, psicologismo e i­dealismo de estos años recientes. Por tanto, no todos es­tos autores pueden evaluarse bajo un mismo criterio sin considerar las re­ferencias específicas que motivan los planteamientos de cada caso. De a­cuerdo a esto, ciertas expresiones muy frecuentes en los textos de filoso­fía de la ciencia evidencian esas referencias específicas: “falsacio-nismo” popperiano, “racionalismo aplicado” de Bachelard, “falsacionismo meto­dológico refinado” de Lakatos, “convencionalismo” de Poincaré y Duhem, etc. Muy  en general, y tomando los planteamientos de Popper  como base de ex­posición, las tesis elementales de esta corriente pueden sinteti­zarse en lo siguiente:

-EL CRITERIO DE DEMARCACION: lo que diferencia a la ciencia de otros tipos de conocimiento es su posibilidad sistemática de ser RECHAZADA por los datos de la realidad. A diferencia del enfoque empírico-induc­tivo, según el cual un enunciado es científico en la medida en que su VERACIDAD pueda ser confirmada por la experiencia, en el enfoque racio­nalista de Popper y sus seguidores, un enunciado será científico en la medida en que más se arriesgue o se exponga a una confrontación que e­videncie su FALSEDAD. Según esta posición, la ciencia se distingue de otros conocimientos por ser “falsable” (y no “verificable”), es decir, porque contiene mecanismos orientados a determinar su posible falsedad. La base de este criterio está en la misma crítica al empirismo y al in­ductivismo: por más que un enunciado se corresponda fielmente con miles de millones de casos de la realidad, en principio nada impide que de pronto aparezca un caso contradictorio. Si, por ejemplo, observamos mi­llones de cuervos y observamos, además, que todos son negros, no hay razón lógica para concluir en que todo cuervo es necesariamente negro, ya que siempre cabe la posibilidad de que aparezca alguno de otro co­lor. Y, dado que el conjunto completo de todos los casos posibles esca­pa a la observación del ser humano, nunca será posible VERIFICAR o com­probar la verdad de un enunciado como “todos los cuervos son negros”. Pero, en cambio, sí será siempre posible determinar su FALSEDAD, para lo cual bastará un solo caso en que no se cumpla la ley. Por tanto, el conocimiento científico no persigue demostrar su veracidad, sino expo­nerse a cualquier caso que evidencie su falsedad. Así, todo enunciado científico podrá ser mantenido sólo provisionalmente (aún cuando trans­curran siglos), mientras no aparezca un caso que lo contradiga (es de­cir, jamás podrá ser decisivamente VERIFICADO); pero, en cambio, sí po­drá ser refutado y desechado definitivamente apenas surja un dato que lo niegue. En síntesis, los enunciados científicos se distinguen justa­mente por estar siempre expuestos a pruebas de FALSEDAD. De esta forma, el “falsacionismo” viene a ser el criterio de demarcación entre ciencia y no-ciencia y, por tanto, es la magnitud de su “contenido de falsedad” lo que hace más o menos científico a un conocimiento dado. De lo ante­rior se infiere que la meta de la ciencia y de la investigación jamás podrá ser la CERTEZA objetiva, la cual no existe, sino, más bien, la “verosimilitud”, o sea, el grado en que un enunciado sea capaz de salir ileso de las pruebas de falsación y de prevalecer ante otros enunciados competidores por su mayor capacidad de cobertura ante los datos de la experiencia. A diferencia del positivismo lógico, el racionalismo dese­cha el concepto de “verdad objetiva e inmutable”, acepta la relatividad del conocimiento científico, admite los factores sociales e intersubje­tivos que condicionan su validez y, tal vez lo más importante, plantea su carácter de CORRECTIBILIDAD sobre la base de constantes procesos de falsación ante los hechos y ante otras opciones de conocimiento. Así, y de acuerdo a esta interpretación, mientras el conocimiento especulativo idealista (los discursos retóricos, por ejemplo, o políticos, religio­sos, subjetivistas, psicologistas, etc.) se vale de subterfugios para evadir su confrontación con la experiencia y para escapar a toda evi­dencia de falsedad, el conocimiento científico se valida, por encima de todo, en sus posibilidades de error. Desde este ángulo queda plenamente aceptado y justificado el hecho de que sea en la ciencia, precisamente, donde se descubra la mayor cantidad de errores del conocimiento humano, ya que otros tipos de conocimientos evaden las confrontaciones o ries­gos y esconden sus debilidades.  Como contraparte, es también en la ciencia donde se halla el mayor número de rectificaciones y evolucio­nes, mientras otros tipos de conocimiento permanecen estancados e im­productivos.

         Aún dentro del mismo racionalismo, sin embargo, este criterio de falsación no es, ni mucho menos, compartido unánimemente como base de demarcación del conocimiento científico, aunque sigue vigente hoy en día en muchos sectores académicos. Ha habido propuestas diferentes:  a Bunge (1985a:33), por ejemplo, parece bastarle la condición mínima de “contrastabilidad” de los enunciados sistemáticamente derivados de  hipótesis; Lakatos situó la referencia de falsación en teorías rivales y no en los hechos de la experiencia; más recientemente, el matemático René Thom (el de la “Teoría de las Catástrofes)” propuso, como condi­ción, la capacidad para “reducir” descripciones empíricas (Hamburger, 1989:72). Pero, más allá de las propuestas, el criterio de demarcación sigue siendo un problema no resuelto entre los racionalistas actuales. Una posición bastante generalizada y sumamente flexible consiste en admitir que cada disciplina determina sus propios y específicos crite­rios de demarcación en función de sus posibilidades DEDUCTIVAS.

-CARACTER TEORICO-DEDUCTIVO DEL CONOCIMIENTO: como se sugirió antes en el ejemplo de los cuervos negros, el racionalismo de este siglo declara inválido el conocimiento construido mediante generalización de casos particulares (la famosa “crítica a la inducción”) y concebido como sim­ple descripción o sistematización de regularidades detectadas en los hechos estudiados (al estilo del estructuralismo de mediados de siglo, por ejemplo, o de ciertas versiones del conductismo). No obstante el esforzado e ingenioso aparato de la Lógica Inductiva elaborado por Car­nap en el Círculo de Viena, la interpretación racionalista hace una im­pugnación implacable al concepto inductivo del conocimiento científico y a los métodos de investigación derivados de dicho concepto. A pesar de que en los sectores más amplios se admite la inducción probabilísti­ca como opción operativa y estratégica de apoyo a la investigación, la característica fundamental y más específica del racionalismo en cual­quier versión es, definitivamente, la concepción teórica del conoci­miento, en términos de capacidad de EXPLICACION predictiva y retrodic­tiva, sustentada en una vía DEDUCTIVA estrictamente controlada por for­mas lógico-matemáticas. En tal sentido, y en términos muy simples, el conocimiento en torno a cualquier conjunto problemático de datos empíricos empieza por “conjeturas” muy amplias y arriesgadas a partir de las cuales puedan ir derivándose progresivamente las explicaciones más específicas de la realidad problemática. Finalmente, como ya se dijo, si éstas últimas explicaciones no resultan negadas por los hechos, las conjeturas iniciales junto con todo el sistema de derivaciones podrán quedar en pie de manera provisional, hasta tanto no surja un hecho in­compatible o una nueva teoría más potente. De lo contrario, si apenas un solo dato empírico resulta opuesto a las derivaciones específicas, la teoría deberá abandonarse por inadecuada o FALSA. De acuerdo a esto, el conocimiento científico es sinónimo de conocimiento teórico produci­do bajo sistemas deductivos, con capacidad para ir más allá de las res­puestas a cómo son los hechos, tras respuestas a sus causas y porqués, de modo que pueda explicarse cada uno de los hechos, pasados y futuros, que pertenecen a una misma clase, independientemente de las circunstan­cias espacio-temporales. Así, en lugar del concepto de “ciencia empíri­ca” (producida a partir de los datos fácticos), el racionalismo postula el concepto de “ciencia teórica de base empírica” (producida a partir de hipótesis amplias y confrontada con los hechos).

-REALISMO CRITICO: como se vio antes, el empirismo inductivo de Viena reaccionó contra toda forma de idealismo (según el cual todo conoci­miento se desvía   de los hechos objetivos para convertirse en repre­sentaciones condicionadas por los esquemas mentales del sujeto y depen­dientes más de sus estructuras personales y socioculturales que de las estructuras ontológicas del objeto). Como  respuesta asoció  entonces el concepto de objetividad total al concepto de ciencia. En sus versio­nes más radicales, esta respuesta constituyó lo que se ha llamado el “realismo ingenuo”. Sin embargo, esta postura se fue ampliando con el tiempo. Para la época de las primeras voces del racionalismo, y como rechazo tanto al idealismo como al realismo ingenuo, se adoptó el con­cepto de “realismo crítico”, según el cual no es válido identificar el conocimiento o la percepción con los objetos estudiados o percibidos, como si hubiera una estricta correspondencia, de donde se deriva la ne­cesidad de someter a “crítica” los productos de la investigación, con la intención de profundizar en las diferencias entre resultados objeti­vos y resultados subjetivos. Popper (1985:43), por ejemplo, desde el principio sostenía que “la objetividad de los enunciados científicos descansa en el hecho de que puedan contrastarse intersubjetivamente”, refiriéndose a la “regulación racional mutua por medio del debate crítico”. A pesar de las frecuentes acusaciones de ‘ahistoricismo’ y ‘po­sitivismo’, al proponer el concepto de “intersubjetividad” asociado a la negación del concepto de “certeza” y a los conceptos de “verosimili­tud” y “grados de corroboración”, el racionalismo toma sus distancias con respecto al auténtico positivismo y prevé las condiciones sociocon­textuales de validación del conocimiento (por supuesto, mucho menos e­laboradas en Popper que en Lakatos y menos en éste que en las recientes versiones del “enfoque estructural”, mencionado más adelante).

 

2.3. La Reacción Anti-Analítica y Socio-Historicista    

         Hay, desde cierto punto de vista, dos elementos comunes en las in­ter­pretaciones empírico-inductiva y racionalista que se acaban de rese­ñar (coincidencia que, por cierto, lleva a algunos autores a incluir ambos en­foques en una misma interpretación supuestamente “positivista” o “cuanti­tativa”, olvidando que las diferencias son aún más numerosas y relevantes que estas coincidencias): un primer elemento común es la concepción analítica de la ciencia; el otro es su escasa atención al contexto SOCIOHISTO­RICO que condiciona el conocimiento científico.

         La concepción analítica de la ciencia se opone, básicamente, a las concepciones metafísicas y retóricas fundadas sobre el lenguaje verbal es­pontáneo y sobre el razonamiento libre. En sustitución del lenguaje natu­ral, proponen un METALENGUAJE como instrumento de control y como medio de expresión de los enunciados científicos, es decir, una especie de código que opera sobre las expresiones del lenguaje natural asignán­doles diversas funciones, diversos niveles jerárquicos y diversos valo­res. Y, en sustitu­ción del razonamiento libre, proponen una LOGICA FOR­MAL como instrumento de legitimación y validación de las secuencias de pensamiento elaboradas en función de las descripciones y explicaciones científicas. Por ejemplo, una expresión ordinaria como “Pedro no es cu­bano” se somete al metalengua­je ya mencionado cuando se transforma en una expresión analítica como “El enunciado Pedro es cubano’ es falso”. De esta manera, para la concepción analítica toda expresión científica debe ser reductible a una estructura metalingüística que permita consi­derar el valor de verdad (FALSO o VERDA­DERO) de dicha expresión, siem­pre en relación con una situación o estado de cosas constatable inter­subjetivamente (la verdad o falsedad de las hi­pótesis teóricas, sin em­bargo, no se determina en relación con ellas mis­mas, sino a través de la verdad o falsedad de los enunciados que se deri­ven de ellas). Por o­tra parte, no es válido un razonamiento como, por e­jemplo, “quien se a­limenta bien sobrevive, así que vivirás mucho tiempo porque comes bien”; pero, en la concepción analítica, la invalidez de este razona­miento no depende de transgresiones al sentido común y ni siquiera del contenido de las palabras; es inválido sólo porque transgrede las le­yes formales lógicas de los enunciados condicionales. Es decir, es el apa­rato de la Lógica Formal, y no otra cosa, lo que decide, la validez de un razonamiento.

         El segundo elemento en que coinciden el positivismo lógico y el ra­cio­nalismo crítico consiste en relegar a un segundo o tercer plano las condi­ciones sociales e históricas en la interpretación del conocimien­to. El a­historicismo más radical se ubica en las tesis del Círculo de Viena y es consecuencia del énfasis preponderante que ellas asignan al dato positivo, inmediato, observacional, directo, como referencia váli­da del conocimien­to, con exclusión de todo factor externo o contextual. En el racionalismo, las posiciones en cuanto al carácter sociohistórico del conocimiento di­fieren en grados de amplitud y flexibilidad. Por e­jemplo, la interpreta­ción de Popper (1957, 1961) desecha la posibilidad de leyes históricas y de evolución social, como consecuencia de su en­foque “indeterminista” de la Física y la Sociología; pero, en cambio, postula una referencia social para el conocimiento (alcance “intersub­jetivo” de la ciencia como “insti­tución social”). Gaston Bachelard (1951) en cambio, así como Imre Lakatos (1978), conceden un papel más decisivo al factor histórico, bien sea en términos de “progreso de la racionalidad” (Bachelard) o en términos de “historia interna” como re­ferencia de contrastación de teorías rivales. Pero, en todo caso, no hay en el racionalismo, al menos antes de la década del ’70, una visión estructural-funcional de los factores históricos al lado de los facto­res lógico-cognoscitivos. Mucho menos la hay con respecto a los facto­res socio-psicológicos. A modo de ilustración, el racionalismo no ex­plica el simple hecho de que ciertos conocimientos científicos pudie­ran haber dependido del prestigio o posición de sus productores o de cier­tos intereses políticos e ideológicos favorables, por ejemplo.

         Contra estos dos elementos comunes habrá, a partir de 1970, una sólida reacción que comienza con “La Estructura de las Revoluciones Cien­tíficas” del físico Thomas Kuhn (publicada ocho años antes), continúa con “Contra el Método” de Paul Feyerabend (pri­mero como ensayo en 1970 y luego como libro en 1975) y sigue con la llamada “Escuela de Frank­furt”, cuyas tesis van más allá de una epistemología y cuya manifestación más elaborada es la “Teoría de la Acción Comunicativa” de Jürgen Habermas, en 1985. Esta reac­ción, de aquí en adelante, se diversifica en una proliferación casi incontrolada de enfoques diversos, que van desde extremas formas de empirismo, inducción, idealismo y especulación retórica, en algunos casos, hasta replanteamientos que buscan resolver necesidades muy específicas de ciertas áreas de conocimiento (“etnografía” y “etnometodología”, “investiga­ción-acción”, “investigación parti­cipante”, “investigación naturalista”, “investigación evaluativa”, etc., con una notoria proliferación de términos nuevos: “escenario”, “triangula­ción”, “consenso”, “visualización”, “internalización”, etc.). El impacto de esta reacción an­ti-analítica y sociohistórica ha estado casi totalmente limitado a los diversos sectores de las Ciencias Sociales. En el ámbito de las Ciencias Naturales, en Física es­pecialmente, este enfoque practicamente no ha tenido repercusión.

         Dicho en forma general, la tesis esencial de este enfoque sociohistórico plantea que el conocimiento científico carece, en cuanto tal, de un estatuto OBJETIVO, UNIVERSAL E INDEPENDIENTE (o sea, no tiene carác­ter de ‘constante’ con respecto a las ‘variables’ del entorno), sino que, al con­trario, varía en dependencia de los estándares sociocultura­les de cada época histórica. Por tanto, no existe LA metodología cien­tífica ni EL cri­terio de demarcación, etc., sino LAS metodologías, LOS criterios, etc., según los estándares de las diferentes sociedades.

         Kuhn (1975), el iniciador de esta reacción y el que menos radicalmente se apega a esa tesis general, propone los conceptos de “comunidad científica”, “paradigma”, “ciencia normal”, “crisis”, “revolución científica” y otros, para explicar el desarrollo de la ciencia en una secuencia como ésta: paradigma1 (ciencia normal1) ® crisis ® revolución ® paradigma2 (ciencia normal2) ® ... Por tanto, las teorías científicas no se superan unas a otras mediante procesos de verificación ni de falsación. Simplemente, cambian en virtud de las cri­sis y pérdidas de fe en un deter­minado paradigma científico y esto, a su vez, depende mucho más de las variables sociohistóricas que de los procesos del conocimiento en sí mismos.

         Paul Feyerabend, en cambio, ofrece una versión más radical, llevando aquella tesis general a sus extremas consecuencias: dado que no existe EL método, cada quien puede usar el que quiera (principio del “todo vale” y postulación del “anarquismo epistemológico”). Además, dado que las teorías científicas son productos variables de estándares sociohistóricos también variables, entonces ninguna teoría es comparable con otra, cada una es tan verdadera como las otras y, en consecuencia el mundo va cambiando a medida que cambien sus respectivas representaciones asociadas al conocimiento científico de la época (concepto de la “inconmensurabilidad” de las teorías).

         La Escuela de Frankfurt, por su parte, se acoge a la tesis general expuesta antes en términos de los conceptos marxistas de “Dialéctica” y “materialismo histórico”, lo cual implica una versión particular de este en­foque (no siempre, necesariamente, anti-raciona­lista, pero sí anti-analítica y sociohistórica). A diferencia de los enfoques de Kuhn y Feyerabend, que no proponen una orientación epistemológico-metodológica definida para sustituir los anteriores modelos positivista y ra­cionalista, la Escuela de Frankfurt sí ofrece su propia opción. Antes que nada, y muy en general (incluyendo las versiones de algunos simpa­tizantes de esta escuela, como Seiffert, 1976,  entre otros), retoman ciertos conceptos de varias posi­ciones filosóficas del pasado, tales como la fenomenología de Husserl (“intuición”, “esencia”, “viven­cia”...); el historicismo de varios autores tales como Hegel (“todo co­nocimiento es conocimiento histórico”), Dilthey (“experiencia vivida”, “compren­sión”, “interpretación”, “hermenéutica”, “ciencias de la natu­raleza y del espíritu”...), Win­delband y Rickert (ciencias “nomotéti­cas” e “ideográficas”); el existencialismo de Heidegger (“temporali­dad”, “vivencia interior”, “hermenéutica”...), etc.  A partir de este entramado mul­ti­conceptual, con evidente preferencia por Hegel y Dilt­hey, este enfoque propone sustituir la concepción analítica del racio­na­lismo por la “interpretación hermenéutica” y por la “lógica dialécti­ca”; como fines del conocimiento, sustituye el concepto racionalista de expli­cación por el de “comprensión”; como proceso de validación del co­nocimien­to, sustituye el concepto de contrastación empírica por el de “consenso intersubjetivo”; finalmente, como función humana del conoci­miento, propone las ideas de “compromiso” y “transformación social” en lugar de las dife­rentes aspiraciones racionalistas (control de la natu­raleza, efectividad de la acción racional, producción de estructuras de pensamiento, etc.).

         Como producto de estas tres versiones de la tesis general anti-ana­lítica y sociohistórica, en el seno de las Ciencias Sociales se han promovi­do diversas opciones metodológicas que tienen en común los si­guientes ras­gos: rechazo de tratamientos y lenguajes lógico-matemáticos y simbólicos en general; preferencia por técnicas no estructuradas y flexibles de reco­lección de datos; inclusión de la experiencia del in­vestigador en el con­junto de las fuentes de datos investigativos; ape­lación a juicios de per­sonas típicamente relacionadas con los procesos bajo estudio; mecanismos de razonamiento basados en las propiedades se­mánticas del lenguaje natu­ral. Como calificativo referencial, todas las modalidades agrupadas bajo estos rasgos suelen ser identificadas con la expresión “investigación cua­litativa”. En cuanto a sus diferencias, es­tas opciones metodológicas pue­den agruparse en torno a dos epistemolo­gías clásicas:                                                          

-INVESTIGACION EMPIRICO-INDUCTIVA: es una modalidad orientada hacia el CASO concreto, independiente de los conceptos probabilísticos de mues­tra y población. El espacio de investigación queda identificado con el caso o “escenario”. Las generalizaciones (cuando se producen) parten estrictamente de los datos particulares del caso estudiado. En otras versiones, no se producen generalizaciones más allá del ambiente espa­cio-temporal seleccionado, en cuyo caso el estudio constituye una des­cripción focalizada, independiente de la clase a la que pertenece el hecho estudiado.

-INVESTIGACION RACIONAL-DEDUCTIVA: en un sentido totalmente diferente al de la postura analítica antes expuesta (de hecho, sus ponentes sue­len hablar de una “Nueva Racionalidad”), esta modalidad trabaja sobre la base de conceptos generales que pueden combinarse entre sí mante­niéndose en el mismo nivel de generalidad para extender el sistema conceptual o que pueden analizarse y aplicarse a diversas clases de referentes en niveles menos generales (ejemplificaciones, ilustracio­nes, comparaciones, etc.). A diferencia del racionalismo clásico, no suelen establecerse las reglas de validación, ni los parámetros para diferenciar los elementos de naturaleza racional de aquéllos que no lo son ni, en general, ninguna de las referencias a las que se ve obligado el positivismo o el racionalismo típico. Al menos (para aquellos casos en que un investigador particular pudiera establecer de antemano algu­nas de esas referencias) no existen hasta ahora definiciones  estanda­rizadas de una nueva “racionalidad” investigativa. Más bien, parece ser el tradicional género del `ensayo’ el que en muchos casos define esta variante sociohistoricista.

         Hay que resaltar que, adicionalmente, cada una de estas dos varian­tes se modifica según cualquier enfoque de tipo REALISTA o IDEALISTA. Se tie­nen, por tanto, investigaciones (tanto inductivas como deducti­vas) que se orientan hacia la realidad constatable de amplio margen in­tersubjetivo. Pero se tienen también enfoques y prácticas investigati­vas absolutamente idealistas, subjetivistas y retóricas, cerradas a to­da posibilidad de crítica, enfoques que en nada se diferencian del dis­curso ideológico dominan­te o de la literatura.

 

2.4. Las Versiones Actuales del Racionalismo

         Una vez difundidas las críticas anti-analíticas y sociohistóricas, no se hizo esperar la respuesta de los filósofos y científicos raciona­listas. Para un buen grupo de ellos, aquella tesis  general es, simple­mente, el primer paso para un inminente escepticismo, totalmente anár­quico, liberti­no e inaceptable, tal como lo demostraron las posiciones de Feyerabend. Para otros, es una advertencia sobre las limitaciones de la versión poppe­riana, de donde es posible definir varias rectificacio­nes sin abandonar la esencia del RACIONALISMO CRITICO. Mientras en el primer grupo se hace caso omiso de cualquier aporte ofrecido por el Sociohistoricismo (especialmente en algunos ámbitos tecnológicos de la ciencia), en el segundo grupo se llama la atención sobre ciertos apor­tes considerados como argumentos para ciertos puntos de vista que ya venían discutiéndose en el mismo seno del racionalismo de base poppe­riana, especialmente en los ámbitos epistemológicos de las ciencias ‘pesadas’ ya consolidadas (de la Física, sobre todo) y de las ciencias ‘ligeras’ avanzadas, como la  Lingüística, la Economía y la Antropolo­gía (véase Mouloud, 1974, entre otros).

         Los actuales representantes del racionalismo crítico más radical (el primero de los grupos mencionados) fundamentan sus posiciones en los pro­ductos TECNOLOGICOS de la ciencia racionalista del siglo XX (arte­factos, máquinas, lenguajes, procesos, etc., gracias a los cuales hay numerosas comodidades materiales de las que también disfrutan los filósofos socio­historicistas), sobre todo si se comparan con la ausencia de productos y efectos prácticos del paradigma anti-analítico en sus pro­pias áreas de do­minio: ¿dónde están sus aportes y cambios concretos en materia de pobreza, marginalidad, discriminación y muchas otras formas de deterioro social creciente? ¿Dónde están frente a los problemas so­ciales? ¿Cuál es el punto intermedio entre sus propuestas conceptuales y los hechos de creciente de­terioro social? ¿Cómo se resuelven aquellos conceptos en estos hechos? ¿Es la retórica verbal un lenguaje científi­co que genere transformaciones so­ciales? Este tipo de preguntas confor­man frecuentes bases argumentales del actual racionalismo radical en contra de la epistemología no-analítica que se vincula a Kuhn, a Feye­rabend y a los neo-marxistas de Frankfurt. Otra de estas bases argumen­tales estriba en las debilidades lógico-matemáticas que subyacen al discurso típico de la posición anti-analítica y sociohis­toricista; so­bre esta base, los racionalistas radicales suelen hacer énfa­sis en las consecuencias  metodológicas  de supuestas   ambigüedades, im­precisio­nes y contradicciones detectadas en los textos de varios autores anti-analíticos o sociohistoricistas (Bunge (1985b por ejemplo) dedica nu­me­rosos escritos al análisis de estas ambigüedades). Pero, más en gene­ral, el argumento sustantivo con que el actual racionalismo analítico responde a las objeciones de Kuhn y Frankfurt consiste en analizar las capacidades virtuales del método hipotético-deductivo y del “análisis” lógico-matemático para cubrir o explicar las exigencias históricas y sociopsico-lógicas de los hechos naturales y humanos. En este sentido, enfatizan las perspec­tivas de construir “teorías analíticas” de los he­chos sociales y humanos, que incluyan los aspectos exigidos por el Sociohistoricismo, sin necesidad de acudir a sus propuestas teórico-meto­dológicas, a las cuales consideran irracionales y pseudocientíficas.

La versión moderada del actual racionalismo crítico parece susten­tarse en el argumento sustantivo de la versión radical, para proceder, de hecho, a elaborar propuestas metodológicas que demuestren la capaci­dad de cober­tura o de alcance del modelo analítico racionalista con respecto al factor sociohistórico. En vez de polemizar e impugnar, ad­miten la necesidad de incluir los aspectos sociales, psicológicos e históricos del conocimiento científico y se encaminan a elaborar pro­puestas metodológicas analíticas que satisfagan tal necesidad, sin acu­dir a enfoques empiristas, fenomeno­lógicos, dialécticos, etc. Dentro de esta versión, son sumamente importan­tes y representativas (a pesar de su poca difusión en el ámbito educativo venezolano) las ofertas de J. Sneed (“The logical Structure of Mathemati­cal Physics”, en 1971), de W. Stegmüller (“La Concepción Estructuralista de las Teorías”, en 1979, publicada en español en 1981) y de otros autores como Suppes, Adams, McKinsey, etc. Sin tener nada que ver con el célebre “estructuralismo” generado en la Lingüística de mediados de siglo, esta propuesta aplica el instrumental metalingüístico y lógico-formal típico del racionalismo crítico, vía deductiva, a un nuevo sistema de formulación de teorías en el cual se le  asigna un valor estructural al factor histórico y socio­lógico, satisfaciendo de esa manera las objeciones iniciadas por Kuhn. En efecto, en uno de sus escritos posteriores (Kuhn, 1975), ex­presa su acuerdo con esta propuesta de Sneed y Stegmüller. Los conceptos de “a­plicación”, “especialización”, “evolución” y “redes teóricas”, entre o­tros, implican una importante consideración del contexto sociohistórico del conocimiento y de su aspecto holístico o globalizante.

Aparte de esta nueva escuela “estructural”, ha habido muchas otras ma­nifestaciones racionalistas que intentan responder a las exigencias históricas y psicosociales en la ciencia, elaborando interpretaciones que, en algunos casos, muestran un alto grado de flexibilidad. El físi­co John Zi­man (1980, por ejemplo) ha venido trabajando sobre las vincu­laciones de la ciencia con aspectos tales como “comunicación”, “autori­dad”, “cambio”, “e­conomía”, “estado”, etc. Otros como Abraham Moles (1984, por ejemplo, en la posición tal vez más cercana al Sociohistoricismo y a cierto idealismo particularmente entendido) consideran el as­pecto “creativo” y personaliza­do de la ciencia, con inclusión de cier­tos conceptos de la dialéctica mar­xista.

 

REFERENCIAS

AA VV (1978): Metodología del Conocimiento Científico. La Habana: Ed. de Ciencias Sociales.

Abbagnano, N. (1986): Diccionario de Filosofía. México: Fondo de Cultu­ra Económica.

Ayer, J. (1965): El Positivismo Lógico. México: FCE

Bachelard, G. (1951): La Actividad Racionalista de la Física Contemporánea. Siglo XX: Buenos Aires.

Bunge, M. (1985a): La Investigación Científica. Barcelona: Ariel.

____________ (1985b): Seudociencia e Ideología. Madrid: Alianza

Echeverría,  J. (1989): Introducción a la Metodología de las Ciencias. Barcelona: Barcanova.

García-Bacca,  J.  (1963): Historia Filosófica de la  Ciencia.  México: UNAM.

Hamburger, J. (1991):La Filosofía de las Ciencias, hoy. Siglo XXI:  México.

Kuhn,  T. (1975): La Estructura de las Revoluciones Científicas. México: FCE

Lakatos, I. (1978): Metodología de los Programas de Investigación.  Madrid: Alianza.

Mouloud, N. (1974): Lenguaje y Estructuras. Madrid: Tecnos.

Moles, A. (1990): La Creatividad Científica. Madrid:

Popper,  K. (1957): La Sociedad Abierta y sus Enemigos. Buenos Aires: Paidós.

 ____________  (1961): La Miseria del Historicismo. Madrid: Taurus.

_____________ (1985):   La Lógica de la Investigación Científica.  Madrid: Tecnos.

Seiffert, H. (1977): Introducción a la Teoría de la Ciencia. Barcelona: Herder.

Whewell, W. (1967): The Philosophy of Inductive Science. London: Frank Cass.

Ziman, J. (1980): La Fuerza del Conocimiento. Madrid: Alianza.

 

 

Definición de Tesis y otros

Definición de Tesis y otros

Una tesis doctoral, es un estudio escrito sobre una investigación de carácter original efectuada por un estudiante o un escrito de un análisis de publicaciones hechas por otros sobre un tema dado. La tesis doctoral permite acceder al grado de Doctor.

 

LINEAS DE INVESTIGACIÓN

 

Doctorado en Ciencia de la Educación

 

Línea 1. “Educación para la Participación y el Protagonismo Social”

Línea 2. “Liderazgo para el Cambio y la Transformación Educativa”

Educación para la Participación y el Protagonismo Social

 

Lineamiento Básico:

 

            El propósito de esta línea de investigación se orienta a analizar críticas creativas e interrelacionadamente el Sistema Educativo Nacional y su problemática en sus dimensiones filosóficas, epistemológicas, teóricas y axiológicas, para investigar interdisciplinariamente, prospectivamente y generar conceptos, teorías, sistemas modelos y propósitos cuya aplicación logren cambios y transformaciones en la Educación Nacional., ele ve la calidad educativa venezolana y forme ciudadanos aptos para vivir y construir una sociedad democrática y participativa. Todo ello redundará en mejor calidad de vida del venezolano y el logro del desarrollo sustentable del país.

 

Áreas temáticas para productos investigativos.

 

-        Valores para una Sociedad Democrática

-        Currículum y formación en Valores para la Democracia

-        Participación y Ciudadanía

-        Cultura para la participación y el protagonismo social

-        Educación de valores democráticos

-        Competencia para educar en y para democracia

-        La construcción de saberes para la construcción social

-        Captación docente en valores y para la democracia

-        Educación de calidad para la calidad de vida

-        Modelos sociales democráticos

-        Docencia y participación social

-        Educación y calidad de vida comunitaria

-        Gerencia del conocimiento para educación participativa y protagónica

-        Escuela-Comunidad en el contexto de una sociedad para la participación y el protagonismo social.

 

 

Liderazgo para el Cambio y la Transformación Educativa

 

Lineamiento Básico

 

El propósito fundamental de esta línea de investigación, se orienta a la identificación, descripción, análisis y explicación de procesos de liderazgo en su dimensión individual y colectiva, para investigar interdisciplinariamente y derivar conceptos, teorías, modelos y propuestas cuya aplicación genere transformaciones y cambios en el Sistema Educativo Nacional, liderados por los actores sociales del proceso educativo.

 

Áreas temáticas para productos investigativos.

 

-        El docente como líder para el cambio educativo

-        La participación social y el cambio educativo

-        Participación colectiva en procesos de cambio educativo

-        El liderazgo del directivo como proceso de transformación de las instituciones educativas

-        El liderazgo compartido en las instituciones educativas

-        Liderazgo y escuela

-        Currículum y formación en liderazgo transformacional

-        Calidad personal y profesional del líder para el cambio educativo

-        Valores y liderazgo transformacional

-        Liderazgo en la sociedad del conocimiento

 

Modelo teórico

Según la pág. Wikipedia, El ’modelo teórico’ debe contener los elementos que se precisen para la simulación. Un ejemplo con trabajo de laboratorio es un programa de estadística con ordenador que genere números aleatorios y que contenga los estadísticos de la media y sus diferentes versiones: cuadrática- aritmética-geométrica-armónica. Además debe ser capaz de determinar la normalidad en términos de probabilidad de las series generadas. La hipótesis de trabajo es que la media y sus versiones también determinan la normalidad de las series. Es un trabajo experimental de laboratorio. Si es cierta la hipótesis podemos establecer la secuencia teorema, teoría, ley. Es el modelo principal de todo una investigación científica, gracias a ello podemos definir o concluir la hipotesis, las predicciones, etc.

 Polito Rodríguez

Tesis Dctoral, Líneas de Investigación de la UFT.

Carmen Garrido.

La Tesis Doctoral, de acuerdo con la definición ya clásica de Umberto Eco, se trata de "un trabajo mecanografiado de una extensión media que varía entre cien y las cuatrocientas páginas, en el cual el estudiante trata un problema referente a los estudios en que quiere doctorarse".

LINEAS DE INVESTIGACIÓN

 Doctorado en Ciencia de la Educación

Línea 1. “Educación para la Participación y el Protagonismo Social”

Línea 2. “Liderazgo para el Cambio y la Transformación Educativa”

Educación para la Participación y el Protagonismo Social

 Lineamiento Básico:

     El propósito de esta línea de investigación se orienta a analizar críticas creativas e interrelacionadamente el Sistema Educativo Nacional y su problemática en sus dimensiones filosóficas, epistemológicas, teóricas y axiológicas, para investigar interdisciplinariamente, prospectivamente y generar conceptos, teorías, sistemas modelos y propósitos cuya aplicación logren cambios y transformaciones en la Educación Nacional., ele ve la calidad educativa venezolana y forme ciudadanos aptos para vivir y construir una sociedad democrática y participativa. Todo ello redundará en mejor calidad de vida del venezolano y el logro del desarrollo sustentable del país.

 Áreas temáticas para productos investigativos.

-  Valores para una Sociedad Democrática

-  Currículum y formación en Valores para la Democracia

-  Participación y Ciudadanía

-  Cultura para la participación y el protagonismo social

-  Educación de valores democráticos

- Competencia para educar en y para democracia

- La construcción de saberes para la construcción social

- Captación docente en valores y para la democracia

- Educación de calidad para la calidad de vida

- Modelos sociales democráticos

- Docencia y participación social

- Educación y calidad de vida comunitaria

- Gerencia del conocimiento para educación participativa y protagónica

- Escuela-Comunidad en el contexto de una sociedad para la participación y el protagonismo social.

Liderazgo para el Cambio y la Transformación Educativa

Lineamiento Básico

     El propósito fundamental de esta línea de investigación, se orienta a la identificación, descripción, análisis y explicación de procesos de liderazgo en su dimensión individual y colectiva, para investigar interdisciplinariamente y derivar conceptos, teorías, modelos y propuestas cuya aplicación genere transformaciones y cambios en el Sistema Educativo Nacional, liderados por los actores sociales del proceso educativo.

 Áreas temáticas para productos investigativos.

 - El docente como líder para el cambio educativo

- La participación social y el cambio educativo

- Participación colectiva en procesos de cambio educativo

- El liderazgo del directivo como proceso de transformación de las instituciones educativas

- El liderazgo compartido en las instituciones educativas

- Liderazgo y escuela

- Currículum y formación en liderazgo transformacional

- Calidad personal y profesional del líder para el cambio educativo

- Valores y liderazgo transformacional

- Liderazgo en la sociedad del conocimiento

 El ’modelo teórico’ debe contener los elementos que se precisen para la simulación. Un ejemplo con trabajo de laboratorio es un programa de estadística con ordenador que genere números aleatorios y que contenga los estadísticos de la media y sus diferentes versiones: cuadrática- aritmética-geométrica-armónica. Además debe ser capaz de determinar la normalidad en términos de probabilidad de las series generadas. La hipótesis de trabajo es que la media y sus versiones también determinan la normalidad de las series. Es un trabajo experimental de laboratorio. Si es cierta la hipótesis podemos establecer la secuencia teorema, teoría, ley. Es el modelo principal de todo una investigación científica, gracias a ello podemos definir o concluir la hipótesis, las predicciones.