Epistemología genética y los problemas fundamentales en la teoría del conocimiento

Rolando García.

El objetivo de esta conferencia es presentar, de la manera más sencilla posible, la epistemología
genética como una teoría que intenta responder a los problemas más fundamentales todavía sin
resolución en la teoría del conocimiento.

En la mayor parte de los casos, se ha considerado a la epistemología genética sólo como una teoría
interesada en algunos aspectos del desarrollo del pensamiento conceptual. Esto significaría que está
vinculada con la psicología infantil, con la teoría del aprendizaje, pero no con los problemas "reales" que
se abordan en los libros de texto sobre la teoría del conocimiento. En la voluminosa literatura
contemporánea sobre la filosofía de la ciencia, muy rara vez aparece la epistemiología genética como
una teoría amplia capaz de proporcionar un auténtico criterio alternativo sobre el fundamento del
conocimiento científico.
Esta es la razón que nos mueve a emprender el análisis de una parte de las
teorías del conocimiento que han constituido el meollo de una polémica bastante intensa en la filosofía
de la ciencia durante la mayor parte de este siglo.

Nuestro objetivo será mostrar cómo se articula la epistemología genética en el análisis y cómo sus
hallazgos descalifican de manera concluyente los criterios prevalecientes sobre el fundamento de la
ciencia. A fin de cumplir este cometido, nos veremos obligados reseñar algunos problemas
fundamentales que los filósofos de la ciencia intentaron resolver durante las primeras décadas de este
siglo. Presentaremos una visión panorámica de las posiciones que han suministrado una especie de
“versión oficial” sobre aquello en que consiste la ciencia. Les presento una excusa por referirme con
demasiada brevedad y por consiguiente de manera muy superficial a un período denso y bien conocido
en la historia contemporánea de los estudios sobre el fundamento de la ciencia.
Situaré de manera arbitraria el inicio de esta historia en las dos escuelas que se iniciaron en la década
de los veinte: la escuela de Berlín, bajo la guía de Hans Reichenbach, y la escuela de Viena, con
Schlick, Neurath, Carnap y otros. Hago esto por una sola razón, La mayor parte de la filosofía
anglosajona de la ciencia es todavía, en su mayor parte, una consecuencia del tipo de discusiones que
tuvieron su centro en estas dos escuelas, Estas dominaron la filosofía de la ciencia durante al menos
dos o cuatro décadas, y en la actualidad están todavía vigentes, Si no de una manera explícita, porque
en los Análisis filosóficos rara vez se encontrará en la actualidad alguien que mantenga estas
posiciones tal como se expusieron inicialmente, sí en general de manera implícita, porque están en la
mente de un gran número de científicos de la época actual. La historia nunca es sencilla, y quienquiera
que intente remontarse a los orígenes de cualquier escuela filosófica se encontrará sumergido en una
red compleja en la que se entrecruzan numerosos caminos. Algunos de ellos vienen de muy lejos,
algunos se entremezclan entre sí, e incluso otros se desvían en gran medida de su dirección principal,
pero están unidos por senderos secundarios que los conectan con la ruta principal. No podemos
detenernos a realizar un análisis de los antecedentes de la escuela vienesa o la escuela de Berlín. Sin
embargo, en una primera aproximación, puede coincidirse en que es posible extraer tres ingredientes
que constituyeron el meollo de la teoría que surgió de estas escuelas. Estos son: a) los criterios de
Ernest Mach, referentes a la física y, en general, a las ciencias empíricas; b) los criterios de Henri
Poincaré, relativos al papel de las matemáticas en la física; c) la revolución en la lógica iniciada por
Frege y que culminó en los Principia mathematica de Whitehead-Russell.
Lo que estas escuelas tomaron fundamentalmente de Mach fue su insistencia en la verificabilidad como
un criterio para justificar el sentido. Cuando el joven Mach se despojó de su credo Kantiano sobre los
elementos a priori en el fundamento de la ciencia, intentó mostrar que todo el conocimiento podía
reducirse en último término a un análisis de las sensaciones. La elaboración del concepto debiera
anclarse con firmeza en el contexto de las sensaciones. Con esto en mente, Mach hizo una revisión de
la historia de la mecánica y produjo una obra maestra, un libro clásico. Su brillante crítica a la
mecánica newtoniana es válida todavía en muchos aspectos. Es suficiente sólo mencionar el
reconocimiento de Einstein a lo que él, y todo el mundo después de él, denominó el principio de Mach.
La mecánica de Mach es una revisión fascinante de la historia de esta rama de la física. En la
actualidad es posible encontrarle deficiencias históricas y fallas en su base epistemológica. Pero causó
un gran impacto en una época en que la física sufrió una sucesión de revoluciones espectaculares que
sacudieron los conceptos más básicos acerca del mundo físico.
Lo que echaban de menos los neopositivistas de Viena y de Berlín en Mach eran dos cosas: en primer
lugar, una explicación del papel que juega la matemática en la física; en segundo, alguna indicación de
cómo manejar ciertos términos que desempeñaban un papel fundamental en la teoría de la física y que
no podían ligarse directamente a observables. Es aquí cuando surge Poincaré. Corno es bien sabido,
Poincaré introdujo lo que más tarde se denominó la Tesis de la Convencionalidad. Para él, las leyes de
la mecánica son sólo convenciones, aunque, él insiste, no son convenciones arbitrarias. Son
convenciones que tienen un origen experimental. Los experimentos condujeron a los fundadores de la
ciencia a adoptarlas. En esta línea de pensamiento, el mérito de Poincaré fue mostrar que además de
los términos que pudieran relacionarse directamente a las observaciones, la ciencia utiliza términos
teóricos, y que estos términos teóricos se expresan en lenguaje matemático. Por tanto, el papel
principal de las matemáticas sería servir de instrumento para la introducción de términos teóricos. Este
es el segundo componente de las escuelas de Viena y de Berlín.
Un tercer componente proviene de la tremenda revolución en la lógica realizada por la escuela
Frege-Whitehead-Russell. Ellos intentaron mostrar, y estaban convencidos de haberlo logrado, que de
hecho las matemáticas pueden ser reducidas a la lógica matemática. Por consiguiente, los términos
teóricos pueden en último término expresarse en el lenguaje de la lógica matemática. En esta línea de
pensamiento, la lógica matemática fue finalmente la herramienta utilizada, en especial por la escuela de
Viena, para expresar lo que eran las teorías científicas.
Con estas herramientas, llegaron a. una situación que hoy es conocida por los filósofos de la ciencia
como la "visión convencional". Putman la ha llamado la "visión recibida", y esta expresión es la que
utilizan corrientemente numerosos filósofos contemporáneos de la ciencia. ¿En qué consiste
esencialmente esta visión? De manera muy condensada y aproximada, podríamos decir la llamada
"visión recibida" mantiene que una teoría científica, a fin de merecer este nombre, debiera finalmente
poder expresarse en algún tipo de sistema axiomático. El grado de formalización de estos sistemas
puede variar ampliamente, pero la estructura del sistema debiera ser más o menos la misma,
conteniendo los siguientes elementos: a) un vocabulario básico con tres diferentes clases de términos,
es decir, términos lógicos, términos observacionales y términos teóricos; b) axiomas que pudieran
establecer las interrelaciones entre los términos no-lógicos; c) reglas de inferencia que permitan la
deducción a partir de los axiomas. En la medida en que los defensores de este criterio se aferran a la
teoría de la verificalidad del significado
, la información empírica (los observables) constituye la materia
prima del sistema. El vocabulario observacional es el meollo. El resto debiera expresarse en términos
de este vocabulario. La parte lógica de este sistema se vio reducida a expresar las reglas del juego, las
reglas internas del lenguaje que se utiliza para expresar la teoría.
Muy pronto se vio que era necesario añadir un cuarto elemento a fin de darle una base al sistema: las
reglas de correspondencia. Se introdujeron para realizar tres funciones bastante diferentes, aunque
algunas veces mezcladas entre sí. En primer lugar, una regla de correspondencia define los términos
teóricos. En segundo lugar, las reglas de correspondencia determinan el contenido congnositivo de los
términos teóricos, en el sentido de que un contenido sólo es aceptable si está relacionado con la
experiencia por medio del principio de verificabilidad. En tercer lugar (un punto que a menudo se pasa
por alto) estas reglas de correspondencia especifican de una vez por todas los tipos admisibles de
experimentos por medio de los cuales la teoría se une a la realidad.
Esta es en resumen "la visión recibida". Empezó con una teoría de la ciencia, como una teoría de la
teoría científica
. Se afirmaba que las teorías científicas deberían funcionar de esta manera.
Posteriormente, toda la escuela evolucionó de manera que esta especie de esquema se convirtió
también en la explicación normal para todo el conocimiento. Llegó a ser no sólo una explicación de la
ciencia, sino también una teoría de la significación cognitiva. Cualquier cosa de la que podamos afirmar
que posee un significado cognitivo debe también de una u otra manera poseer un esquema implícito
como el indicado. Si utilizamos términos que no se relacionan directamente con la experiencia y la
observación, debemos disponer de algunas reglas de correspondencia que unan lo que afirmamos con
la experiencia. De no ser éste el caso, nos situamos en la metafísica, y como bien se sabe, el objetivo
de esta escuela era destruir la metafísica.
Pero los miembros de esta escuela fueron todavía más lejos. Desarrollaron también una teoría del
lenguaje que traspuso con mucho la teoría de la ciencia. Para ellos, el lenguaje consiste en enunciados
observacionales cuyos únicos términos no lógicos son términos observacionales, y ciertas aserciones
utilizan términos "teóricos", definibles de manera explícita mediante términos observacionales. De esta
manera, para ser consistentes, tuvieron que desarrollar una teoría de cómo adquieren los seres
humanos el lenguaje. Dicha teoría sostuvo que el lenguaje se adquiere inicialmente por medio de la
denotación: señalando los datos de los sentidos, señalando los objetos. Y todo lo demás debiera seguir
por definición a partir de esta denotación que es la piedra fundamental en la construcción del lenguaje.
Es éste para mí un punto extremadamente importante al que no han dado suficiente importancia los
críticos de la escuela neopositivista. Los neopositivistas se vieron obligados a construir una teoría del
lenguaje del tipo que hemos mencionado. Y se vieron obligados a hacerlo porque después de todo el
lenguaje fue para ellos el elemento que suministró las reglas del juego dentro de la teoría total. Sin una
teoría del lenguaje, la totalidad de la estructura se vendría abajo. Y la teoría del lenguaje, para ser
consistente con su posición, tenía que ser un tipo de empirisrno muy primitivo como el que acabamos
de referir. Si esto es así, sería suficiente demoler su teoría de la adquisición del lenguaje, para demoler
la teoría total. Sin embargo, nosotros no haremos eso, porque preferimos seguir la ruta histórica que la
propia teoría ha tomado.
La teoría tropezó con obstáculos, algunos de ellos en realidad bastante graves. El primero se refería a
las reglas de correspondencia. Se pensó que las reglas de correspondencia eran definiciones,
definiciones directas. Fue Rudolf Camap, el exponente más notable de la doctrina en su forma más
pura, el que comprendió que los términos extremadamente simples utilizados en el lenguaje común, y
bastante esenciales para la ciencia, no podían definirse de manera directa sobre la base de las reglas
de correspondencia.
El ejemplo que utilizó, y que llegó a ser el ejemplo comúnmente utilizado para este tipo de análisis, fue
"fragilidad". ¿Qué queremos decir al afirmar que un objeto dado es frágil? Según la doctrina de la
escuela, sería suficiente suministrar las reglas de correspondencia para la expresión "x es frágil" en
términos observables. Por ejemplo, podríamos establecer la equivalencia entre:

“x es frágil" (1)

en cualquier momento, si x sufre un golpe en ese instante,
entonces, x se romperá en ese mismo momento” (2)
De hecho, todos los términos de disposición, es decir, términos como "frágil" que expresan
propiedades de disposición, se definirían de la misma manera: "Si ustedes hacen esto y esto, entonces
este y este suceso tendrán lugar". Pero fue aquí donde la escuela cayó en su propia trampa. La razón
es la siguiente. La lógica utilizada fue, como antes mencionamos, la lógica Frege-Whitehead-Russell.
Según esta lógica, el condicional:

“si. . ., entonces. . ."

posee una interpretación extensional según la cual cualquier declaración condicional de esta forma es
verdadera cuando el antecedente es falso. Esto significa que la expresión (2) es verdadera de cualquier
objeto x que nunca ha sido golpeado, y que en este caso la expresión (1) es también verdadera. En
otras palabras, un objeto x que nunca ha sido golpeado sería, por definición, frágil. Pero éste no es el
significado que damos a la palabra frágil. En consecuencia, la definición propuesta ha fracasado.
No insistiré más en este ejemplo que llegó a convertirse en un clásico en este campo, ni en las
diversas tentativas realizadas para enmendar el entuerto. El mismo Carnap propuso reemplazar la
definición mencionada con un conjunto de definiciones parciales. Esto funciona en el caso de "frágil",
pero no en el caso de otros términos teóricos. Esta situación condujo a dos clases de evoluciones que
han tenido serias consecuencias para la doctrina.
En primer lugar, se comprendió que no sólo las definiciones de los términos teóricos, sino también las
leyes cientificadas, eran aseveraciones condicionales de un tipo particular denominado contrafactual (o
condicionales subjuntivos), y que la lógica del condicional contrafactual presentaba graves problemas.
Se pensó que la lógica modal podría resolver este problema, pero no fue de mucha ayuda.
Gradualmente surgió la idea de que había que descartar la interpretación extensional de los
condicionales. El gran progreso realizado por la lógica intensional en las últimas dos décadas puede
atribuirse, al menos en parte, a esta situación. La segunda clase de evolución se refirió a la posibilidad
misma de establecer lazos directos entre los términos teóricos de la teoría y algunos observables. En
este caso también tuvo que descartarse la idea y reemplazarse por una versión mucho más atenuada
del empirismo. No existe una interpretación directa empírica de cada uno de los términos no-lógicos
introducidos en una teoría científica.
Es a la teoría en su totalidad a la que debiera darse una
interpretación empírica. Los términos teóricos adquieren un significado empírico a través del significado
empírico ligado a la teoría, y no viceversa. Cuando se realiza un experimento, se está probando una
teoría, y no un término contenido en ella. Por tanto, las reglas de correspondencia no funcionan de
ninguna manera en la forma que se había pensado.
Pero no terminaron aquí las dificultades, pues existieron muchas otras. Mencionaré solamente una que
juega un papel fundamental en la posición tomada por la epistemología genética frente a las teorías
empiristas del conocimiento.
Uno de los principales problemas que subsiste en la visión oficial de las teorías científicas se refiere al
concepto de "directamente observable". Ya sea que se crea poseer definiciones directas de términos
teóricos en términos de observables, o que se dispone de definiciones parciales siempre relativas a la
experiencia, o que se dé un significado empírico a la teoría como un todo, y no a cada término en sí
mismo, en todos los casos se termina en el concepto de observaciones directas.
Por supuesto los defensores de las escuelas a las que nos estamos refiriendo estuvieron dispuestos a
aceptar que, cualquiera que fuera la definición adoptada de los observables, era muy difícil demarcar
una línea entre los observables y los no observables. Una propiedad inferida de la medida tomada por un
instrumento puede ser considerada como un observable por un físico, mientras por el contrario, un
filósofo más estricto reservaría el término de observable para propiedades que son percibidas en forma
directa por los sentidos. Ya aquí se presenta un problema: ¿es Posible realizar una distinción entre los
términos observacionales y los términos teóricos? La respuesta fue claramente negativa, pero aún
subsiste un problema más grave. Supongamos que fijamos en algún punto la línea. ¿Es posible
mantener que existen al menos algunos términos observables, es decir, algunos términos que pudieran
considerarse como directamente observables en.un sentido absoluto? La idea de que la respuesta a
este problema es también negativa, o sea, que todas las Ramadas “observaciones directas" involucran
algún tipo de construcción realizada por el observador, surgió con mucha lentitud. Regresaremos a este
problema a fin de mostrar que la epistemología genética ha suministrado una respuesta definida a este
problema, una respuesta que por primera vez ubica tal problema filosófico en un contexto experimental.
Al llegar a este punto suspenderemos el análisis de las dificultades internas de esta visión de la
ciencia. Nos concretaremos a plantearnos una cuestión más general.
Supongamos que de hecho todos los problemas graves han sido resueltos. ¿Cuál es, por tanto, el
status de esta teoría, de las teorías científicas? ¿Funcionan de esta manera los científicos? Pues bien,
como es bien sabido, si se analiza cualquier presentación de las teorías científicas, la cantidad de
axiomatización es muy pequeña. Sólo se encontrarán axiomatizaciones parciales con diversos grados
de formalización. Más aun, se alcanza la axiomatización cuando la ciencia ha llegado a un nivel muy
avanzado de madurez. Es sabido que incluso en la mecánica de Newton existen serios desacuerdos
acerca de la manera apropiada de axiomatizarla. Por tanto, la visión oficial no refleja la forma en que
funcionan las teorías científicas, y mucho menos, todavía, la manera como actúan los hombres de
ciencia.

La respuesta más definida a esta objeción fue suministrada por Hans Reichenbach. La ciencia, afirmó
él, se produce de manera bastante caótica.
Una teoría de la ciencia no debería tratar de explicar cómo
se construyen las teorías científicas, cómo surgen en la mente de los científicos. Su tarea sería más
bien justificar, establecer sobre bases sólidas las pretensiones de la teoría. Ambos objetivos son
bastante diferentes. En su libro Experience and prediction (1938), Reichenbach introdujo una
terminología especial para referirse a ellos. La primera tarea pertenece a lo que denomina el "contexto
del descubrimiento"; la segunda, al "contexto de la justificación". La primera es tarea de los
historiadores, los sociólogos y los psicólogos. Según Reichnbach, no pertenece a la teoría de la
ciencia. La filosofía de la ciencia está relacionada solamente con la segunda.
Una vez que se confina el papel del filósofo de la ciencia al contexto de la justificación, la metodología
que debe usarse sigue como un simple corolario. El tiene que separar las pretensiones de una teoría
del proceso por medio del cual se llegó a ella. A fin de hacer esto, tiene que reconstruir la teoría sobre
una "base racional". Su tarea es por consiguiente proceder a una "reconstrucción racional (lógica) de la
ciencia
".

Con este agregado, vemos que el panorama final de la visión oficial es una reconstrucción de una teoría
basada en tres pilares que representan tres dicotomías claramente definidas: a) la dicotomía entre los
enunciados lógicos (analíticos: las reglas del lenguaje) y los enunciados empíricos (sintéticos: basados
en los observables); b) la dicotomía entre los términos observacionales, y los términos teóricos; y c) la
dicotomía entre el descubrimiento, y la justificación. Refirámonos por ahora a la tercera. Hacia fines de
la década de los cincuentas y el inicio de la década de los sesentas, empezó a surgir la idea de que un
análisis adecuado de las teorías no consistiría en una reconstrucción racional; que no puede analizarse
una teoría en forma independiente de la manera en que esta teoría ha sido formulada; y que es dentro
del contexto de la construcción de las teorías que puede descubrirse, en primer lugar, el significado real
de la teoría, y en segundo lugar, las maneras en las cuales ésta se debe justificar. Fue por esto que se
rechazó la posición sostenida por Reichenbach.
Quizás el más influyente de los filósofos y los historiadores contemporáneos que se manifestó en
contra de la visión oficial, y probablemente el mejor conocido de ellos, es Kuhn. Con su teoría de las
revoluciones científicas, Kuhn inició una revolución que aún continúa. Su tesis principal es que la
historia de la ciencia indica que el cambio científico es fundamentalmente revolucionario. No existe un
crecimiento continuo de la ciencia. La ciencia se desarrolla a saltos. Tiene, por decirlo así, períodos de
"equilibrio interno", y luego en un cierto momento, da un salto, sufre una revolución. Es durante estas
revoluciones que se obtiene el progreso efectivo de la ciencia. Ahora bien, él define las revoluciones
científicas como aquellos episodios no-acumulativos del proceso de evolución en los cuales se
reemplaza un paradigma establecido, en su totalidad o en parte, por uno nuevo que le es incompatible.
Como todo el mundo sabe, los paradigmas son para él ejemplos aceptados de la práctica científica
real. Estos ejemplos incluyen la ley, la teoría, la aplicación y la instrumentación en su conjunto. Ellos
nos dan modelos de los cuales surgen tradiciones específicas y coherentes en la investigación
científica. La idea es que en períodos de casi equilibrio se tiene una especie de práctica normal de la
ciencia que es aceptada por la comunidad científica, y que la ciencia se desarrolla dentro de ella. Esto
es lo que se denomina ciencia normal. La ciencia normal, es decir, la mayor parte de la ciencia que se
encuentra en la práctica rutinaria, se desarrolla dentro de este paradigma, con un marco aceptado. Este
marco suministra las prácticas, que van desde las prácticas de experimentación a la creación de
conceptos. Aquellos que resuelven problemas dentro del paradigma están, según Kuhn, simplemente
resolviendo lo que él llama puzzles, es decir, algunas cuestiones que intrigan dentro de una teoría
aceptada. Ellos se concretan a resolverlos. Dichas cuestiones son problemas específicos dentro del
sistema, pero no lo cuestionan.

Aquí encontramos un punto importante al que Kuhn asigna una gran relevancia. Dentro de una teoría
dada, si uno tiene un problema y no se resuelve, no es la teoría a la que debe achacarse la culpa; es el
investigador el culpable. Es una falla personal y no una falla de la teoría. Y esto es normal en la ciencia.
Sin embargo, si se buscan soluciones a un problema específico y fallan, y todo el mundo fracasa
durante largo tiempo, llegará un punto después del cual el problema deja de ser un puzzle: se convierte
en un real problema para la teoría, y llega a originar una crisis. Y en un momento dado tendrá que
iniciarse una revolución para resolverlo. El antiguo paradigma cae por tierra.
Por tanto, la aseveración más importante de la teoría de Kuhn es que la gente, por lo general, practica
la ciencia normal, excepto en diversos momentos específicos, que son los momentos críticos en la
historia de una ciencia, cuando toda la ciencia entra en una crisis y tiene que saltar a otro nivel de
análisis. Ahora bien, el problema que se le pidió resolver es cómo se realiza la elección. En otras
palabras, cuando la antigua teoría ha dejado de ser útil y se obtiene una nueva teoría o teorías
alternativas, ¿cómo se hace la elección? Y la respuesta que da Kuhl es de gran importancia para
nuestro tema porque prácticamente es la única alternativa posible cuando el análisis permanece dentro
de la sociología del conocimiento o en una cierta especie de psicología del conocimiento. La respuesta
que nos brinda en uno de los documentos más recientes que ha publicado sobre este tema es la
siguiente: "En particular, al verme confrontado al problema de la elección de teoría, la estructura de mi
respuesta es en términos generales como sigue: tómese un grupo de las personas más capacitadas
disponibles con la motivación más apropiada; capacíteseles en alguna ciencia y en las especialidades
relacionadas con la elección que hay que hacer; inbúyaseles con el sistema de valores, la ideología
actualizada en sus disciplinas (y en gran medida en otros campos científicos también) y por último,
déjeselas realizar la elección. Si esa técnica no da cuenta del desarrollo de la ciencia tal como la
conocemos, ninguna otra lo hará. No puede existir un conjunto de reglas de elección adecuadas para
dictar la conducta individual deseada en los casos concretos que los científicos se ven obligados a
enfrentar en el curso de sus carreras. Cualquier progreso científico que se alcance, debemos
explicárnoslo mediante el examen de la naturaleza del grupo científico, descubriendo aquéllo que
valoriza, aquello que tolera, y lo que desdeña".
Con esta formulación, no es sorprendente que Kuhn haya sido acusado de "seguir la regla de apegarse
a la decisión de la masa" en el sentido de que a fin de cuentas, para él es la mayoría de la comunidad
la que tendría que decidir cómo se hace la elección. El se defiende diciendo que no es éste el caso
porque los científicos tal como muestra la historia, no eligen "cualquier cosa". Y el hecho de que ellos
no escojan cualquier cosa es parte de la actitud científica. En este punto intenta establecer una
especie de límite para introducir una línea de demarcación, diferente de la bien conocida demarcación
de Popper, a fin de separar lo que sería una elección irracional de una racional. No voy a tratar este
interesante aspecto de la polémica entre Popper y Kuhn.
Popper ha llamado a la actitud de Kuhn "una actitud peligrosa para la ciencia". La llama peligrosa por
dos razones: a) por su apelación a la historia, la sociología y la psicología; y b) por su concepto de un
progreso a saltos de la ciencia.

Popper llega al punto de alterarse ante la referencia de Kuhn a las disciplinas antes citadas. A este
respecto afirma: "No puede concluir sin señalar que para mí la idea de pedir esclarecimiento en relación
con los objetivos de la ciencia, y su posible progreso, a la sociología o a la psicología (o, como
recomienda Pearce Winiams, a la historia de la ciencia), resulta sorprendente y desilusionante".
"De hecho, comparados con la física, la sociología y la psicología están saturadas de modas y de
dogmas fuera de control. La sugestión de que aquí podamos encontrar algo como ‘descripción pura,
objetiva’ , es evidentemente equivocada. Además, ¿cómo el regreso a estas ciencias a menudo
espurias puede ayudarnos en esta dificultad particular? No es a la ciencia sociológica (o psicológica, o
histórica), a la cual se desea recurrir a fin de decidir sobre lo que equivale a la pregunta ¿qué es la
ciencia? o ¿qué es, de hecho, normal en ciencia?".

En otras palabras, para Popper, la psicología, la sociología y la historia son ciencias subdesarrolladas,
por así decirlo. no han alcanzado la madurez. ¿Cómo podrían ayudar a fin de lograr la tarea que la más
precisa filosofía de la ciencia no ha sido capaz de obtener? Por supuesto, ésta es una apreciación que
puede rebatirse con facilidad, y así lo haremos más adelante.
La segunda objeción de Popper contra Kuhn es que, para Popper, lo que Kuhn denomina "ciencia
normal" es solamente "ciencia mediocre". En relación con esto, él afirma: "Según mi punto de vista, el
científico ‘normal’ tal como lo describe Kuhn, es una persona por la que debería sentirse compasión.
(Según los criterios de Kuhn acerca de la historia de la ciencia, muchos grandes científicos deben
haber sido ‘normales’; pero como no obstante no puedo experimentar compasión por ellos, no creo que
puedan ser correctos los conceptos de Kuhn). El científico ‘normal’ , según pienso, ha recibido una
enseñanza deficiente. Creo, y esa creencia la comparten muchos más, que toda la enseñanza a nivel
universitario (y si es posible en niveles menos avanzados) debería capacitar y estimular el pensamiento
crítico. El científico ‘normal’ , tal como lo describe Kuhn, ha recibido una enseñanza deficiente. Se le ha
inculcado un espíritu dogmático: es una víctima de la indoctrinación. Ha aprendido una técnica que
puede aplicarse sin preguntar las razones para ello (particularmente en la mecánica cuántica). Como
consecuencia se ha convertido en lo que podemos denominar un científico aplicado por oposición a lo
que yo denominaría un científico puro. El, tal como afirma Kuhn, se siente satisfecho con resolver
puzzles. La elección de este término parece indicar que Kuhn desea recalcar que no se trata de un
problema verdaderamente fundamental aquél que el científico normal está preparado para enfrentar; es
más bien, un problema de rutina, un problema de aplicar lo que uno ha aprendido: Kuhn lo describe
como un problema en el cual se aplica una teoría dominante (lo que Kuhn llama paradigma)”
Por tanto, la ciencia extraordinaria es para Popper la única ciencia, y ésta acusa un desarrollo
continuo. El "prueba" esto haciendo referencia a la historia de la ciencia. Kuhn responde que no es éste
el caso, y también lo "prueba" con referencia a la historia de la ciencia. Parece por consiguiente que en
la actualidad todo el mundo está haciendo historia de la ciencia a fin de probar su criterio acerca de la
filosofía de la ciencia. La filosofía de la ciencia y la historia de la ciencia se han acercado más que
nunca. Pero al examinar la historia, las personas obtienen respuestas totalmente diferentes. Este es un
punto importante al que tendremos que regresar. Por ahora sólo quiero indicar que esta conferencia
introductoria no me permite revisar la Polémica en extremo interesante que en la actualidad tiene lugar
entre personas como Kuhn, Popper, Feyerabend, Lakatos y otros. Si nos detuviéramos a analizar,
podríamos derivar importantes lecciones al profundizar el tipo de argumentos que ellos exponen; esto
aclararía no tanto el tema de la discusión (y me excuso por atreverme a hacer esta afirmación) como la
clase de argumentos que están usando para probar sus aseveraciones. Esta sería una lección acerca
de la epistemología ta como está siendo practicada en la actualidad por la filosofía de la ciencia, y las
fallas de algunos de sus métodos. Pero tendremos que dejar este análisis para otra ocasión.
En este punto dejaremos nuestros comentarios generales sobre lo que se ha denominado la "visión
recibida" de la ciencia y su evolución en las dos últimas décadas. Dirijámonos ahora al tema principal
de este seminario. Dentro del contexto del panorama que he presentado sintéticamente ¿cómo encaja
la epistemología genética en las otras posiciones, o más bien en el tipo de análisis que hasta ahora se
ha realizado? En otras palabras, dicho de manera más directa: ¿por qué epistemología genética? Antes
de tratar de delinear en términos generales algunas de las respuestas que la epistemología genética ha
producido o que pueden inferirse de ella, me referiré a nuestros comentarios introductorios. La idea
básica de esta conferencia es presentar la epistemología genética como una teoría del conocimiento en
el sentido más amplio. A este respecto deseamos mostrar que el papel que ha desempeñado la
psicología genética dentro de la teoría no sólo es muy pertinente para la clarificación de los problemas
básicos de los fundamentos del conocimiento científico, sino que de hecho es una manera inescapable
de llevarla a cabo.

Empecemos por hablar de lo que me parece ser la falla más importante en las posiciones actuales en
la filosofía de la ciencia
. Cada teoría que intenta ofrecer una explicación de cómo funciona la ciencia y
cómo adquieren validez las aserciones científicas, está de hecho ofreciendo una teoría de la validación
pero no ofrece una teoría de validación de la validación. ¿Cuál es el criterio por medio del cual adquiere
validez alguna aserción o alguna teoría? Es bastante claro que la pregunta es legítima y que no debiera
contestarse haciendo una regresión al infinito.
¿Cómo podrían las teorías de la validación adquirir validez? En 1as escuelas que estamos criticando,
los autores no han realizado ningún esfuerzo por validar lo que afirman. Pero hay algo más serio que
eso. En general, todas estas teorías se refieren a sujetos, a seres humanos que son los sujetos en el
acto de conocer. Si se suma lo que de manera explícita o implícita se asume en las teorías actuales
del conocimiento, se encontrarán toda clase de aserciones o suposiciones contradictorias acerca del
sujeto real que está haciendo ciencia. En general, no existe indicación acerca de si están hablando
sobre un "sujeto natural’, es decir, cualquier adulto que por azar entra a la ciencia y por lo tanto posee
una "manera natural" de pensar o razonar -refinada por la ciencia, pero natural-, o si se refieren a una
especie de sujeto muy idealizada que pudiera ser el "hombre de ciencia", un hombre que entrará en
contacto con otros colegas de la comunidad y que posee una aptitud especial para tomar decisiones y
adoptar actitudes especiales acerca de esos temas. Ahora bien, ellos tienen que escoger entre dos
suposiciones. Si ellos se refieren a un sujeto ideal, la pregunta que tienen que contestar es: ¿Cuál es la
relación entre este sujeto ideal y el sujeto real, el científico en la vida diaria? Pues fuera del laboratorio y
de la manifestación por escrito de ciertas aserciones científicas específicas, un científico se comporta
como cualquier otro hombre y no utiliza maneras especiales de expresar o "encontrar" cosas o
sucesos. Por otra parte, si se refieren al sujeto natural, no existe tentativa de mostrar que el sujeto
natural se comporta de la manera que ellos describen o suponen. En particular, los empiristas a
menudo se refieren a cómo aprende un sujeto, por ejemplo, el lenguaje, o esto o lo de más allá. Y no
existe prueba empírica u obra empírica que muestre que lo que ellos afirman es empíricamente
verdadero, empíricamente verificado. Por consiguiente, ellos atribuyen al sujeto, dentro de una teoría
empírica, ciertos atributos, propiedades, modos de comportamiento que no han sido objeto de
verificación empírica. Es así que la justificación permanece suspendida en el aire y en consecuencia,
no existe una justificación dentro del sistema.
La epistemología genética ha mostrado en forma clara cómo obtener una respuesta a los problemas
citados. De manera paradójica, Piaget, en esencia un anti-empirista, plantea el problema en términos
tales que el problema podría trasladarse del nivel de las formulaciones abstractas y de la filosofía
especulativa al nivel experimental. Fue de esta manera que se abrió la puerta a una refutación empírica
de la teoría empirista del lenguaje y del conocimiento. La base para esta refutación consistió
simplemente en mostrar que el proceso del conocimiento no ocurre en la manera descripta por los
principios de las escuelas neopositivistas, ni al nivel de formulación de conceptos en un individuo ni,
históricamente, al nivel sociogenético. Y en este caso la psicología genética fue la herramienta utilizada
a fin de probar esta tesis epistemológica. La aseveración que hicimos en un principio, en el sentido de
que los hallazgos de la epistemología genética descalifican de manera concluyente las ideas
prevalecientes sobre el fundamento de la ciencia, encuentra aquí su aplicación. Creemos que la
monumental obra experimental de la escuela de Ginebra no deja lugar a dudas que no son ya
aceptables los principios de la escuela empirista.
Esto nos conduce directamente al segundo punto que deseamos reformular desde una perspectiva
genética. Ya hemos mencionado que tanto Kuhn como Popper se apoyan en la historia de la ciencia
cuando no encuentran un anclaje firme para algunas de sus afirmaciones acerca de cómo funciona en
realidad la ciencia. Sin einbargo, desde el punto de vista de la epistemología genética, el uso que hacen
de la historia de la ciencia, así como el que hizo Kuhn de la psicología y de la sociología del
conocimiento, no toca los problemas de la epistemología: aluden sólo a la superficie de la conducta de
los hombres en una comunidad científica.
No obstante, estamos mucho más cercanos a Kuhn al menos en dos de los puntos más importantes
que asentó en su teoría de las revoluciones científicas. Incluso pensamos que ambos pueden ser
sustentados con mucha más fuerza que en la presentación de Kuhn. El primero se refiere a lo que
podemos denominar la relación entre "Weltanschauung" y "paradigma" en la ciencia. Me referiré
Brevemente al ejemplo histórico más ilustrativo que conozco: el principio de la inercia en el mundo
antiguo.

Corno ustedes saben, Aristóteles no lo aceptó. Para él, si un cuerpo está en movimiento, es debido a
que existe alguna fuerza que de cierta manera lo impulsa. Si la fuerza deja de actuar, el cuerpo se
detiene. La fuerza produce el movimiento: si no existe la fuerza no hay movimiento. El rechazo más
explícito a la idea de la inercia que he encontrado en el texto de Aristóteles está en relación con su
“prueba” de que el vacío no existe. En primer término, muestra que un movimiento no se detendría en el
vacío. Como obviamente esto le resulta absurdo, concluye que el vacío no existe.
En paralelo con el gran periodo de los griegos, hubo un desarrollo científico impresionante en China. En
ciertos aspectos los chinos sobrepasaron a los griegos. Este es el caso para el tema que estamos
considerando. Los contemporáneos chinos de Demócrito habían ya formulado el principio de la inercia
de la manera más precisa: si se tiene un cuerpo en movimiento y ninguna fuerza actúa sobre él, el
cuerpo continuará moviéndose por toda una eternidad. Dos mil años antes de Galileo, existe un texto
chino que enuncia este principio. Y ellos agregan algo que puede herir el orgullo intelectual del mundo
occidental: “Y esto es tan claro como el hecho de que una vaca no es un caballo”.
¿Cómo es posible que dos comunidades diferentes, la griega y la china, ambas al mismo nivel elevado
de desarrollo intelectual, lleguen a conclusiones tan diferentes? ¿Cómo es posible que uno de ellos
considera obvio lo que para otro resulta absurdo? Más aun, ¿cómo es posible que tuviéramos que
esperar dos mil años en el mundo occidental para llegar a un principio que para los chinos resultó tan
evidente como el hecho de que una vaca no es un caballo?.

Creo que podemos encontrar una explicación a este sorprendente hecho histórico si consideramos con
más detenimiento la filosofía de los aristotélicos y la de sus contemporáneos chinos. Para una gran
parte de los griegos, en particular los aristotélicos, el mundo es estático. Todo en el mundo está en
reposo a menos de que se le fuerce a moverse y esto puede suceder sólo por dos razones: o Dios está
imprimiendo el movimiento (como por ejemplo en el caso de las estrellas), o bien, alguien obliga al
cuerpo a moverse. Si excluimos los actos de Dios, que producen lo que Aristóteles denomina los
movimientos “naturales”, cualquier otro movimiento en el mundo es un movimiento “violento” o sea, el
resultado de la violencia ejercida sobre los cuerpos. Si nadie produce ninguna violencia en ningún objeto
material, no habrá otros movimientos en el mundo a excepción de aquéllos producidos por Dios. La
violencia saca a los cuerpos de sus sitios naturales. Existe un orden natural en el mundo con rocas
abajo, agua encima aire sobre el agua y fuego más arriba del aire. Si yo dejo caer una piedra, esto
sucederá porque está buscando su sitio natural. Una vez logrado su objetivo, el cuerpo se detendrá y
permanecerá en reposo. Dentro de esta concepción, dentro de esta Weltanschauung, los griegos no
necesitaban explicar el reposo, porque el reposo es el estado natural para todo en el universo. Por otra
parte, tenían que explicar el movimiento y que encontrar sus causas. La causa es una fuerza, o sea,
una violencia ejercida sobre el cuerpo. Cuando cesa la violencia, la fuerza, el movimiento se detendrá a
menos que el cuerpo se encuentre fuera de su lugar natural porque, bajo esta circunstancia, el cuerpo
asumirá un movimiento directo que lo colocará, hacia arriba o hacia abajo, en su sitio natural.
La concepción filosófica de los chinos era bastante diferente. Para el chino, el mundo es un devenir, es
un continuo proceso de cambio. El mundo está evolucionando todo el tiempo y todo dentro de él está
también evolucionando. Por lo tanto, no necesita explicarse el movimiento. Lo que necesita explicación
es el reposo. Se necesita fuerza para mantener algo en reposo para evitar el devenir natural que de ese
algo en su desarrollo dentro del universo. Si no existe fuerza, el cuerpo continuará su evolución natural.
Es suficiente recordar la suerte del principio de la inercia en el mundo occidental. Después de que fue
“descubierto” durante el período de Galileo, Descartes y Newton, el principio fue considerado
alternativamente como bastante absurdo y difícil de aceptar, como totalmente evidente y sin necesidad
de explicación y, con mucha posterioridad, como un principio que nos es evidente, ni correcto, ni
equivocado, y tampoco absurdo, sino más bien un principio regulatorio dentro de una cierta estructura
de una teoría de la mecánica. Esto prueba fuera de dudas que la aceptación de un principio como el de
la inercia, está unido de manera muy esencial a la concepción total del mundo o al menos, a la
concepción de la rama específica de la ciencia a la cual pertenece, y esto a su vez se encuentra ligado
a una sociedad particular en un periodo específico de su historia.
Vayamos ahora al segundo punto en el cual estamos de acuerdo con Kuhn, aunque diferiremos en la
interpretación epistemológica de los hechos. coincidimos con la concepción de la historia de Kuhn en
que no es un proceso continuo sino que va a saltos. Kuhn explica estos saltos en la historia de la
ciencia por una acumulación de dudas cerca de la teoría que, en un cierto momento toma la forma de
crisis. Sin embargo, desde el punto de vista de la epistemología genética creemos que los saltos se
deben a principios mucho más fundamentales de los cuales la evolución a saltos llega a ser más o
menos un corolario. A fin de mostrar lo que con esto quiero decir, me veo obligado a hacer una breve
incursión en algunos aspectos de la teoría de Piaget que ha sido muy mal comprendidos. Estos se
relacionan con el papel del estructuralismo en la concepción piagetiana de la epistemología. Desde los
inicios de la epistemología genética, no es la estructura la que caracteriza la evolución, si no las
funciones. El motor de la evolución, no importa donde, lo constituyen las propiedades funcionales, no
las estructurales.

Como es bien sabido, uno de los principios básicos de la posición de Piaget es la continuidad entre los
procesos orgánico y cognoscitivo, basada en el hecho de que ambos procesos involucran una
adaptación del organismo a su ambiente. Es decir, Piaget ha dado con frecuencia importancia al hecho
de que existe una adaptación global de los organismo vivientes a su ambiente, y que los desarrollos
biológicos e intelectuales son sólo partes específicas de esta adaptación.
¿Cómo ocurre esta adaptación? Piaget insiste en que, ambos casos, la adaptación involucra un
equilibrio entre la asimilación y la acomodación. la naturaleza del equilibrio es evidentemente diferente
en uno y en otro caso y conduce a tipos bastante diferentes de estructuras, pero existe una continuidad
funcional entre la asimilación orgánica y la intelectual. Por tanto, existe un proceso de estructuración
cognoscitiva. No puede ignorarse la especificidad de las estructuras a cada nivel. Los mecanismos, los
factores funcionales involucrados son característicos de la evolución, no las propiedades estructurales
en cada campo. En consecuencia la teoría da la mayor importancia al verbo “estructurar”, más que al
sustantivo “estructura”. En este proceso activo de estructuración, tanto en el nivel orgánico como en el
cognoscitivo, las estructuras
a las que se llega no forman un continuum. Vienen una después de otra a través de un proceso
discontinuo. El sistema, ya sea orgánico o cognoscitivo, salta, por así decirlo, de una estructura a otra
a intervalos discontinuos. Este es quizás el hallazgo más conocido de Piaget y no deseo incursionar en
él a mayor profundidad. Por el momento me referiré a que lo que encontró Piaget a nivel cognoscitivo, y
que resultó más o menos evidente a nivel biológico, está surgiendo con claridad en casi todas las
ramas de la ciencia actual. Seamos un poco más específicos. Lo que cada día resulta más claro es: a)
que ocurre una especie de asimilación en todos los sistemas abiertos que interactúan con sus
ambientes; b) que esto se presenta aún al nivel puramente físico; c) que este proceso de asimilación es
un constructor de estructuras; d) que estas estructuras son sólo etapas del cuasi equilibrio que sufrirán
modificaciones a través de nuevos procesos de asimilación y e) que con posterioridad a estas
modificaciones, el sistema se reorganizará por sí mismo para alcanzar otro nivel de autorganización, es
decir, una nueva estructura. A fin de mostrar lo que quiero decir con esto, me permitiré citar un ejemplo
físico extremadamente simple. He abrigado algunas dudas acerca de la utilización de este tipo, de
ejemplo porque cuando en ocasiones lo he hecho, se ha tomado como si intentara utilizar la física para
explicar el sistema cognoscitivo. Mi objetivo es completamente opuesto: quiero mostrar que lo que se
descubrió en el sistema cognoscitivo también funciona al nivel físico. En otras palabras, que la física
está mucho más cercana a los procesos biológicos y cognoscitivos de lo que pensábamos hace
algunos años.

El sistema que voy a exponer es el más simple que conozco que pertenece a la categoría de lo que he
llamado "constructores de estructuras". Consiste en lo siguiente: tomemos dos cilindros, uno dentro de
otro con un espacio entre ellos; pongamos un líquido entre ellos (puede ser agua), y cerrémoslo de
manera que no existan ondas en la superficie de la parte superior. Ahora imprimamos una rotación a los
dos cilindros, pero a diferentes velocidades: uno gira dentro del otro, pero uno va con más rapidez (por
ejemplo, el cilindro exterior gira con más rapidez que el interior) . Pongamos en el agua algunas
partículas de aluminio o algo similar, e iluminémoslas para que pueda verse el movimiento del líquido.
Cuando la diferencia en rotación de los dos cilindros es pequeña, el líquido que empieza a moverse por
fricción adquirirá un movimiento de rotación bastante uniforme. Podrán verse las líneas de flujo
extenderse por todo el líquido en una distribución por completo uniforme. Ahora aumentemos la
diferencia entre las dos rotaciones (por ejemplo, mantengamos la velocidad de rotación del cilindro
interno fija y aumentemos la del cilindro externo). En un principio veremos solo pequeñas oscilaciones
de las líneas del flujo. Sin embargo, en un cierto momento, el movimiento sufrirá cambios como si el
líquido hubiera sufrido un trastorno y no supiera exactamente cómo comportarse. Pero muy pronto
encontraremos que aparecen algunos patrones en las líneas de flujo; algunas de ellas se acercarán
más e indicarán un movimiento del fluido con una distribución no homogénea de la velocidad en sentido
vertical. Se presentarán flujos de chorro distribuidos a intervalos regulares. Si ahora aumentamos
todavía más la diferencia de velocidad entre los cilindros, las líneas de flujo oscilarán de nuevo, pero
después de un cierto umbral los círculos del movimiento sufrirán alteraciones y se observará un
movimiento ondulado de las partículas. Juguemos ahora con la diferencia de velocidad entre los
cilindros. Aumentemos de manera continua, y luego dejémosla fija; aumentémosla de nuevo y
dejémosla fija, y continuemos así; podrán observarse saltos en la estructura de las líneas de flujo; el
número de ondas de la ruta señalada aumentará a intervalos discontinuos y, en un momento dado, las
ondas que fueron completamente simétricas empezarán a inclinarse y a deformarse adquiriendo una
asimetría característica. Si aumentamos la diferencia de velocidades aun más, se traspasará un umbral
después del cual desaparecen las ondas y el movimiento se convierte en turbulento.
¿Cómo podríamos interpretar este experimento más bien sorprendente? En primer lugar, recalquemos
que el sistema total es homogéneo: los cilindros son homogéneos, la distribución de la velocidad
angular es homogénea, el fluido es homogéneo. Sin embargo, se obtendrá una autoorganización del
movimiento del fluido, que adquirirá estructuras características. Estas estructuras cambian a saltos no
obstante que los cambios de velocidad son continuas. El segundo punto es que, desde un punto de
vista exclusivamente físico, el proceso puede describirse de la siguiente manera: el cilindro exterior,
rotando a una velocidad mayor que el interior, imprimirá una cierta cantidad de movimiento al fluido, que
debe absorberla. Si utilizamos el lenguaje de Piaget, podríamos decir que el fluido tiene que asimilar los
cambios en la cantidad de movimiento impresa que provienen del medio exterior (los cilindros). Para
lograr esto, el movimiento adquirirá a cada momento el tipo de estructuras que resulte más eficiente
para obtener esta asimilación (es decir, el transporte de la cantidad de movimiento del cilindro externo
al cilindro interno) lo que es característico del proceso es que al aumentar la diferencia en la velocidad
angular de manera continua, el cambio en la estructura no es continuo. Habrá intervalos en los que la
estructura permanece más o menos igual y oscila alrededor de posiciones de cuasi equilibrio. Pero si
se traspasa un umbral, entonces el fluido se reorganiza por sí mismo y adquiere una nueva estructura
que resulta más eficiente para absorber la cantidad de movimiento del cilindro exterior y transportarlo al
cilindro interior.
Aquí puede apreciarse con claridad, en un ejemplo físico extremadamente simple, un proceso en el que
la asimilación, la acomodación y el equilibrio entre ellos se presenta de manera que tiene similitudes
sorprendentes con los procesos descritos por Piaget a nivel cognoscitivo.
Fue mérito de Ilya Prigonine y sus colaboradores en Bruselas descubrir que todos los sistemas
abiertos a nivel físico, físico-químico y biológico, se comportan de esta manera, y que la termodinámica
de los sistemas abiertos podría explicar por qué funciona de esa manera. La teoría de los sistemas
disipativos se ha extendido a muchos campos. Jean Perroux, en Francia, ha intentado aplicar esta
teoría para explicar la conducta económica de una sociedad. Ha mostrado que, contrariamente a lo que
han afirmado todas las teorías clásicas de la economía, la conducta de una sociedad se adapta por sí
misma a ciertos procesos ambientales, y que esa misma sociedad adquiere una estructura
autoorganizada. Se presentan cambios en la estructura cuando cambian las "condiciones en los
límites" (o "condiciones de borde") del sistema. Pero estos cambios estructurales no funcionan de una
manera continua: existen saltos de un nivel de organización a otro de autoorganización de una manera
característicamente discontinuo.

La teoría de Piaget de que la adaptación de un organismo a su ambiente involucra dos factores
funcionales y un equilibrio entre ellos
, y que ocurre tanto en el nivel orgánico como en el intelectual,
parece por consiguiente ser la ley de evolución más generalizada a todos los niveles para todos los
sistemas, El antiguo dictum escolástico natura non facit saltus ha quedado de esta manera totalmente
descartado, Por otra parte, el dictum marxista de un proceso característico de la evolución a través del
cual existe una transformación de cantidad en calidad -una fórmula bastante vaga y no muy bien
fundamentada en la literatura marxista- puede ser reinterpretado de esta manera, y dársele un
fundamento muy sólido.
Después de esta larga digresión, volvamos al tema que dejamos pendiente. Los hallazgos de la escuela
de Piaget, después de mis de medio siglo de trabajo experimental, han probado de manera concluyente
que la evolución intelectual de un niño procede de la manera antes indicada: una sucesión de etapas de
cuasi equilibrio entre la asimilación y la acomodación a diferentes niveles. ¿Pero qué puede decirse
acerca de la sociogénesis del conocimiento ¿Evoluciona la ciencia como un proceso continuo tal como
Popper pretendió, o procede a saltos de la manera señalada por Kuhn? La obra reciente realizada por la
escuela de Ginebra da un fuerte apoyo a la tesis de Kuhn. Sin embargo, una vez más coincidimos con
las proposiciones de Kuhn, pero no con su explicación. Los hallazgos a los cuales nos referimos
muestran que existe un paralelo sorprendente en la evolución de los sistemas congnoscitivos entre el
nivel de desarrollo intelectual de un niño y el nivel de evolución de la ciencia. Más aun, y esto es mucho
más importante, muestran una identidad asombrosa de los mecanismos en función de ambos niveles.
Indicaré lo que quiero decir con esto citando solo un ejemplo tomado de una investigación que ha
cubierto la historia de las matemáticas y la historia de la física.
Piaget encontró en el desarrollo de los conceptos genéticos en el niño tres etapas bastantes
características que denominó “intrafigural”, “interfigural” y “transfigural”.

Al primer nivel, el niño solo es capaz de considerar las relaciones internas dentro de una figura; al
segundo nivel, la figura puede subsumirse en un sistema de relaciones en un cierto contexto; al tercer
nivel el niño puede considerar las transformaciones de las figuras desde un punto de vista mucho más
general que le permitirá combinar transformaciones. Para ser más específico, mencionaré un ejemplo
que muestra la diferencia entre el primero y el segundo nivel. En el primer nivel el niño es capaz de
dibujar líneas perpendiculares, pero no tiene un concepto de la horizontabilidad y la verticalidad. Si se le
pide dibujar árboles en la pendiente de una montaña, dibujará los árboles perpendiculares a la pendiente
y no en una dirección vertical. Para comprender lo "vertical" y lo "horizontal", que significa que el niño
tiene que subsumir una relación en un sistema de referencia externo a la figura en sí misma, tenemos
que esperar hasta que el desarrollo intelectual del niño alcance el segundo nivel, es decir, el interfigural.
Ahora bien, si consideramos la historia de la geometría como una ciencia, también podemos distinguir
tres períodos bastante característicos: el período dominado por la geometría griega, que es una especie
de ciencia interesada en las propiedades de las figuras consideradas aisladamente. Tendremos que
esperar hasta el siglo diecinueve para ver que se conciben las propiedades geométricas como
invariantes dentro de un sistema de transformaciones. Muchas décadas después del nacimiento de la
geometría proyectiva, Klein ofrece una perspectiva de la geometría muy diferente mostrando que el
sistema de transformaciones utilizado por la geometría proyectiva podría explicarse considerando
estructuras algebraicas dentro de las cuales el sistema de transformaciones puede referirse de la
estructura.

La teoría de los grupos nos brinda un nivel enteramente de desarrollo conceptual en la evolución de la
geometría.
Los tres períodos en la historia de la geometría pueden por tanto mostrar que coinciden con
los tres períodos en el desarrollo de los conceptos geométricos de un niño. Más aun, un análisis que no
podemos reproducir ahora muestra que ésta no es una simple analogía, sino que en ambos casos el
mecanismo que da lugar al pasaje de un nivel al siguiente son comunes a la historia de la ciencia y al
desarrollo infantil, a pesar del hecho de que el contenido real de los conceptos geométricos a nivel
científico y al nivel infantil son totalmente diferentes.
Quizás se dude si podemos probar históricamente lo que antes hemos afirmado.
No es mi objetivo convencerlos. Más bien afirmo que la investigación en la historia de la ciencia se
puede poner en términos poner en términos definidamente epistemológicos y que se convierte así en un
tipo de investigación bastante objetiva para mostrar si la historia procede o no de esa manera.
Afirmamos, entonces, que la epistemología genética ha brindado herramientas de investigación por
medio de las cuales todos los problemas epistemológicos podrían formularse de modo que
obtuviéramos respuestas precisas por medio de trabajo experimental: trabajo experimental con los
niños y trabajo experimental con ese experimento inmenso y maravilloso que nos brinda la historia de la
humanidad.

Para dar fin a esta conferencia introductoria, volvamos a nuestro punto inicial. Afirmamos que la
epistemología genética es no sólo una escuela epistemológica que nos proporciona algunas respuestas
acerca de cómo evolucionan los sistemas conceptuales y teóricos de la infancia. Es una teoría que
intenta dar un fundamento sólido al conjunto de la teoría del conocimiento y por tanto una explicación
del desarrollo del conocimiento científico
. Permanece por consiguiente como una filosofía alternativa de
la ciencia que, por primera vez, podría verse sujeta a una prueba experimental.