Logo Passei Direto
Buscar
Material
páginas com resultados encontrados.
páginas com resultados encontrados.

Prévia do material em texto

PIERGIORGIO ODIFREDDI
LAMATEMÁTICA DEL
SIGLO XX
DE LOS CONJUNTOS A LA COMPLEJIDAD
II
PIERGIORGIO ODIFREDDI (Cuneo, Italia, 1950)
Estudió matemática en Italia, Estados Unidos y la
ex Unión Soviética. Enseña lógica en las univer-
sidades de Turín y de Cornell. En 1988 recibió el
premio Galileo de la Unión Matemática Italiana.
Ha trabajado sobre problemas de lógica intuicio-
nista. Actualmente, su campo de investigación es
la teoría de la recursividad.
Primera Edición, 2006
Traducido por Idiarte, Cecilia
Prólogo de Gian Carlo Rota
Título de la edición original: La matematica del Novecento. Dagli
insiemi alla complessità
Turín, 2000
La Matemática del siglo XX III
A Laura
que me libera del tiempo y el espacio
y me da la alegría y la paz
que me han sido negadas por el Número y el Punto.
IV
Índice general
1. Prólogo de Gian Carlo Rota 1
2. Agradecimientos 7
3. Introducción 9
4. Fundamentos 17
4.1. Década de 1920: Los Conjuntos . . . . . . . . . . . . . . . . . . . 19
4.2. Década de 1940: Las Estructuras . . . . . . . . . . . . . . . . . . . 23
4.3. Década de 1960: Las Categorías . . . . . . . . . . . . . . . . . . . 27
4.4. Década de 1980: El Lambda Cálculo . . . . . . . . . . . . . . . . . 31
5. Matemática Pura 37
5.1. Análisis: La medida de Lebegue (1902) . . . . . . . . . . . . . . . . 41
5.2. Álgebra: La Clasificación de los campos de Steinitz (1910) . . . . . . . . 46
5.3. Topología: El Teorema del Punto Fijo de Brouwer (1910) . . . . . . . . 49
5.4. Teoría de Números: Los Números Trascendentes de Gelfond (1929) . . . . 52
V
VI ÍNDICE GENERAL
5.5. Lógica: El Teorema de Incompletitud de Gödel (1931) . . . . . . . . . . 56
5.6. Calculo Variacional: Las superficies minimales de Douglas (1931) . . . . 60
5.7. Análisis: Las distribuciones de Schwartz (1945) . . . . . . . . . . . . 65
5.8. Topología Diferencial: Las estructuras exóticas de Milnor (1956) . . . . . 69
5.9. Teoría de los Modelos: Los Números Hiperreales de Robinson (1961) . . . 73
5.10. Teoría de Conjuntos: El Teorema de Independencia de Cohen (1963) . . . 77
5.11. Teoría de Singularidades: La Clasificación de las Catástrofes de Thom (1964) 80
5.12. Álgebra: La Clasificación de los Grupos Finitos de Gorenstein (1972) . . . 86
5.13. Topología: La Clasificac. de las Superf. Tridimensionales de Thurston (1982) 92
5.14. Teoría de Números: La demost. de Wiles del Últ. Teorema de Fermat (1995) 97
5.15. Geometría Discreta: La solución de Hales al Problema de Kepler (1998) . . 103
6. Matemática Aplicada 109
6.1. Cristalografía: Los Grupos de Simetría de Bieberback (1910) . . . . . . . 115
6.2. Cálculo Tensorial: La relatividad general de Einstein (1915) . . . . . . . 122
6.3. Teoría de Juegos: El Teorema Minimax de Von Neumann (1928) . . . . . 126
6.4. Análisis Funcional: La Axiomat. de la Mec. Cuántica de V. Neumann (1932) 129
6.5. Teoría de la Probabilidad: La Axiomatización de Kolmogorov (1933) . . . 134
6.6. Teoría de la Optimización: El Método del Simplex de Dantzig (1947) . . . 138
6.7. Teoría del Equilibrio Gral.: El Th. de Existencia de Arrow y Debreu (1954) . 141
6.8. Teoría los lenguajes formales: La clasificación de Chomsky (1957) . . . . 144
6.9. Teoría de los Sistemas Dinámicos: El Teorema Kam (1962) . . . . . . . . 148
6.10. Teoría de los Nudos: Los Invariantes de Jones (1984) . . . . . . . . . . 152
La Matemática del siglo XX VII
7. La Matemática y el Ordenador 159
7.1. Teoría de Algoritmos: La Caracterización de Turing (1936) . . . . . . . . 165
7.2. Inteligencia Artificial: El Análisis del Ajedrez de Shannon (1950) . . . . . 169
7.3. Teoría del Caos: El Atractor extraño de Lorenz (1963) . . . . . . . . . . 172
7.4. Demostraciones asistidas: El Th. de los 4 Colores de Appel y Haken (1976) . 175
7.5. Fractales: El conjunto de Mandelbrot (1980) . . . . . . . . . . . . . . 181
8. Problemas irresueltos 187
8.1. Aritmética: El Problema de los Números Perfectos (300 a.C.) . . . . . . . 189
8.2. Análisis complejo: La Hipótesis de Riemann (1859) . . . . . . . . . . . 191
8.3. Topología Algebraica: La Conjetura de Poincaré (1904) . . . . . . . . . 195
8.4. Teoría de la Complejidad: El Problema P = NP (1972) . . . . . . . . . 198
9. Conclusión 205
10. Bibliografía 211
11. Índice de nombres 215
VIII ÍNDICE GENERAL
1
Prólogo
A finales del segundo milenio, la vida de la matemática corre se-
rios peligros. Entre las múltiples amenazas a su supervivencia, las
más inminentes me parecen la crasa ignorancia de sus resultados y
la frecuente hostilidad hacia sus exponentes. Ambas se ven favoreci-
das por la insistencia de los matemáticos en permanecer en los estre-
chos límites de la propia disciplina, y por su ineptitud para traducir
su contenido esotérico en eslóganes exotéricos, como debería ser en
la era de los medios masivos de comunicación y de las relaciones
públicas. Si no se toman inmediatamente drásticas medidas, la ma-
temática corre el riesgo de convertirse pronto en una curiosidad, una
de las especies intelectuales en vías de extinción -junto a los otros
clásicos, desde la poesía hasta la música, o desde la pintura al teatro-
que nuestros hijos visitarán en el zoológico.
Sin embargo, está claro (y puedo demostrarlo con rigor) que la
civilización occidental de la que estamos tan orgullosos sobrevivirá
o morirá junto con sumatemática. La matemática es, siempre ha sido
y siempre será la cúspide de nuestra civilización, y cualquiera que
adhiera a los ideales que se nos transmitieron desde los hebreos y los
1
2 1. Prólogo de Gian Carlo Rota
griegos, a través del Renacimiento y la Revolución Científica, debe
estar listo para enrolarse entre sus defensores.
El campo de batalla es vasto y el plan de lucha debe ser concebi-
do por nuestros mejores estrategas. Afortunadamente, contamos con
algunos entre los matemáticos, no obstante el desdén esnob con el
que los miran la mayoría de sus colegas (los físicos y los químicos,
en cambio, aprendieron hace mucho tiempo a comportarse de otra
manera, y miman y recompensan inmensamente a sus estrategas).
Aprovecho esta oportunidad que me brinda mi amigo Odifreddi
para detenerme en una pequeña zona de este campo de batalla. La-
mentablemente, no estoy capacitado para ofrecer sugerencias cons-
tructivas, pero al menos puedo señalar algunas grotescasmalas inter-
pretaciones, que conducen a los falsos defensores de la matemática a
tropezar con sus propios pies. Mi consejo es evitar cuidadosamente
la repetición de los siguientes desaciertos.
• La matemática es divertida
Aprender matemática es divertido sólo para quienes la aman,
es decir, para una insignificante minoría de las personas ins-
truidas. Para la gran mayoría, en cambio, aprender matemá-
tica es una actividad pesada, difícil y artificial, que casi todos
preferirían evitar. Ciertamente, no se ayuda a la propia causa
acuñando un eslogan basado en una patraña tan descarada.
• La matemática es maravillosa
También aquí, la belleza de la matemática brilla sólo a los ojos
de quien la hace. Lamentablemente, la enseñanza de la mate-
mática ha caído hoy a niveles de incompetencia francamente
impensables para unmundo tecnológico. Poquísimosmaestros
saben comunicar la belleza de la matemática a sus estudian-
tes, y muchos de los que podrían prefieren, comprensiblemen-
La Matemática del siglo XX 3
te, dedicarse a actividades menos frustrantes que la enseñanza.
Mejor dejar caer también este eslogan.
• La matemática tiene muchas aplicaciones
Aunque pueda parecer tonto, los matemáticos generalmente
concluyen la discusión de cualquier resultado con la frase: “Y
el teorema tiene muchas aplicaciones útiles”, pero nunca espe-
cifican cuáles. Querer especificarlo, entonces, sería peor aun.
Esforzarse por encontrar aplicaciones a toda costa conduce en
efecto a la invención de ejemplos innaturales y poco convin-
centes, que se merecen el desalentador y desafiante: “¿Y en-
tonces?”. Ciertamente, algunos resultados matemáticos tienen
aplicaciones inmediatas, pero también en estoscasos es mejor
mantenerse lejos de los detalles, como el secretario florentino
aconsejaba al Príncipe. Nunca se puede saber si el público mos-
trará interés, ni cuánto, hacia las falsas maravillas tecnológicas
que se le propinan. Conviene limitarse a generalidades obvias,
que son más adecuadas para impresionar a los desprevenidos.
Por ejemplo: “Sin lógica matemática no existirían los ordenado-
res” o “Sin el análisis funcional no existiría la bomba atómica”.
Si sólo encontráramos una docena de eslóganes de este tipo pa-
ra taparle la boca a cierta gente, la matemática podría emular a
la química en las relaciones públicas y competir con ella en las
subvenciones.
• La matemática es un sustituto de los clásicos
Pertenezco a la última generación a la que se le hizo creer que
saber leer latín y griego era un requisito indispensable para
quien quisiera obtener la calificación de gentleman. Prefiero
ahorrar las decrépitas banalidades que se esgrimían como justi-
ficación para la enseñanza de las lenguas muertas. Las mismas
banalidades se reciclan hoy para pedir mayor número de horas
4 1. Prólogo de Gian Carlo Rota
semanales de matemática en las escuelas secundarias; proyec-
to loable, por cierto, pero difícilmente realizable apelando a los
clásicos.
Debo confesar que yo mismo he creído en la analogía entre ma-
temática y clásicos, y que la he predicado a mis alumnos. Hasta
que un día uno de ellos me arrojó demanera irreverente un “¡Al
diablo los clásicos!” que me hizo recobrar instantáneamente el
sentido. De todos modos hay, obviamente, un toque de verdad
en la comparación, y es menester separarlo de las burlas. En
la vieja Inglaterra ningún buen estudiante de Oxford o Cam-
bridge podía aspirar a servir a Su Majestad, aunque fuera en la
colonia más alejada, si no era capaz de recitar al pie de la le-
tra miles de versos de Virgilio, o decenas de odas de Píndaro.
¡Los países civilizados se empeñaban en elegir a sus gobernan-
tes basándose sólo en su conocimiento de los clásicos!
Hoy esta ocurriendo algo parecido con la matemática. Cual-
quier que trabaje en áreas tecnológicas sabe que las especu-
laciones envejecen precoz y continuamente. Un sólido back-
ground de purísima matemática es el mejor seguro contra la
obsolescencia. Ni siquiera la matemática “aplicada” basta para
este fin, por obvias razones de circularidad.
• La matemática es como la música
Me gustaría creer esta afirmación. Pero hay que constatar que
hay muchos más estudiantes de música que de matemática,
aunque la probabilidad de morir de hambre o de ser un de-
socupado sea mucho más alta entre los músicos que entre los
matemáticos. Por lo tanto, debe haber una diferencia entre las
dos profesiones.
• La matemática es una profesión tranquila
Muchas personas que no se dedican a este trabajo conservan
La Matemática del siglo XX 5
una imagen falsa de la vida del matemático, según la cual el
profesor de matemática enseña algunas horitas por semana y
dedica el resto del tiempo a placenteros pasatiempos, desde la
jardinería hasta el ajedrez. Nada podría estar más alejado de la
realidad, y lo estará mas aun en el futuro. La competitividad en
la investigación matemática está llegando a niveles de olimpia-
das, y quien se dedique menos de dieciocho horas al día a la
investigación terminará en una pizzería. ¡Pero detrás del mos-
trador, no sentado a las mesas!
• La matemática es la reina de las ciencias
De esto, en cambio, estoy completamente convencido. Por des-
gracia, los matrimonios se forman entre dos personas. El eslo-
gan sería creíble sólo si los otros científicos estuvieran de acuer-
do, algo que a ellos ni se les pasa por la cabeza. Por el contrario,
todos intentan acaparar la enseñanza de la matemática, desde
los ingenieros hasta los físicos, desde los químicos hasta los bió-
logos, y los matemáticos se van de paseo. ¿Cuándo vamos a re-
cuperar un poco de respeto, por no hablar de algún puesto de
trabajo?
Afortunadamente, contra todo pronóstico pesimista, de vez en
cuando ocurren cosas buenas. Una de ellas es este libro de Odifre-
ddi. Su estrategia es inteligente: simplemente presenta los resultados
de la matemática como son, limitando al mínimo el lenguaje técni-
co, pero con suficiente información como para permitir al lector que
pueda hacerse una buena idea tanto de los problemas importantes,
como de sus soluciones. Pocas veces una historia tan completa fue
presentada con tal claridad.
Aquí no hay esfuerzos por “vender” la matemática. Que un re-
6 1. Prólogo de Gian Carlo Rota
sultado sea útil o no, incessu pateti1 el lector terminará por concluir,
exultante, al final de alguna espléndida explicación sobre las superfi-
cies mínimas o sobre los polinomios de Jones, que tarde o temprano
tales resultados encontrarán aplicaciones útiles.
Conducido por la hábil retórica del autor, el lector que llegue
a esta conclusión auscultará el ritmo cardíaco de la matemática y
aprenderá la lección esencial: que los mejores resultados son siem-
pre, inevitablemente, los que encuentran aplicaciones revoluciona-
rias. Y es justamente a éstas que se debe el progreso, o mejor dicho el
Progreso y el mejoramiento de nuestro mundo.
Cualquiera que ame la matemática debe estar agradecido a Odi-
freddi por haber presentado, con éxito, su lado más fuerte.
Gian Carlo Rota
Turín, 7 de junio de 1998
1“Se ve en el andar”, en referencia a la sentencia de Virgilio “vera incessu patuit
dea”. [N. de la T.]
2
Agradecimientos
Agradezco a John Hubbard y Peter Kahn por la inspiración ini-
cial, y a Claudio Bartocci, Cinzia Bonotto, Umberto Bottazzini, Lione-
llo Cantoni, Alberto Collino, Vittorio De Alfaro, Simonetta Di Sieno,
Michele Emmer, Livia Giacardi, Gabriele Lolli, CristinaMataloni, An-
drea Moro, Alessandro Panconesi, Tullio Regge y Paolo Valabrega
por la ayuda intermedia y la corrección final.
7
8 2. Agradecimientos
3
Introducción
El mundo descrito por las ciencias físicas y naturales es concreto
y perceptible: en una primera aproximación a través de los sentidos,
y en una segunda aproximación a través de varias extensiones de los
sentidos provistas por la tecnología. El mundo descripto por la ma-
temática, en cambio, es un mundo abstracto, constituido por ideas
que pueden percibirse sólo con el ojo de la mente. De todos modos,
con la práctica, conceptos abstractos como números y puntos han ad-
quirido tal objetividad que incluso el hombre común puede obtener
imágenes sustancialmente concretas de ellos, como si pertenecieran
a un mundo de objetos tan reales como los físicos.
Pero la ciencia moderna ha minado la ingenua visión del mundo
exterior; la investigación extendió sus fronteras a las inmensas mag-
nitudes del cosmos y a las minúsculas de las partículas, haciendo
imposible una percepción sensorial directa, o incluso sólo a través de
medios tecnológicos, de los objetos galácticos o atómicos, reducién-
dolos efectivamente a imágenes matemáticas. De manera análoga,
también la matemática moderna extendió las fronteras de su investi-
gación a las raras abstracciones de las estructuras y a los minuciosos
9
10 3. Introducción
análisis de los fundamentos, desvinculándose por completo de la vi-
sualización.
Por lo tanto, la ciencia y la matemática del siglo XX comparten la
dificultad de explicar sus conquistas en términos de conceptos clási-
cos. Pero dificultad no significa imposibilidad; y son precisamente las
abstracciones superficiales y estériles las que generalmente resultan
difíciles de justificar, mientras que las profundas y fecundas ahondan
sus raíces en problemas e intuiciones concretas. En otras palabras, la
buena abstracción no es un fin en sí mismo, un arte por el arte, sino
que siempre es una necesidad, un arte por el hombre.
Una segunda dificultad cuando se afronta la ciencia y la matemá-
tica del siglo XX es la explosión productiva. Los matemáticos, que
solían conformar un pequeño grupito que a menudo debía hacer
cualquier trabajo para sobrevivir, hoy se han convertido en una le-
gión. Se mantienen produciendoinvestigaciones que, generalmente,
no tienen ni justificación ni interés, y la estructura universitaria en
que la mayoría de ellos trabaja los incita estúpidamente a “publicar
o perecer”, según un triste lema estadounidense. El resultado es que
hoy están circulando centenares de revistas especializadas, en las que
aparecen cada año, literalmente, centenares de miles de teoremas, la
mayoría irrelevantes.
Una tercera dificultad es provocada por la fragmentación que la
matemática sufrió a partir del siglo XVIII, y que se hizo patológica en
el siglo XX. Una de las causas es la explosión productiva, pero no es
la única; otra, quizás más determinante, es el progreso mismo de la
investigación. En efecto, los problemas simples y de fácil resolución
son escasos, y una vez que se resuelven, una disciplina puede ser
desarrollada sólo afrontando problemas complicados y difíciles, que
requieren el desarrollo de técnicas específicas y, por lo tanto, una es-
pecialización. El siglo XX ha testimoniado una hiperespecialización
La Matemática del siglo XX 11
de la matemática, que terminó por dividirla en subdisciplinas con
fronteras cada vez más angostas y delimitadas.
Lamayoría de estas subdisciplinas están constituidas por ramitas
atrofiadas y resecas, que se desarrollan limitadamente en el tiempo y
el espacio, y luego mueren de muerte natural. Pero las ramas sanas
y fuertes siguen siendo muchas, y su desarrollo ha provocado una
situación inédita en la historia de la matemática: la extinción de la
especie del matemático universal, es decir, el individuo de excepcio-
nal cultura que podía dominar completamente el panorama entero
de la matemática de su tiempo. El último ejemplar parece haber sido
John von Neumann, fallecido en 1957.
Por todas estas razones, no es físicamente posible, ni es de esperar
intelectualmente, brindar un panorama completo de la actividad de
una disciplina que claramente ha asumido las características típicas
de la sociedad industrial dominante, en la que la superproducción de
mercancías de baja factura y a bajo costo generalmente marcha por
inercia, segúnmecanismos contaminantes y saturantes, nocivos para
el ambiente y para el consumidor.
El problema principal de cualquier exposición de la matemática
del siglo XX es entonces, como en la parábola del Evangelio, separar
el grano bueno de la paja, quemar la paja en gavillas y acumular el
grano en graneros. Los criterios que pueden guiar una selección de
resultados son múltiples, y no unívocos: el interés histórico del pro-
blema, la naturaleza germinal o conclusiva de un resultado, la belleza
intrínseca de la formulación o de las técnicas, la novedad o la dificul-
tad de la demostración, la fertilidad matemática o la utilidad práctica
de las aplicaciones, la pregnancia filosófica de las consecuencias, et-
cétera.
La decisión que proponemos al lector, naturalmente, no puede no
ser subjetiva, tanto en sentido negativo como positivo. Por una parte,
12 3. Introducción
se debe dar dentro de un bagaje personal de conocimientos que evi-
dentemente y de manera inexorable es limitado desde un punto de
vista general. Por otra parte, dentro de este bagaje, realiza una selec-
ción inevitablemente regida por preferencias y gustos particulares.
De todos modos, los aspectos subjetivos pueden limitarse al mí-
nimo, intentando hacer referencia a criterios que de alguna manera
resulten objetivos. En este caso, la tarea está facilitada por dos fac-
tores complementarios, que marcaron el desarrollo de la matemática
en el siglo XX. Ambos están vinculados, como explicaremos, con los
Congresos Internacionales de la Matemática; como las olimpiadas,
éstos se desarrollan cada cuatro años, y están invitados a presentar
sus trabajos aquellos a los que la comunidad de matemáticos consi-
dera sus mejores exponentes.
El primer Congreso oficial se llevó a cabo en 1897 en Zurich y la
apertura estuvo a cargo de Henri Poincaré, que la dedicó a las rela-
ciones entre matemática y física. El segundo Congreso se realizó en
París en 1900 y en esta oportunidad la apertura fue asignada a David
Hilbert. El factor numerológico se impuso a su deseo de responder a
distancia al discurso de Poincaré, y Hilbert eligió “indicar probables
direcciones de la matemática del nuevo siglo”.
En su inspirado discurso brindó, ante todo, implícitas indicacio-
nes que nos guiarán en nuestra exposición: los resultados importan-
tes son aquellos que manifiestan una continuidad histórica con el
pasado, que unifican distintos aspectos de la matemática, que arro-
jan luz nueva sobre cosas conocidas, que introducen simplificaciones
radicales, que no son manipuladamente complicados, que admiten
ejemplificaciones significativas, que están suficientemente madura-
dos como para poder ser explicados al hombre de la calle, etcétera.
Pero el discurso de Hilbert se hizo famoso principalmente por la
explícita indicación de veintitrés problemas abiertos, que él conside-
La Matemática del siglo XX 13
raba cruciales para el desarrollo de la matemática del siglo. Confir-
mando su lúcida anticipación, muchos de esos problemas resultaron
efectivamente fecundos y estimulantes, sobre todo en la primera mi-
tad del siglo, y enseguida nos detendremos en algunos. En la segun-
da mitad del siglo, el impulso de los problemas de Hilbert se apagó
y la matemática incursionó en caminos que a principios de siglo ni
siquiera existían.
Para orientarse en este período es útil hacer referencia a un pre-
mio instituido en 1936, que se concede en los Congresos Internacio-
nales a matemáticos menores de cuarenta años que hayan obtenido
en los últimos años los resultados más destacados. La restricción eta-
ria no es especialmente importante, dado que la mayor parte de los
resultados significativos se obtienen a esa edad. Como una vez dijo
Godfrey Hardy, en Apología de un matemático: “Ningún matemático
puede permitirse olvidar que la matemática, más que cualquier otra
arte o ciencia, es una actividad para jóvenes”.
El premio, dedicado a la memoria de John Charles Fields -un
matemático que había sido su organizador y que había obtenido la
financiación- consiste en una medalla que muestra la imagen de Ar-
químedes y la frase Transiré suum pectus mundoque potiri [trascender
las limitaciones humanas y apoderarse del universo] (Figura 1). Por
eso, el premio hoy se llama medalla Fields.
Figura 1. La medalla Fields
14 3. Introducción
Se lo considera el análogo del premio Nobel que para la matemá-
tica no existe. Pero sí existe una leyenda muy conocida según la cual
la causa de esta inexistencia habría sido el deseo de Alfred Nobel de
evitar la posibilidad de que el matemático sueco GöstaMittag-Leffler
lo ganara. En realidad, ellos casi no se conocían, y ciertamente el se-
gundo no era el amante de la esposa del primero, como suele sugerir-
se, ya que Nobel no era casado. El verdadero motivo es simplemente
que los cinco premios originales (física, química, medicina, literatura
y paz) estaban dedicados a temas que le habían interesado a Nobel
toda su vida, y la matemática no se contaba entre ellos.
Hasta ahora se han entregado 42 medallas Fields, dos de ellas en
1936, y las restantes entre 1950 y 1998. Ya que la lista de los ganadores
incluye a algunos de los mejores matemáticos de la segunda mitad
del siglo y que los resultados premiados constituyen algunas de las
cimas alcanzadas por la matemática en aquel período, volveremos a
menudo sobre este tema.
Complementario de la medalla Fields es el premio Wolf, una espe-
cie de Oscar a la carrera, instituido en 1978 por Ricardo Wolf, filán-
tropo cubano de origen alemán que fue embajador en Israel desde
1961 hasta 1973. Como los premios Nobel, los premiosWolf no tienen
limitaciones de edad, se asignan en varios campos (física, química,
medicina, agricultura, matemática y arte), son entregados por el jefe
de Estado en la capital (el rey de Suecia en Estocolmo en un caso, el
presidente de Israel en Jerusalén en el otro) e incluyen un sustancioso
cheque (de 100.000 dólares, contralos 10.000 de la medalla Fields y
el millón del premio Nobel).
Para evitar malentendidos, cabe aclarar explícitamente que las so-
luciones de los problemas de Hilbert y los resultados de las medallas
Fields o de los premios Wolf representan sólo puntos de referencia
significativos y, obviamente, no agotan el panorama de la matemáti-
La Matemática del siglo XX 15
ca del siglo XX. Por eso, también será necesario ir más allá de los pre-
mios para intentar dar una descripción lo más amplia posible, con las
limitaciones que ya mencionamos, de la variedad y la profundidad
de la matemática contemporánea.
La decisión de concentrarse en grandes resultados que, por otra
parte, constituyen la esencia de la matemática determina automática-
mente la naturaleza diacrónica de la exposición, que inevitablemente
tomará la forma de un collage. La ventaja es que permite una lectu-
ra ampliamente independiente de cada sección; y la desventaja, que
resulta confusa. Pero esta desventaja podrá ser superada fácilmente
con una segunda lectura, tras la cual se podrá volver a las distintas
secciones con una visión global.
16 3. Introducción
4
Fundamentos
La matemática puede ser considerada, según la propia predispo-
sición filosófica o la propia experiencia personal, como una actividad
de descubrimiento o de invención.
En el primer caso, los conceptos abstractos de los que trata la
matemática se consideran dotados de una auténtica existencia en el
mundo de las ideas, que es considerado tan real como el mundo físi-
co de los objetos concretos. Por lo tanto, el descubrimiento requiere,
literalmente, un sexto sentido, que permita percibir los objetos abs-
tractos del mismo modo en que los cinco sentidos permiten percibir
los objetos concretos. Y el problema fundamental de esta percepción
es, obviamente, su verdad externa, es decir, una adecuada correspon-
dencia con la supuesta realidad.
En el segundo caso, en cambio, las obras matemáticas se conciben
como obras de arte, que tratan de objetos tan imaginarios como los
protagonistas de una novela o las representaciones de una pintura.
Por lo tanto, la invención requiere un auténtico talento matemático,
que permita construir objetos de fantasía como lo hace el talento ar-
17
18 4. Fundamentos
tístico. El problema fundamental de las producciones de este talen-
to es su consistencia interna, es decir, la concepción de las distintas
partes como un todo orgánico (en términos matemáticos: la falta de
contradicciones).
Pero ya sea descubrimiento o invención, la matemática revela ob-
jetos y conceptos que, a primera vista, resultan inusuales o poco fa-
miliares. Actualmente, ciertos adjetivos demuestran las reacciones de
sorpresa o desagrado que suscitaron algunos números en su prime-
ra aparición: irracionales, negativos, sordos, imaginarios, complejos,
trascendentes, ideales, surreales, etcétera.
Desde los tiempos de los griegos, una actitud típica fue el intento
por limitar lo máximo que fuera posible la sorpresa o el desagrado,
descargando el peso del edificio de la matemática en fundamentos
sólidos. La historia de la matemática testimonió sucesivas fases de
construcción y desconstrucción, que invertían las relaciones recípro-
cas entre lo que se consideraba fundamental y sustituían cimientos
peligrosos o superados por otros que se consideraban más adecua-
dos.
En el siglo VI a.C. los pitagóricos colocaron la aritmética de los
números enteros y racionales en la base de la matemática. La grieta
que hizo desmoronar el edificio fue el descubrimiento demagnitudes
geométricas que no se pueden expresar como relaciones entre núme-
ros enteros, lo que demostró que los números racionales no son una
base adecuada para la geometría.
En el siglo III a.C. todo el edificio fue reconstruido por Euclides
sobre los cimientos de la geometría. Los números enteros y sus opera-
ciones perdieron el rol de entidades primitivas y fueron reducidos a
las medidas de segmentos y de sus combinaciones: por ejemplo, los
productos a la medida del área de un rectángulo.
La Matemática del siglo XX 19
En el siglo XVII, Descartes inauguró un nuevo paradigma numé-
rico, basado en lo que hoy llamamos análisis, es decir, en los números
reales. La geometría se volvió analítica, y puntos y entidades geo-
métricas se redujeron a coordenadas y ecuaciones: por ejemplo, las
rectas a las ecuaciones de primer grado.
En el siglo XIX se cerró el círculo, y el análisis rae reducido a la
aritmética. Los números reales fueron definidos como conjuntos de
sus aproximaciones racionales, y la novedad esencial que permitió
a los modernos esta transformación fue la consideración actual de
infinito, que los griegos, en cambio, rechazaban.
Retomaremosmás adelante todos estos fundamentos clásicos. Pe-
ro el proceso de construcción y desconstrucción no se detuvo aquí.
Por el contrario, justamente en el siglo XX surgieron muchas alterna-
tivas que han disputado los favores de los matemáticos, y que hoy
permiten considerar este siglo como un auténtico período de renova-
ción de cimientos. La característica esencial de los nuevos fundamen-
tos es que se basan, ya no en los objetos clásicos de la matemática, es
decir en entes numéricos o geométricos, sino en conceptos absoluta-
mente nuevos, que cambiaron completamente su identidad formal y
sustancial.
4.1. Década de 1920: Los Conjuntos
Cuando nos referimos a la base aritmética de los números reales,
ya hemos introducido la palabra clave de la matemática del siglo XX:
los conjuntos. El gran descubrimiento residió en que, sobre esta pala-
bra, se pudiera basar el edificio entero, y fue gracias a Georg Cantor,
que llegó a esta idea con motivaciones puramente matemáticas, vin-
culadas con un estudio de problemas de análisis clásico.
Con motivaciones diferentes, relacionadas con el intento de de-
20 4. Fundamentos
mostrar que los conceptos y los objetos matemáticos son, en su esen-
cia más profunda, de naturaleza puramente lógica, también Gottlob
Frege había desarrollado un enfoque equivalente al de Cantor, que
hoy se denomina teoría ingenua de conjuntos.
Esta teoría se basa sólo en dos principios, que reducen los con-
juntos a las propiedades que los definen. Primero, el principio de ex-
tensión, ya enunciado por Gottfried Wilhelm Leibniz: un conjunto
está completamente determinado por sus elementos, por lo tanto,
dos conjuntos con los mismos elementos son iguales. Por otra par-
te, el principio de comprensión: toda propiedad determina un conjunto,
constituido por los objetos que satisfacen esa propiedad; y todo con-
junto está determinado por una propiedad, que es precisamente la
de ser un objeto que pertenece al conjunto.
El descubrimiento de que dos principios tan simples y lógicamen-
te elementales fueran la base de toda la matemática se consideró el
punto de llegada de su historia: la geometría había sido reducida al
análisis, el análisis a la aritmética, y ahora el trabajo de Cantor y Fre-
ge mostraba que, a su vez, la aritmética podía ser reducida a la teoría
de conjuntos, es decir, a la lógica pura.
Pero esto era demasiado bello para ser verdadero, y uno de los
primeros descubrimientos del siglo XX fue, precisamente, que esta
sencilla cimentación era inconsistente; de aquí surge la calificación
de “ingenua” En 1902, Bertrand Russell demostró que el principio
de comprensión era contradictorio, con un razonamiento que se hizo
famoso con el nombre de la paradoja de Russell.
Sustancialmente, los conjuntos de objetos se dividen en dos cla-
ses, según se considere si son o no uno de los objetos contenidos en el
conjunto mismo o, dicho de otra manera, si cada conjunto pertenece
o no a sí mismo. Por ejemplo, el conjunto de los conjuntos con más
de un elemento pertenece a sí mismo, porque en efecto tiene más de
La Matemática del siglo XX 21
un elemento. Y el conjunto de los conjuntos con un solo elemento
no pertenece a sí mismo porque, ciertamente, también este conjunto
tiene más de un elemento.
El problema es: ¿el conjunto de todos los conjuntos que noper-
tenecen a sí mismos, pertenece o no a sí mismo? Si es así, entonces
es uno de los conjuntos que no pertenecen a sí mismos, y por tanto
no puede pertenecer a su colección, es decir, a sí mismo. Si no es así,
entonces es uno de los conjuntos que no pertenecen a sí mismos, y
entonces pertenece a su colección, es decir, a si mismo.
La solución o, mejor dicho, la remoción de la paradoja de Russell
pasa hoy a través de una limitación del principio de comprensión,
y una distinción entre clase y conjunto.Un conjunto es, simplemente,
una clase que pertenece a otras clases: entonces, todos los conjuntos
son clases, pero no todas las clases son conjuntos, y las que no lo son
se llaman clases propias.
Si se intenta reproducir el argumento de Russell considerando la
clase de los conjuntos que no pertenecen a sí mismos, se obtiene una
sorpresa. En efecto, esta clase no puede pertenecer a sí misma, pues
de lo contrario sería un conjunto que no pertenece a sí mismo. En-
tonces no pertenece a sí misma, y entonces o no es un conjunto o per-
tenece a sí misma; como se acaba de excluir la segunda opción, debe
ser verdadera la primera. En otras palabras, esta vez no se encontró
una paradoja sino una demostración de que la clase de los conjuntos
que no pertenecen a sí mismos es propia.
Naturalmente, la clase de las clases que no pertenecen a sí mis-
mos es contradictoria, exactamente como antes. Entonces el principio
de comprensión debe ser reformulado, diciendo que una propiedad
de conjuntos siempre determina una clase. Pero así el principio pierde
mucha fuerza, porque entonces sólo permite definir clases a partir de
conjuntos, los que ya deben haber sido definidos de alguna manera.
22 4. Fundamentos
Y no hay soluciones indoloras o elegantes al problema, ya que la
solución natural que ofrece el axioma de comprensión es impractica-
ble. Se trata entonces de abandonar el enfoque analítico o desde arri-
ba y adoptar un enfoque sintético o desde abajo, enumerando una
serie de principios de existencia y de reglas de construcción de los
conjuntos, que permitan generar algo provechoso pragmaticamente,
es decir, todos los conjuntos de uso corriente, pero al mismo tiempo
evitar lo perjudicial, es decir, todos los conjuntos paradójicos.
Una primera lista de axiomas fue compilada por Ernst Zermelo
en 1908. Ante todo, esta lista requiere la existencia de al menos un
conjunto, lo que no se puede demostrar considerando únicamente el
axioma de comprensión para las clases. Disponiendo de un punto
de partida, se pueden construir luego otros conjuntos mediante di-
versas operaciones, cuya factibilidad está garantizada precisamente
por los axiomas. Para los conjuntos, estas operaciones son análogas
a las operaciones aritméticas; por ejemplo, la unión, el producto car-
tesiano y el conjunto potencia para los conjuntos son versiones de la
suma, el producto y el elevamiento a potencia para los números.
Sin embargo, todas estas operaciones no permiten demostrar la
existencia de conjuntos infinitos, necesarios para reducir el análisis
a la aritmética, es decir, los números reales a conjuntos (precisamen-
te, infinitos) de números enteros. Por lo tanto, un axioma ulterior
requiere la existencia de un conjunto infinito, uno, por ejemplo, cu-
yos elementos satisfagan todos los axiomas restantes de la teoría de
Zermelo y que, por consiguiente, contiene en particular todas las po-
tencias sucesivas de un conjunto finito.
La lista de Zermelo fue actualizada en 1921 por Abraham Fraen-
kel, con el agregado de un axioma que afirma que los valores de una
función definida sobre la base de un conjunto constituyen otro con-
junto. Al sistema completo se lo denomina teoría de Zermelo y Fraenkel.
La Matemática del siglo XX 23
La teoría parece suficiente para los usos comunes de la matemá-
tica, pero esto no significa que siempre lo será. Por ejemplo, en los
años 1960 el trabajo de Alexander Grothendieck, al que nos referire-
mos más adelante, debió agregar un nuevo axioma: la existencia de
un conjunto inaccesible, cuyos elementos satisfacen todos los axiomas
de la teoría de Zermelo y Fraenkel, y que por consiguiente contiene
en particular todas las potencias sucesivas de un conjunto infinito.
Más en general, en la segunda mitad del siglo se agregaron axio-
mas de existencia de conjuntos cada vez más grandes, denominados
grandes cardinales, y lo interesante es que permiten probar resultados
que se refieren a los números enteros, que no pueden probarse sin
ellos; en otras palabras, así como en la física parece haber una rela-
ción entre la teoría cosmológica del universo en grande y la teoría
cuántica del universo en pequeño, también en matemática existe una
relación entre la teoría global de los conjuntos y la teoría local de los
números.
Sobre la base del teorema de la incompletud de Gödel acerca del
cual volveremos a hablar, es imposible, de todos modos, formular
un sistema de axiomas definitivo para la teoría de los conjuntos, o si-
quiera para la teoría de los números. Por lo tanto, cualquier extensión
del sistema de Zermelo y Fraenkel está destinada a ser provisoria y
suplantada por las extensiones ulteriores que se tornarán necesarias
para una cada vez mejor, pero nunca conclusiva, comprensión de la
noción de conjunto.
4.2. Década de 1940: Las Estructuras
La teoría de los conjuntos fue, en el siglo XIX, el punto culminante
de la concepción reduccionista de la matemática, que a través del
análisis lógico redujo precisamente la geometría al análisis, el análisis
a la aritmética y la aritmética a la lógica. Pero el análisis lógico de la
24 4. Fundamentos
matemática presenta las mismas limitaciones que la crítica literaria:
interesa a los especialistas pero no a los autores ni a los lectores, en
este caso, a los lógicos pero no a los matemáticos.
En efecto, para el matemático profesional, la teoría de los conjun-
tos tenía (y tiene) dos desventajas evidentes. Ante todo, así como la
teoría atómica no ha modificado la percepción de los objetos macros-
cópicos en la vida cotidiana, la reducción de los objetos matemáticos
a los conjuntos tampoco ha influido en la práctica; por ejemplo, para
hacer cuentas no se piensa en los números enteros como clases de
conjuntos equipotentes.
Además, si bien las paradojas han preocupado a los lógicos, han
dejado muy indiferentes a los matemáticos, que en general ven la
(in)consistencia como un problema no de la matemática misma, sino
de sus presentaciones formales; en este caso, de la teoría de los con-
juntos y no de su práctica. Por lo tanto, la teoría de Zermelo y Fraenkel
fue considerada como la solución compleja de un problema irrele-
vante.
Como conclusión, la teoría de los conjuntos parece haber dejado
al matemático profesional sólo dos contribuciones, ambas esenciales
pero independientes de axiomatizaciones particulares. Por un lado,
una teoría de los conjuntos infinitos, o sea, como dijo David Hilbert,
ese “paraíso creado por Cantor, del que nadie nos podrá echar”. Por
otra parte, un conveniente lenguaje para la formulación de los con-
ceptos, cada vez más abstractos, que produce la práctica moderna.
En los años 1930, un grupo de matemáticos franceses, conocido
con el nombre colectivo de Nicolas Bourbaki, se propuso entonces
fundar la matemática de manera más significativa para los matemá-
ticos, y encontró una solución en un análisis que ya no era lógico sino
estructural. El grupo se embarcó en el proyecto infinito, y por lo tan-
to jamás concluido, de preparar un manual que describiera el estado
La Matemática del siglo XX 25
del arte de la matemática contemporánea; el manual se llamó, con
una obvia referencia a Euclides, Elementos de matemática, y el primer
fascículo se publicó en 1939.
Como en la obra de Euclides, el manual se dividió en libros, de
los cuales los seis primeros estaban dedicados a los fundamentos.
La nómina de los libros testimonia ya el redimensionamiento del rol
fundacional de la teoría de conjuntos, de la que se habla sólo en el
primero. En los otros cinco,en cambio, se consideran el álgebra, la
topología, las funciones de variables reales, los espacios vectoriales
topológicos y la integración.
En 1949, Bourbaki retomó sus posiciones filosóficas, que en aquel
momento ya eran las dominantes, en un artículo titulado elocuente-
mente “Los fundamentos de la matemática para el matemático” (y
no para el lógico). En él se enunció la afirmación abstracta de que to-
da la matemática contemporánea se puede construir basándose en la
noción de estructura, y el manual que se estaba escribiendo fue pre-
sentado como la demostración concreta de que esta afirmación era
correcta.
La idea fundamental del concepto de estructura se puede explicar
con un ejemplo. En la teoría de conjuntos, los números reales se de-
finen artificialmente como conjuntos de números enteros, y las ope-
raciones y las relaciones basadas en ellos se reducen artificialmente a
operaciones y relaciones de conjuntos. En el enfoque de Bourbaki, en
cambio, los números reales y sus operaciones y relaciones se toman
como datos, y se aislan sus propiedades de manera abstracta.
Desde un primer punto de vista, se trata de describir las propie-
dades de las operaciones de suma y producto. Por ejemplo, existen
dos elementos neutros, el 0 para la suma y el 1 para el producto; am-
bas operaciones son asociativas y conmutativas e inverübles (salvo
para la división por 0); y el producto es distributivo respecto de la
26 4. Fundamentos
suma. Estas propiedades se encuadran en un estudio general de las
estructuras algebraicas, cuyos ejemplos más comunes son: monoides,
grupos, anillos, cuerpos y campos. Los números reales constituyen,
precisamente, un ejemplo de campo.
Desde un segundo punto de vista, se trata en cambio de describir
las propiedades del orden. Por ejemplo, cada par de números reales
es comparable; entre dos números distintos siempre hay un tercero;
y no hay espacios vacíos. Estas propiedades se encuadran en un estu-
dio general de las estructuras de orden y se expresan con los conceptos
de totalidad, densidad y completitud.
Desde un tercer punto de vista, no se trata de describir las propie-
dades de los números reales individuales, sino de sus entornos. Por
ejemplo, los números reales constituyen un conjunto sin interrup-
ciones; cada par de números se puede separar mediante intervalos
abiertos; y se necesitan infinitos intervalos abiertos para cubrir todo
el conjunto de los números reales. Estas propiedades se encuadran
en un estudio general de las estructuras topológicas, y se expresan con
los conceptos de conexión, separabilidad y (no) compacidad.
Los tres puntos de vista aislados se pueden integrar luego entre
sí. Por ejemplo, las operaciones de suma y producto son compatibles
con las relaciones de orden y de distancia, en el sentido de que las
preservan (excepto el producto por un número negativo, que invierte
el orden). Estas propiedades se encuadran en un estudio general de
las estructuras algebraicas ordenadas y de las estructuras algebraicas to-
pológicas y en las cuales las operaciones algebraicas son precisamente
compatibles, respectivamente, con el orden y la distancia, y los nú-
meros reales son un ejemplo de campo ordenado y topológico.
Si bien las estructuras ya existían antes de Bourbaki, la importan-
cia de su trabajo fue haber demostrado que en ellas se podía fundar
la matemática. El enfoque tuvo un gran éxito, porque un número su-
La Matemática del siglo XX 27
ficientemente reducido de estructuras madre resultó adecuado para
tratar una gran cantidad de casos interesantes, con una óptima re-
lación de eficiencia. Y la influencia de Bourbaki es evidente hoy en
las divisiones modernas de la matemática, que ya no son las clásicas
aritmética, álgebra, análisis y geometría, sino una enorme variedad
de híbridos, como el álgebra topológica o la geometría algebraica.
Pero las ventajas del bourbakismo no fueron sólo pragmáticas;
también desde un punto de vista teórico resultó ser un paso hacia
adelante respecto del enfoque de los conjuntos. Dejando de lado la li-
mitada consideración de conjuntos vinculados por funciones, la aten-
ción se concentró en los conjuntos estructurales, vinculados por fun-
ciones que preservan la estructura, una abstracción menos artificial y
drástica, que pudo capturar mejor la esencia de los objetos matemá-
ticos.
4.3. Década de 1960: Las Categorías
Si bien los fundamentos de la teoría de conjuntos y los bourba-
kistas fueron considerados satisfactorios para una buena parte de la
matemática, y lo siguen siendo, en algunos campos los conceptos de
conjunto y estructura resultaron demasiado limitados y necesitaron
una extensión. Por ejemplo, como ya lo habíamos señalado, Grothen-
dieck tuvo que introducir la consideración de un conjunto inaccesi-
ble, por lo tanto, de la clase de todos los conjuntos que satisfacen los
axiomas de la teoría de Zermelo y Fraenkel. Pero a la necesidad de
una extensión del enfoque estructural se llega también con conside-
raciones teóricas y no sólo por motivaciones prácticas.
El proceso que lleva de un ejemplo concreto, como los números
reales, a una estructura abstracta, como los campos topológicos, por
un ladomantiene algunas propiedades significativas del ejemplo, pe-
ro por el otro le quita muchas otras. Sólo en casos excepcionales una
28 4. Fundamentos
estructura admite sustancialmente un solo ejemplo y puede, por lo
tanto, describirlo completamente. En cambio, cuando una estructura
admite muchos ejemplos radicalmente diferentes, como por lo ge-
neral ocurre cuando se focalizan las generalidades comunes de sus
múltiples realizaciones, automáticamente desenfoca sus particulari-
dades individuales.
Un modo de reivindicar la variedad de los ejemplos consiste en
invertir el proceso de abstracción, considerando la clase de todos los
posibles ejemplos de una estructura de cierto tipo, vinculados por
todas las posibles fundones que preservan su estructura; de este mo-
do se llega al concepto de categoría, introducido en 1945 por Samuel
Eiknberg y Saunders MacLane. Que su trabajo es un complemento
natural del de Bourbaki lo indica el hecho de que Eilenberg fue uno
de los miembros del grupo, es más, fue el único miembro no francés
de toda su historia (y premio Wolf en 1986).
Pero para poder considerar el concepto de categoría como un aná-
lisis del concepto de estructura, se necesita un nuevo esfuerzo de abs-
tracción, es decir, se trata de determinar qué hay en común entre los
distintos ejemplos de categorías obtenidos de las distintas estructu-
ras. Aunque a primera vista su enorme variedad lleva a pensar que
estos ejemplos tienen muy poco en común, el sorprendente descu-
brimiento de Eilenberg y MacLane reside en que siempre comparten
algo esencial: el hecho de estar constituidos por una clase de conjun-
tos vinculados por funciones que se pueden componer entre sí de
manera asociativa, y entre las cuales al menos la función siempre es
idéntica.
Igualmente sorprendente fue la observación de que, dado que las
funciones llevan automáticamente consigo los conjuntos de sus argu-
mentos y de sus valores, en realidad, no hay necesidad de hablar de
estos conjuntos. De estamanera, ya no hace falta ningún uso residual
La Matemática del siglo XX 29
de la teoría ingenua de los conjuntos, que todavía estaba presente en
la noción de conjunto estructurado, y se obtiene un fundamento al-
ternativo y completamente autosuficiente de la matemática, basado
en conceptos que ya no son de conjunto y de pertenencia, sino de
función y composición.
Además, ya que los conjuntos vinculados por funciones son un
ejemplo particular de categoría, basta caracterizar completamente de
manera categórica sus propiedades para reducir toda la teoría de los
conjuntos a la teoría de las categorías. Tal caracterización fue encon-
trada porWilliam Lawvere en 1964, e irónicamente constituye un pa-
so ulterior de análisis lógico: así como toda la matemática del siglo
XIX había sido reformulada en conceptos de conjunto, en este caso se
trata dereformular estosmismos conceptos en términos de categoría.
La teoría de las categorías resultó ser un fundamento global y
unitario para la matemática, que contiene como casos particulares
tanto los conjuntos de Zermelo y Fraenkel, como las estructuras de
Bourbaki. Ello estimula un proceso ulterior de abstracción: así como
los conjuntos se pueden vincular entre sí mediante funciones, y las
estructuras de un mismo tipo se pueden vincular entre sí median-
te funciones que preservan esa estructura, llamadas morfismos, tam-
bién es posible vincular entre sí las categorías mediante funciones
que preservan las propiedades categóricas, llamadas funtores.
Así como los conjuntos con las funciones o las estructuras con los
morfismos constituyen categorías, uno se ve tentado de afirmar que
las categorías con los funtores constituyen la categoría de las categorías.
Pero el problema es que, desde el punto de vista de los conjuntos,
muchas categorías constituyen una clase propia, es decir, no pueden
formar parte de otras clases, ni constituir particularmente los objetos
de otra categoría.
La primera solución es restringir la atención a las denominadas
30 4. Fundamentos
categorías pequeñas, que constituyen un conjunta De este modo, se
obtiene efectivamente la categoría de las categorías pequeñas, que gene-
raliza el concepto de clase de todos los conjuntos. Ésta contiene mu-
chos ejemplos interesantes, pero obviamente no aquéllos de los que
hemos hablado, es decir, la categoría de los conjuntos y las categorías
de las estructuras.
La segunda solución es la ya mencionada propuesta de Grothen-
dieck, que precisamente surgió en este ámbito: ampliar la teoría de
los conjuntos con nuevos axiomas que permitan considerar clases de
clases, clases de clases de clases, y así sucesivamente. Dependiendo
de la potencia de estos axiomas, se obtienen categorías cuyos objetos
son clases, clases de clases y así sucesivamente, pero en ningún caso
se llega a la categoría de todas las categorías.
La tercera solución, quizás la más satisfactoria, es una axiomati-
zación de la nociónmisma de categoría. La propuso Lawvere en 1966
y en este ámbito desempeña un rol análogo a la axiomatización de la
noción de conjunto de Zermelo y Fraenkel. Además, cuando la axio-
matización de Lawvere se reduce a las categorías discretas, que son
aquellas en las que las únicas funciones presentes son las identida-
des, se obtiene una axiomatización de la teoría de los conjuntos de
manera categórica.
Estos desarrollos permiten a la teoría de las categorías reivindicar
un rol significativo de fundamento de la matemática para los mate-
máticos, expresamente declarado en 1971 en el título del clásico texto
deMacLane, Categories for the working mathematician [Categorías en la
práctica matemática].
Ello no significa que las categorías no tengan nada que ofrecer a
los lógicos. Como ejemplo, basta considerar la teoría de los tipos, que
Russell, introdujo en 1908 como posible solución a las paradojas, y
que es una versión de la teoría ingenua de los conjuntos, basada en
La Matemática del siglo XX 31
los axiomas de de extensión y comprensión, con la particularidad de
que los conjuntos no son de un solo tipo y que una propiedad de
objetos de cierto tipo determina un conjunto del tipo sucesivo. En
1969 Lawvere formuló la teoría de los tipos en versión categórica, y
obtuvo la teoría de los tópoi, en la cual se puede desarrollar una lógica,
que resultó ser equivalente a la lógica intuicionista, introducida por
el topólogo Luitzen Brouwer en 1912, y más general que la clásica
aristotélica.
Partiendo de motivaciones de geometría algebraica, completa-
mente distintas de las anteriores, también Grothendieck llegó de ma-
nera independiente a la teoría de los tópoi, que de este modo resul-
ta ser un punto de convergencia de muchas disciplinas, y permitió
identificar el motivo que impide a la teoría de los conjuntos llegar a
ser un fundamento general de la matemática; simplificando, los con-
juntos forman un tópos cuya lógica es clásica y, por lo tanto, demasia-
do simple como para rendir cuenta, por ejemplo, de la complejidad
de la topología y de la geometría algebraica.
4.4. Década de 1980: El Lambda Cálculo
La teoría de los conjuntos brindó a los lógicos un fundamento
adecuado contra las paradojas. En cambio, los matemáticos, cuya la-
bor cotidiana no está relacionada en lo más mínimo con la proble-
mática de las paradojas, encontraron en las estructuras de Bourbaki
y en la teoría de las categorías fundamentos más adecuados para su
práctica.
Pero ninguno de los tres enfoques es satisfactorio desde el punto
de vista de los informáticos, que emplean masivamente algoritmos y
programas que trabajan sobre datos, es decir, funciones que se apli-
can a argumentos. Sólo la teoría de categorías trata directamente de
funciones, que no se aplican a argumentos, sino compuestas entre sí;
32 4. Fundamentos
la informática teórica exige pues un fundamento alternativo, y lo en-
cuentra en el Lambda Cálculo propuesto por Alonzo Church en 1933.
La idea de Church fue, precisamente, explorar un enfoque alter-
nativo para los fundamentos de la matemática, paralelo a la teoría
de Cantor y Frege, pero basado en el concepto de función en lugar
del de conjunto, según el siguiente esquema: una función correspon-
de a un conjunto, un argumento de una función corresponde a un
elemento de un conjunto, la aplicación de una función a un argu-
mento corresponde a la pertenencia de un elemento a un conjunto y
la definición de una función mediante una descripción de los valores
corresponde a la definición de un conjunto mediante una propiedad
de los elementos.
Por lo tanto, la teoría ingenua de los conjuntos se traduce auto-
máticamente en una teoría ingenua de las funciones. Y se basa en dos
únicos principios, que reducen las funciones a las descripciones de
sus valores. Ante todo, el principio de extensión: una función está com-
pletamente determinada por sus valores y, por lo tanto, dos funcio-
nes que poseen los mismos valores para los mismos argumentos son
iguales. Y, por otra parte, el principio de comprensión: cada descripción
de valores determina una función, y cada función está determinada
por una descripción de valores.
Pero si la teoría ingenua de los conjuntos había logrado generar
grandes esperanzas antes de la paradoja de Russell, después de ésta
la teoría ingenua de las funciones parece destinada a ofrecer pocas
esperanzas. En particular se puede pensar que la paradoja se puede
reproducir fácilmente también en este nuevo contexto.
En efecto, tratando de reproducirlo, se cae inmediatamente en un
problema: qué significado se debe asignar a la negación en el ámbito
de las funciones; la cuestión se puede dejar de lado por un momen-
to suponiendo que exista precisamente una función n que actúe de
La Matemática del siglo XX 33
algún modo análogo a la negación. Ya que la paradoja de Russell se
basaba en el conjunto de los conjuntos que no pertenecían a si mis-
mos, en este caso se trata de considerar la función cuyos valores en
determinado argumento se obtienen aplicando n al resultado de la
aplicación del argumento a sí mismo.
Pero surge un problema: ¿cuál es el resultado de la aplicación de
tal función a sí misma? Para la definición que se acaba de dar, tal va-
lor se obtiene aplicando n al resultado de la aplicación de la función
a sí misma, entonces, ese es un argumento que no cambia aplicando
n. En efecto, ésta es una contradicción si se supone que n es una fun-
ción que cambia todos los argumentos a los que se aplica, pero nada
indica que sea así. Por el contrario, el razonamiento demuestra preci-
samente que no puede ser así si la teoría es consistente, en el sentido
de que ninguna función puede asignar valores distintos a un mismo
argumento.
Se obtendría una contradicción sólo si se supiera que la teoría
es inconsistente (en el sentido que se acaba de describir), pero en
este caso el razonamiento resulta inútil, porque era justamente lo que
intentaba demostrar.Pero si la teoría es consistente, el argumento
prueba que ninguna función de la teoría puede cambiar todos sus
argumentos; dicho de otro modo, cada función debe dejar invariado
al menos un argumento, que por este motivo se denomina punto fijo.
Por lo tanto, el argumento de Russell no es suficiente para demos-
trar la incosistencia de la teoría de Church, y esto ya es un primer re-
sultado parcial. Todavía se puede pensar que algún argumento más
complicado pueda lograrlo, pero en 1936 Church y John Barkley Ros-
ser demostraron un famoso y difícil teorema, del que se deduce que
la teoría es consistente, pues una función también puede no asignar
ningún valor al argumento, pero si asigna uno éste es único.
El teorema de Church y Rosser demostró que el Lambda Cálculo
34 4. Fundamentos
era una teoría singular, al mismo tiempo basada en principios inge-
nuos y demostrablemente consistente, por lo tanto al reparo de las
paradojas, no sólo actuales, sino también potenciales. Pero a prime-
ra vista, la cura pareció más dolorosa que la enfermedad: el precio a
pagar por la consistencia era la imposibilidad de definir dentro de la
teoría una función análoga a la negación y, más en general, de englo-
bar en ella a la lógica. En un período en que la fascinación por el plan
de reducción de toda la matemática a la lógica todavía era fuerte, no
obstante sus evidentes dificultades, la cuestión pareció inaceptable,
y el Lambda Cálculo no fue considerado como un fundamento ade-
cuado para la matemática.
Pero ya en 1936 Church y Stephen Kleene demostraron que el
Lambda Cálculo se podía englobar en la aritmética. Actualmente, es
posible reformular su resultado de la siguiente manera: las funcio-
nes que se pueden representaren el Lambda Cálculo son exactamente
las que se pueden describir en cualquiera de los lenguajes comunes
de programación universal para ordenadores. Naturalmente, el re-
sultado de Church y Kleene era futurista, ya que en aquel entonces
no existían los ordenadores, y su formulación originaria no podía
demostrar todas sus potencialidades. Pero con la llegada de los or-
denadores se hicieron evidentes y la teoría fue reconocida como el
fundamento adecuado para la informática.
En particular, el teorema del punto fijo se convirtió en la justifi-
cación teórica de los programas autorreferenciales o recursivos, que
son de uso común en la programación. Y la semántica denotacional
del Lambda Cálculo, inaugurada en 1969 por Dana Scott, desarrolló
técnicas que permiten interpretar los programas para ordenadores
como auténticos objetos de naturaleza matemática, demostrando de
este modo que la informática puede ser considerada, con justa razón,
como una de las nuevas ramas de la matemática moderna. Por este
La Matemática del siglo XX 35
trabajo, Scott recibió en 1976 el Turing Award el premio para informá-
tica análogo a la medalla Fields o al premio Nobel.
36 4. Fundamentos
5
Matemática Pura
Durante milenios, la historia de la matemática ha sido, en sus-
tancia, la historia del progreso en el conocimiento de entidades nu-
méricas y geométricas. Pero en los últimos siglos, y sobre todo en el
siglo XX, han surgido nuevas y variadas entidades, que subordina-
das plácidamente en un primer momento al estudio de los objetos
clásicos, posteriormente adquirieron una impetuosa independencia
e inspiraron la denominada nueva edad de oro de la matemática.
Si bien la matemática moderna es, por un lado, el producto de un
desarrollo que se origina en problemáticas concretas y clásicas, por
otro lado, es también el testimonio de una actividad que encuentra
su expresión en construcciones abstractas y contemporáneas. Esen-
cialmente, la matemática clásica se reducía a cuatro áreas, dedicadas
respectivamente al estudio de lo discreto y de lo continuo, es decir,
de los números y de las figuras: aritmética y álgebra por un lado,
geometría y análisis por el otro. Pero no es tan fácil enumerar las
disciplinas de la matemática moderna, que se recen sustancialmente
al estudio de las distintas estructuras algebraicas, topológicas y de
orden, y a sus combinaciones.
37
38 5. Matemática Pura
Aunque los peligros de esta proliferación, a los que ya hicimos
referencia en la Introducción, son reales, te conjuran cuando se com-
prueba que, más allá de la fragmentación aparente, la matemática del
siglo XX exhibe una uni dad sustancial de sus disciplinas. En efecto, el
archipiélago de la matemática moderna está conectado por caminos
subterráneos, misteriosos e invisibles, que son develados por inespe-
radas convergencias, que los hacen emerger y aflorar lentamente.
Un símbolo de esta unidad es el episodio del teorema de Fermat, so-
bre el cual nos explayaremos más adelante. Sus raíces se encuentran
en los estudios pitagóricos sobre los números enteros, que culmina-
ron en el siglo III a.C en los Elementos de Euclides. En el siglo III d.C.
Diofanto de Alejandría inició un estudio de las soluciones enteras
de ecuaciones con coeficientes enteros, y las trató detalladamente en
Aritmética, una obra en trece libros, de los cuales sólo sobrevivieron
seis. En el siglo XVII, Pierre de Fermat estudió la obra de Diofanto y
anotó en los márgenes de su copia 48 observaciones, sin demostra-
ción alguna.
En el siglo XVIII, todas las observaciones de Fermat habían sido
demostradas, con una sola excepción, que por eso, se conoció como
el último teorema de Fermat si bien existen dos cuadrados de números
enteros cuya suma es un cuadrado (por ejemplo 9 y 16, cuya suma
es 25), no existen dos cubos cuya suma sea un cubo, ni dos potencias
n-ésimas cuya suma sea una potencia n-ésima, si n es mayor que 2.
En el siglo XIX, los intentos por demostrar el último teorema de Fer-
mat provocaron importantes progresos en la teoría de números y la
confirmación del teorema para un número cada vez más grande de
exponentes, pero no una demostración general.
En 1995, Andrew Wiles obtuvo la demostración general, a tra-
vés de un enfoque indirecto que, a primera vista, parece totalmente
desvinculado del problema, y utilizando un arsenal de técnicas com-
La Matemática del siglo XX 39
pletamente abstractas. Para resolver un sencillo problema numérico,
con un enunciado elemental y clásico, fue necesario apelar a una gran
parte de la matemática superior y moderna. Y el episodio es un ejem-
plo, no sólo de la aparente continuidad dinámica, diacrónica y verti-
cal de cada área de la matemática, sino también de la oculta conexión
estática, sincrónica y horizontal entre las áreas más diferentes.
Típico de esta visión de la matemática como un todo unitario es el
programa de Langlands: enunciado en los años 1960 por Robert Lang-
lands, el programa especifica una serie de conjeturas sobre las po-
sibles conexiones entre áreas diferentes, y la demostración de Wiles
constituye una todavía parcial, pero ya sustanciosa, realización. En
reconocimiento por esta obra de unificación, Langlands y Wiles reci-
bieron el premio Wolf en 1995/1996.
Si bien la teoría de los números, de la cual el teorema de Fermat
es uno de los enunciados, es quizá la disciplina en la cual las cone-
xiones típicas de la matemática contemporánea entre lo diacrónico y
lo sincrónico, lo clásico y lo moderno, lo concreto y lo abstracto se
manifiestan de la manera más espectacular, está bien lejos de ser la
única.
Otro episodio simbólico es el estudio del círculo y la esfera, que
se encuentran entre los objetos aparentemente más simples estudia-
dos por la geometría. Arquímedes fue el primero en descubrir, en el
año 225 a.C., la existencia de una misteriosa conexión entre algunos
de sus aspectos: la circunferencia y el área del círculo, así como la
superficie y el volumen de la esfera, están todos vinculados con la
misma constante π, y para calcularla se desarrollaron durante siglos
varios métodos (geométricos, algebraicos y analíticos).
No obstante la aparente simpleza de círculo y esfera, algunos pro-
gresos sustanciales en su estudio debieron esperar hasta el siglo XIX.
Ante todo, fue necesarioel desarrollo de métodos algebraicos y ana-
40 5. Matemática Pura
líticos sofisticados para demostrar la imposibilidad del problema pu-
ramente geométrico de la cuadratura del círculo (la construcción me-
diante regla y compás de un cuadrado de área igual a la de un círcu-
lo dado). Además, algunos métodos topológicos permitieron distin-
guir la esfera de otras superficies cerradas del espacio tridimensional;
sustancialmente, la esfera es la única superficie que permite que un
elástico extendido sobre sí mismo se contraiga hasta alcanzar un so-
lo punto. Por último, algunos métodos diferenciales permitieron de-
mostrar que el cálculo infinitesimal se puede extender desde el plano
a la esfera de una sola manera.
Algunos de los estudios fundamentales de la matemática del si-
glo XX se refieren a la hiperesfera, que es para el espacio de 4 dimen-
siones lo que el círculo y la esfera son para el espacio de 2 y 3 dimen-
siones. Uno de los problemas abiertos más importantes de la mate-
mática moderna, y que discutiremos más adelante, llamado conjetura
de Poincaré, se pregunta si vale una caracterización topológica de la
hiperesfera análoga a la de la esfera. Pero ya se ha demostrado que
el cálculo infinitesimal se puede extender del espacio a la hiperesfera
de una sola manera.
Círculo, esfera e hiperesfera son casos particulares de esferas en
n dimensiones en espacios de n + 1 dimensiones, y algunos de los
resultados más importantes y profundos de la matemática moder-
na, de los que hablaremos más adelante, se obtuvieron precisamente
considerando esferas de varias dimensiones. Por ejemplo, lo análogo
a la conjetura de Poincaré se demostró para las esferas de cualquier
número de dimensiones mayor que 3, y se encontraron muchas ma-
neras no equivalentes de extender el cálculo infinitesimal a la esfera
de 7 dimensiones.
Estos y otros resultados han revelado una paradoja aparente: cuan-
do se aumenta el número de dimensiones, aunque los objetos se tor-
La Matemática del siglo XX 41
nan cada vez más difíciles de visualizar intuitivamente, se hacenmás
fáciles de tratar matemáticamente, porque hay más espacio para ma-
nipularlos. Por ejemplo, dar vuelta un guante derecho para conver-
tirlo en un guante izquierdo es fácil en el espacio de cuatro dimen-
siones, pero difícil (aunque no imposible para un teorema de Stephen
Smale de 1959) en el espacio de tres dimensiones.
Esta impresión también se confirma en un nivel elemental, por
ejemplo, con el cómputo del número de los “poliedros” regulares,
que son 5 en el espacio de 3 dimensiones (los famosos sólidos plató-
nicos), 6 en el espacio de 4 dimensiones, pero sólo 3 en los espacios
de dimensiones mayores. Irónicamente, los casos más difíciles de es-
tudiar resultan ser justamente los de 3 y 4 dimensiones, los que co-
rresponden al espacio y al espacio-tiempo en que vivimos. Los ejem-
plos anteriores muestran de qué manera también el estudio de pro-
piedades elementales de objetos simples, como los números enteros
y las figuras geométricas, puede necesitar el desarrollo de técnicas
sofisticadas y de áreas abstractas. Y ya que es esta perspectiva, pre-
cisamente, la que permite justificar a posteriori tanto los objetos como
los métodos de la matemática moderna, nos atendremos a ella para
exponer sus etapas más significativas.
5.1. Análisis: La medida de Lebegue (1902)
Por su propia definición, la geometría (de geo “tierra” y metrein
“medida”) se ocupa de problemas referidos a longitudes de curvas,
áreas de superficies y volúmenes de sólidos. Estos problemas fue-
ron afrontados de manera sistemática a partir de los Elementos de
Euclides, que en el año 300 a.C proporcionaron un fundamento geo-
métrico a toda la matemática griega.
Consideremos por ejemplo, para fijar la atención, el problema del
área. Euclides no dio ninguna definición ni del área ni de alguna de
42 5. Matemática Pura
sus medidas, pero enunció algunas “nociones comunes” de las que
se deducen las siguientes propiedades: superficies “iguales” tienen
áreas iguales (invarianza); una superficie que se obtiene “sumando”
entre sí un número finito de superficies tiene un área igual a la suma
de las áreas de éstas (aditividad finita); una superficie contenida en
otra tiene un área menor o igual a ésta (monotonía).
Sobre la base de las dos primeras nociones, se puede llegar a asig-
nar un área a cada polígono en dos pasos: por una parte, asignando
un área a cada triángulo (por ejemplo, “base por altura dividido 2”);
por otro lado, descomponiendo el polígono en triángulos y suman-
do sus áreas. Naturalmente, para que todo funcione se deberá de-
mostrar, por un lado, que el área de un triángulo no depende de la
elección de la base y de su respectiva altura; por otro lado, que el área
de un polígono no depende de la elección de la triangulación.
Aunque estos desarrollos están implícitos en Euclides, su trata-
miento era extremadamente carente desde un punto de vista lógico
y usaba, en particular, numerosas suposiciones escondidas, que se
explicitaron cuidadosamente sólo en el siglo XVII. E1 trabajo de sis-
tematización de la geometría de Euclides se concluyó en 1899, con la
publicación de los Fundamentos de la geometría de Hilbert.
En 1833, Jànos Bolyai demostró un teorema interesante, que com-
plementó los resultados de Euclides que acabamos de mencionar. Es-
te teorema explicaba que dos polígonos que tienen el misma área se
pueden descomponer en un número finito de triángulos equivalen-
tes. En particular, todo polígono se puede “cuadrar” en el sentido
de descomponerlo en un número finito de triángulos que, vueltos a
componer, constituyen un cuadrado con la misma área. O viceversa,
un cuadrado se puede convertir en un polígono cualquiera volvien-
do a componer una apropiada descomposición del mismo en trián-
gulos (Figura 2).
La Matemática del siglo XX 43
En lo que respecta a los volúmenes de poliedros, se puede imagi-
nar un tratamiento análogo, en el que las triangulaciones se sustitu-
yan por descomposiciones en tetraedros. El tercer problema de Hilbert
preguntaba si vale un teorema análogo al de Bolyai, es decir, si todo
poliedro se puede descomponer en un número finito de tetraedros
que, vueltos a componer, constituyan un cubo con el mismo volu-
men. Max Dehn dio inmediatamente una respuesta negativa; él de-
mostró, por ejemplo, que esto no es posible ni siquiera para los mis-
mos tetraedros.
b
b b
b
Figura 2. “Cuadratura” de un triángulo
Una vez resuelto el problema del área para las figuras rectilíneas
como los polígonos, se debe pasar, naturalmente, al del área de las
figuras curvilíneas, ante todo a la del círculo. La idea es aproximar
estas figuras mediante polígonos, ya sea desde el interior como des-
de el exterior: para la tercera noción común de Euclides, el área de la
figura curvilínea estará comprendida entre las áreas de estas aproxi-
maciones, y si éstas tienden a un límite común, el área de la figura
coincidirá con este límite.
Sin embargo, esta noción general es bastante reciente (fue intro-
ducida en 1887 por Giuseppe Peano y en 1893 por Camille Jordan).
Un primer caso especial, que usa polígonos (semi)regulares, es elmé-
todo de exhaución de Eudoxio, del siglo IV a.C., empleado por Arquí-
medes alrededor del 225 a.C. para calcular el área del círculo y la
superficie de la esfera. Un segundo caso especial, que usa polígonos
44 5. Matemática Pura
constituidos por un número finito de rectángulos, es la integral de
Riemann, introducida en 1854 por Bernhard Riemann, y que permite
calcular el área de cualquier superficie cuyo borde esté delimitado
por funciones continuas.
En realidad, desde el siglo XVII al XIX, la existencia del área de
una superficie se daba por descontada, y las integrales se considera-
ban sólo el método para calcularla. Fue Augustin Cauchy, en 1823,
quien dio un vuelco a este enfoque, y definió el área como la integral
misma; esto planteó el problema de determinar cuáles eran las su-
perficies que tenían un área y, en particular, cuáleseran las funciones
que tenían una integral.
La noción de integral de Riemann es muy general y permite in-
tegrar también funciones con infinitas discontinuidades, si éstas no
constituyen un conjunto “desmedido”. Hacia finales del siglo XX, con
la proliferación de ejemplos de funciones no integrables en el sen-
tido de Riemann, se hizo necesario poder precisar una medida del
conjunto de discontinuidades, que permitiera separar las funciones
integrables de las que no lo son.
La noción introducida por Peano y Jordan no resultó suficiente,
y el problema fue resuelto definitivamente por Henri Lebesgue, en
1902, con el concepto de medida de Lebesgue. Sustancialmente, Lebes-
gue suplantó la aditividad finita de Euclides por la aditividad nume-
rable: una superficie que se obtiene “sumando” entre sí una cantidad
numerable de superficies tiene un área igual a la suma de las áreas
de éstas, Y hoy se considera a una superficie dotada de área (o a un
sólido dotado de volumen) cuando es medible en el sentido de Le-
besgue.
Seguro con su definición de conjunto medible, Lebesgue pudo
demostrar que una función es integrable en el sentido de Riemann
exactamente cuando el conjunto de sus discontinuidades mide 0, lo
La Matemática del siglo XX 45
que no excluye que el conjunto pueda ser muy grande y contener,
por ejemplo, tantos puntos como el conjunto mismo de los números
reales, aunque no pueda ser demasiado “denso”.
Además, así como la integral de Riemann es un caso particular de
la medida de Peano o Jordan, se puede definir una integral de Lebesgue
como un caso particular de la medida de Lebesgue. Las funciones
integrables en el sentido de Riemann también lo son en el sentido de
Lebesgue, y con el mismo valor, pero existen funciones integrables
en el sentido de Lebesgue que no lo son en el sentido de Riemann.
En cuanto al problema de determinar cuáles conjuntos son medi-
bles, Giuseppe Vitali demostró inmediatamente que no todos lo son.
Luego se descubrió que con los conjuntos no medibles se pueden ha-
cer cosas que no se pueden hacer con los conjuntos medibles. Hasta
el punto de que, por la costumbre de tratar con conjuntos medibles,
aquéllos no medibles pueden parecer paradójicos.
Por ejemplo, en 1914, Félix Hausdorff demostró que dada una es-
fera, es posible subdividir su superficie en un número finito de piezas
(obviamente, no medibles) que, vueltas a componer, constituyen dos
esferas, cada una con la misma área de la inicial. Y en 1924, Stefan
Banach y Alfred Tarski demostraron un resultado análogo para los
volúmenes. En otras palabras, en el espacio, las áreas y los volúme-
nes no se preservan por descomposición en piezas no medibles.
Una analogía de esas paradojas no es posible en el plano. Pero, en
1988, Miklos Laczkovich demostró que, dado un circulo, es posible
subdividirlo en un número finito (aunque enorme: 1050 aproximada-
mente) de piezas (no medibles) que, vueltas a componer, constituyen
un cuadrado con el misma área. En otras palabras, en el plano la cur-
vatura no se preserva por descomposición en piezas no medibles.
46 5. Matemática Pura
5.2. Álgebra: La Clasificación de los campos de Steinitz (1910)
Como lo indica su nombre, los números naturales constituyen una
de las intuiciones primordiales de la matemática: en cuanto proba-
bles abstracciones de los latidos del corazón, tienen sus raíces en el
devenir y el tiempo, así como los puntos geométricos son, en cambio,
una abstracción del ser y del espacio.
Históricamente, la primera extensión de los naturales fue la de
los números racionales positivos, permite una inversión del producto.
Puesto que la división no presenta grandes dificultades conceptuales,
los racionales ya estaban bien establecidos en el siglo VI a.C., y fueron
tomados por los pitagóricos como fundamento de su filosofía.
En cambio, la extensión de los números naturales a los números
enteros, positivos y negativos, necesitó dos innovaciones esenciales.
La primera fue la aparición del cero, cuya ausencia ni siquiera per-
mite presentar el problema de la inversión de la suma; el cero fue
introducido en el siglo VII d.C. por los hindúes, y en la segunda mi-
tad del primer milenio por los mayas. La segunda innovación fue la
consideración de cantidades negativas, que no tienen sentido hasta
que los números se consideran a la manera griega, como medidas de
cantidades geométricas; también los negativos fueron introducidos
en el siglo VII d.C. por los hindúes, para medir deudas.
Si se integran las dos extensiones anteriores a la consideración de
los números racionales, tanto positivos como negativos, se obtiene el
primer ejemplo de campo, es decir, según la definición dada porHein-
richWeber en 1893, de un conjunto de elementos dotado de operacio-
nes de suma y producto que poseen las propiedades usuales, incluso
la invertibilidad. Los hindúes fueron los primeros en adoptar explí-
citamente el campo de los racionales, pero los árabes primero y los
europeos después rechazaron los números negativos hasta el siglo
XVIII y, aún en 1831, Augustus de Morgan negaba su sensatez.
La Matemática del siglo XX 47
Un segundo ejemplo típico de campo lo dan los números reales.
Mientras que los irracionales fueron descubiertos por los pitagóricos
y manipulados formalmente por hindúes y árabes, aquéllos no fue-
ron considerados como números sino hasta el siglo XVII, a partir de
RenéDescartes y JohnWallis. Y hubo que esperar hastamediados del
siglo XIX para llegar a definiciones de los números reales, basadas en
los números racionales, las secciones de Richard Dedekind en 1958 y
las sucesiones convergentes de Georg Cantor (y otros) en 1872.
Los números complejos fueron introducidos por Gerolamo Cardano
en 1545, para solucionar las ecuaciones de tercer grado, y las ope-
raciones de campo basadas en estos números fueron definidas por
Raffaele Bombelli en 1572; pero, en ambos casos, se trataba de arti-
ficios formales con puros símbolos, que no representaban más que
“números imaginarios”, actitud que persistió hasta el siglo XVIII. Só-
lo el teorema fundamental del álgebra, que establece que todo poli-
nomio de grado n de coeficientes complejos tiene n ceros complejos,
demostrado por primera vez por Gauss en 1799, les confirió el esta-
do de números independientes, y brindó el primer ejemplo de campo
algebraicamente cerrado, es decir, que contiene todos los ceros de su
polinomio. La definición formal de los números complejos, como pa-
res de números reales, y de las respectivas operaciones de campo fue
dada por William Hamilton en 1837.
Conmotivaciones diferentes, tanto Evariste Galois, en 1830, como
Dedekind, en 1871, llegaron ala definición de una clase completa de
campos, mediante un procedimiento de extensión de los racionales.
Consideraron, dado un irracional α, el conjunto mínimo de números
reales (o complejos) que forma un campo y contiene tanto a los racio-
nales como al mismo α; este conjunto se puede generar directamente,
partiendo de α y haciendo todas las posibles adiciones, sustracciones,
multiplicaciones y divisiones (excepto por 0). Si el elemento a que se
48 5. Matemática Pura
agrega es el cero de un polinomio de coeficientes racionales, como en
el caso de
√
2 la extensión se llama algebraica; de lo contrario, como
en el caso de π, se llama trascendente.
Además de los campos infinitos, de los cuales todos los casos cita-
dos son ejemplos, existen también campos finitos. Como ejemplo basta
considerar los enteros módulo n, del tipo de los que se usan para las
horas del día (de 12 o 24 elementos), o para los minutos de la hora
(de 60 elementos); se generan como los típicos enteros, partiendo de
0 y agregando cada vez 1, con la diferencia de que cuando se llega a
n se llega de nuevo a 0. Para que los enteros módulo n constituyan
un campo, es necesario y suficiente que n sea un número primo.
Los ejemplos citados muestran el modo en que las nociones de
la matemática moderna, entre las cuales la de campo fue uno de los
primeros ejemplos significativos, permiten unificaruna gran varie-
dad de ejemplos diferentes sobre la base de algunas características
comunes. Pero es precisamente la generalidad de estas nociones lo
que tiende a desenfocar los contornos, con el riesgo de que se tor-
nen inaprensibles; entonces, para describir su extensión se necesitan
resultados de clasificación, que constituyen un aspecto complemen-
tario de la abstracción.
Uno de los primeros ejemplos de esos resultados fue, precisamen-
te, la clasificación de los posibles tipos de campo; quien la encontró
fue Ernst Steinitz en 1910, sobre la base de la siguiente noción de ca-
racterística: dado un campo, se parte del elemento que tiene función
de 0 y se sigue agregando el elemento que tiene función de 1; si des-
pués de p sumas se vuelve a 0, p debe ser un número primo, y se dice
que el campo tiene característica p; si en cambio nunca se vuelve a 0,
se dice que el campo tiene característica 0.
Los tipos de campos finitos se pueden caracterizar inmediata-
mente, sobre la base de la característica: para todo primo p, existen
La Matemática del siglo XX 49
infinitos campos finitos de característica p, llamados campos de Galois.
Estos campos tienen un número de elementos que es una potencia
positiva de p, y para cada potencia positiva de p existe exactamente
uno.
Dado un campo cualquiera, se define luego su campo primo par-
tiendo de 0 y 1, y haciendo todas las posibles adiciones, sustraccio-
nes, multiplicaciones y divisiones (excepto por 0). Si la característica
del campo de partida es p, su campo primo es un par de números
enteros módulo p. Si en cambio la característica es 0, el campo pri-
mo es una copia de los números racionales. Y todo campo se puede
obtener de su campo primo, mediante sucesivas extensiones: prime-
ro una serie, eventualmente infinita, de extensiones trascendentes y
luego una serie, eventualmente infinita, de extensiones algebraicas.
Viceversa, partiendo de un campo cualquiera se puede efectuar
una serie de extensiones algebraicas, hasta construir su cierre algebrai-
co, es decir, el mínimo campo algebraicamente cerrado que lo contie-
ne. Esto ejemplifica una de las típicas consecuencias de la abstrac-
ción, es decir, la posibilidad de obtener versiones generales de resul-
tados particulares; en este caso, la extensión a campos cualesquiera
del proceso de cierre que lleva de los números reales a los números
complejos, mediante el agregado de todos los posibles ceros de poli-
nomios.
5.3. Topología: El Teorema del Punto Fijo de Brouwer (1910)
Desarrollando la teoría de los conjuntos como fundamento de la
matemática, Cantor descubrió varias propiedades inesperadas. Una
de las más sorprendentes se refiere a la fundamental noción geomé-
trica de dimensión; espacios de distinta dimensión, como una recta
y un plano, pueden tenerla misma cantidad de puntos y ser, por lo
tanto, indistinguibles desde el punto de vista de los conjuntos. El des-
50 5. Matemática Pura
cubrimiento perturbó tanto a Cantor que lo hizo exclamar, después
de demostrar esta noción en 1874: “Lo veo, pero no lo creo”.
Obviamente, el resultado de Cantor no significaba que la noción
de dimensión fuera una ilusión de la que había que liberarse. Seña-
laba más bien un límite más allá del cual las nociones puramente
referidas a conjuntos resultaban inadecuadas, y debían ceder el paso
a otras de diferente naturaleza.
En 1910, Luitzen Brouwer demostró que la topología -el estudio de
las propiedades de los objetos geométricos que se mantienen cuan-
do los objetos son deformados continuamente, sin romperlos- es ca-
paz de distinguir dimensiones distintas; por ejemplo, tanto una rec-
ta como un plano están constituidos por una sola pieza, pero una
recta se divide en dos partes si se le saca un punto, y un plano no
(la propiedad topológica en cuestión se llama conexión). Naturalmen-
te, Brouwer demostró el teorema de invarianza de la dimensión en
general; más precisamente, para cualquier objeto topológico que se
pueda triangular de manera análoga a como se puede hacer para
las superficies habituales (tales objetos se llaman complejos, y los que
constituyen las triangulaciones simplex).
Pero el mayor descubrimiento de Brouwer se relaciona con una
propiedad de las transformaciones continuas, que constituyen el prin-
cipal objeto de estudio de la topología. En efecto, demostró, también
en 1910, un teorema del punto fijo que se convirtió en un instrumento
esencial en las áreas más variadas, desde el análisis hasta la econo-
mía.
En el caso unidimensional, el teorema de Brouwer se reduce al
hecho de que una función continua que tenga como argumento y
valores todos los puntos de un intervalo debe mantener invariado
por lo menos un punto, hecho intuitivamente evidente que significa
simplemente que toda curva dentro de un cuadrado unitario, que se
La Matemática del siglo XX 51
extienda interrupciones de un lado al otro, debe atravesar la diagonal
por lo menos una vez (Figura 3).
En el caso bidimensional, el teorema de Brouwer dice que una
función continua que tenga como argumentos y valores a todos los
puntos de un círculo, debemantener invariado por lo menos un pun-
to. Por ejemplo, si se rastrilla en modo continuo la grava de un can-
tero circular, debe haber al menos una piedrita que no sea movida.
El teorema de Brouwer tiene más valor general de lo que los dos
ejemplos citados hacen suponer. Por una parte, el teorema se extien-
de a los análogos multidimensionales de intervalos y círculos, como
esferas e hiperesferas; un ejemplo de aplicación en el caso tridimen-
sional es que si el viento sopla sobre toda la tierra, debe soplar ver-
ticalmente por lo menos en un punto, y por lo tanto debe haber un
ciclón. Por otro lado, el teorema vale para todas las funciones defini-
das en simplex, es decir, en superficies lo suficientemente parecidas
a intervalos y círculos, o sea, limitadas y provistas de borde, y sin
entradas (propiedades topológicas, éstas, que se llaman compacidad y
convexidad).
La formulación original del teorema demostraba indirectamente
la existencia de un punto fijo, pero no indicaba directamente cómo
hacer para encontrar unes irónicamente el mismo Brouwer desarro-
lló más tarde una filosofía de la matemática, denominada intuicionis-
mo, que considera ilegítimo ese tipo de demostraciones no construc-
tivas. De todos modos, en el caso particular del teorema del punto
fijo. Emmanuel Sperner dio una demostración constructiva en 1929:
con la llegada del ordenador, los cálculos que requería tal demostra-
ción se hicieron practicables, y hoy se pueden encontrar puntos fijos
de manera efectiva.
52 5. Matemática Pura
b
Figura 3. Teorema del punto fijo unidimensional
En otra dirección, las condiciones para la existencia de puntos
fijos se han generalizado de distintas maneras. En lo particular, se
han demostrado algunos teoremas de gran utilidad; en 1922, por Ba-
nach, para contracciones definidas en espacios métricos completos (en
los cuales, a diferencia de los espacios topológicos abstractos, existe
una noción de distancia); en 1928, por Knaster y Tarski, para funcio-
nes monótonas definidas en órdenes parciales completas (en los cuales
cada cadena de elementos tiene un extremo superior); en 1928, por
Solomon Lefschetz, para funciones continuas definidas en complejos
compactos y contractibles, y no sólo en simplejos; y en 1941. por Kaku-
tani, para funciones semicontinuas cuyos conjuntos de imágenes sean
todos convexos, y no sólo para funciones continuas.
5.4. Teoría deNúmeros: LosNúmeros TrascendentesdeGelfond (1929)
El descubrimiento fundamental de Pitágoras, en el siglo VI a.C.,
sostiene que existe una correspondencia entre música, naturaleza y
matemática: las relaciones armónicas (los intervalos) corresponden
a relaciones físicas (entre las cuerdas de un instrumento) y se cuan-
tifican con relaciones numéricas (las fracciones). Los pitagóricos no
vieron en estas coincidencias una casualidad, sino la manifestación
de una necesidad, que codificaron con el credo “todo es racional”,
quedebe interpretarse en su sentido literal de que todo se puede
La Matemática del siglo XX 53
describir mediante números racionales (ratio significa, precisamente,
“relación”).
El credo fue cuestionado inmediatamente por el ulterior descu-
brimiento de Pitágoras de grandezas inconmensurables, que corres-
ponden a números irracionales; en matemática, la diagonal y el lado
de un cuadrado, cuya relación es
√
2; y en música, los intervalos de
octava y de quinta, cuya relación es (log2 3)− 1.
Otro ejemplo simple de irracional es 3
√
2, que resuelve un proble-
ma referido a la duplicación de un altar. Durante la peste de Atenas
del 430 a.C., que diezmó a una cuarta parte de la población, los ate-
nienses interrogaron al oráculo de Apolo en Delos, quien solicitó que
se duplicara el altar cúbico del dios. Los atenienses construyeron uno
de doble lado, pero que aumentó el volumen ocho veces, y la peste
continuó. La solución correcta es precisamente 3
√
2, que mide la rela-
ción entre los lados de dos cubos cuyos volúmenes son uno el doble
del otro, así como
√
2 mide la relación entre los lados de dos cuadra-
dos cuyas áreas son una el doble de la otra.
La clasificación de los números reales en racionales e irracionales
es bastante cruda, y una clase interesante de números reales fue intro-
ducida implícitamente por los griegos: los números construibles con
regla y compás. Por ejemplo,
√
2 es construible, pero 3
√
2 no. Aunque
los griegos sospecharon esto, la demostración llegó sólo en 1837, gra-
cias a Pierre Wantzel, y requirió una caracterización algebraica de los
números construibles con regla y compás, cuyas respectivas aplica-
ciones corresponden a las operaciones de suma y extracción de raíz
cuadrada.
De cualquier modo, todos los números construibles son algebrai-
cos, en el sentido de que son soluciones de ecuaciones algebraicas de
coeficientes enteros, pero no ocurre a la inversa; por ejemplo, 3
√
2 es
algebraico, porque es la solución de x3 − 2 = 0, pero no es construi-
54 5. Matemática Pura
ble. Los números no algebraicos se llaman trascendentes, y su existen-
cia fue demostrada por primera vez en 1844 por Joseph Liouville.
La demostración de Liouville se basaba en una observación in-
teresante: el hecho de que un número algebraico irracional no puede
estar bien aproximado mediante números racionales, en el sentido
de que casi todas las fracciones de denominador q que aproximen un
número irracional que es solución de un polinomio de grado n, cum-
plen un error de al menos 1qn , Por lo tanto, para construir un número
trascendente es suficiente construir un número irracional es decir no
periódico, pero que puede ser bien aproximado mediante números
racionales, por ejemplo
0,10100100000010000000000000000000000001...,
donde el primer bloque de ceros después de la coma tiene 1 cero,
el segundo 1 · 2, el tercero 1 · 2 · 3, y así sucesivamente; cortando el
desarrollo en los 1 después de la coma se obtienen buenas aproxi-
maciones racionales, correctas hasta el siguiente 1 (que cada vez está
más lejos).
Durante un siglo se aportaron muchas mejoras a la observación
de Liouville. El mejor resultado posible lo obtuvo Klaus Roth en 1955:
casi todas las fracciones de denominador q que aproximen un núme-
ro irracional algebraico cumplen un error de al menos 1q2+ para cual-
quier número real 2+ mayor que 2 (el resultado no vale para 2). Por
este resultado Roth obtuvo la medalla Fields en 1958.
En 1873, Cantor encontró la mejor extensión posible del enuncia-
do existencial del teorema de Liouville: casi todos los números reales
son trascendentes, porque los números algebraicos son muy pocos.
Más precisamente, éstos forman un conjunto que es numerable en el
sentido de Cantor, y de medida 0 en el sentido de Lebesgue.
La Matemática del siglo XX 55
De todos modos, el resultado de Cantor nada decía de la trascen-
dencia de números reales específicos. Con respecto a e, la base de los
logaritmos naturales, su trascendencia fue conjeturada en 1748 por
Leonhard Euler, y demostrada en 1873 por Charles Hermite. De la
trascendencia de e deriva inmediatamente también la de e2 y la de√
e = e
1
2 y más en general la de ex, para todo exponente racional
(distinto de 0). En 1882, Ferdinand Lindemann redactó la demostra-
ción y probó que ex es trascendente incluso si x sólo es algebraico
(distinto de 0), y de este resultado dedujo una gran cantidad de con-
secuencias. Ante todo, también log x debe ser trascendente si x es
algebraico (distinto de 0 y 1), porque elog x = x. Además, dado que
Euler había comprobado en 1746 que
eix = cos x+ i sen x,
donde i es la raíz imaginaria de −1 (que, aunque no es real, sigue
siendo algebraica, ya que es solución de x2 + 1 = 0), y se deduce
también que sen x y cos x son trascendentes si x es algebraico.
Un caso especial del resultado de Lindemann, de particular im-
portancia, se obtiene cuando x = π; en este caso la expresión de
Euler se reduce a la que muchos consideran la fórmula más bella de
la matemática:
eiπ = −1
El exponente iπ produce un valor no trascendente de ex y del teore-
ma de Lindemann se deduce que este exponente no puede ser alge-
braico; y ya que i es algebraico, π debe no serlo. El hecho de que π
sea trascendente implica, en particular, la no constructibilidad de π
y, por lo tanto, la imposibilidad de otro famoso problema griego que
quedó abierto durante dos milenios: la cuadratura del circulo (con
regla y compás).
56 5. Matemática Pura
Afinales del siglo XIX no se conocían explícitamentemuchos otros
números trascendentes, además de e y π, y el séptimo problema de Hil-
bert preguntaba si lo era, por ejemplo 2
√
2. Generalizando, Hilbert
conjeturó que ab siempre es trascendente, si a es algebraico (distinto
de 0 y 1) y b es irracional algebraico.
Aún en 1919, Hilbert consideraba que este problema era más di-
fícil de resolver que la hipótesis de Riemann o el teorema de Fer-
mat. Pero en 1929 Alexander Gelfond demostró la trascendencia de
eπ , introduciendo una nueva metodología, que condujo, en 1930, a
la demostración de la trascendencia de 2
√
2 realizada por Carl Siegel,
premio Wolf en 1978, y en 1934 a la de toda la conjetura de Hilbert, por
parte de Gelfond y Thorald Schneider. En 1966, Alan Baker concluyó
los resultados de un siglo, comprobando que cualquier producto fi-
nito de números trascendentes de los del tipo encontrado por Linde-
mann y/o por Gelfond, por ejemplo eπ 2
√
2, también es trascendente;
por este resultado Baker obtuvo la medalla Fields en 1970.
No obstante los progresosmencionados, los números trascenden-
tes siguen siendo bastantemisteriosos. Los númerosmás obvios cuya
trascendencia no se conoce son e+ π, e π y πe, pero existen muchos
más; por ejemplo, la constante γ de Euler, que mide la diferencia asin-
tótica entre el logaritmo y la serie armónica, es decir, la suma de los
inversos de los números enteros; o la constante ζ(3), es decir, la su-
ma de los inversos de los cubos de los números enteros (la constante
ζ(2), o sea la suma de los inversos de los cuadrados de los números
enteros, es trascendente porque Euler calculó, en 1734, que su valor
es π
2
6 ).
5.5. Lógica: El Teorema de Incompletitud de Gödel (1931)
Uno de los grandes éxitos matemáticos del siglo XIX fue el des-
cubrimiento de la geometría hiperbólica, es decir, una geometría en la
La Matemática del siglo XX 57
que el axioma de las paralelas es falso. Los axiomas que quedan de
la geometría euclídea permiten demostrar, dada una recta y un pun-
to fuera de la misma, que existe al menos una paralela a la recta que
pasa por el punto (la perpendicular a la perpendicular). El axioma
de las paralelas afirma que existe sólo una paralela, por lo tanto su
negación implica que existe más de una.
Muchos matemáticos se dedicaron a desarrollar la geometría hi-
perbólica, en la que el axioma de las paralelas es falso, con la espe-
ranza de demostrar que esta geometría es inconsistente, y de demos-
trar por el absurdo que el axioma de las paralelases verdadero. Y en
la primera mitad del siglo XIX, Carl Friedrich Gauss, Nikolai Loba-
chevsky y Jànos Bolyai demostraron, efectivamente, que la supuesta
geometría hiperbólica es muy extraña; por ejemplo, no todos los án-
gulos tienen la misma suma angular; por tres puntos no colineares
no pasa necesariamente un círculo; no existen rectángulos, ni rectas
equidistantes; y el teorema de Pitágoras es falso.
Pero, por más extraña que parezca, la geometría hiperbólica no
se mostró contradictoria. Y en 1868, Eugenio Beltrami demostró que
es tan consistente como la euclídea; en efecto, es posible encontrar
un modelo del plano hiperbólico en el plano euclídeo. Los modelos
más conocidos de la geometría hiperbólica fueron encontrados por
Félix Klein, en 1871, y por Henri Poincaré en 1882; en ambos, el plano
hiperbólico es un circulo sin el borde; en el primero, las rectas son
segmentos euclídeos, pero los ángulos debenmedirse de una manera
diferente de la euclídea; en el segundo, los ángulos son los euclídeos,
pero las rectas son arcos de círculo perpendiculares al borde (Figura
4-5).
58 5. Matemática Pura
Figura 4-5. Modelos de Klein y Poincaré
Una vez que se redujo la consistencia de la geometría hiperbólica
a la de la geometría euclídea, había que afrontar esta última. Los grie-
gos habrían necesitado una demostración directa, ya que ellos habían
adoptado fundamentos geométricos para toda la matemática, tras el
descubrimiento pitagórico de los números irracionales. Por ejemplo,
en los Elementos, Euclides representaba los números como segmen-
tos, la adición como concatenación de segmentos, la multiplicación
como área de un rectángulo, y así sucesivamente.
La geografía y la astronomía estimularon una reducción inversa,
de la matemática al álgebra. En el siglo II a.C. Hiparco, quien descu-
brió la precesión de los equinoccios, comenzó a utilizar coordenadas
de puntos para describir curvas dadas, pero sólo respecto de un sis-
tema elegido cada vez sobre la base de la curva. El primero en elegir
un sistema de coordenadas fijo fue Oresme, en el siglo XIV, que estaba
tan vinculado con el uso geográfico que seguía llamando “longitud”
y “latitud” a las coordenadas.
La introducción de una notación algebraica satisfactoria, y espe-
cialmente el uso de letras para indicar variables, permitió a Pierre de
Fermat, en 1629, y a René Descartes, en 1637, desarrollar la geometría
analítica. La observación crucial fue que, poniendo en corresponden-
cia los puntos con números, también se obtenía una correspondencia
La Matemática del siglo XX 59
inducida entre las propiedades de los puntos y las de los números.
Por ejemplo, las ecuaciones de primero y segundo grado describen,
respectivamente, las rectas y las cónicas (elipse, hipérbola, parábola).
En todo caso, tanto para Fermat como para Descartes, el álgebra
estaba subordinada a la geometría, y el mismoNewton siguió tratan-
do, en los Principia, las órbitas de los planetas a la manera geométrica
de los griegos, y no en modo algebraico. El cambio de ruta fue obra
de John Wallis, quien en 1657 reescribió de manera algebraica dos
libros de Euclides y el tratado sobre las cónicas de Apolonio.
Pero una efectiva reducción de la geometría al álgebra tuvo que
esperar la llegada de los Fundamentos de la geometría, de Hilbert, en
1899. Hilbert definió un modelo algebraico de la geometría euclídea
de la manera en que hoy se conoce: un punto del plano es un par
de número reales, una recta es el conjunto de las soluciones de una
ecuación de primer grado, la distancia entre dos puntos se defineme-
diante el teorema de Pitágoras, y la congruencia mediante el concep-
to de isometría (transformación lineal que preserva las distancias).
Pero no se trata sólo de definiciones, hay que demostrar que una iso-
metría preserva no sólo las distancias sino también los ángulos, y la
demostración no es banal.
A fines del siglo XIX, la consistencia de toda la geometría había
sido reducida a la de la teoría de los números reales. Este traspaso
de responsabilidades podría continuar aún, por ejemplo, reduciendo
la teoría de los números reales a la de los números enteros. Es más,
lo habían hecho ya, algunos decenios antes, Karl Weierstrass, Georg
Cantor y Richard Dedekind, lo que le permitió exclamar a Leopold
Kronecker: “Dios ha creado los números enteros, todo lo demás es
obra del hombre”. Pero tarde o temprano habría sido necesario de-
mostrar la consistencia de alguna teoría directamente, y conmétodos
tan elementales que su consistencia no pudiera ser puesta en duda.
60 5. Matemática Pura
En los albores del siglo XX, el segundo problema de Hilbert requi-
rió la demostración directa de la consistencia de la teoría de núme-
ros, reales o enteros. Una solución completamente inesperada fue la
que dio, en 1931, Kurt Gödel, quien comprobó que la consistencia de
cualquier teoría que contenga la teoría de los números enteros no se
puede demostrar dentro de la misma teoría. En otras palabras, nin-
guna teoría que pretenda fundamentar la matemática es capaz de
autojustificarse, y está obligada a buscar su justificación fuera de sí.
En particular, ninguna teoría de ese tipo que sea consistente puede
ser también completa, en el sentido de que pueda demostrar todas
las verdades matemáticas expresables en su lenguaje, y una de las
verdades que no puede demostrar es precisamente la propia consis-
tencia; es por eso que el resultado de Gödel se denomina teorema de
incompletud.
De todos modos, la imposibilidad de probar la consistencia de
una teoría desde su interior no excluye la posibilidad de demostra-
ciones externas, en tanto sean convincentes, y por lo tanto no consti-
tuye la última palabra sobre el segundo problema de Hilbert. En par-
ticular, una demostración de consistencia significativa, aunque ob-
viamente no elemental, de la teoría de los números enteros la dio, en
1936, Gerhard Gentzen, y representa el punto de partida de la teo-
ría de la demostración que tiene el objetivo de buscar demostraciones
análogas para teorías cada vez más fuertes.
5.6. Calculo Variacional: Las superficies minimales de Douglas (1931)
Según la Eneida (I, 360-368), en el origen de la fundación de Carta-
go se encuentra la solución a un problema de naturaleza matemática.
La reina Dido, cuando huyó de Tiro y desembarcó en las costas del
norte de África, obtuvo del rey local el permiso de escoger un peda-
zo de tierra que fuese abarcado por la piel de un buey. Después de
La Matemática del siglo XX 61
cortar de la piel una tira finísima, Dido la usó para delimitar un área
lo más grande posible; su elección fue un trozo de tierra semicircular
en la costa demar, para delimitar con la cuerda sólo una parte del pe-
rímetro. Dido había intuido que el círculo es la figura que, a paridad
de perímetro, tiene la máxima área: Jacob Steiner dio la primera de-
mostración matemática en 1838, que fue completada por Weierstrass
en 1872.
Los problemas de este tipo se llaman de máximo o de mínimo, y
en casos simples se pueden resolver fácilmente con los métodos del
cálculo infinitesimal. Más precisamente, expresándolos en forma de
función, y buscando los puntos críticos de ésta, anulando su deri-
vada. En casos más complejos se necesitan técnicas más sofisticadas
que fueron codificadas en el cálculo variacional, cuyo nombre deriva
del hecho de que, en este caso, varía toda la función (δ f ) y no sólo
una parte infinitesimal de la misma (d f ).
Fue Galileo, en 1630, quien propuso el primer problema genui-
namente variacional: encontrar, dados dos puntos no en vertical uno
sobre el otro, la curva (llamada braquistócrona) que permita ir de un
punto al otro en el menor tiempo posible. Galileo dio una solución
equivocada, un arco de círculo. Jean Bernoulli volvió a proponer el
problema en 1696, y fue resuelto correctamente por Newton, Leibniz
y los hermanos Bernoulli; la solución es un arco de cicloide, es de-
cir, la curva que describe un punto del borde de una circunferencia,
mientras la circunferencia rueda sobre una rectasin deslizarse.
Anteriormente, en el segundo libro de los Principia (“Comentario
a la proposición 34”), Newton ya había encontrado la primera solu-
ción correcta de un problema variacional: determinar cuál es la su-
perficie de revolución que, moviéndose en el agua a velocidad cons-
tante y en la dirección de su eje, ofrece la menor resistencia al movi-
miento del agua. Él previo que la solución del problema podía ser de
62 5. Matemática Pura
utilidad en la construcción de barcos y, en efecto, problemas seme-
jantes se volvieron luego comunes en aeronáutica, en la construcción
de submarinos y aeroplanos.
El primer resultado fundamental del cálculo variacional fue ha-
llado en 1736 por Euler, quien descubrió la ecuación diferencial que
aún hoy fundamenta el cálculo, y que establece una condición nece-
saria para la solución de un problema variacional (así como la anu-
lación de la derivada es una condición necesaria para la solución de
los problemas de máximo o mínimo). Más tarde, en 1744, Euler escri-
bió un libro entero que ofrecía el primer tratamiento sistemático del
tema.
YaHerón deAlejandría había enunciado, en el siglo 1 d.C, el prin-
cipio que indica que la luz semueve según recorridos queminimizan
tanto el tiempo como el espacio. Y en el siglo XV, Leonardo da Vin-
ci había manifestado que estaba convencido de que la naturaleza era
“económica”. En 1744, Pierre Louis deMaupertuis se explayó y siste-
matizó estas intuiciones en el principio de mínima acción: los fenóme-
nos naturales ocurren minimizando la acción, es decir, el producto
mvr de masa, velocidad y distancia.
Aunque el concepto de acción deMaupertuis era poco preciso, su
formulación expresó matemáticamente la intuición filosófica de que
en la base del comportamiento de la naturaleza hay un principio va-
riacional. Euler intuyó la posibilidad de derivar las leyes de la física
a partir de tal principio, pero el primero en concretarla fue Lagrange,
en 1761, quien definió correctamente la acción como
∫
mv ds o
∫
mv2 dt,
y obtuvo una versión de la segunda ley del movimiento de Newton
partiendo del principio de mínima acción. La formulación definitiva
La Matemática del siglo XX 63
de la mecánica en esta forma fue obtenida por Wiliam Hamilton, en
1835, quien obtuvo las clásicas ecuaciones diferenciales que descri-
ben posición y cantidad de movimiento, en función de la hamiltonia-
na H que representa la energía.
En 1847, el físico Joseph Plateau advirtió que si se sumerge un
alambre con forma de curva cerrada en agua con jabón, cuando se lo
extrae se forma en su interior una burbuja de jabón que constituye
una superficie de área mínima respecto del perímetro definido por la
curva. Por lo tanto, las pompas de jabón ofrecen una solución empí-
rica al problema de encontrar una superficie de área mínima en los
casos en que la forma del alambre es muy compleja, pero es difícil
encontrar una solución explícita.
Entonces surge espontáneamente el problema de Plateau: demos-
trar que para toda curva cerrada en el espacio existe una superficie
minimal que tiene la curva como perímetro. El problema parece va-
go si no se especifica qué se entiende por curva cerrada, pero desde
1887 se puede adoptar la definición de Camille Jordan: una curva es
el conjunto de los puntos cuyas coordenadas son imágenes de fun-
ciones continuas de un parámetro en cierto intervalo. Y el problema
de Plateau se interpreta haciendo referencia a esta definición.
La solución debió esperar casi un siglo y la encontró Jessie Dou-
glas en 1931, que por este trabajo obtuvo la medalla Fields en 1936,
la primera vez que fue asignada. Otros trabajos sobre las superficies
minimales remitieron que Enrico Bombieri obtuviera lamedalla Fields
en 1974 y Ennio de Giorgi el premio Wolf en 1990. Es así como el cálcu-
lo variacional ha visto subir sus acciones desde principios de siglo,
cuando Hilbert pensaba que no había recibido el reconocimiento que
merecía, y decidió llamar la atención hacia el cálculo variacional con
el vigésimo tercer problema, el único de carácter general en su lista. Pero
también el vigésimo y el decimonoveno problema se referían a cuestio-
64 5. Matemática Pura
nes del cálculo variacional; más precisamente, a la existencia y al tipo
(analítico) de las soluciones de una vasta clase de problemas varia-
cionales (llamados regulares). El estudio de estos problemas condujo
al desarrollo de una amplia área del análisis moderno.
Volviendo a Plateau, uno de sus experimentos consistió en su-
mergir dos veces en agua con jabón unos alambres con forma de cu-
bo; sorprendentemente, la burbuja que se obtiene en este caso consis-
te en una especie de hipercubo, es decir, una burbuja casi cúbica cen-
tral, conectada con el cubo original de láminas planas (Figura 6). En
general, láminas del mismo tipo llenan los huecos de las superficies
de área mínima que se obtienen con pompas de jabón; la existencia
de superficies de área mínima con un número arbitrario de huecos, y
por lo tanto que se pueden obtener con pompas de jabón, fue demos-
trada en 1987 por David Hoffman y William Meeks, basándose esta
vez en representaciones gráficas computerizadas obtenidas en 1983
(Figura 7).
Figura 6. Pompa de jabón hipercúbica. (De la película de Michelle
Emmer, Pompas de jabón, c©2000 Emmer)
La Matemática del siglo XX 65
Figura 7. Superficie minimal con huecos
5.7. Análisis: Las distribuciones de Schwartz (1945)
Los griegos conocían, obviamente, algunas curvas especificas co-
mo las secciones cónicas y varias espirales, pero jamás tuvieron la
necesidad de considerar la noción de función de manera sistemática.
Esta necesidad sólo surge con el nacimiento de la ciencia moderna;
en efecto, el estudio del movimiento requería considerar una vasta
clase de curvas, entre ellas naturalmente la parábola, la elipse y la
cicloide, que son respectivamente las trayectorias descriptas por un
proyectil, un planeta o un punto sobre una rueda que gira sobre un
plano.
Durante mucho tiempo, el único modo permitido para definir
funciones fue a través de fórmulas, aunque la clase de fórmulas se
enriqueció constantemente con el desarrollo de la matemática. En el
siglo XVII, Descartes exigía limitarse a ecuaciones algebraicas, es de-
cir, a polinomios de grado arbitrario en x e y. En el siglo XVIII, Euler,
motivado por el estudio de la cuerda vibrante, permitió la conside-
ración de expresiones analíticas que comprenden funciones trigono-
métricas, exponenciales y logarítmicas; él las veía como versiones in-
finitarías de funciones algebraicas, a través de expansiones en series
66 5. Matemática Pura
de potencia. En el siglo XIX, Joseph Fourier, motivado a su vez por el
estudio del calor, incluyó por fin también las series trigonométricas.
La tesis fundamental de Fourier era que toda función se puede
presentar, en un intervalo, mediante una serie trigonométrica. Fue
precisamente en el intento de demostrar demostrar esta tesis cuando
Peter Lejeune Dirichelet descubrió, en 1829, un famoso ejemplo de
función no representable cuyos valores son 1 para argumentos irra-
cionales.
Esta función no estaba definida mediante fórmulas de ningún ti-
po, pero en pocos años Dirichelet hizo de necesidad virtud: en 1837
propuso la definición de función que se utiliza todavía hoy, como co-
rrespondencia que a cada argumento x asocia uno y sólo un valor
y, independientemente del modo en que esta correspondencia esté
definida.
El paso de las funciones definibles a las funciones arbitrarias es,
en cierta forma, análogo al paso de los números reales algebraicos
a los arbitrarios; en ambos casos se provoca un incremento expo-
nencial del número de elementos, la mayoría de los cuales será de
todas maneras inaccesible a las descripciones, justamente por la li-
mitación numérica de las mismas. Pero en la práctica, las funciones
y los números de uso corriente tienden a ser definibles de algún mo-
do explícito. Irónicamente, la misma función de Dirichelet no es una
excepción, ya que Peano y René Baire demostraronque esa función
se puede representar analíticamente mediante la expresión
f (x) = lı́m
m→∞
lı́m
n→∞
cos(m!πx)n
Motivado por sus estudios sobre el electromagnetismo, Oliver
Heaviside introdujo, en 1893, la función impropia δ definida por es-
tas dos propiedades: sus valores son siempre 0, excepto en el punto
La Matemática del siglo XX 67
x = 0, en el cual el valor es infinito; y el área definida por el gráfico
de la curva tiene valor 1. Considerada en sí misma la δ es obviamente
paradójica, ya que difiere sólo en un punto de la función constante 0,
que tiene integral 0, y cualquier valor asignado en ese punto no de-
bería hacer cambiar el valor de la integral. Un solo valor, por si fuera
poco indefinido e infinito, contribuye en cambio un área finita.
Sin embargo, funciones impropias como la δ permiten expresar
derivadas de funciones discontinuas. Por ejemplo, la misma δ puede
ser considerada la derivada de la función H de Heaviside, que describe
un impulso instantáneo unitario, y vale 0 para argumentos meno-
res que 0, y 1 para los demás. La justificación de esta afirmación se
obtiene mediante un procedimiento al límite: la δ es aproximada por
una función que vale 0 casi siempre, excepto en un intervalo en torno
del x = 0, en el cual el valor está determinado por la condición de
que el área total sea precisamente 1; la H, en cambio, es aproximada
por integrales de las aproximaciones de la δ, que valen precisamente
0 antes del intervalo y 1 después, pero que en el intervalo conectan
estos dos valores de manera continua (Figura 8).
Las nociones y los procedimientos eurísticos empleados por Hea-
viside desataron un gran escándalo entre los matemáticos, e incluso
fue expulsado de la Royal Society de Londres por indignidad teórica.
Como consecuencia hoy la δ no se asocia con su nombre, sino con el
de Paul Dirac, que la usó en 1930 en su clásico Principios de mecánica
cuántica.
Pero también Dirac recibió su dosis de críticas severas, especial-
mente por parte de John von Neumann, autor de una formulación
alternativa de la mecánica cuántica, de la que hablaremos más ade-
lante. De todos modos, gracias a la reputación de Dirac, la δ se po-
pularizó inmediatamente entre los físicos, y más tarde también entre
los matemáticos.
68 5. Matemática Pura
Figura 8. Aproximaciones de las funciones H y δ
Una extensión del concepto de función que incluyera también las
funciones impropias fue desarrollada por Laurent Schwartz a partir
de 1945, en un estudio que culminó, en 1950, en los dos volúmenes
de la Teoría de las distribuciones. Él desarrolló en particular las técnicas
de diferenciación de las distribuciones, mostrando que toda función
continua, en el sentido clásico, es derivable en el sentido de las distri-
buciones, lo que también incluye casos patológicos como la curva de
Koch, de la que hablaremos más adelante, que clásicamente no tiene
en cambio derivada en ningún punto. Por este trabajo, Schwartz ob-
tuvo la medalla Fields en 1950. Más tarde, se convirtió en uno de los
famosos intelectuales franceses que tomó posición contra la guerra
de Argelia, y su departamento fue volado con una bomba.
Puesto que las distribuciones generalizan las funciones así como
los números reales generalizan los números racionales, algunos pro-
blemas clásicos referidos a las funciones se pueden extender a las dis-
tribuciones. Por ejemplo, el ya citado decimonoveno problema de Hilbert
se preguntaba qué operadores diferenciales sobre funciones tenían
sólo soluciones analíticas, y en 1904 Serge Bernstein demostró que la
respuesta era: los operadores elípticos. En su libro, Schwartz propuso
extender el problema a los operadores diferenciales sobre distribu-
ciones: la solución dada por Lars Hörmander llevó a la definición de
La Matemática del siglo XX 69
la nueva e importante clase de los operadores hipoelípticos, y le valió la
medalla Fields en 1962 y el premio Wolf en 1988.
A propósito de operadores elípticos, uno de los resultados fun-
damentales sobre ellos es el teorema del índice, demostrado en 1963
por Michael Atiyah e Isadore Singer. El índice de un operador mide
la cantidad de sus soluciones, y se obtiene sustrayendo los números
que determinan la existencia y la unicidad de las soluciones (el pri-
mer número es la dimensión del sistema de relaciones lineares que
una solución debe satisfacer, el segundo es la dimensión del espacio
de todas las soluciones). El enunciado del teorema establece que el
índice es en realidad un invariante topología), es decir, que no cam-
bia si se perturba el espacio sobre el cual el operador está definido, lo
que, por una parte, permite calcular el índice de manera alternativa
y, por otra, crea un fecundo puente entre el análisis y la topología.
La complicada demostración original requería las más diversas téc-
nicas, desde la teoría del cobordismo de Thom, que mencionaremos
más adelante, a la K-teoría desarrollada anteriormente por el mis-
mo Atiyah, quien obtuvo por todos estos trabajos la medalla Fields en
1966. Más recientemente, el teorema del índice fue reinterpretado en
términos de mecánica cuántica, y la teoría de cuerdas, a la que ha-
remos referencia enseguida, permitió a Edward Witten proporcionar
una demostración más simple y comprensible, que le valió la medalla
Fields en 1990.
5.8. Topología Diferencial: Las estructuras exóticas de Milnor (1956)
El hecho de que durante tiempo la Tierra haya podido ser con-
siderada plana y de que así lo siga pareciendo cuando sólo se con-
sideran zonas lo suficientemente pequeñas demuestra que una su-
perficie como la esfera puede ser locamente euclídea, aunque no lo
sea globalmente (técnicamente, se dice que la esfera es localmente
70 5. Matemática Pura
difeomorfa, aunque no localmente isométrica, al plano).
Una esfera, entonces, puede considerarse como una pelota de tra-
po, constituida por un gran número de pequeñísimos parches prác-
ticamente planos, que se sobre otros de manera uniforme y regular.
Y la estructura de toda la pelota se puede reducir, por un lado, a la
estructura de cada parche y, por el otro, a su posición respecto de un
sistema de referencia canónico, como el retículo de los meridianos
y los paralelos. Este modo de concebir las cosas permite extender a
la esfera el cálculo diferencial, es decir, todo el instrumental de deri-
vadas e integrales, que originalmente fue concebido y desarrollado
para el plano euclídeo.
En 1854, Bernhard Riemann introdujo una noción de variedad de
Riemann en n dimensiones, que generaliza el enfoque anterior: se co-
locan juntos, de manera uniforme y regular pequeñísimos trozos del
espacio euclídeo en n dimensiones. Tal variedad admite una estruc-
tura diferencial cuando es posible extender a ella el cálculo diferencial
habitual, del espacio en n dimensiones, de manera análoga al modo
mencionado para la esfera.
Los trabajos de Kerékjártó en 1923, Rado en 1925 y Moise 1952
demostraron en conjunto que todas las variedades de Riemann, bi-
dimensionales o tridimensionales, así como todos los espacios euclí-
deos de dimensión distinta de 4, admiten una única estructura dife-
rencial. Y se pensaba que así debía ser en general.
Sin embargo, en 1956 John Milnor demostró que la esfera en 7
dimensiones admite más de una estructura diferencial, para ser más
preciso, veintiocho. Por este inesperado resultado, que inauguró la
nueva área de la topología diferencial y de las llamadas estructuras
exóticas, Milnor recibió la medalla Fields en 1962 y el premio Wolf en
1989. En 1969, Michel Kervaire demostró, en cambio, que existen va-
riedades en 10 dimensiones que no admiten ninguna es tructura di-
La Matemática del siglo XX 71
ferencial. Junto con el resultado de Milnor, esto prueba que, por lo
tanto, ni la existencia ni la unicidad una estructura diferencial están
aseguradas en general.
Una clasificación de las variedades diferenciales de dimensión
mayor o igual a 5 fue encontrada en 1962 por Sergei Novikov, que
por este trabajo obtuvo la medalla Fidelds, en 1970. Por lo tanto,los
desarrollos recientes de la topología diferencial consideran la dimen-
sión 4, que es el único caso en que el grupo de las rotaciones del
espacio euclídeo no es simple (ya que es el producto de dos pares
del grupo de rotación tridimensional). Los trabajos fundamentales
en este campo son de Michael Freedman y Simon Donaldson, quie-
nes obtuvieron por esos trabajos la medalla Fields en 1986.
Por una parte, en 1982 Freedman demostró que a cada variedad
tetradimensional se puede asociar una matriz entera simétrica con
determinante igual a ±1, definida sobre la base de las propiedades
de intersección de la variedad. Y viceversa, cada matriz de este tipo
corresponde a una variedad. En otras palabras, estas matrices de-
finen un invariante topológico que permite clasificar las variedades
tetradimensionales. Dado que, ya en 1952, Rokhlin había demostrado
que no todas las matrices pueden corresponder a variedades diferen-
ciales, el resultado de Freedman prueba la existencia de variedades
tetradimensionales que no admiten ninguna estructura diferencial.
Por otra parte, en 1983 Donaldson probó que sólo las matrices
correspondientes a variedades diferenciables son unitarias. También
encontró otros invariantes, que permiten distinguir entre sí varie-
dades diferenciables que son topológicamente equivalentes, demos-
trando en particular la existencia de estructuras exóticas del espacio
euclídeo tetradimensional, donde pueden ocurrir cosas extrañas; por
ejemplo, a diferencia del espacio tridimensional, en el que toda zona
cerrada y limitada está contenida en una esfera, hay zonas cerradas
72 5. Matemática Pura
y limitadas que no están contenidas en una hiperesfera. Más tarde,
en 1985, Taubes y Gompf demostraron que el espacio tetradimensio-
nal admite no sólo infinitas estructuras exóticas, sino también una
cantidad continua.
Un aspecto interesante de los trabajos de Donaldson es que en
ellos se utilizan métodos físicos para obtener resultados matemáti-
cos, y esto inauguró una tendencia que alcanzó su punto máximo en
los trabajos de EdwardWitten, al que haremos referencia en seguida.
Sustancialmente, Donaldson reemplaza las ecuaciones de Maxwell
y el grupo U(1) típicos del electromagnetismo por las ecuaciones de
Yang-Mills el grupo SU(2), típicos de la teoría electrodébil, de la que
hablaremos, y usa las solucionesminimales (llamadas instantones) co-
mo instrumentos geométricos. Esto deja entrever la posibilidad de
obtener otros resultados usando análogamente las mismas ecuacio-
nes pero otros grupos, por ejemplo, el SU(3) típico de la cromodiná-
mica.
Volviendo a la topología diferencial, un problema todavía abierto
es si la esfera en 4 dimensiones admite más de una estructura dife-
rencial. Si la respuesta fuera negativa, entonces el teorema de Milnor
sobre la esfera en 7 dimensiones sería lo mejor posible, en efecto, ya
se sabe que las esferas en 2, 3, 5 y 6 dimensiones tienen una sóla es-
tructura diferencial. De cualquier modo, el número de estructuras di-
ferenciales de la esfera depende fuertement del número de dimensio-
nes, aunque siempre sea finito en el caso distinto de 4; por ejemplo,
en 8 dimensiones hay 2, en 11 dimensiones 992, en 12 dimensiones 1,
en 15 dimensiones 16.256, en 31 dimensiones más de 16 millones...
La Matemática del siglo XX 73
5.9. Teoría de los Modelos: Los Números Hiperreales de Robinson
(1961)
La primera aparición explícita de los infinitesimales en matemáti-
ca se produjo en el siglo XV, cuando Nicola Cusano definió el círculo
como un polígono de infinitos lados que poseen un largo infinitesi-
mal, y dedujo el teorema de Arquímedes sobre el área del círculo en
dos palabras: se descompone el círculo en infinitos triángulos de base
infinitesimal y altura igual al radio; ya que el área de cada triángulo
es base por altura dividido 2, el área del círculo será entonces la cir-
cunferencia (o sea la suma de las bases de los triángulos) por el radio
dividido 2.
El problema de este enfoque reside, naturalmente, en el concep-
to de triángulo infinitesimal; si su área es nula entonces también el
círculo debería tener área nula; pero si su área no es nula, entonces el
círculo debería tener área infinita; pero en ninguno de los dos casos
se obtendría el resultado correcto.
En 1629 Pierre de Fermat utilizó los infinitesimales en la defini-
ción de derivada introducida por él como (medida de la inclinación
de la) tangente de una curva en un punto. Él consideró una secan-
te que pasa por dos puntos: el punto dado y otro punto que dista
del primero un infinitesimal h. Y calculó la tangente (trigonométrica)
de la tangente (geométrica) como relación incremental, en modo se-
mejante a como se hace actualmente. Por ejemplo, en el caso de una
parábola:
(x+ h)2 − x2
h
=
2xh+ h2
h
= 2x+ h = 2x
En este caso, h se considera distinto de 0 cuando se lo simplifica
como divisor, pero igual a 0 cuando se lo elimina luego en el final; un
procedimiento que no podía no provocar serias dudas acerca de su
74 5. Matemática Pura
consistencia.
En 1635, Bonaventura Cavalieri utilizó los infinitesimales en la
definición de integral, introducida por él para calcular áreas y volú-
menes. Siguiendo las huellas de Cusano, consideró las figuras geo-
métricas como compuestas por infinitos indivisibles: las curvas por
puntos, como “las perlas de un collar”; las superficies por segmentos
paralelos, como “los hilos de una tela”; y los sólidos por superficies
paralelas, como “las páginas de un libro”. Pero a diferencia de per-
las, hilos y páginas, las dimensiones de estos indivisibles eran una
vez más infinitesimales.
Si bien Leibniz y Newton lograron madurar las ideas introduci-
das por Fermat y Cavalieri, desarrollando una auténtica nueva me-
todología para la solución de problemas matemáticos y físicos, no
pudieron hacer mucho responder a las objeciones que surgieron por
el uso “fantasmas de cantidades desaparecidas” como los llamó el
obispo Berkeley en una despiadada crítica.
En particular, Leibniz fundó todo el cálculo sobre la noción de
infinitesimal, que él veía como una cantidad evanescente, pero no
desvanecida (hoy diríamos, simplemente no arquimediana), o sea,
más pequeña que cada fracción 1n , pero no nula. Y aún hoy quedan
huellas de su enfoque, tanto en el nombre de cálculo infinitesimal
dado a la nueva disciplina, como en las notaciones que inventó para
derivadas e integrales:
d f (x)
dx
y
∫
f (x) dx
Es decir, la derivada está representada como relación dedos infi-
nitesimales (d es la inicial de “diferencia”), y la integral como suma
de indivisibles de largo infinitesimal (el símbolo
∫
es la estilización
de S, que es la inicial de “suma”). El uso simétrico de d y
∫
recuerda
La Matemática del siglo XX 75
el teorema fundamental de Newton y Leibniz, según el cual deriva-
das e integrales son operaciones inversas, justamente como suma y
resta.
Mientras la aproximación de Leibniz al cálculo a través de los in-
finitesimales reflejaba su preocupación principal que era filosófica y
relacionada con los constituyentes últimos de la realidad (las móna-
das), la de Newton, en cambio, reflejaba las aplicaciones fundamen-
tales que él tenía en mente, que eran físicas y estaban vinculadas a la
medición del cambio (la velocidad). A diferencia de Cavalieri, New-
ton Veía las figuras geométricas como generadas por movimientos
continuos, las curvas por puntos, las superficies por segmentos, los
sólidos por superficies. Para él, la derivada no era la relación estática
de dos infinitesimales, sino la “fluxión” dinámica de una cantidad
“fluyente”. Y en los Principia declaró explícitamente: “Las relaciones
finales en las que ciertas cantidades se desvanecen no son, hablan-
do estrictamente, relaciones de cantidades finales, sino límites a los
cuales se aproximan tales relaciones, disminuyendo sin fin”.
Augustin Cauchy retomó esta idea en 1821, y basó todo el cálcu-
lo en el concepto de límite. En su formulación, que es la actual, el
ejemplo de Fermat resulta:
lı́m
h→0
(x+ h)2 − x2
h= lı́m
h→0
2xh+ h2
h
= lı́m
h→0
(2x+ h) = 2x.
De esta manera, la simplificación del número h está justificada
por el hecho de que es una cantidad distinta de 0, mientras su elimi-
nación se sustituye con un límite en el que h tiende a 0, sin que sea
necesario considerarlo igual a 0. En otras palabras, los infinitesimales
son variables y no constantes.
Karl Weierstrass, en 1859, dio la definición precisa de límite en los
términos actualmente usuales de “ǫ − δ”, y sobre estas bases se pudo
76 5. Matemática Pura
considerar concluida la sistematización del análisis. Pero en la defi-
nición no explicaba los infinitesimales, simplemente los había elimi-
nado, a costa de una considerable complicación de los fundamentos
del cálculo.
La rehabilitación de los infinitesimales se produjo en 1961, cuan-
do Abraham Robinson demostró que los métodos de la lógica ma-
temática, especialmente el llamado teorema de compacidad, permi-
ten encontrar una clase de números hiperreales que tienen las mismas
propiedades que los números reales, pero contienen, además de los
números reales habituales, también sus variantes infinitesimales (de
manera análoga a como los números reales contienen, además de los
números enteros, también sus variantes decimales).
El análisis clásico de los números reales se puede extender a un
análisis no estándar de los números hiperreales, en cuyo ámbito el
cálculo del ejemplo de Fermat resulta perfectamente correcto, h es
efectivamente distinto de 0, y por lo tanto se puede dividir por el
mismo; y aunque 2x+ h y 2x sean números hiperreales distintos, tie-
nen las mismas partes reales (así como dos números decimales pue-
den ser distintos, pero tener la misma parte interna), y, por lo tanto,
son iguales desde el punto de vista de los números reales.
Los números reales pueden verse como una completación de los
números racionales obtenida pasando números cuyo desarrollo de-
cimal es finito o periódico, a números cuyo desarrollo es infinito. De
manera análoga, los números hiperreales se pueden ver como una
completación de los números reales, obtenida pasándolos a números
cuyo desarrollo es doblemente infinito.
Esto hace pensar en ulteriores completitudes, con números cuyo
desarrollo decimal sea cada vez más largo. En 1976, John Conway
introdujo los números surreales, cuyo desarrollo decimal se extiende
por todos los infinitos traducidos por Cantor, del que hablaremos
La Matemática del siglo XX 77
enseguida; de este modo se obtiene en un sentido preciso, la máxima
completitud posible de los números reales.
5.10. Teoría de Conjuntos: El Teorema de Independencia de Cohen
(1963)
El primer problema de Hilbert, al que indudablemente él conside-
raba el más importante, preguntaba simplemente cuántos eran los
números reales. Naturalmente, desde un punto de vista intuitivo, la
respuesta a la pregunta de Hilbert es obvia: los números reales son
infinitos.
Pero Cantor había demostrado que no se puede hablar simple-
mente de “infinito”, como si fuera un concepto bien definido: de he-
cho, ¡no sólo existen varios tipos de infinitos, sino que existen infini-
tos!. Para darle un sentido a la pluralidad de infinitos, él había redes-
cubierto un enfoque abstracto para comparar la cantidad de elemen-
tos de dos conjuntos cualesquiera, que ya había sido usado en 1851
por Bernhard Bolzano, y anticipado por Duns Scoto en el siglo XIII y
por Galileo en 1638.
La idea es que dos conjuntos tienen el mismo número de elemen-
tos si pueden ponerse en correspondencia biunívoca, es decir, si es
posible unir elementos de uno a elementos del otro, de manera tal
que todos los elementos de cada conjunto tengan una y sólo una pa-
reja. Por ejemplo, las clases de las sillas y las personas que están en
una habitación tienen el mismo número de elementos si ninguna si-
lla está vacía y todas las personas están sentadas, sí cada uno ocupa
un solo lugar y no lo comparte.
Y un conjunto tiene un número de elementos menores que otro
si el primero se puede poner en correspondencia biunívoca con una
parte del segundo, pero el segundo no se puede poner en correspon-
dencia biunívoca con el primero. Por ejemplo, un par tiene una canti-
78 5. Matemática Pura
dad menor de elementos que una terna, una terna que una cuaterna,
una cuaterna que una quinterna, y así sucesivamente. De este modo
se pueden distinguir fácilmente entre sí los conjuntos finitos que tie-
nen distinta cantidad de elementos, así como los conjuntos finitos de
los infinitos.
Pero es natural pensar que, con respecto a los conjuntos infinitos,
éstos son todos equivalentes, y los primeros resultados de Cantor
iban precisamente en esta dirección. Por ejemplo, él demostró que
los números enteros positivos y negativos pueden colocarse en co-
rrespondencia biunívoca sólo con los números enteros positivos, or-
denándolos de la siguiente manera:
0, 1,−1, 2,−2, 3,−3, . . .
Análogamente, como ya había notado John Farey en 1816, los nú-
meros racionales (positivos) pueden ponerse en correspondencia bi-
unívoca con los números enteras (positivos), ordenándolos sobre la
base de la suma de nominador y denominador del siguiente modo:
1
1
,
1
2
,
2
1
,
1
3
,
1
4
,
2
3
,
3
2
,
4
1
, . . .
(las repeticiones podrían eliminarse fácilmente si se quisiera).
En 1874 Cantor descubrió, en cambio, que no es posible poner en
correspondencia biunívoca los números reales con los números ente-
ros, cualquier lista de números reales debe estar incompleta, porque
no contiene los números reales que tengan la primera cifra decimal
distinta de la primera cifra decimal del primer número de la lista, la
segunda cifra distinta de la segunda cifra del segundo número, y así
sucesivamente.
Entonces, los números reales son más que los números enteros
La Matemática del siglo XX 79
y, con una demostración análoga a la anterior, denominada método
diagonal, Cantor demostró, en 1891, que para cada conjunto infinito
se puede encontrar otro que tiene una mayor cantidad de elementos.
Ya que puede demostrarse que el infinito de los números ente-
ros es el más pequeño posible, el infinito de los números reales es
mayor que él. La pregunta natural es si ése es el infinito que viene
inmediatamente después o si, en cambio, hay otros en el medio; en
otras palabras, si existen subconjuntos de números reales que tengan
más elementos que los números enteros, pero menos que los núme-
ros reales. En 1883 Cantor conjeturó que no, y esta afirmación se co-
noció como hipótesis del continuo (“continuo” es el nombre con el que
a veces se indica el conjunto de los números reales).
El primer resultado sobre este problema lo obtuvo Kurt Gödel en
1938. Basándose en la frase de Wittgenstein “de lo que no se pue-
de hablar hay que callar”, decidió acotar la atención a los conjuntos
constructibles, los únicos de los que se puede hablar en un preciso
lenguaje jerarquizado. El descubrimiento de Gödel fue que los con-
juntos constructibles constituyen un universo que satisface todos los
axiomas de Zermelo y Fraenkel, y también la hipótesis del continuo.
Esto significa que su negación no puede derivarse de los axiomas, a
menos que sean contradictorios. En otras palabras, la hipótesis del
continuo es consistente con la teoría de los conjuntos, en el sentido
de que no puede ser refutada.
Paul Cohen, en 1963, obtuvo un resultado complementario al de
Gödel. Esta vez, él decidió ampliar la atención a conjuntos genéricos,
que satisfacen todas las propiedades típicas de la teoría de los con-
juntos. El descubrimiento de Cohen fue que el agregado de conjuntos
genéricos a los conjuntos constructibles genera universos que satis-
facen todos los axiomas de Zermelo y Fraenkel y, en algunos casos,
también la negación de la hipótesis del continuo; esto significa que
80 5. Matemática Pura
no se puede derivar de los axiomas, a menos que no sean contradic-
torios. En otras palabras, la hipótesis del continuo es independiente de
la teoría de los conjuntos, en el sentido de que no puede ser ni proba-
da ni, como ya había demostradoGödel, refutada. Por este resultado
Cohen obtuvo la medalla Fields en 1966.
Entonces está resuelto el primer problema de Hilbert, y la solu-
ción es que no puede ser resuelto con las nociones de teoría de los
conjuntos que hoy son de uso común, lo que, obviamente, no implica
que en el futuro no puedan sumir extensiones de estas nociones que
parezcan igualmente naturales pero que permitan decidir la hipóte-
sis del continuo en un sentido u otro. Por ahora debemos conformar-
nos con separar los resultados probados en la teoría de los conjuntos
usando la hipótesis del continuo (o su negación), de los resultados
que no la utilizan.
5.11. Teoría de Singularidades: La Clasificación de las Catástrofes de
Thom (1964)
La manera más sencilla de describir curvas en el plano en forma
analítica es mediante polinomios x e y, que definen las llamadas cur-
vas algebraicas. En 1637, Descartes descubrió que los polinomios de
primer grado describen las rectas, y los de segundo grado las seccio-
nes cónicas ya estudiadas por los griegos, es decir, hipérbola, elipse y
parábola; su nombre deriva del hecho de que todas esas secciones se
pueden obtener por proyección y sección de un círculo, en el sentido
de que proyectando el círculo desde un punto se obtiene un cono, y
seccionando el cono se obtienen las secciones cónicas.
Los polinomios de tercer grado definen las cúbicas, cuyo estudio
se pudo retomar sólo con los nuevos métodos del cálculo infinitesi-
mal. Newton descubrió, en 1676, que los tipos de cúbicas son aproxi-
madamente ochenta, y todos se pueden obtener por proyección y
La Matemática del siglo XX 81
sección de las curvas elípticas, llamadas así por su rol en el cálculo del
largo de arcos de elipse (una elipse no es una curva elíptica), y cuya
forma general es:
y2 = ax3 + bx2 + cx+ d.
El asunto es interesante porque sólo existen cinco posible, tipos
de curvas elípticas, clasificados sobre la base de los posibles ceros
del polinomio de tercer grado a la derecha del igual (Figura 9).
Más precisamente, se obtienen cuatro casos cuando los tres ce-
ros son todos reales; si son todos distintos, la curva es de dos piezas,
de las cuales una es cenada; si coinciden dos ceros, pueden ser me-
nores que el restante, en cuyo caso constituyen un punto aislado, o
mayores, en cuyo caso forman un nudo; si los tres ceros coinciden,
se obtiene una cúspide. El quinto caso se obtiene cuando hay ceros
complejos, que deben ser dos y distintos, porque un polinomio de
tercer grado de coeficientes reales siempre tiene un cero real, y los
ceros complejos siempre vienen en pares, entonces la curva queda
formada por una sola pieza lisa.
En cada punto de una sección cónica la tangente es única y la cur-
va está de un solo lado de la misma, pero para curvas más complejas,
estas propiedades pueden no valer; cuando esto ocurre, nos encon-
tramos ante puntos singulares. Estos puntos ya losmuestran las curvas
elípticas: en los nudos y en las cúspides hay dos tangentes, en el pri-
mer caso distintas y en el segundo coincidentes; en las flexiones la
curva pasa de un lado al otro de la tangente, cambiando concavidad.
En 1740, el abad Jean Paul de Gua de Malves probó que, en gene-
ral, todos los puntos singulares de las curvas algebraicas se obtienen
componiendo nudos, cúspides y flexiones, de distintas maneras.
El estudio de las curvas no algebraicas es más difícil y es un obje-
tivo de la teoría de la singularidad deducir el comportamiento global
82 5. Matemática Pura
y = cúbica
b b b
y2 = cúbica
3 ceros reales
distintos
b b b
b b
3 ceros coincidentes
menores que el 3o
b b
b b
2 ceros coincidentes
menores que el 3o
b b
b
3 ceros coincidentes
b
b
2 ceros complejos
b
Figura 9. Clasificación de las curvas elípticas
La Matemática del siglo XX 83
de la curva a partir del conocimiento local de sus puntos singulares.
Más en general, se trata de clasificar familias de curvas o super-
ficies reduciéndolas a un número restringido de tipos determinados
por su singularidad, de manera análoga a la clasificación de las cúbi-
cas mencionada anteriormente.
La noción de derivada permitió inmediatamente, a Fermat en
1638 y a Newton en 1665, estudiar las curvas lisas, es decir, las que
tienen derivada en todos los puntos, y cuyos puntos singulares son
aquéllos en los que la primera derivada es nula. Las curvas lisas se
pueden reducir, mediante deformaciones locales, a las curvas lisas
que tienen a lo sumo puntos singulares regulares, es decir en las que
la segunda derivada no es nula: en esos puntos la curva es aproxima-
da por un monomio de segundo grado, es decir, por una parábola; y
dependiendo de que el signo sea positivo o negativo, la parábola está
dirigida hacia arriba o hacia abajo, y por lo tanto, el punto singular
es un mínimo o un máximo. Por ejemplo, la cúbica x3 tiene un punto
singular no regular, es decir, una flexión, en el origen, donde la tan-
gente es horizontal; pero basta una mínima rotación de la tangente
para transformarla en una curva de tipo x3 + x, sin puntos singula-
res, o en una de tipo x3 − x, con un máximo y un mínimo (Figura
10).
En 1934, Marston Morse amplió estos resultados de las curvas a
las superficies a n dimensiones. Probó que las superficies lisas se pue-
den reducir, mediante deformaciones locales llamadas difeomorfis-
mos, a superficies lisas que tienen a lo sumo puntos singulares regu-
lares; en estos puntos la superficie es aproximada por una suma al-
gebraica de monomios de segundo grado en cada variable, es decir,
por una superficie con forma de montura, cuyo tipo está determina-
do por la cantidad de monomios con signo positivo o negativo, es
decir, por la cantidad de direcciones hacia las que se dirige la mon-
84 5. Matemática Pura
tura para arriba o abajo.
El teorema de Morse caracteriza completamente los puntos sin-
gulares regulares y, por lo tanto, deja abierto el problema de la carac-
terización de los que no son regulares; estos últimos se denominan
catástrofes porque corresponden a bifurcaciones radicales en el com-
portamiento del sistema, y el estudio de las superficies con puntos
singulares no regulares es el objeto de la teoría de las catástrofes desa-
rrollada por René Thom.
x3 − x x3 x3 + x
Figura 10.
En el caso de las curvas lisas, las únicas catástrofes son las flexio-
nes, en este caso la curva es plana porque atraviesa la tangente hori-
zontal. En el caso de las superficies en n dimensiones, existen varias
posibilidades, según el número de direcciones en que la curva es pla-
na, llamado corrango y del mínimo número de deformaciones necesa-
rias para eliminar las irregularidades, llamado codímensión; por ejem-
plo, la cúbica x3, que ya mencionamos, obviamente tiene corrango 1,
y también tiene codimensión 1, porque alcanza con agregarle un so-
lo término para eliminar su flexión. Inspirado en un trabajo de 1947
de Hassler Whitney, premio Wolf en 1982, acerca de las cúspides, en
1964 Thom conjeturó que corrango y codimensión son suficientes pa-
ra clasificar las catástrofes. Más precisamente, que si la codimensión
La Matemática del siglo XX 85
es menor o igual a 4 las catástrofes sólo son de siete tipos: cuatro de
corrango 1, pliegues, cúspides, colas de golondrinas y mariposas; y
tres de corrango 2, pirámides, portafolios y hongos (Figura 11). En el
caso de codimensiones mayores, en cambio, las catástrofes resultan
infinitas. La conjetura de Thom fue comprobada por John Mather en
1966.
pliegue cúspide cola de golondrina mariposa
ombligo elíptico
(pirámide)
ombligo hiperbólico
(portafolio)
ombligo parabólico
(hongo)
Figura 11. Clasificación de las catástrofes
Lo interesante de la teoría de las catástrofes está en el hecho de
que fue uno de los primeros instrumentos matemáticos que parecie-
ron capaces de poner orden en el caos, y describir regularidades del
comportamiento irregular. En 1972, el mismo Thom inauguró, en su
influyente libro Estabilidad estructural y morfogénesis, sus aplicaciones
al estudio de los fenómenos más dispares, desde laformación de los
embriones hasta el estallido de las revolucione que después fueron
llevadas al extremo por Christopher Zeeman.
Desde este punto de vista aplicativo, la teoría de las catástrofes
en la actualidad ha sido superada doblemente. Primero por la teoría
de las estructuras disipativas y por la termodinámica de los fenóme-
nos irreversibles de Ilya Prigogine, que le valieron el premio Nobel de
química en 1977. Y más tarde, por las teorías del caos y de la dinámica
de los sistemas inestables, de las que hablaremos más adelante.
86 5. Matemática Pura
5.12. Álgebra: La Clasificación de los Grupos Finitos de Gorenstein
(1972)
Se sabe desde los tiempos de los babilonios que existe una simple
fórmula algebraica que permite calcular las soluciones de cualquier
ecuación de segundo grado
ax2 + bx+ c = 0
y precisamente:
x =
−b±
√
b2 − 4ac
2a
En el siglo XVI, varios matemáticos italianos, entre ellos Niccolò Fon-
tana (llamado Tartaglia), Gerolamo Cardano y Ludovico Ferrari, en-
contraron fórmulas algebraicas que permiten calcular las soluciones
de cualquier ecuación de tercer o cuarto grado. Pero Paolo Ruffini, en
1799, y Niels Abel, en 1824, demostraron que no existen formulas al-
gebraicas que permitan calcular las soluciones de cualquier ecuación
de quinto grado.
En 1832, Evariste Galois resolvió el problema general de decidir
cuáles ecuaciones se pueden resolver mediante fórmulas algebrai-
cas. Para formular su teoría, Galois introdujo el concepto de grupo
de permutaciones de las soluciones, entendiendo permutación de un
conjunto de elementos simplemente como un modo de volver a dis-
ponerlos; por ejemplo, 2-3-1 es el resultado de una permutación de
1-2-3.
En 1849, Auguste Bravais, estudiando problemas de cristalogra-
fía, introdujo el concepto análogo de grupo de simetría En este caso se
consideran las transformaciones geométricas que mantienen invaria-
da una figura respecto de ciertos criterios; por ejemplo, las simetrías
de rotación de un polígono regular en el plano, o de un poliedro re-
gular en el espacio. Grupos de simetría particularmente interesantes
La Matemática del siglo XX 87
son los referidos a las rotaciones del círculo o de la esfera, que son
infinitas (porque el ángulo de rotación puede ser cualquiera); en este
caso se obtienen ejemplos de los grupos de Lie que analizaremos más
adelante.
Como ya demuestran los ejemplos citados, grupos de distinta na-
turaleza aparecen naturalmente en distintas áreas de la matemáti-
ca, y en 1849 Arthur Cayley introdujo el concepto de grupo abstracto,
constituido por un conjunto de elementos y por una operación tales
que: primero, la aplicación repetida de la operación a elementos del
conjunto produce otra vez elementos del conjunto; segundo, existe
un elemento llamado “neutro”, que desempeña respecto de la ope-
ración el mismo rol que 0 o 1 desempeñan respecto de la suma o el
producto; tercero, la operación se puede “invertir”, del mismo modo
en que la sustracción o la división invierten la suma o la multiplica-
ción; cuarto, la operación es asociativa, en el mismo sentido en que
lo son la suma o la multiplicación, es decir
a+ (b+ c) = (a+ b) + c y a · (b · c) = (a · b) · c
En general, no es necesario que la operación también sea conmutati-
va, en el sentido en que lo son la suma y el producto, o sea
a+ b = b+ a y a · b = b · a
pero, si lo es, se obtiene un grupo abeliano.
La generalidad del concepto de grupo hace que resulte fácil de
aplicar pero, al mismo tiempo, difícil de caracterizar. Una simplifi-
cación esencial, realizada por Galois, consiste en definir la clase de
los grupos simples, que son los constituyentes elementales de los gru-
pos en el mismo sentido en que los números primos lo son para los
enteros, es decir, se introduce una operación de factorización de gru-
88 5. Matemática Pura
pos, y los grupos simples son los que admiten como factores sólo a sí
mismos o al grupo unitario (constituido por un solo elemento). En-
tonces, el problema de la clasificación de los grupos se reduce al de
la clasificación de los grupos simples.
El primer paso fue la clasificación de los grupos continuos de trans-
formaciones, introducidos en 1874 por Sophus lie, llamados grupos de
Lie, en su honor. Pueden definirse como aquellos grupos que admiten
un sistema de coordenadas locales respecto del cual las operaciones
de grupo resultan analíticas. La teoría de los grupos de Lie, que invo-
lucra al álgebra, la topología y el análisis ya desde su definición, ha
sido y sigue siendo fuente de problemas profundos y difíciles. Uno
de éstos, el quinto problema de Hilbert preguntaba si todo grupo lo-
calmente euclídeo (es decir, que admite un sistema de coordenadas
locales) era un grupo de Lie, y fue resuelto afirmativamente en 1952
por Gleason, Montgomery y Zippin.
Aunque un grupo de Lie sea infinito, es posible identificar sus
elementos especificando sólo un número finito de parámetros, que
se llama dimensión del grupo. Por ejemplo, el grupo de las rotaciones
del círculo, que se indica tanto con U(1) como con SO(2), tiene di-
mensión 1 porque basta especificar el ángulo de rotación. En cambio
el grupo de las rotaciones de la esfera, que se indica con SO(3), tie-
ne dimensión 3 porque se necesita especificar tanto el eje de rotación
(que puede ser identificado por latitud y longitud) como el ángulo
de rotación.
La clasificación de los grupos simples de Lie fue esbozada por
Wilhelm Killing, en 1888, y perfeccionada por Elie Cartan en 1894.
Se descubrió, ante todo, que hay cuatro familias infinitas todas cons-
tituidas por grupos cuyos elementos son matrices de n líneas y n
columnas, y que se distinguen sobre la base de las propiedades de
éstas; por ejemplo, SO(n) y SU(n) son, respectivamente, los grupos
La Matemática del siglo XX 89
formados por las matrices Especiales Ortogonales y por las matrices
Especiales Unitarias1. Además, existen cinco grupos esporádicos que
no entran en ninguna de las cuatro familias, y constituyen excepcio-
nes llamadas G2, D4, E6, E7 y E8, que respectivamente tienen dimen-
sión 14, 52, 78, 133 y 248.
La teoría de los grupos de Lie es el lenguaje que hoy permite ex-
presar las teorías de campo unificadas de la física de las partículas.
Más precisamente, se ha descubierto que las fuerzas electromagnéti-
ca, nuclear débil y nuclear fuerte respetan particulares simetrías de
rotación de fase de los campos, de cambio de carga de las partícu-
las y de cambio de colores de los quark, y que las propiedades de
estas simetrías son descriptas por los grupos de Lie U(1), SU(2) y
SU(3). Las dimensiones respectivas de estos grupos son 1, 3 y 8, y
corresponden al número de bosones que transmiten las tres fuerzas:
1 fotón, 3 bosones débiles y 8 gluones.
El primer intento de descripción matemática de estas simetrías
fue realizado por Chen Ning Yang y Robert Mills en 1954, quienes
usaron el grupo SU(2) para la descripción de algunas simetrías de
las interacciones fuertes (en vez de débiles), dando el primer ejem-
plo de las que actualmente se llaman ecuaciones de Yang-Mills. El
segundo intento fue efectuado por Murray Gell-Mann en 1961, que
usó el grupo SU(3) para la descripción de las simetrías de los sabo-
res (en vez de los colores) de los quark, lo que le valió el premio Nobel
de física en 1969. La identificación en 1968 de U(1) × SU(2) como
grupo característico de la teoría electrodébil, por parte de Sheldon
Glashow, Abdus Salam y StevenWeinberg les valió el premio Nobel de
1Los nombres derivan del hecho de que las transformaciones lineales determi-
nadas por matrices unitarias preservan la unidad de largo, es decir, la distancia,
mientras aquellas que están determinadas por matrices ortogonales preservan tam-
bién la ortogonalidad. Técnicamente, una matriz es especial si su determinante es
igual a 1, ortogonal si el producto con su transpuesta es la identidad, y unitaria si el
producto con tu transpuesta conjugada es la identidad.
90 5. Matemática Pura
física en 1979. Finalmente, SU(3) fue identificadoen 1973 por Wein-
berg, David Gross y FrankWilczek como el grupo característico de la
cromodinámica.
Por lo tanto, el progreso hacia la unificación final de las fuerzas fí-
sicas pasa a través de la determinación de un apropiado grupo de Lie
que contenga el producto U(1) × SU(2)× SU(3). El mínimo grupo
simple de Lie que satisface matemáticamente el requisito es SU(5),
de 24 dimensiones, pero no parece apropiado físicamente, pues la
gran unificación que se basa en ese grupo prevé fenómenos inciertos
como una decadencia demasiado veloz del protón y la existencia de
monopolios magnéticos. El grupo al que se apunta hoy para la de-
nominada teoría del todo, que también comprenda la gravedad, es en
cambio una doble pareja del máximo grupo esporádico E8 que al te-
ner doble dimensión de 248, prevé la existencia de 496 bosones de
campo, de los que, sin embargo, sólo se conocen actualmente los 12
ya mencionados.
En lo que respecta a la clasificación de los grupos simples fini-
tos, el asunto resulta más complicado que en los grupos de Lie. A
finales del siglo XIX se conocían seis familias infinitas, y cinco grupos
esporádicos descubiertos en 1861 por Émile Mathieu en el estudio
de geometrías finitas, de los cuales el más grande tenía alrededor de
250.000.000 de elementos.
De las seis familias, cuatro eran los análogos de las familias de
grupos de Lie. La quinta familia era la de los grupos cíclicos, es decir,
los enteros módulo n, de los que ya hemos hablado, los grupos cícli-
cos simples son exactamente aquellos que tienen un número primo
de elementos.
La sexta familia era la de los grupos alternos, definidos por Galois.
La primera observación de partida es que, en realidad, cada permuta-
ción se puede obtener mediante sucesivo cambios de elementos con-
La Matemática del siglo XX 91
secutivos, por ejemplo, la permutación 2-3-1 se puede obtener de 1-
2-3 cambiando entre ellos primero los primeros dos elementos (2-1-3)
y (2-3-1). Los grupos alternos están constituidos por las permutacio-
nes que se obtienen mediante un número igual de sucesivos cambios
de elementos, como en el ejemplo mencionado. Y los grupos alternos
que se obtienen de las permutaciones en un conjunto con un núme-
ro de elementos mayor que 4 son todos simples (Galois demostró
que este hecho determina precisamente la imposibilidad de encon-
trar fórmulas algebraicas para resolver en general las ecuaciones de
grado superior al cuarto).
Nuevas familias fueron encontradas en 1957 por Claude Cheva-
lley, en particular, cada grupo esporádico de Lie originó una familia
entera de análogos definidos en campos finitos. Nuevos grupos es-
porádicos fueron encontrados en 1965 por Zvonimir Janko. Estos re-
sultados abrieron una fase de descubrimiento, que condujo a la iden-
tificación de 18 familias y 26 grupos esporádicos, entre los cuales,
el más grande es un monstruo de aproximadamente 1054 elementos.
Como en la física de las partículas, frecuentemente los nuevos gru-
pos fueron primero previstos teóricamente, y después “observados
en laboratorio”. Por ejemplo, el monstruo que acabamos de mencio-
nar fue previsto en 1973 por Bernd Fischer y Robert Griess, y fue
construido (¡a mano!) por Fischer en 1980.
Pero el auténtico problema era demostrar que las 18 familias y
los 26 grupos esporádicos constituyen la clasificación buscada, en el
sentido de que cada grupo simple finito o está en una de las familias
o es uno de los grupos esporádicos. El proyecto para solucionar es-
te problema lo enunció Daniel Gorenstein en 1972; la demostración,
terminada en 1985, necesitó la colaboración de un centenar de mate-
máticos, ocupa 500 artículos con un total de 15.000 páginas y tiene el
récord de complejidad en la historia de la matemática.
92 5. Matemática Pura
El programa de Gorenstein procede por casos, reduciendo las po-
sibilidades a un centenar y demostrando, para cada una, un teorema
de clasificación reducido. Uno de los casos más importantes es el de
los grupos simples con una cantidad impar de elementos; para la
segunda conjetura de Burnside, de 1906, deben ser exactamente los gru-
pos cíclicos con un número primo de elementos (mayor que 2). La
conjetura fue demostrada en 1962 por Walter Feit y John Thompson,
en un artículo de 250 páginas, y por este trabajo Thompson obtuvo
la medalla Fields en 1970 y el premio Wolf en 1992.
De todos modos, la clasificación de los grupos finitos no es el fi-
nal de la historia. Por ejemplo, la primera conjetura de Burnside, de
1902, preguntaba si todo grupo que tuviera un número finito de ge-
neradores (todo elemento es una combinación de ellos) y que fuera
periódico de orden n (después de n combinaciones con sí mismo, ca-
da elemento se neutraliza) es finito. Ya que el viceversa es obvio, la
conjetura habría caracterizado completamente a los grupos finitos,
pero fue refutada en 1968 por Petr Novikov (padre de Sergei,medalla
Fields en 1970) y S. I. Adian. . Una versión reducida de la conjetura, ya
reformulada en los años 1930, se conforma con requerir la finitud, no
del grupo en sí mismo, sino sólo del número de sus cocientes finitos,
y fue demostrada en 1991 por Efim Zelmanov, quien obtuvo por este
trabajo la medalla Fields en 1994. Comprobó el caso en que n es una
potencia de un número primo, y el caso general se puede conducir a
éste mediante el teorema de clasificación de los grupos finitos (no se
conoce una demostración más directa de la conjetura).
5.13. Topología: La Clasificación de las Superficies Tridimensionales
de Thurston (1982)
Uno de los grandes éxitos matemáticos del siglo XIX fue la clasi-
ficación de las superficies bidimensionales cerradas desde un punto
La Matemática del siglo XX 93
de vista topológico, es decir, considerándolas como si fueran envol-
torios de goma que se pueden deformar a gusto, pero sin romperlos.
Desde este punto de vista abstracto, un globo inflado y uno desinfla-
do son la misma superficie, aunque desde el punto de vista externo
uno pueda parecer una esfera y el otro una hoja replegada o enros-
cada. En cambio, un globo y un salvavidas son superficies distintas,
porque no se puede deformar el globo para que parezca un salvavi-
das sin romperlo.
La clasificación utiliza esencialmente el concepto de superficie no
orientable, descubierto en 1858 por Johann Listing y Augustus Moe-
bius. El ejemplo más conocido es la llamada cinta de Moebius, que
ya aparece en mosaicos romanos del siglo III: se toma una cinta rec-
tangular de papel, se la hace dar una media vuelta en el sentido del
largo, y luego se pegan entre sí los dos lados cortos (si no se hace dar
la media vuelta se obtiene un cilindro). La cinta de Moebius tiene un
solo lado y un solo borde (Figura 12). Además, no es orientable, en el
sentido de que en la cinta no se pueden distinguir el sentido horario
y antihorario (o las manos derecha e izquierda): un trompo que gire
en cierto sentido y recorra toda la cinta, cuando vuelva al punto de
partida quedará girando en la dirección opuesta.
Los trabajos de Riemann en 1857, Moebius en 1863 y Félix Klein
en 1882 llegaron a demostrar todos juntos que toda superficie bidi-
mensional cerrada es equivalente, desde un punto de vista topoló-
gico, a exactamente una de las superficies de dos familias infinitas.
La primera familia consiste en la esfera, y en las superficies (orien-
tables) que se obtienen agregando a la misma un número finito de
aros; un caso particularmente interesante es la esfera con un solo aro,
que equivale a la superficie con forma de rosca llamada toro (Figura
13). En particular, las superficies bidimensionales orientables están
completamente determinadas por el número de sus huecos (Figura
94 5. Matemática Pura
14). La segunda familia consiste en las superficies (no orientables)
que se obtienen de la esfera separando un número finito de círcu-
los y sustituyéndolos con otras tantas cintas de Moebius (lo cual se
puede realizar, porque la cinta tiene un solo borde); dos casos parti-
cularmente interesantes son las esferas a las que se aplicaronuna o
dos cintas, que equivalen respectivamente a las superficies llamadas
plano proyectivo y botella de Klein (Figura 15).
Existen tres tipos de geometría posibles para una superficie bidi-
mensional, la euclídea usual, la hiperbólica y la esférica (esta última
difiere sustancialmente de las otras dos, porque en ella no hay rec-
tas paralelas, dos círculos máximos se encuentran siempre). Desde
el punto de vista de la geometría que se asocia a las mismas, las su-
perficies de las dos familias se dividen de la siguiente manera: a la
esfera y al plano proyectivo se les puede asignar una geometría esfé-
rica; al toro y a la botella de Klein, una geometría euclídea; y a todas
las demás superficies una geometría hiperbólica.
Una vez obtenida la clasificación de las superficies bidimensiona-
les, es natural intentar clasificar las superficies en tres dimensiones:
un trabajo que realizó William Thurston en los años 1970 y que no
se concluyó aún, pero que le valió la medalla Fields en 1983. Él de-
mostró que en el caso tridimensional existen no sólo tres, sino ocho
geometrías posibles: del espacio euclídeo, del espacio hiperbólico, de
la tóperesfera, de los hipercilindros de sección esférica, de los hiper-
cilindros de sección hiperbólica, más otras tres (dos de las cuales co-
rresponden a asignar al espacio euclídeo distancias diferentes de la
habitual). Para complicar aunmás las cosas, no a todas las superficies
tridimensionales se les puede asignar una sola de estas geometrías,
por lo tanto es necesario, en general, cortar la superficie en pedazos
y asignar geometrías distintas a los diferentes pedazos. Afortunada-
mente, como demostróMilnor en 1962, las superficies tridimensiona-
La Matemática del siglo XX 95
les se pueden descomponer en pedazos canónicos de manera sustan-
cialmente única, utilizando cortes bidimensionales apropiados, por
lo tanto, “sólo” se trata de asignar geometrías a las piezas canóni-
cas y esto ya se hizo para muchas de las superficies tridimensionales
(aunque todavía no para todas). Como ya ocurrió en el caso de dos
dimensiones, la geometría hiperbólica es la que tiene más posibilida-
des.
Figura 12. Cilindro y Cinta de Moebius
Figura 13. Toro
Figura 14. Clasificación de las superficies bidimensionables
orientables
Figura 15. Plano Proyectivo y Botella de Klein
96 5. Matemática Pura
Como ya dijimos al hablar de las variedades exóticas Michael
Freedman logró una clasificación topològica de las superficies en cua-
tro dimensiones, y por ello obtuvo la medalla Fields en 1986. Mientras
que para las superficies en 5 o más dimensiones se obtiene una cla-
sificación desde la teoría de la homotopía, de la que hablaremos más
adelante. El caso tridimensional sigue siendo el único que falta com-
pletar, pero no es el final de la historia.
En efecto, existe una subclase importante de superficies multidi-
mensionales, constituida por las variedades algebraicas (reales o com-
plejas) definibles mediante sistemas de ecuaciones algebraicas. Las
variedades unidimensionales (o curvas) algebraicas complejas son su-
perficies reales particulares, y su clasificación topològica desciende
de la clasificación general expuesta anteriormente, en términos de
número de huecos.
Una clasificación de las variedades bidimensionales (o superficies)
algebraicas complejas (o tetradimensionales reales) fue uno de los es-
pectaculares resultados de la escuela italiana de geometría de Guido
Castelnuovo, Federigo Enriques y Francesco Severi, obtenido entre
1891 y 1949. En algunos casos, por ejemplo el de las superficies lla-
madas de tipo general, los italianos demostraron el resultado de ma-
nera completa. En cambio en otros casos, por ejemplo el de las super-
ficies llamadas irregulares las demostraciones quedaron incompletas
porque todavía faltaban los medios técnicos necesarios, que fueron
desarrollados recién en los años 1950 por Kunihiko Kodaira, y le va-
lieron la medalla Fields en 1954 y el premio Wolf en 1984/1985. Es por
esto que el teorema de clasificación de las variedades algebraicas bi-
dimensionales actualmente se llama de Enriques-Kodaira.
El estudio más complicado acerca de las variedades tridimensiona-
les algebraicas complejas (o en seis dimensiones reales) inicialmente
fue emprendido por Corrado Segre, pero en este caso la falta de me-
La Matemática del siglo XX 97
dios técnicos adecuados fue aun más limitativa que en el anterior, y
no le permitió a la escuela italiana ir más allá de notables intuiciones
y conjeturas. El desarrollo de la tecnología necesaria y la clasificación
de las variedades tridimensionales algebraicas fue, en cambio, uno
de los espectaculares resultados de la escuela japonesa de geometría
de Heisuki Hironaka, Shing Tung Yau y Shigefumi Mori, que por
sus trabajos obtuvieron la medalla Fields en 1970, 1983 y 1990. En par-
ticular, el primero mostró cómo resolver las singularidades de una
variedad, transformándola apropiadamente en otra sin singularida-
des. El segundo caracterizó las variedades de Calabi-Yau, que no sólo
constituyen una pieza importante de la clasificación sino que, como
explicaremos más adelante, también encontraron aplicaciones ines-
peradas en la teoría de las cuerdas. El tercero formuló y concluyó el
llamado programa del modelo minimal, sobre el cual, precisamente, se
basa la clasificación.
5.14. Teoría de Números: La demostración de Wiles del Último Teo-
rema de Fermat (1995)
En 1637, Fermat leyó la Aritmética de Diofanto, un monumental
libro del siglo III, y anotó al margen la siguiente observación:
Dividir un cubo en dos cubos, o en general una potencia
n-ésima en dos potencias n-ésimas, es imposible si n es mayor
que 2: encontré una demostración realmente importante de esto,
pero el margen es demasiado pequeño para contenerla.
Esta observación había sido anticipada para los cubos en 1070
por Omar Khayyâm, matemático y poeta, autor del Robâ’iyyât. En su
forma general se hizo famosa con el nombre de el último teorema de
Fermat, y durante 350 años fue uno de los problemas más famosos de
la matemática.
98 5. Matemática Pura
Fermat requería que n fuera mayor que 2 porque ya los babi-
lonios, y después los pitagóricos, sabían que hay cuadrados que se
pueden escribir como suma de dos cuadrados, por ejemplo
32 + 42 = 52, o sea 9+ 16 = 25.
En la correspondencia de Fermat se encontró una demostración
del teorema para n = 4, que usa un ingenioso método llamado des-
censo infinito, que consiste en suponer por absurdo que haya una so-
lución, y demostrar que entonces debe haber otra cuyos números no
sean más grandes que los de la anterior, y al menos uno sea estricta-
mente más pequeño, lo que conduce a una imposible regresión infi-
nita.
En el transcurso de los años, los mejores matemáticos se empe-
ñaron en este problema, y confirmaron el teorema en varios casos:
n = 3 Euler en 1753, n = 5 Dirichelet y Legendre en 1825, n = 7
Lamé en 1839, todo n menor que 100 Kummer entre 1847 y 1857.
Aunque en 1980 la verificación ya había llegado a todo n menor que
125.000, todavía faltaba la demostración general del teorema.
E1 primer auténtico resultado general se obtuvo de manera más
bien indirecta. E1 punto de partida es la observación que indica que
el teorema de Fermat requiere soluciones enteras de ecuaciones del
tipo
an + bn = cn.
Entonces, ya que
( a
c
)n
+
(
b
c
)n
= 1,
La Matemática del siglo XX 99
se trata de encontrar soluciones racionales de ecuaciones del tipo
xn + yn = 1.
Estas ecuaciones definen una curva si se las considera sobre nú-
meros reales, y una superficie si se las considera sobre números com-
plejos; además, estas superficies se pueden clasificar sobre la base
del número de huecos que tienen. Por ejemplo, para n = 2 no hay
huecos, porque la ecuación anterior define un circulo como curva y
una esfera como superficie; y existen infinitas soluciones racionales,
que ya Diofanto sabía cómo describir completamente. En, de n ma-
yor que 2 sí existen, en cambio, huecos, uno para n = 3, tres para
n = 4, seispara n = 5, y así sucesivamente (Figura 16). Naturalmen-
te, al aumentar la cantidad de los huecos aumenta la complejidad
de la superficie y disminuye la posibilidad de encontrar soluciones
simples (racionales).
Figura 16. Superficies asociadas a la ecuación x3 + y3 = 1
Además de las ecuaciones anteriores, mientras tanto, otro tipo
había resultado particularmente interesante, las llamadas curvas elíp-
100 5. Matemática Pura
ticas, que ya hemos mencionado. En este caso la cantidad de huecos
de la superficie correspondiente es uno, y también aquí es posible
obtener infinitas soluciones racionales.
En 1922, Leo Mordell propuso la conjetura de Mordell: “Los únicos
tipos de ecuaciones que admiten infinitas soluciones racionales son aquellos
que definen superficies sin huecos o con un solo hueco.”
Esto significa que, si vale la conjetura de Mordell, el teorema de
Fermat es casi verdadero, porque para todos los n mayores que 3 (y
el caso n = 3 ya había sido resuelto por Euler) la ecuación define una
superficie con más de un hueco y, por lo tanto, puede tener a lo sumo
un número finito de soluciones racionales.
En 1962, Igor Shafarevich propuso, a su vez, la conjetura de Shafa-
revich: “En ciertas condiciones, se pueden encontrar las soluciones enteras
de una ecuación descomponiendo primero la ecuación, es decir, considerando
los varios análogos obtenidos limitando los enteros bajo los varios números
primos, resolviendo estos análogos finitos, y volviendo a componer luego las
soluciones para obtener una solución de la ecuación de partida.”
En otras palabras, se trata de reconstruir las soluciones sobre la
base del conocimiento de sus restos respecto de la división por varios
números primos.
En 1968, Parshin encontró un vinculo entre las dos conjeturas y
probó que la conjetura de Mordell deriva de la de Shafarevich. La
conjetura de Shafarevich fue demostrada en 1983 por Gerd Faltings,
quien obtuvo por este trabajo la medalla Fields en 1986. La demostra-
ción utiliza de manera esencial la solución de Deligne de la ulterior
conjetura de Weil, de la que hablaremos enseguida.
La demostración de la conjetura de Mordell es un resultado tan
interesante que fue publicitado como el “teorema del siglo”, pero pa-
rece no ser de gran ayuda en lo que respecta al teorema de Fermat,
La Matemática del siglo XX 101
incluso una sola solución racional de la ecuación
xn + yn = 1
produciría en efecto una solución entera de la ecuación
an + bn = cn,
y por lo tanto infinitas soluciones (obtenidas multiplicando la ante-
rior por una constante). En realidad, en 1985 Andrew Granville y
Roger Heath-Brown lograron derivar del teorema de Faltings la vali-
dez del teorema de Fermat para infinitos exponentes primos. Es más,
para casi todos los exponentes, desde un punto de vista de teoría de
la medida.
A la demostración del teorema de Fermat para todos los expo-
nentes mayores que 2 se llegó, una vez más, por un camino muy
indirecto, a través de la denominada conjetura de Taniyama. El punto
de partida es, en este caso, la observación que indica que la ecuación
x2 + y2 = l.
se puede parametrizar mediante las llamadas funciones trigonomé-
tricas, seno y coseno, que satisfacen precisamente la ecuación funda-
mental
(sen α)2 + (cos α)2 = 1.
Entonces, resolver la ecuación de Fermat para n = 2 significa en-
contrar un ángulo α cuyos seno y coseno sean racionales. De manera
análoga, las llamadas funciones trigonométricas hiperbólicas para-
metrizan la ecuación
x2 − y2 = l.
102 5. Matemática Pura
Pasando de las ecuaciones cuadráticas que definen las cónicas a las
cúbicas, Taniyama conjeturó, en 1955, que ciertas funciones modula-
res, más generales que las trigonométricas, parametrizan de manera
análoga cualquier curva elíptica.
En 1985, Gerhard Frey encontró la relación entre la conjetura y el
teorema de Fermat, y propuso asociar a la ecuación de Fermat
an + bn = cn
la curva elíptica
y2 = x(x+ an)(x− bn).
Frey notó que su curva elíptica posee propiedades demasiado bellas
para ser verdaderas; por ejemplo, el discriminante que determina la
existencia de raíces del polinomio
(x+ an)(x− bn) = x2 + x(an − bn)− anbn,
es decir
∆ =
√
(an − bn)2 + 4anbn = an + bn = cn
es una potencia n-ésima perfecta. En 1986, Ken Ribet demostró que la
curva de Frey no puede ser parametrizada por funciones modulares;
esto, dicho de otra manera, significa que de la conjetura de Taniyama
desciende el teorema de Fermat.
“Sólo” faltaba demostrar también la conjetura. En 1995, Andrew
Wiles logró comprobar una parte, para una dase de curvas elípticas
llamadas semiestables, a la que pertenece la curva de Frey, resolvien-
do de esta manera uno de los más famosos problemas abiertos de
la matemática moderna. Wiles obtuvo por este histórico resultado el
premio Wolf en 1995/1996, pero no pudo recibir una medalla Fields
en 1998 porque acababa de cumplir más de cuarenta años.
La Matemática del siglo XX 103
En 1999, Brian Conrad, Richard Taylor, Christophe Breuil y Fred
Diamond completaron el trabajo de Wiles, demostrando que la con-
jetura de Taniyama también vale para las curvas elípticas no semies-
tables.
5.15. Geometría Discreta: La solución de Hales al Problema de Ke-
pler (1998)
En 1600, Sir Walter Raleigh le pidió al matemático Thomas Ha-
rriot una fórmula para calcular cuántas balas de cañón había en una
pila. Naturalmente, depende de cómo estén amontonadas, y Harriot
se preguntó cuál sería el modo más eficiente para hacerlo. En 1606,
el problema llegó hasta el astrónomo Johannes Kepler, quien encon-
tró una analogía con el problema de la formación de los cristales de
nieve, de las celdas de las colmenas y de las semillas de las granadas.
En particular, imaginó que en todos estos casos se pone en acción un
mismo mecanismo, por el cual esferas dispuestas en retículos espa-
ciales de distintas formas, al expandirse, tienden a llenar completa-
mente el espacio intermedio.
En 1611, Kepler reformuló el problema matemático subyacente
de la siguientemanera: determinar cuál es la configuración de esferas
con el mismo radio que tiene la máxima densidad, en el sentido de
la relación (al límite) entre el volumen total de las esferas y el del
espacio que las contiene. Un problema análogo en el plano requiere
la determinación de la configuración de círculos con el mismo radio
que tenga la máxima densidad, en este caso, con respecto al área.
Las dos configuraciones obvias para considerar en el caso de los
círculos son la cuadrada y la hexagonal (Figura 17), y Kepler deter-
minó que sus densidades son, aproximadamente, 0,785 y 0,907; por
lo tanto, la configuración hexagonal es la mejor de las dos, como tam-
bién puede observarse a simple vista. Pero esto no resuelve el proble-
104 5. Matemática Pura
ma, que requiere la mejor configuración posible.
En 1831 Gauss demostró que la configuración hexagonal es la me-
jor entre todas las reticulares, tales que los centros de los círculos
formen un retículo planar, o sea, una configuración simétrica de para-
lelogramos. En 1892 Axel Thue anunció que había demostrado que
la configuración hexagonal es la mejor en absoluto, pero la demos-
tración fue publicada recién en 1910.
En el espacio, las cuatro configuraciones obvias para considerar
son las que se obtienen superponiendo entre sí estratos obvios de es-
feras; hay dos elecciones para las configuraciones de los estratos ho-
rizontales (cuadradas y hexagonales), y dos elecciones para la dispo-
sición vertical de los estratos (con los centros de las esferas alineados,
o desfasados). Pero en realidad, las cuatro configuraciones descritas
sólo son tres: cuando se superponen desfasados estratos cuadrados
o hexagonales se produce la misma configuración (Figura 18).
Kepler determinó que la densidad de las configuraciones cuadra-
da alineada, hexagonal alineada y (cuadrada o hexagonal) desfasada
es, aproximadamente, 0,524, 0,605 y 0,740; por lo tanto, la configura-
ción desfasada es la mejor de las tres. Y, en efecto, es la que se utiliza
espontáneamentepara acomodar la fruta en las mesas de los merca-
dos. Pero, una vez más, esto no resuelve el problema matemático.
Gauss demostró que, análogamente a la configuración hexagonal
en el plano, la configuración desfasada en el espacio es la mejor en-
tre todas las reticulares, es decir, tales que los centros de las esferas
formen un retículo espacial, o sea, una configuración simétrica de pa-
ralelepípedos. El caso general constituía la tercera parte del decimoc-
tavo problema de Hilbert y fue resuelto en 1998 por Thomas Hales, que
comprobó que la configuración desfasada es efectivamente la mejor.
La estructura de la demostración recuerda la del teorema de los cua-
tro colores, de la que hablaremos mas adelante; se trata de reducir las
La Matemática del siglo XX 105
configuraciones que hay que verificar a un número suficientemente
pequeño como para que pueda ser controlado por el ordenador. La
reducción utiliza 250 páginas, y el programa para el ordenador 3 gi-
gabytes.
Figura 17. Configuraciones de círculos
Figura 18. Configuraciones de esferas
Figura 19.
Cuando la cantidad de dimensiones aumenta, el problema se po-
ne aun más interesante. Ante todo, en 2 dimensiones se pueden co-
locar 4 círculos de radio 1 dentro de un cuadrado de lado 4, y queda
lugar en el centro para un circulito de radio
√
2 ≈ 0, 41. En 3 dimen-
siones se pueden colocar 8 esferas de radio 1 dentro de un cubo de
lado 4, y queda lugar en el centro para una pequeña esfera de radio
106 5. Matemática Pura
√
2 ≈ 0, 73 (Figura 19). En n dimensiones se pueden colocar 2n hiper-
esferas de radio 1 dentro de un hipercubo de lado 4, y queda lugar
en el centro para una pequeña hiperesfera de radio
√
n− 1.
Los radios de las pequeñas hiperesferas que se pueden colocar
entre las hiperesferas siguen creciendo con el número de dimensio-
nes, como se puede ver en el pasaje de 2 a 3. Cuando se alcanzan 9
dimensiones la pequeña hiperesfera tiene radio
√
9− 1 = 2, por lo
tanto toca las caras del hipercubo, y cuando n es mayor que 9, ¡se sale
del cubo!
El problema de la mejor configuración de hiperesferas pluridi-
mensionales entre todas las reticulares fue resuelto hasta la dimen-
sión 8. Pero se sabe que no siempre las configuraciones reticulares
ofrecen la mejor densidad; por ejemplo, en 1971, Leech y Sloane de-
mostraron que no es así en 10 dimensiones.
Un caso particularmente interesante es el de la dimensión 24; en
1965 Leech construyó una configuración, llamada precisamente re-
tículo de Leech, que esprobablemente la mejor entre todas las reticu-
lares, y en la cual cada hiperesfera toca otras 196.560 esferas (en la
configuración desfasada del espacio a 3 dimensiones, cada esfera to-
ca otras 12). Del estudio de este retículo, John Conway dedujo, en
1968, tres de los 26 grupos esporádicos usados en el teorema de cla-
sificación de los grupos simples finitos.
El problema de la configuración de hiperesferas a máxima den-
sidad en espacios multidimensionales reviste actualmente una gran
importancia para la transmisión de mensajes, especialmente para la
compresión de los datos y la corrección de los errores. En efecto, ca-
denas combinadas de n símbolos identifican las aristas de un hiper-
cubo de n dimensiones, y para evitar errores de transmisión se quiere
evitar que aristas adyacentes a una arista que codifica el mensaje, co-
difiquen a su vez mensajes; una configuración de hiperesferas a má-
La Matemática del siglo XX 107
xima densidad permite maximizar el número de mensajes, minimi-
zando la posibilidad de error. Y el retículo de Leech fue descubierto,
precisamente, trabajando en problemas de este tipo.
108 5. Matemática Pura
6
Matemática Aplicada
La matemática, como Jano, tiene dos caras: la primera mira hacia
el interior del hombre, al mundo de las ideas y de las abstracciones,
y la segunda mira hacia afuera, al mundo de los objetos y de lo con-
creto. La primera cara representa el lado puro de la matemática, en la
cual la atención se concentra desinteresadamente en sus entes, con el
fin de conocerlos por lo que son. La segunda cara constituye la parte
aplicada, en la que la atención hacia los mismos entes es interesada,
con el fin de poder aplicarlos por lo que pueden hacer.
Las aplicaciones de la matemática han constituido una caracterís-
tica constante de su historia, desde los tiempos de los egipcios y de
los babilonios hasta la Revolución Industrial, y todas las ramas de
la matemática clásica han sido, en sus orígenes, estimuladas por pro-
blemas prácticos: mercantiles en aritmética, agrícolas en geometría, y
físicos en análisis. Después, estas áreas fueron estimuladas continua-
mente por motivaciones pragmáticas y utilitarias, que contribuyeron
a su desarrollo, incluso teorético, con repercusiones frecuentemente
inesperadas.
109
110 6. Matemática Aplicada
La matemática del siglo XX no es una excepción, y muchas de sus
ramas se originaron justamente gracias a los estímulos externos, para
resolver problemas relacionados con el mundo real. Algunas de estas
motivaciones derivan de áreas científicas cuya fertilidad ha sido ex-
perimentada, como la física: la física ha inspirado, si no el nacimiento,
ciertamente el crecimiento del cálculo tensorial, el análisis funcional
y la teoría de los nudos, que son esenciales para la formulación de
la relatividad general, de la mecánica cuántica y de la teoría de las
cuerdas.
En cambio, otras motivaciones derivan de áreas que recién en
el siglo XX se hicieron científicas, precisamente cuando el descubri-
miento de instrumentos matemáticos adecuados permitió tratar y re-
solver algunos problemas fundamentales. Los ejemplos típicos son la
economía y la biología: para resolver problemas de economía surgieron
las teorías de los juegos, del equilibrio general y de la optimización; y
problemas de biología, considerados durante años inaccesibles, hoy
se pueden afrontar mediante la teoría de los nudos.
Los instrumentos matemáticos mencionados, sobre tos que nos
explayaremos más adelante, rayan los límites de la sofisticación téc-
nica. Pero la técnica no se necesita en absoluto para que un argumen-
to matemático tenga efectos explosivos, a condición de que su ausen-
cia esté compensada por sofisticación filosófica. Antes de avanzar,
queremos mostrar precisamente, con tres ejemplos correspondientes
a las tres áreas mencionadas, de quémodo, incluso la matemática ele-
mental puede ser suficiente, si se utiliza de manera cuidadosa, para
resolver significativos problemas fundamentales de otras ciencias.
La primera de estas cuestiones se refiere a la noción de realidad
física, que fue puesta en duda por el descubrimiento de la mecánica
cuántica y, más precisamente, por la descripción de los fenómenos
subatómicos en términos de función de onda. Por su dificultad de
La Matemática del siglo XX 111
interpretación, Niels Bohr propuso considerar la teoría como la des-
cripción, no de hipotéticas partículas físicas, sino sólo de los resul-
tados de experimentos en los aparatos de medición; según Bohr, la
noción de realidad, que se había desarrollado históricamente para la
descripción del mundomacroscópico, dejaba de tener sentido a nivel
microscópico.
Esta interpretación idealista de la nueva física encontró, natu-
ralmente, profundas resistencias, en particular por parte de Albert
Einstein. Él siguió pensando toda su vida que era posible encontrar
una descripción realista de los fenómenos subatómicos, de la cual la
mecánica cuántica habría resultado ser sólo una aproximación, y en
1935 propuso un famoso experimento mental, llamado de Einstein,
Podolsky y Rosen por el nombre de sus autores, que demostraba la
incompletud de la mecánica cuántica.
En 1964, John Bell encontró una versión del experimento que po-
día verificarse prácticamente y que tuvo resultados inesperados. Se
trata de considerar un rayo de luz que pasa sucesivamente a través
de dos filtros polarizados; la mecánica cuántica prevé, y la experien-
cia lo confirma, que una vez que el rayo de luz haya pasado através
del primer filtro, la fracción de sus fotones que pasa a través del se-
gundo es cos2(α), donde α es el ángulo formado por las direcciones
de polarización de los dos filtros.
Consideremos qué ocurre cuando cada uno de los dos filtros se
coloca o verticalmente, o a 60◦, o a 120◦. Si los dos filtros tienen la
misma dirección, lo cual ocurre en 13 de los casos posibles, el segundo
filtro deja pasar todos los fotones del rayo que sale del primero. Si, en
cambio, los dos filtros tienen direcciones distintas, lo que ocurre en
los restantes 23 de los casos, éstos forman siempre un ángulo recíproco
de 60◦, y el segundo filtro deja pasar
( 1
2
)2
= 14 de los fotones que
salen del primero. Por lo tanto, en promedio, pasa sólo 13 +
2
3 · 14 = 12
112 6. Matemática Aplicada
de los fotones.
Lo que Bell descubrió es que estos resultados experimentales se
contradicen con la hipótesis de que los fotones se pueden pensar,
de manera realista, como partículas que llegan a los filtros estando
ya polarizadas en una determinada dirección. En efecto, si así fuera,
cuando los filtros tienen la misma dirección pasarían efectivamente
los mismos fotones a través de ambos. Si, en cambio, los filtros es-
tán polarizados cada uno en cualquiera de las tres direcciones, por
el segundo deberían pasar al menos de los fotones que salieron del
primero, y por lo tanto más de 12 . En efecto, en los tres casos en que
los filtros tienen la misma dirección, pasan a través de ellos los mis-
mos fotones; y si un fotón pasa a través de los filtros colocados en
dos direcciones distintas, también debería pasar cuando se cambien
las dos direcciones entre sí, o sea, en otros dos casos.
Un simple cálculo de aritmética elemental pudo demostrar que la
hipótesis del realismo ingenuo se contradice con los resultados expe-
rimentales. Y algunas versiones más sofisticadas del teorema de Bell,
confirmadas por famosos experimentos de Alain Aspect en 1982, de-
muestran que, aunque es posible interpretar de manera realista la
mecánica cuántica, esto no se puede hacer manteniendo intacta la
concepción de la realidad que tenemos a nivel macroscópico. En par-
ticular, no se puede seguir suponiendo que objetos separados en el
espacio no puedan interactuar instantáneamente, y por lo tanto, se
debe postular la existencia de conexiones holísticas, que no forman
parte del bagaje cultural occidental.
El segundo problema fundacional que afrontamos se refiere a la
noción de selección social entre varias alternativas, a partir del cono-
cimiento de las preferencias individuales. El problema surge en las
situaciones más variadas, desde la selección de los candidatos en una
elección política, hasta la de un plan económico por parte de un con-
La Matemática del siglo XX 113
sejo de administración.
Una dificultad del problema fue descubierta en 1785 por Marie
Jean Antoine Nicolás de Caritat, más conocido como el marqués de
Condorcet, y se puede ilustrar con un ejemplo práctico. En las elec-
ciones presidenciales estadounidenses de 1976, Jimmy Carter ven-
ció a Gerald Ford, quien había obtenido la nomination republicana al
ganarle a Ronald Reagan. Pero las encuestas decían que Reagan le
habría ganado a Cárter, aunque en condiciones políticas diferentes,
como efectivamente ocurrió en 1980. Se había producido una situa-
ción paradójica prevista por Condorcet: que en un sistema electoral
en el que los candidatos son seleccionados en elecciones sucesivas,
dos a dos, el ganador puede depender del orden en que se realizan
las votaciones. Por ejemplo, para hacer ganar a Ford habría basta-
do con hacer primero la votación entre Carter y Reagan, y luego la
votación entre el ganador (Reagan) y Ford.
La pregunta es si es posible, de alguna manera, enmendar el sis-
tema electoral, para que resulte imposible que se verifiquen situa-
ciones como la descripta. La respuesta, sorprendentemente negativa,
fue encontrada en 1951 por Kenneth Arrow, y fue el punto de partida
de la teoría de las selecciones sociales, que le valió a Arrow el premio
Nobel de economía en 1972.
El teorema de Arrow establece que no existe ningún sistema elec-
toral que satisfaga los principios de libertad individual, de la depen-
dencia del voto, de la unanimidad y del rechazo de la dictadura. Más
explícitamente, no existe ningún sistema electoral en el que: cada vo-
tante puede votar por el candidato que prefiere, el resultado de la
elección sólo depende de los votos dados, gana un candidato que ob-
tenga todos los votos y ningún elector solo es capaz de determinar
siempre el resultado de la elección.
Naturalmente, las hipótesis en las que se basa el teorema deArrow
114 6. Matemática Aplicada
se consideran irrenunciables en un sistema democrático, y por esto
generalmente se dice de manera sucinta que Arrow ha demostrado
que la democracia no existe. Lo interesante, desde nuestro punto de
vista, es que la demostración es de naturaleza matemática, y que se
llega a ella mediante una simple axiomatización de las condiciones
en las que se basa la paradoja de Condorcet; esto demuestra que la
matemática también se puede aplicar en un campo humanista que,
a primera vista, podría haberse considerado resistente a análisis for-
males.
El último problema fundacional se refiere a la noción de autorre-
producción, característica de los organismos vivientes. En 1951, John
von Neumann, desarrollando la teoría de los autómatas celulares, se
propuso el problema de construir una máquina capaz de autorre-
producirse, y lo resolvió matemáticamente de la siguiente manera,
inspirándose en una técnica usada en teoría de la computabilidad.
Consideremos una máquina C que sea un constructor universal,
en el sentido de que sepa construir cualquier máquina M de cier-
to tipo, a partir de una descripción m de la misma. En particular, la
máquina C puede construir una copia de sí misma, a partir de la pro-
pia descripción c, pero ésta no es todavía una autor reproducción:
partiendo del sistema constituido por C y por su descripción c, se
obtiene, en efecto, sólo una copia de la misma máquina C, a la cual le
falta, sin embargo, una copia de su descripción c.
Para obviar el problema, consideremos entonces una máquina F
que sea una fotocopiadora universal, en el sentido de que sepa repro-
ducir una copia de cualquier descripción m. Juntando las máquinas
C y F, se puede obtener una nueva A que, a partir de la descripción
m, haga una copia de m, construya M, y le agregue la copia de m. La
máquina A con la propia descripción a ahora se puede autor repro-
ducir efectivamente, porque construye A y le agrega la descripción
La Matemática del siglo XX 115
a.
Aunque el mecanismo recién descripto haya sido pensado en tér-
minos de reproducciónmecánica, en 1953 Francis Crick y James Wat-
son descubrieron que estemecanismo también ofrece unmodelomo-
lecular de la reproducción biológica, en un trabajo que les valió el
premio Nobel de medicina en 1962. Más precisamente, la descripción m
cumple el rol de un gen, o sea de un segmento de adn, que codifica
la información para la reproducción. P, una enzima especial llamada
arn polimerasa, tiene la función de duplicar el material genético en
un segmento de arn. C, un conjunto de ribosomas, construye proteí-
nas según la información de este segmento. A es una célula autorre-
productiva.
Naturalmente, el modelo no sólo está simplificado, sino que tam-
bién se desinteresa completamente de los “detalles” químicos del
mecanismo, dejando de lado especialmente la famosa estructura de
doble hélice del adn descubierta por Crick yWatson; un tipo de estu-
dios que, obviamente, forma parte de otros campos. Lo interesante,
desde nuestro punto de vista, era mostrar de qué manera el plano ge-
neral de la reproducción se puede descubrir en la teoría, y que haya
sido descubierto en la práctica mediante un simple uso de técnicas
lógicas.
Después de estos ejemplos de aplicación de la matemática ele-
mental en problemas fundacionales, ahora podemos pasar a afrontar
las aplicaciones de la matemáticasuperior en problemas más propia-
mente científicos.
6.1. Cristalografía: Los Grupos de Simetría de Bieberback (1910)
El mandamiento que en la tradición cristiana se reduce a “no ten-
drás dioses ajenos delante de mí”, en la formulación original (Éxodo,
116 6. Matemática Aplicada
XX, 3-6; Deuteronomio, V, 7-10) continuaba: “No te harás imagen, ni
ninguna semejanza de cosa que esté arriba en el cielo, ni abajo en la
tierra, ni en las aguas debajo de la tierra”.
Las prohibiciones de un arte figurativo fueron tomadas muy en
serio por los hebreos y los árabes, que desarrollaron un arte pura-
mente abstracto y geométrico, y exploraron los posibles tipos de de-
coración mural. El resultado más elevado en este campo se alcanzó
en el siglo XIV, con los azulejos de la Alhambra de Granada (Figura
20).
Aunque, obviamente, las posibles decoraciones murales sean ili-
mitadas en número, no lo son, en cambio, en lo que respecta al ti-
po. En efecto, desde un punto de vista matemático, las simetrías que
exhiben estas decoraciones pueden clasificarse sobre la base de las
posibles combinaciones (más precisamente, de los posibles grupos
de simetría) de transformaciones que las mantienen invariadas: tras-
laciones a lo largo de una recta, reflexiones respecto de una recta y
rotaciones en torno de un punto.
En 1891, Fedorov demostró que existen sólo 7 tipos distintos de
grupos de simetría para frisos lineales, como los griegos y los zóca-
los (Figura 21), y 17 para los planos, como los usados en suelos y
alfombras (Figura 22). Además, los grupos planos sólo pueden exhi-
bir simetrías de rotación de 180◦, 120◦, 90◦ y 60◦, o sea de tipo axial,
triangular, cuadrado y hexagonal. Casi todos estos tipos fueron em-
pleados efectivamente en las decoraciones de la Alhambra, y en va-
rias ciudades más, desde egipcias a japonesas.
Si los objetos planos simétricos más comunes son las decoracio-
nes murales, los espaciales más conocidos son los cristales. La crista-
lografía fue precisamente uno de los primeros campos de aplicación
de la teoría de los grupos, a partir de 1849 con Auguste Bravais. Y
en 1890, antes de demostrar el resultado análogo para los tipos de
La Matemática del siglo XX 117
grupos de simetría plana, Fedorov ya había demostrado que existen
sólo 230 tipos distintos de grupos de simetría espacial.
Figura 20. Azulejos de la Alhambra
La primera parte del decimoctavo problema de Hilbert preguntaba
si, para cada n, los tipos de grupos de simetría en n dimensiones son
un número finito. En 1910, Ludwig Bieberbach dio una respuesta po-
sitiva, pero aún hoy se desconoce una fórmula explícita para obtener
el número de tales grupos en general; por ejemplo, recién en los años
1970 se logró demostrar que existen 4.783 grupos de simetrías tetra-
dimensionales.
La segunda parte del decimoctavo problema de Hilbert era com-
plementaria de la primera; en vez de preguntar cuántos eran los po-
sibles modos simétricos de cubrir el plano, preguntaba si existía un
tipo de azulejos que permitiera cubrir todo el plano, pero sólo dema-
nera no simétrica. También aquí la respuesta es positiva, y fue dada
por Heesch en 1935. La Figura 23 muestra un ejemplo, de Maurits
Escher.
Más exigente es la búsqueda de un tipo de azulejos que permita
cubrir todo el plano, pero sólo de manera no periódica, es decir, sin
repetir al infinito la misma configuración. La pregunta fue formulada
118 6. Matemática Aplicada
en 1961 por Hao Wang; su interés se centraba en el hecho de que
una respuesta negativa habría representado un procedimiento para
decidir si, dado un conjunto de azulejos, éstos podían cubrir todo el
plano o no.
Alfombra ʺdragón y fénixʺ, Asia Menor
I
Vitral de colores, Catedral de Bourges
II
III
Decoración de un cofre (Renacimiento francés)
IV
VI
VII
Margen de pergamino de la Antigua Grecia
Decoración china pintada sobre porcelana
Brocado italiano del Renacimiento
V
Mosaico de Pompeya
Figura 21. Los 7 grupos de simetría lineal
La Matemática del siglo XX 119
I
Decoración mural
medieval francesa
II
Alfombra ghiordes
III
Manuscrito medieval
con miniaturas con diseño romboidal
IV
Alfombra shiraz
V
Decoración de
penachos de arco,
la Alhambra
VI
Alfombra francesa
del Renacimiento
VII
Tejido del siglo XVI
VIII
Seda morisca del
siglo XIV
IX
Mosaico de
Pompeya
X
Cieloraso egipcio
XI
Vitral francés
XII
Decoración árabe
esmaltados
XIII
Azulejos persas
de hierro forjado
XIV
Jarrón japonés
con miniaturas
XV
Manuscrito persa
modernos
XVI
Azulejos ingleses
con miniaturas
XVII
Manuscrito persa
Figura 22. Los 17 grupos de simetría plana
En 1966, Robert Berger demostró en cambio, que tal procedimien-
to de decisión no existe, y que por lo tanto existen azulejos para cu-
brir el plano sólo de manera no periódica. El ejemplo original de Ber-
120 6. Matemática Aplicada
ger era bastante complejo, y consistía en 20.246 azulejos distintos. En
1974, Roger Penrose encontró un ejemplo simple, de sólo dos azule-
jos (Figura 24). No se sabe si existen ejemplos formados por un solo
azulejo (un ejemplo de un único poliedro que por sí solo llena todo
el espacio, de manera no periódica, fue encontrado en 1993 por John
Conway).
El ejemplo de Penrose es interesante matemáticamente porque
exhibe una simetría de rotación pentagonal (Figura 25) que ninguna
cobertura plana simétrica puede exhibir. El ejemplo también adqui-
rió interés físico cuando, en 1984, el cristalógrafo Daniel Schechtman
descubrió una aleación de aluminio y manganeso, cuya estructura
molecular tenía una superficie que exhibía una simetría del mismo
tipo, que ninguna estructura cristalina puede exhibir; esas estructu-
ras fueron denominadas cuasicristales.
Figura 23. Maurice Escher, Fantasmas, 1971
La Matemática del siglo XX 121
Figura 24. Azulejos de Penrose
El descubrimiento de los cuasicristales muestra que, para la des-
cripción de la naturaleza, la teoría de los grupos no es la última pa-
labra, y por lo tanto se necesita alguna teoría más general. Por esta
razón, en el estudio de las propiedades de los cuasicristales y en la
búsqueda de una clasificación de sus estructuras, en particular de
los grupos cuasicristalográficos, se están empeñando matemáticos co-
mo SergeiNovikov y Enrico Bombieri,medallas Fields en los años 1970
y 1974.
Figura 25. Azulejos de Penrose
122 6. Matemática Aplicada
6.2. Cálculo Tensorial: La relatividad general de Einstein (1915)
El hecho de que la tierra haya sido considerada plana durante
mucho tiempo muestra intuitivamente que la curvatura de una es-
fera es tanto más pequeña cuanto más grande es el radio. Formal-
mente, la curvatura de un círculo se define como el inverso del radio.
Para curvas más complicadas, la curvatura fue definida por Newton
en 1671, considerando en cada punto la curvatura del círculo (llama-
do osculador) que aproxima la curva en ese punto.
La curvatura de una superficie fue definida por Gauss en 1827,
considerando en cada punto el producto entre la mínima y la máxi-
ma curvatura de las curvas obtenidas seccionando la superficie con
planos perpendiculares al plano tangente, y que pasen por ese pun-
to. Por ejemplo, la esfera tiene la misma curvatura que sus círculos
máximos, que precisamente constituyen sus secciones; y el cilindro
tiene curvatura nula, porque una de las secciones es simplemente
una recta.
Pero para poder calcular la curvatura de una superficie de esa
manera hay que realizar medidas fuera de la misma, pasando a tra-
vés del espacio que la contiene. Gauss descubrió que también es posi-
ble calcular la curvatura mediante medidas efectuadas sólo sobre la
superficie, en particular, determinando que la tierra es redonda sin
tener que mirarla desde el espacio.
Gauss demostró también un resultado tan satisfactorio que hasta
él, conocido por su exigencia, lo llamó theorema egregium, y decía que
las superficies que poseen una geometría intrínseca, en el sentido de
que las figuras se puedenmover sobre ellas sin sufrir deformaciones,
son exactamentelas que tienen curvatura constante. El análogo de
las rectas sobre estas superficies son las llamadas geodésicas, o sea
las líneas de mínima distancia entre dos puntos. Por ejemplo, sobre
una esfera las geodésicas son los arcos de círculos máximos; y sobre
La Matemática del siglo XX 123
el cilindro son las curvas que se obtienen uniendo los dos puntos
con un segmento, después de que el cilindro fue cortado a lo largo y
desplegado en el plano.
En el plano, las únicas curvas de curvatura constante son la recta,
que tiene curvatura nula, y el círculo, que tiene curvatura positiva. En
el espacio, el plano y el cilindro tienen curvatura nula, y la esfera tie-
ne curvatura constante positiva. Pero Gauss descubrió que también
existen superficies de curvatura constante negativa, por ejemplo la
pseudoesfera, que se obtiene rotando en torno a su asíntota una curva
llamada tractriz, que se obtiene caminando a lo largo de una recta y
tirando un peso mediante una cuerda de largo fijo (Figura 26).
Figura 26. Tractriz y Pseudoesfera
En 1854, Riemann amplió la noción de curvatura también a sus
variedades, que no siempre pueden penetrar en el espacio euclídeo.
Y determinó la geometría de las variedades de curvatura constante,
que es euclídea si la curvatura es nula, esférica si la curvatura es po-
sitiva e hiperbólica si la curvatura es negativa. En particular, la pseu-
doesfera representa unmodelo de una parte del plano hiperbólico en
el espacio euclídeo (sólo una parte, porque la pseudoesfera tiene un
agujero pero el plano hiperbólico no); precisamente, fue elaborando
este modelo parcial que Beltrami obtuvo el primer modelo completo
del plano hiperbólico, del que ya hemos hablado.
124 6. Matemática Aplicada
Además de modelos de geometrías matemáticas, las variedades
de Riemann pueden ser consideradas como modelos del mundo físi-
co; el primero que propuso esta posibilidad fue Gauss, quien efectuó
medidas geográficas para determinar si la geometría del universo
realmente era euclídea, como siempre se había pensado, o no.
Las únicas magnitudes que tienen relevancia geométrica son las
que, como la distancia, se pueden expresar de manera independien-
te del sistema de coordenadas. Análogamente ocurre para las leyes
físicas; ya que éstas generalmente se expresan en forma diferencial,
para poder aplicar la geometría riemanniana a la física era necesa-
rio emprender un estudio de invarianza de las ecuaciones diferen-
ciales respecto de los cambios de coordenadas sobre variedades de
Riemann.
El instrumento desarrollado con este fin, a partir de 1892, por Gre-
gorio Ricci Curbastro, fue llamado cálculo tensorial. Los tensores a los
que se refiere son cantidades que se transforman de tal manera que
sus componentes en un sistema de coordenadas son combinaciones
lineales de los componentes en otro sistema, con coeficientes dados
por las derivadas de la transformación. Ricci definió operaciones al-
gebraicas (suma y multiplicación) y diferenciales (derivación cova-
riante) sobre los tensores, permitiendo de este modo extender a las
variedades de Riemann todo el aparato analítico ya desarrollado en
el caso euclídeo.
En 1901, Ricci y Tullio Levi Civita expresaron en forma tensorial,
y por lo tanto invariante respecto de cambios de coordenadas, va-
rias leyes físicas. Pero la aplicación más interesante la hizo Albert
Einstein, que en 1915 encontró en el cálculo tensorial el instrumento
adecuado para describir su teoría de la relatividad general.
Las variedades de Riemann usadas por Einstein son tetradimen-
sionales, con tres dimensiones espaciales y una temporal; por esta ra-
La Matemática del siglo XX 125
zón, en general se habla de ellas como de modelos del espacio-tiempo.
La forma específica de la variedad, y en particular su curvatura, está
determinada por la distribución de la materia en el universo, y los
cuerpos libres se mueven sobre la variedad recorriendo las geodési-
cas, como rocas que ruedan a lo largo de una pendiente según líneas
de mínima resistencia.
Una vez reducida la gravitación a la geometría, es natural bus-
car una reducción semejante también de las otras fuerzas físicas. La
primera formulación de una teoría que comprende también el elec-
tromagnetismo fue encontrada por Hilbert en 1915; él dedujo elegan-
temente (e independiente) las ecuaciones de Einstein, ademas de las
de Maxwell, desde un único principio variacional, en conformidad
con las preguntas formuladas en su sexto problema, que requería una
axiomatización de la física.
Hermann Weyl efectuó en 1918 una tentativa distinta, que des-
cribió tanto la gravitación como el electromagnetismo usando una
variedad tetradimensional de naturaleza afín (no riemanniana), en
vez de métrica (riemanniana); en esas variedades, mientras el para-
lelismo es independiente del sistema de coordenadas, no está dicho
que la distancia lo sea. Esto requiere una nueva definición de geodé-
sica, dado que ya no puede ser definida como una línea de mínima
distancia; un requerimiento que ya había sido formulado en el cuarto
problema de Hilbert, que pedía precisamente un tratamiento general
de la noción de geodésica. La solución de Levi Civita, en 1917, fue
definir las geodésicas como las curvas cuyas tangentes son todas pa-
ralelas entre sí.
Aunque la teoría de Weyl (como la de Hilbert) no haya resulta-
do satisfactoria desde el punto de vista físico, inauguró el estudio de
las variedades no riemannianas en geometría. Un satisfactorio tra-
tamiento común de los campos gravitacionales y electromagnéticos
126 6. Matemática Aplicada
sigue siendo hoy un problema abierto, y forma parte del problema
más general de unificación de todas las fuerzas en una teoría del todo.
6.3. Teoría de Juegos: El Teorema Minimax de Von Neumann (1928)
La vida obliga a hacer constantemente elecciones en todo nivel
(personal, familiar, social) y en todo campo (moral, económico, polí-
tico), en situaciones en que no se conoce perfectamente la situación,
ni el comportamiento ajeno, ni los efectos de las decisiones. La teo-
ría de los juegos tiene la finalidad de modelizar matemáticamente este
proceso decisional, en la típica manera de la ciencia, es decir, abstra-
yendo de las situaciones reales algunos elementos que se presten a
un tratamiento formalizado.
Un primer ejemplo significativo de tal análisis del comportamien-
to se remonta a 1651, en el Leviatán de Thomas Hobbes. Él propuso
la idea de que las sociedades humanas son alianzas que se hacen ne-
cesarias para contener el violento estado de naturaleza, fundado por
un lado en la agresión contra todos, y por el otro en el miedo de ca-
da uno; en otras palabras, sobre la preferencia por la no cooperación
propia y la cooperación ajena. Mediante el contrato social, los indi-
viduos renuncian al derecho de ejercer la violencia a cambio de la
seguridad de ser protegidos, y el orden social resulta favorable no
sólo para quienes lo imponen, sino para todos; el resultado del con-
trato social es entonces un cambio de las reglas de juego.
Un segundo ejemplo significativo se encuentra en un pasaje del
Discurso sobre el origen de la desigualdad entre los hombres, de Jean Jac-
ques Rousseau, de 1755. En este caso, las sociedades humanas están
consideradas como evoluciones de las alianzas temporales que eran
necesarias para la caza de animales grandes, ante los cuales un in-
dividuo aislado no habría podido vencer. Pero mientras dos indivi-
duos están, por ejemplo, participando en una cacería de un ciervo,
La Matemática del siglo XX 127
puede ocurrir que uno de ellos vea una liebre, que podría cazar solo;
aquí surge pues la tentación de cazarla, considerando que, aunque
un ciervo sea mejor que una liebre, una liebre es mejor que nada. Y
la tentación está reforzada por la consideración de que quizás el otro
cazador también avistó la liebre y abandonó la cacería.
Otros ejemplos se pueden ver, naturalmente, en auténticos jue-
gos, de donde la teoría sacó su nombre. Éstos pueden jugarse no sólo
por diversión, como las cartas o elajedrez, sino también por adiestra-
miento, como en el caso del Kriegspiel que utilizaba cartas militares y
elaborados soldaditos, y fue considerado el inspirador de las estrate-
gias vencedoras en las guerras prusianas con Austria en 1866 y con
Francia en 1870, y en la guerra japonesa con Rusia en 1905.
El primer trabajo matemático sobre la teoría de los juegos fue el
artículo presentado en el Congreso Internacional de Matemáticos de
1912 por Ernst Zermelo. En su trabajo, Zermelo comprobó que el jue-
go del ajedrez (y, más en general, todo juego que no puede proseguir
al infinito) está determinado en este sentido: o existe una estrategia
que permite siempre ganar al blanco, o existe una estrategia que per-
mite siempre ganar al negro, o existe una estrategia que permite a
ambos jugadores empatar siempre. Pero el resultado de existencia
no es constructivo, en el sentido de que no dice cuál de los tres casos
sucede efectivamente, por esto no tiene aplicaciones prácticas.
Los fundamentos de la teoría de los juegos fueron expuestos en
1921 por Emile Borel, que fue también ministro de la Marina fran-
cesa. Él usó el póquer como ejemplo, y afrontó, entre otros, el difícil
problema de tratar el bluff. Además, Borel planteó el problema de
determinar en cuáles casos existe una estrategia que se pueda consi-
derar óptima, y cómo hacer para encontrarla.
Una aplicación del teorema del punto fijo de Brouwer le permitió
a John von Neumann demostrar, en 1928, el primer teorema profun-
128 6. Matemática Aplicada
do de la nueva teoría. Este establece que en ciertos juegos a suma cero,
es decir, en los que la victoria de un jugador es igual y contraria a la
derrota del otro, y a información perfecta, es decir, en el que cada ju-
gador conoce exactamente tanto los posibles movimientos del otro
como sus consecuencias, existe una estrategia que permite a ambos
jugadores minimizar sus máximas pérdidas, de aquí el nombre de
minimax.
Para cada posible jugada propia, cada jugador considera todas las
posibles jugadas del adversario y la máxima pérdida que podría pro-
vocarle; entonces juega el movimiento que produce la mínima pérdi-
da. Esta estrategia, que minimiza la máxima pérdida, es óptima para
ambos jugadores si tienenminimax iguales (en valor absoluto) y con-
trarios (en signo), si tal valor es cero, entonces es inútil jugar.
El teorema minimax fue mejorado y extendido en varias ocasio-
nes por Von Neumann, por ejemplo, a juegos de información imper-
fecta, o con más de dos jugadores; este último caso se complicó por
la posibilidad de cooperación entre algunos jugadores, en forma de
alianzas o coaliciones. El trabajo de Von Neumann culminó, en 1944,
en el clásico texto La teoría de los juegos y el comportamiento económico,
escrito con el economista Oscar Morgenstern.
La formalización más satisfactoria de la noción de estrategia óp-
tima es el concepto de equilibrio de Nash, propuesto en 1950 por John
Forbes Nash; en el caso particular de los juegos de suma cero, se re-
duce al minimax de Von Neumann. Nash demostró que todo juego
no cooperativo con dos o más jugadores, incluso no de suma cero,
admite un equilibrio, y por este trabajo obtuvo el premio Nobel de eco-
nomía en 1994.
En el caso de dos jugadores, un equilibrio de Nash es una situa-
ción en la que ninguno de los dos tiene recriminaciones que hacer,
en el sentido de que incluso sabiendo anticipadamente cuál sería el
La Matemática del siglo XX 129
comportamiento del otro jugador, cada uno se habría comportado
del mismo modo. En otras palabras, la situación no se puedemejorar
con actos individuales unilaterales, aunque se pueda hacer con actos
colectivos.
Es bastante obvio que si un estado no es de equilibrio, entonces
no es racional; en efecto, al menos un jugador tendrá motivos para
pensar que podría haber actuado mejor. Ser un equilibrio de Nash
constituye entonces una condición necesaria para un comportamien-
to racional, pero no una condición suficiente; en efecto, existen juegos
en lo; que los equilibrios de Nash no son para nada racionales.
Un ejemplo típico es el dilema del prisionero, propuesto por Albert
Tucker en 1950. La situación se refiere a dos sospechosos de un cri-
men, que son arrestados e interrogados separadamente; si uno de los
dos denuncia al otro, recibirá una recompensa y será liberado, mien-
tas el cómplice será condenado con la pena entera; pero si ambos se
denuncian mutuamente, entonces ambos serán condenados con una
pena reducida; si, en cambio, ninguno de los dos habla, ambos serán
liberados. El único equilibrio de Nash es, en este caso, que ambos
denuncien al compañero, pero el equilibrio no es racional, porque
ciertamente es de interés común no hablar.
En la segunda mitad del siglo la teoría de los juegos asumió un
rol fundamental en el análisis de situaciones de conflicto, y la apli-
can regularmente los consejeros militares, económicos y políticos de
los gobernantes de varios países industrializados, sobre todo en los
Estados Unidos.
6.4. Análisis Funcional: La Axiomatización de la Mecánica Cuántica
de Von Neumann (1932)
Los problemas de la física matemática conducen naturalmente a
ecuaciones diferenciales o integrales, en las que una función incóg-
130 6. Matemática Aplicada
nita se encuentra bajo el signo de derivada o de integral. Métodos
para la solución de ecuaciones diferenciales (primero para las deri-
vadas ordinarias y luego para las parciales) fueron desarrollados ya
a partir de finales del siglo XVII. Los primeros pasos explícitos pa-
ra la solución de las ecuaciones integrales (más complicadas) fueron
dados, en cambio, recién en los primeros decenios del siglo XIX. La
teoría general de las ecuaciones integrales fue iniciada en el último
decenio del siglo XIX por Vito Volterra, y desarrollada en el primer
decenio del siglo XX por David Hilbert.
Estos desarrollos del análisis dejaron ver un aspecto esencial: que
en matemática generalmente se trabaja no sólo con funciones que
operan sobre números, sino con funcionales que operan sobre funcio-
nes. Por ejemplo, como las operaciones de elevación al cuadrado o
de extracción de raíz cuadrada asignan explícitamente a un núme-
ro otro número, precisamente su cuadrado o su raíz cuadrada, así
las operaciones de derivación y de integración (indefinida) asignan
a una función otra función, precisamente su derivada o su integral.
Análogamente, así como una ecuación define implícitamente uno o
más números, o sea sus soluciones, también una ecuación diferen-
cial o integral define implícitamente una o más funciones, o sea sus
soluciones.
Justamente las dificultades en el tratamiento de estos funcionales,
sobre todo en el cálculo variacional y en la teoría de las ecuaciones
integrales, condujeron a la exigencia de desarrollar una propia teoría
abstracta e independiente, que hiciera emerger sus propiedades, teo-
ría que precisamente fue llamada análisis funcional, para indicar que
trata funcionales y distinguirla del análisis real (o complejo) que, en
cambio, trata funciones que operan sobre números reales (o comple-
jos).
Los ambientes naturales para el desarrollo del análisis real (o com-
La Matemática del siglo XX 131
plejo) son los espacios euclídeos, cuyos puntos se identifican con sus
coordenadas cartesianas. En el caso, por ejemplo, de un espacio de
n dimensiones, un punto se identifica con n números x1, . . . , xn, y la
distancia de ese punto desde el origen se calcula con el teorema de
Pitágoras, mediante la expresión
√
x21 + . . .+ x
2
n
En su estudio sobre las ecuaciones integrales, Hilbert debió traba-
jar con funciones que se podían expresar mediante una suma infi-
nita (llamada serie de Fourier), con infinitos coeficientes x1, x2, . . ., y
descubrió que la condición que permitía que estas funciones fueran
tratadas en su teoría era que la suma
x21 + x
2
2 + . . .
fuera finita. Pero si esta suma es finita, también lo es su raíz cuadra-
da; por lo tanto, estas sucesiones de números se pueden pensar como
las coordenadas de puntos en unespacio euclídeo de “infinitas di-
mensiones”, para el cual sigue valiendo el teorema de Pitágoras. En
1907, Erhard Schmidt y Maurice Fréchet introdujeron entonces el es-
pacio de Hilbert H, cuyos elementos son los puntos que tienen infinitas
coordenadas que satisfacen la condición que acabamos de describir.
Sin embargo, puesto que para Hilbert las sucesiones eran sólo un
modo de tratar las funciones, Schmidt y Fréchet introdujeron tam-
bién directamente un espacio funcional L2, cuyos puntos son las fun-
ciones (definidas sobre intervalo) que satisfacen un análogo a la con-
dición de Hilbert, es decir, el hecho de que la integral de Lebesgue
de su cuadrado sea finito, de aquí el nombre L2. Que el espacio de
Hilbert H y el espacio funcional L2 sean en realidad la misma co-
sa, se explica en el contenido del llamado teorema de representación de
132 6. Matemática Aplicada
Friedrich Riesz y Ernst Fischer.
Los espacios H y L2 son los dos casos particulares de una vasta
clase de espacios de Banach, introducidos en 1922 por Stefan Banach,
que proporcionaron la correcta axiomatización de las propiedades
necesarias para el desarrollo de la teoría de las ecuaciones integrales.
En particular, las construcciones de soluciones de estas ecuaciones
mediante sucesivas sustituciones, según una técnica anticipada ya
en 1832 por Joseph Liouville, resultaron ser casos particulares de un
general teorema del punto fijo de Banach.
Pero lo que representó la fortuna del análisis funcional no fue
tanto su adecuación para tratar la teoría de las ecuaciones integrales,
sino su inesperada e inmediata aplicación a la mecánica cuántica. En
efecto, ésta había sido formulada originariamente, con motivaciones
puramente heurísticas (en dos formalismos completamente distintos,
aunque después resultaran equivalentes) mediante matrices infinitas
de observables, por Werner Heisenberg en 1925, que por este trabajo
recibió el premio Nobel en 1932; y mediante funciones de onda, por
Erwin Schrödinger en 1926, quien por este trabajo obtuvo el premio
Nobel en 1933.
Ya en el invierno de 1926, en el espíritu de su sexto problema, el
mismo Hilbert había intentado extraer de los dos formalismos una
formulación axiomática teóricamente satisfactoria, y de la que deri-
varan los dos. Sus ideas no funcionaron directamente, porque la teo-
ría de las distribuciones que las habría justificado todavía no había
sido desarrollada, pero su asistente John vonNeumann las reformuló
en 1927, en términos de espacios H y L2; en el primer caso, se obtiene
la versión de la mecánica cuántica de Heisenberg; en el segundo, la
de Schrödinger, y la equivalencia de las dos es una consecuencia del
teorema de representación de Riesz y Fischer.
En la formulación final de Von Neumann, concluida en 1932 en
La Matemática del siglo XX 133
el clásico Los fundamentos matemáticos de la mecánica cuántica, los infi-
nitos estados de un sistema cuántico constituyen las coordenadas de
un punto en un espacio de Hilbert, y las magnitudes físicas del sis-
tema (por ejemplo, posición y cantidad de movimiento) están repre-
sentadas por funcionales particulares o, en la terminología usual, por
operadores particulares. La física de la mecánica cuántica se reduce así
a la matemática de particulares operadores (lineales hermitianos) en
espacios de Hilbert; por ejemplo, el famoso principio de indetermina-
ción de Heisenberg (según el cual la posición y la cantidad de mo-
vimiento de una partícula no pueden ser simultáneamente medidos
con precisión arbitraria) se traduce a la no conmutabilidad de los dos
operadores correspondientes.
Fomentado por estas aplicaciones físicas, el estudio de los opera-
dores que representan las magnitudes físicas de un sistema se con-
virtió en una importante rama de la matemática moderna, bajo el
nombre de álgebras de operadores de Von Neumann. Estas álgebras se
pueden ractorizar de varias maneras; por ejemplo, en dos conjuntos
de operadores, en los que los elementos del primero conmutan con
los elementos del segundo. Además de estos factores, llamados de
tipo I, existen otros dos tipos: II, y III. Una clasificación completa de
los factores de tipo III fue dada por Alain Connes, que obtuvo por
este trabajo la medalla Fields en 1983. Y de un estudio de los factores
tipoII, Vaugham Jones derivó sus invariantes para los nudos, de los
que hablaremos enseguida, y por este trabajo también él obtuvo una
medalla Fields en 1990.
En cuanto a los espacios de Banach, la teoría tropezó pronto con
una larga serie de problemas de una dificultad aparentemente insal-
vable, lo que provocó que decayeran durante algún tiempo. El re-
surgimiento se produjo a partir de los años 1950, cuando las nuevas
metodologías introducidas por los exponentes de la escuela france-
134 6. Matemática Aplicada
sa, desde Laurent Schwartz hasta Alexandre Grothendieck, medallas
Fields en 1950 y 1966, permitieron finalmente resolver muchos pro-
blemas clásicos. El argumento está viviendo en este momento una
tercera juventud, testimoniada por la asignación a Jean Bourgain y a
William Gowers de la medalla Fields en 1994 y 1998. El primero de-
terminó la máxima sección de un espacio de Banach que se parece al
espacio de Hilbert. El segundo demostró que el único espacio de Ba-
nach con mucha simetría (es decir, isomorfo a cada uno de sus subes-
pacios) es el espacio de Hilbert, y que existen espacios de Banach con
poca simetría (es decir, no isomorfos a ninguno de sus propios subes-
pacios).
6.5. Teoría de la Probabilidad: La Axiomatización de Kolmogorov
(1933)
Los primeros problemas de naturaleza probabilística surgieron
de la consideración de juegos de azar, en particular aquéllos relacio-
nados con los dados. Uno de estos problemas, para nada banal, está
citado en la Summa de Luca Pacioli, de 1494: si en un juego la victoria
se obtiene cuando uno de dos jugadores alcanza primero n puntos,
pero el juego se interrumpe cuando ellos han alcanzado respectiva-
mente p y q puntos, ¿cómo se debe dividir la apuesta entre ellos?
El problema fue discutido por Cardano en el Libel de ludo aleae, de
1526, en el que también se enuncia explícitamente la regla que indica
que el cálculo de la probabilidad conjunta de dos eventos indepen-
dientes se obtiene multiplicando sus probabilidades individuales.
La correspondencia sobre el problema entre Blas Pascal y Pierre
de Fermat, en 1654, marca la fecha de nacimiento oficial de la teoría
de la probabilidad. La solución requirió algunas propiedades del de-
nominado triángulo de Pascal, es decir, de los coeficientes del desa-
rrollo binomial; se trata, en efecto, de calcular las probabilidades que
La Matemática del siglo XX 135
tiene un jugador de vencer todos los puntos que quedan, todos me-
nos uno, todos menos dos, y así sucesivamente, hasta el puntaje mí-
nimo que, sumado a los puntos que ya tiene, le permite vencer el
partido.
En 1656, Christian Huygens publicó la solución de Pascal e intro-
dujo el concepto de expectativa que consiste en saber cuánto se puede
esperar ganar en promedio jugando un juego varias veces, y corres-
ponde a cuánto se debería estar dispuesto a pagar para participar en
el juego. Para Huygens una medición de la expectativa de provecho
en una situación dada era el producto de la ganancia obtenible por
la probabilidad de obtenerla; y una medición de la expectativa de
ganancia total era la suma de las expectativas de ganancia por cada
situación posible.
Una paradoja de la noción de expectativa fue descubierta por Da-
niel Bernoulli, en 1725: si un casino estuviera dispuesto a pagar una
apuesta de 2n liras a un jugador si sale cabeza por primera vez al n-
ésimo tiro, ¿cuánto debería estar dispuesto a pagar el jugador para
poder participar en el juego?
Puesto que en cada tiro la ganancia se duplica pero la probabi-
lidad de llegar se divide, la expectativa de ganancia en cada tiro es
siempre la misma, por lo tanto la expectativa de ganancia total es
infinita. Entonces, el jugador debería estar dispuesto a jugar todo lo
quetiene para poder participar, y esto contrasta con la obvia obser-
vación de que cuanto más paga para jugar, menor es la probabilidad
de que llegue a ganar más de cuanto ha pagado.
La solución del dilema propuesta por Bernoulli reside en el hecho
de que el valor del dinero no es absoluto, y depende, en cambio, de
cuánto se tiene; unamisma suma vale mucho para quien tienemucho
menos y poco para quien tiene mucho más. Entonces, para calcular
la expectativa de ganancia se debe multiplicar la probabilidad no por
136 6. Matemática Aplicada
la ganancia efectiva, sino por cuánto vale la ganancia para el jugador,
es decir, por su utilidad; suponiendo, por ejemplo, que la utilidad de-
crezca de manera logarítmica, la ganancia total cesa de ser infinita
para hacerse muy pequeña y la paradoja desaparece.
El primer libro sobre la teoría de la probabilidad fue Ars Conjec-
tandi de Jacques Bernoulli, tío de Daniel, publicado en 1713. En este
libro se formula la ley de los grandes números: si un evento ocurre m
veces sobre n intentos, al crecer el número de intentos, la relación mn
se acerca cada vez más a la probabilidad del evento. Esta ley permi-
te, en teoría, calcular probabilidad a posteriori, cuando no sea posible
efectuar a priori el cómputo de los casos favorables y posibles.
Pero en la práctica, subsiste el problema de inferir estadística-
mente la probabilidad de un evento desde el conocimiento parcial
del hecho de que éste ocurrió m veces sobre n intentos. El problema
fue afrontado en 1761 por Thomas Bayes, y su solución necesitó la
formulación de la ley de Bayes: la probabilidad de que dos eventos
ocurran simultáneamente es el producto de la probabilidad de que
uno ocurra absolutamente, por la probabilidad de que el otro ocurra
en relación con el primero.
En 1777, Georges Louis Leclere, conde de Buffon, consideró el si-
guiente problema de la aguja: dada una hoja con renglones, ¿cuál es la
probabilidad de que una aguja de largo igual a la mitad de la distan-
cia entre los renglones caiga sobre uno de ellos, cuando se deja caer
casualmente sobre la hoja?. Puesto que la caída de la aguja depende
de su ángulo de inclinación respecto de los renglones, se puede es-
perar que la respuesta dependa de algún modo de π; puntualmente,
Buffon demostró que la probabilidad es 1
π
. Para la ley de los grandes
números, se puede entonces aproximar el valor de π haciendo un
gran número de tiros con la aguja; ésta fue la primera aplicación de
aquello que hoy se llama método Montecarlo, que consiste en calcular
La Matemática del siglo XX 137
una constante demostrando primero que es la probabilidad teórica
de cierto evento, y realizando luego empíricamente un gran número
de simulaciones prácticas de ese evento.
En 1809, Gauss encontró la famosa curva de campana, de ecua-
ción e−x
2
que describe la distribución de probabilidad de errores me-
dios en las observaciones (Figura 27); la curva es simétrica, porque
es igualmente probable que el error sea por defecto o por exceso; y
se aplana hacia el infinito, porque la probabilidad de un error muy
grande es muy pequeña. Naturalmente, existen muchas curvas que
tienen estas propiedades: como se ve en el exponente, Gauss deri-
vó la suya sobre la base del método de los mínimos cuadrados, según el
cual la mejor aproximación a un conjunto de observaciones es la que
minimiza el cuadrado de los errores.
Figura 27. Curva de Gauss
Todos estos desarrollos confluyeron en 1812 en el tratado Teoría
analítica de las probabilidades, de Pierre Simon de Laplace. Él sistema-
tizó el argumento, definiendo la probabilidad de un evento como la
relación entre los casos favorables y los posibles, comprobando que
el área definida por la gaussiana es
√
π y considerando aplicaciones
de todo tipo en las ciencias naturales y sociales.
Entonces, si bien la probabilidad había alcanzado su madurez,
todavía faltaba una definición abstracta; esta necesidad fue parte del
138 6. Matemática Aplicada
sexto problema de Hilbert, y fue resuelto en 1931 por Andrej Kolmogo-
rov, premio Wolf en 1980, quien inesperadamente utilizó a tal fin el
concepto de medida de Lebesgue.
La idea de Kolmogorov era definir axiomáticamente la probabi-
lidad no sólo de eventos individuales, sino de conjuntos de eventos.
Es decir, se trata de asignar a estos conjuntos un número compren-
dido entre 0 y 1, con las siguientes propiedades: el conjunto vacío de
eventos tiene probabilidad 0; el conjunto de todos los eventos posi-
bles tiene probabilidad 1; y un conjunto de eventos que se obtiene
“sumando” entre sí una cantidad numerable de conjuntos indepen-
dientes de eventos, tiene una probabilidad equivalente a la suma de
las probabilidades de éstos (aditividad numerable).
En caso de que haya sólo una cantidad finita de eventos la de-
finición descrita también permite asignar una probabilidad a even-
tos independientes y equiprobables individuales. Por ejemplo, si los
eventos son n, entonces el conjunto total debe tener por un lado pro-
babilidad 1 y, por el otro, la suma de las probabilidades de los eventos
individuales, que entonces deberán tener probabilidad 1n .
6.6. Teoría de la Optimización: El Método del Simplex de Dantzig
(1947)
Factores contrapuestos pero convergentes condujeron, en la pri-
mera mitad del siglo XX, al desarrollo de la teoría programación eco-
nómica. En la Unión Soviética, la planificación fue una consecuencia
teórica del nacimiento del comunismo, y se concretó en la práctica de
los planes quinquenales. En los Estados Unidos, la planificación fue
una necesidad práctica del desarrollo del capitalismo, que dio ori-
gen a la teoría de la búsqueda operativa para la gestión de grandes
empresas.
Fue sobre todo durante el esfuerzo bélico de la Segunda Guerra
La Matemática del siglo XX 139
Mundial cuando surgieron problemas de naturaleza técnica, cuyos
intentos de solución habrían llevado a la construcción de los ordena-
dores por un lado, y a la programación lineal por el otro. Esta última,
en particular, se propone encontrar la mejor asignación de cierto nú-
mero de recursos, según un determinado criterio de optimización, el
adjetivo “lineal” se refiere a la característica esencial del problema,
que es imponer vínculos entre los recursos expresados en forma de
inecuaciones lineales, y asignar un criterio de optimización expresa-
do en forma de ecuación lineal.
En el caso de sólo dos recursos, que entonces se pueden consi-
derar como puntos de un plano, cada inecuación identifica un se-
miplano. Excluyendo los casos en que no hay solución (intersección
vacía) o no hay solución óptima (intersección ilimitada), el conjun-
to de las inecuaciones identifica un polígono convexo, cuyos puntos
constituyen las soluciones del problema: entre ellas, la optimización
requiere elegir la mejor, según el criterio asignado. De todos modos,
para encontrar esta solución no es necesario examinar todas las posi-
bles soluciones y confrontar entre sí los valores del criterio de optimi-
zación; basta considerar los vértices (ya que el polígono es convexo,
cada punto interno está sobre un segmento cuyos extremos están so-
bre el perímetro; y ya que el criterio es lineal, el valor máximo que
asume sobre el segmento está en uno de los extremos, es decir, en
el perímetro, y el valor máximo en el perímetro está en uno de los
vértices).
En el caso de una gran cantidad de recursos y de vínculos, en
el que el polígono se convierte en politopo (y por lo tanto, un tipo
particular de simplex) en un espacio multidimensional, limitarse al
examen de todos sus vértices también puede presentar dificultades
insuperables. La solución clásica al problema fue elmétodo del simplex,
desarrollado en los años 1940 por George Dantzig, Leonid Kantoro-
140 6. Matemática Aplicada
vich y Tjalling Koopmans, y por el cual los dos últimos obtuvieron el
premio Nobel de economía en 1975.
La idea del método, que se convirtió por su eficiencia práctica en
uno de los algoritmos más usados en la historia de la matemática
aplicada, es partirdesde un vértice particular del politopo, examinar
todos los vértices a los que está conectado y moverse al que tiene el
mejor valor del criterio de optimización. Si se sigue procediendo de
esta manera, se alcanza un valor que es localmente óptimo; el hecho
esencial es que, al ser un politopo convexo, un óptimo local es tam-
bién un óptimo global, entonces el método siempre permite llegar al
mejor resultado en absoluto.
Una de las hipótesis necesarias para que funcione la programa-
ción lineal es que los recursos puedan asumir valores fraccionarios;
los vértices del politopo determinado por las inecuaciones se obtie-
nen, en efecto, mediante soluciones de sistemas de ecuaciones linea-
les, y en general pueden asumir valores no enteros. Pero si los recur-
sos sólo deben asumir valores enteros, como frecuentemente ocurre
en la práctica, no basta con optimizar el problema como si los recur-
sos pudieran ser fraccionarios y redondear después las soluciones;
en efecto, a veces ocurre que pequeñas variaciones hacen saltar el
óptimo de un vértice a otro. Por lo tanto, fue necesario ampliar la
programación lineal mediante técnicas que permiten resolver estos
problemas, desarrolladas en el ámbito de la programación entera.
Otra extensión necesaria fueron las técnicas para la solución de
problemas no lineales. En este caso el método del simplex no fun-
ciona por un motivo diferente, y es que sin la linealidad (y por lo
tanto sin convexidad) ya no es cierto que un óptimo local siempre
es un óptimo global. No existen métodos generales para la solución
de problemas no lineales, pero se desarrollaron técnicas eficaces y
potentes, por ejemplo, en el ámbito de la programación dinámica.
La Matemática del siglo XX 141
6.7. Teoría del EquilibrioGeneral: El Teorema de Existencia de Arrow
y Debreu (1954)
En 1776, el mismo año de la revolución burguesa americana, el
economista escocés Adam Smith publicó el tratado Sobre la riqueza
de las naciones. Para justificar el liberalismo del laissez faire, introdujo
la ficción retórica de una “mano invisible” que supuestamente guía
el comportamiento individualista de los agentes económicos hacia
fines no previstos por ellos, y que resultan ser socialmente útiles.
Lamentablemente, la justificación del razonamiento se basaba en un
círculo vicioso, condensado en el principio optimista: “todo lo que
hay, es justo”.
Los primeros intentos de fundar una ciencia sobre la filosofía
económica de Smith debieron esperar hasta el siglo XIX. En 1838,
Antoine-Augustine Cournot introdujo el uso de los instrumentos del
cálculo infinitesimal, de las funciones a las derivadas, para describir
los conceptos fundamentales de la economía. Y en 1874, Léon Wal-
ras estableció un paralelo entre economía y mecánica, en el que la
lev del mercado y el equilibrio económico se consideraban como los
análogos de la ley de gravitación y del equilibrio mecánico, paralelo
establecido a finales de siglo por Vilfredo Pareto, que consideró a los
sujetos económicos individuales como análogos a las partículas.
En particular, Walras enunció una teoría que sustituía la inefable
mano invisible de Smith con la interacción entre oferta y demanda,
y conjeturaba que el desarrollo del mercado tendía naturalmente ha-
cia su equilibrio. Matemáticamente, se trata de expresar para cada
mercancía la demanda y la oferta en función de los precios y de las
disponibilidades de todas las mercancías, y de imponer que las dife-
rencias entre demanda y oferta siempre sean nulas; en este caso, de
cada mercancía se produciría exactamente la misma cantidad que se
vende. Los problemas que se deben resolver son: ante todo, la exis-
142 6. Matemática Aplicada
tencia y la unicidad de un equilibrio, es decir, de un sistema de precios
que satisfaga todas las ecuaciones; además, la convergencia automáti-
ca del sistema hacia el equilibrio, sobre la base de la ley de la oferta y
la demanda, según la cual los precios suben cuando la demanda crece
y bajan cuando disminuye; y finalmente, la estabilidad del equilibrio,
en el sentido de que si el sistema también se aleja momentáneamente,
siempre tiende a volver.
Naturalmente, todo depende de la forma particular de las funcio-
nes que expresan la oferta y la demanda por un lado, y la ley de la
oferta y la demanda por el otro. Walras llegó a la definición de un
sistema de ecuaciones no lineales y dedujo la existencia de una solu-
ción a partir del hecho, ciertamente insuficiente, de que el número de
ecuaciones fuera igual al numero de las incógnitas. En 1933, el eco-
nomista Karl Schlesinger y el matemático Abraham Wald formula-
ron un sistema distinto, y por primera vez dieron una demostración
formal de la existencia de equilibrios.
En 1938, John von Neumann introdujo dos ideas innovadoras.
Ante todo, reformuló el problema no en términos de ecuaciones, co-
mo se había hecho hasta entonces, sino de inecuaciones; esto abrió el
camino para una formulación análoga de los problemas de optimiza-
ción, y de la solución de los lineales mediante el método de simplex
de Dantzig. Además, Von Neumann demostró la existencia de un
equilibrio para un sistema particular reduciéndolo a un problema de
minimax y utilizando entonces una versión del teorema del punto
fijo de Brouwer. Las ideas de Von Neumann, tanto sobre la teoría de
los juegos como sobre el equilibrio, alcanzaron su formulación defi-
nitiva en 1944, en el ya mencionado libro La teoría de los juegos y el
comportamiento económico.
La característica esencial de la demostración de existencia de equi-
librio de VonNeumann fue cambiar la atención desde las técnicas del
La Matemática del siglo XX 143
cálculo diferencial clásico a la topología, es decir, desde los sistemas
dinámicos a los sistemas estáticos. En 1954, Kenneth Arrow y Gerard
Debreu, utilizando este nuevo enfoque y una particular extensión del
teorema del punto fijo de Brouwer, demostrada en 1941 por Kakuta-
ni, finalmente lograron demostrar la existencia de un equilibrio para
las ecuaciones de Walras, en el caso que la ley de la oferta y la de-
manda está formulada de la siguiente manera: la velocidad de varia-
ción de precio de cada mercancía, y por lo tanto su derivada respecto
del tiempo, es proporcional al exceso de la demanda, es decir, a la
diferencia entre oferta y demanda de esa mercancía. Por este traba-
jo, Arrow y Debreu obtuvieron el premio Nobel de economía en 1972 y
1983.
Por lo tanto, el empleo del teorema del punto fijo de Brouwer
permitió a Arrow y a Debreu evitar las dificultades conectadas con
el estudio de la economía a través de los sistemas dinámicos, que en
los años 1950 todavía no habían sido desarrollados suficientemente.
Pero volvieron a estar de moda en la segundamitad del siglo, gracias
también a la posibilidad de simulaciones computerizadas, y en 1982
Stephen Smale, medalla Fields en 1966 por otros trabajos que citare-
mos enseguida, cerró el círculo del desarrollo histórico, volviendo a
demostrar el teorema de Arrow y Debreu con los métodos concebi-
dos originalmente porWalras, y sin usar en absoluto los teoremas del
punto fijo.
Naturalmente, para poder deducir del teorema de existencia del
equilibrio conclusiones políticas, que reivindiquen de algunamanera
el liberalismo de Adam Smith, se lo debería demostrar de manera
más general que en la formulación simplificada de Arrow y Debreu;
en particular, en una situación en que los mercados interactúan entre
sí, y la variación del precio de cada mercancía depende (por ejemplo,
de manera lineal) del exceso de demanda de todas las mercancías, y
144 6. Matemática Aplicada
no sólo de la mercancía en cuestión.
Desdichadamente para el capitalismo, en estas condiciones más
generales el mercado tiende autónomamente nacía la situación de
equilibrio sólo en el caso, bastante raro, de dos únicas mercancías. En
1960, Herbert Scarf demostró que, en cambio, bastan sólo tres mer-
cancías para el sistema pueda ser globalmente inestable, y no sea en
absoluto manejado por la fantasmal mano invisible. En 1972, Hugo
Sonnenscheindemostró que el exceso de demanda global de un mer-
cado puede asumir los valores de una función continua cualquiera;
los equilibrios, es decir los ceros de las funciones, pueden entonces
no existir; e incluso si existen, no es seguro que el mercado tienda ne-
cesariamente hacia ellos, o vuelva automáticamente cuando se aleja.
Si es posible extraer alguna conclusión política de estos desarro-
llos matemáticos, es que la ley del mercado no parece en absoluto
adecuada para conducirlo a una condición de equilibrio, y que só-
lo la planificación puede hacerlo, sin intención de ofender a Adam
Smith y a sus seguidores de fines del siglo XX, desde Margaret That-
cher hasta Ronald Reagan.
6.8. Teoría los lenguajes formales: La clasificación de Chomsky (1957)
Uno de los cambios más significativos en la lingüistica moderna
fue el Curso de lingüística general de Ferdinand de Saussure, dictado
en los años comprendidos entre 1906 y 1911 y publicado póstuma-
mente en 1916. En el trabajo se delimita un enfoque estructural de
las lenguas naturales, contrapuesto a los estudios históricos, filoló-
gicos y comparados que estaban de moda hasta entonces. Saussure
veía el lenguaje como un sistema constituido por dos partes; por un
lado, una estructura fija, social e inmutable, de reglas para manipu-
lar los signos (sonoros o escritos); por el otro lado, un uso variable,
individual y creativo de la estructura para expresar los significados.
La Matemática del siglo XX 145
Las ideas de Saussure mostraron la posibilidad de estudiar mate-
máticamente la parte estructural de la lingüística, y más en general,
las ciencias humanas; en efecto, él fue el precursor e inspirador del
estructuralismo, que tuvo como objetivo el estudio de estructuras pro-
fundas en las manifestaciones de las vivencias humanas, y se con-
cretó en la antropología de Claude Lévi-Strauss, el psicoanálisis de
Jacques Lacan y la psicología de Jean Piaget.
Por su parte, también la concepción axiomática y formalista de la
matemática llevó, natural e independientemente, a ideas paralelas a
las de Saussure, es decir, que la actividad lingüística se pueda redu-
cir a la generación de secuencias de símbolos según reglas formales,
y que los signos estén ligados a los significados de manera conven-
cional y arbitraria.
No es casual que la primera formulación de reglas abstractas y
formales para la descripción de las estructuras lingüísticas pertenez-
ca al matemático Axel Thue, que las expresó, en 1914, en términos de
producciones gramaticales de tipo
x → y
que debe interpretarse en el sentido de que cada vez que se encuentra
una ocurrencia de x en una palabra, se la puede sustituir con una
ocurrencia de y. Thue definió una gramática como un conjunto de
producciones de este tipo, y formuló el llamado problema de la palabra,
que consistía en decidir si dos palabras se pueden transformar una
en la otra sobre la base de las producciones de la gramática.
En 1921, Emil Post llegó independientemente a una formulación
similar y demostró un resultado sorprendente, que hoy se puede ex-
presar de la siguiente manera: los lenguajes que admiten una gramá-
tica de Thue son exactamente aquellos que se pueden generar me-
146 6. Matemática Aplicada
diante cualquiera de los típicos lenguajes de programación de los
ordenadores. En otras palabras, simples producciones gramaticales
son suficientes para describir todo lo que los más complicados pro-
gramas para ordenadores pueden hacer, en particular, todos los tipos
posibles de lenguaje formal o mecánico.
Sólo faltaba tratar el caso de los lenguajes humanos. A esto se
dedicó, en 1957, el lingüista Noam Chomsky, que en Estructuras sin-
tácticas realizó los primeros pasos de un trabajo que habría debido
conducir a la descripción completa de una gramática de Thue para
el inglés; un proyecto que jamás fue completado, y cuya dificultad
parece haber indicado una insuficiencia estructural del enfoque pu-
ramente matemático en el estudio del lenguaje natural.
De todos modos, el trabajo de Chomsky llegó a un resultado fun-
damental para la teoría de los lenguajes formales: una clasificación de
éstos sobre la base del tipo de producciones gramaticales permitidas
en su gramática. Y, puesto que los mismos tipos de lenguajes resul-
taron ser expresables también sobre la base del tipo de ordenadores
capaces de generarlos, el resultado constituyó el punto de partida de
la teoría de los lenguajes formales para ordenadores, es decir, de la
lingüística informática.
La clasificación de Chomsky aisla cuatro tipos de lenguajes: uni-
versales, sensibles al contexto, independientes del contexto y regulares. Sus-
tancialmente, en el primer tipo no hay restricciones para el tipo de
producciones gramaticales, y por lo tanto, es posible sustituir cual-
quier parte de una palabra con otra. En el segundo tipo, se permite la
sustitución de una parte de una palabra sólo en contextos particula-
res, especificados por las producciones. En el tercer tipo, se permite
sustituir sólo una única letra con una parte de una palabra. En el
cuarto tipo se permite sustituir una única letra sólo con otra única
letra.
La Matemática del siglo XX 147
La clasificación se corresponde con la de los ordenadores o autó-
matas capaces de generar los distintos lenguajes: universales, limitados
linealmente, push-down y finitos. Sustancialmente, en el primer tipo no
hay restricciones para la memoria del ordenador. En el segundo tipo,
no se permite que el ordenador use una memoria más grande que el
input. En el tercer tipo, se permite que el ordenador memorice datos
sólo como en las pilas de bandejas de los selfservice, donde las pri-
meras bandejas puestas en la pila serán las últimas en ser sacadas,
y viceversa. En el cuarto tipo, se permite que el ordenador sólo lea,
pero no memorice los datos.
Aunque desde el punto de vista lingüístico las gramáticas más
interesantes sean las que son sensibles al contexto, desde el punto de
vista informático resultaron más útiles las que son independientes
del contexto y las regulares, y sus teorías se han convertido actual-
mente en una parte esencial de la informática teórica.
En cuanto a la matemática pura, las aplicaciones más interesan-
tes de la lingüística formal son las que se relacionan con el problema
de la palabra propuesto por Thue. En efecto, muchas estructuras al-
gebraicas se presentan naturalmente bajo la forma de producciones,
por ejemplo grupos y semigrupos (que son una versión más débil de
los grupos, donde no se requiere la existencia de los inversos).
Post y Anatoly Markov, en 1944 y en 1947 respectivamente, de-
mostraron que no existe ningún algoritmo para decidir el problema
de la palabra para los semigrupos; esto constituyó el primer ejemplo
de indecibilidad de un problema no artificial, y demostró que las li-
mitaciones de los sistemas formales descubiertas por Gödel, Church
y Turing no sólo atañen a los fundamentos teóricos, sino también a
la práctica matemática.
Pavel Novikov y William Boone, en 1955 y en 1959 respectiva-
mente, demostraron que incluso el problema de la palabra más difí-
148 6. Matemática Aplicada
cil para los grupos es indecible. Debido a la conexión con los grupos
fundamentales de la topología algebraica, de los que hablaremos en-
seguida, este resultado llevó a la indecibilidad de muchos problemas
topológicos; por ejemplo, si una superficie es conexa, o si dos super-
ficies son topológicamente equivalentes.
6.9. Teoría de los Sistemas Dinámicos: El Teorema Kam (1962)
El estudiomatemático del movimiento de los cuerpos se hizo teó-
ricamente posible gracias a los descubrimientos de Newton, en los
años comprendidos entre el 1664 y el 1666, del cálculo infinitesimal
por un lado y de las tres leyes del movimiento por el otro: el princi-
pio de inercia, la famosa ecuación F = ma, y el principio de acción
y reacción. En el caso particular del movimiento de los cuerpos ce-
lestes, la fuerza en juego está especificada por la ley de gravitación
universal: la atracción ejercida porun cuerpo es proporcional a su
masa, e inversamente proporcional al cuadrado de su distancia.
Por ejemplo, en el primer libro de los Principia, Newton demos-
tró que el movimiento de un planeta alrededor del Sol obedece a las
tres leyes de Kepler, enunciadas en 1618: la órbita es elíptica, con el
sol en uno de los focos; el área recorrida es proporcional al tiempo
empleado para recorrerla; y el cuadrado del año planetario es (apro-
ximadamente) proporcional al cubo de la distancia media desde el
Sol al planeta.
Pero en la práctica, los planetas no sólo están sujetos a la fuerza
gravitacional del Sol, sino que se influyen recíprocamente; esto hace
que sus órbitas no sean ni perfectamente elípticas, ni necesariamen-
te cerradas. Además, el sistema solar no sólo está constituido por el
Sol y los nueve planetas, sino también por un número impreciso de
satélites, cometas y asteroides; por lo tanto, el problema de su movi-
miento no es para nada obvio.
La Matemática del siglo XX 149
El caso del Sol y de un planeta es muy especial, porque uno de los
dos cuerpos tiene una masa insignificante respecto del otro; se puede
suponer entonces que el más grande está detenido y el otro gira al-
rededor. Newton demostró que la solución es semejante también en
el caso general, donde ambos cuerpos se mueven en órbitas elípticas,
con el baricentro del sistema en un foco común.
Una vez resuelto de este modo el caso de dos cuerpos, el paso su-
cesivo fue la solución del problema de los tres cuerpos; ejemplos parti-
cularmente interesantes de este problema son el caso del Sol, la Tierra
y la Luna, o el Sol y dos planetas. Es posible obtener soluciones apro-
ximadas resolviendo primero el problema para dos cuerpos y pertur-
bando luego la solución de manera que se considere la influencia del
tercer cuerpo; éste método fue utilizado por Newton en 1687 para
calcular la perturbación del Sol en el movimiento de la Luna alrede-
dor de la Tierra, y por Euler en 1748 para calcular las perturbaciones
recíprocas de Júpiter y Saturno en su movimiento alrededor del Sol.
En 1772, Joseph Louis Lagrange encontró soluciones exactas de
casos especiales del problema de los tres cuerpos. Por ejemplo, com-
probó que es posible que tres cuerpos se muevan en tres órbitas elíp-
ticas, con el baricentro del sistema en un foco común. O bien, que si
tres cuerpos se encuentran en los vértices de un triángulo equiláte-
ro, el triángulo rota en torno al baricentro del sistema y los cuerpos
quedan anclados a los vértices; un caso que, como se descubrió en
1906, realiza el sistema constituido por el Sol, Júpiter y el asteroide
Aquiles.
Entre 1799 y 1825, aparecieron los cinco volúmenes de la Mecáni-
ca Celeste de Laplace, que constituyeron la coronación de un siglo y
medio de descubrimientos. En particular, Laplace pudo declarar que
la evolución pasada y futura del universo se habría podido calcu-
lar completamente, si tan sólo se hubieran conocido la posición y la
150 6. Matemática Aplicada
velocidad de cada cuerpo en un único instante.
No obstante el optimismo de Laplace, todavía quedaban abier-
tos dos problemas fundamentales. Por un lado, la solución exacta
del caso general del problema de tres o más cuerpos. Por el otro, la
cuestión de la estabilidad de las soluciones; por ejemplo, si pequeñas
perturbaciones del movimiento de un planeta pueden producir sólo
pequeñas variaciones de su órbita, o si son capaces demandarlo com-
pletamente a la deriva. En particular, si el efecto acumulativo de las
perturbaciones recíprocas de los distintos planetas es suficiente para
arrojar a alguno fuera de órbita y, eventualmente, fuera del sistema
solar o si, en cambio, éstos se mantendrán siempre sustancialmente
en la situación actual.
El problema de la estabilidad del sistema solar llegó a oídos del
rey de Suecia, Óscar II, que lo colocó en la lista de los problemas
cuya resolución habría merecido un premio especial, instituido en
1885 para “honrar su sexagésimo aniversario, y brindar una prueba
de su interés por el avance de las ciencias matemáticas”.
E1 premio fue asignado en 1889 a Poincaré, que no logró decidir
si el sistema solar es estable o no, pero logró hacer un salto de calidad
en el estudio de los sistemas dinámicos. Poincaré introdujo lo que él
mismo denominó en el título de una trilogía, publicada entre 1892 y
1899, Los Nueve Métodos de la Mecánica Celeste, en particular, el estu-
dio topológico de las ecuaciones diferenciales no lineales, que hasta
entonces habían sido dejadas de lado por su dificultad.
La distinción entre órbitas estables e inestables está conectada, de
manera insospechable, a problemas de la teoría de los números. Por
ejemplo, la relación entre los años planetarios de Júpiter y Saturno es
de 5 a 2, es decir, un número racional; esto permite que cada 10 años
los dos planetas se encuentren en las mismas posiciones, y que sus
perturbaciones recíprocas puedan amplificarse en teoría como en un
La Matemática del siglo XX 151
efecto de resonancia, hasta producir efectos desestabilizantes.
La traducción matemática de la dificultad es el llamado proble-
ma de los pequeños divisores: expresando la perturbación recíproca de
los dos planetas en forma de suma infinita (una, así llamada, serie
de Fourier), la relación racional 52 hace que muchos de los coeficien-
tes de los términos de la suma tengan pequeños divisores y que, por
lo tanto, sean muy grandes, esto tiende a hacer crecer la suma hada
el infinito. Y el trabajo de 270 páginas con el que Poincaré ganó el
“premio Óscar” parecía indicar precisamente que tales sumas fue-
ran efectivamente infinitas y que, por lo tanto, las órbitas no fueran
estables.
E1 problema de la estabilidad fue retomado en 1954 por Kolmo-
gorov, que indicó los lineamientos para una solución y su proyecto
fue completado por Vladimir Arnol’d y Jürgen Moser en 1962, en un
trabajo que es denominado globalmente teorema KAM, por las inicia-
les de los tres autores. La solución es que, para perturbaciones pe-
queñas, la mayoría de las órbitas es estable; éstas no son periódicas,
pero se mantienen cerca de las órbitas periódicas del sistema no per-
turbado, y por esto se llaman cuasi-periódicas.
La esenciamatemática del teorema KAM es que el problema de los
pequeños divisores se presenta efectivamente cuando nos encontra-
mos frente a períodos racionales, o bien aproximables por racionales
(o sea, mediante fracciones de denominador relativamente pequeño),
pero no se presenta en otro caso; dado que la mayoría de los números
reales está constituido precisamente por números no bien aproxima-
bles por racionales, el problema no se presenta en la mayoría de los
casos.
El interés que suscitaron el teorema KAM y sus respectivas proble-
máticas es considerable. En la dirección de la matemática más pura,
el resultado original les valió a Kolmogorov y Moser el premio Wolf
152 6. Matemática Aplicada
en 1980 y 1994/1995, una reciente generalización del mismo le valió
a Jean Christophe Yoccoz una medalla Fields en 1994. En la dirección
complementaria de la matemática más aplicada, la teórica estabili-
dad de las órbitas de los planetas en el sistema solar se traduce en
la concreta estabilidad de las órbitas de las partículas en los acelera-
dores, esencial para que no pierdan su energía en golpes contra las
paredes, y la relevancia del teorema deriva del hecho de que el nú-
mero de las órbitas de las partículas en un experimento es tan grande
que se puede comparar con el número de las órbitas de los planetas
en el curso de toda la vida del sistema solar.
6.10. Teoría de los Nudos: Los Invariantes de Jones (1984)
Según la leyenda, en Gordion de Frigia (hoy en Turquía) el ca-
rro del rey Midas estaba atado a su yugo con un nudo tan estrecho
y complicado, que se decía que el que hubiera logrado desatarlo se
habría convertido en rey del mundo entero. Alejandro Magno llegó a
Gordion en el año 333 a.C., y después de algunos intentos infructuo-
sos cortó el nudo con la espada. Naturalmente, el problema siguiósin
solución; la solución de un nudo requiere en efecto que sea desatado
sin romperlo, por lo tanto, es de naturaleza topológica.
En 1848, Johann Listing, estudiante de Gauss, acuñó el nombre
topología y publicó el primer libro sobre ese tema, en el cual una gran
parte estaba dedicada al estudio de los nudos, es decir, de las cur-
vas cerradas en el espacio (Figura 28). Como curvas, los nudos no
son otra cosa más que superficies de una sola dimensión, por eso
es natural observarlos desde un punto de vista topológico, como si
estuvieran hechos de finísimos hilos de goma con las extremidades
unidas, e intentar clasificarlos como hicieron Riemann, Moebius y
Klein con las superficies de dos dimensiones, y Thurston con las de
tres dimensiones.
La Matemática del siglo XX 153
Según determinados criterios, existe una conexión entre la teoría
de los nudos y la teoría de las superficies. De hecho, dado un nudo, se
puede imaginar su soporte no como una curva abstracta y matemá-
tica cuya sección está reducida a un punto, sino como un tubo sólido
y físico, cuya sección es un círculo. Considerar la superficie bidimen-
sional del tubo no conduce demasiado lejos, porque desde un punto
de vista topológico ésta siempre equivale a un toro, para cualquier
nudo. Sin embargo, se puede considerar la superficie tridimensional
que es el calco del tubo, o sea el espacio entero menos el tubo mismo
(incluido el ulterior); la estructura del nudo resulta ser la estructura
de los agujeros de esta superficie, y en su estudio se pueden aplicar
todos los instrumentos topológicos clásicos.
Nudo nulo
Tréboles o nudos
simples
Tetrafolios o nudos planos
Figura 28. Nudos
Pero este enfoque es muy indirecto, y la teoría de los nudos se de-
dicó a asignarles directamente invariantes que, como dice el nombre,
154 6. Matemática Aplicada
no cambian cuando el nudo está sujeto a deformaciones topológicas,
o sea, cuando el hilo de goma con el que el nudo está constituido es
estirado o empujado, sin romperlo. Muchos de estos invariantes se
pueden deducir implícitamente desde la superficie asociada, pero el
problema es definir los explícitos que se pueden obtener directamen-
te de la figura del nudo.
El invariante más simple que se pueda imaginar es el número que
cuenta cuántas veces el hilo se intersecta, cuando está colocado sobre
un plano; naturalmente, deformaciones del nudo pueden cambiar tal
número, por ejemplo, haciéndolo dar vueltas inútiles sobre sí mismo;
entonces, para obtener un invariante se debe tomar el mínimo núme-
ro necesario para representar el nudo dado. Pero esto hace casi inútil
el invariante, porque para poder calcularlo se necesita, en la práctica,
saber ya qué tipo de nudo se está considerando.
En 1910, Max Dehn introdujo una descripción algebraica de los
nudos, que le permitió probar que existen diferentes nudos; en otras
palabras, que no todos los nudos se pueden desatar, reduciéndolos
al nudo nulo (un círculo) mediante oportunas deformaciones, y sin
romperlos. Esto es obvio intuitivamente, por ejemplo, para el trébol
(o nudo simple), pero el problema era demostrarlo matemáticamen-
te.
En 1928, James Alexander definió como invariante un polinomio
que, además de las simples intersecciones, considera también el mo-
do en que ocurren (la variable del polinomio representa el meridiano
del nudo). Cuando se suman dos nudos, sus polinomios de Alexan-
der se multiplican; puesto que el polinomio asignado al trébol es
x2¯x + 1, y el tetrafolio (o nudo plano) es la suma de dos tréboles,
polinomio será
(x2 − x+ 1)2 = x4 − 2x3 + 3x2 − 2x+ 1.
La Matemática del siglo XX 155
Del hecho de que dos nudos tienen polinomios distintos se puede
deducir que también ellos son distintos; entonces, trébol y tetrafolio
no pueden obtenerse uno del otro, por deformación; y hay infinitos
nudos distintos, porque cada polinomio (simétrico) es el polinomio
de un nudo. Sin embargo, dos nudos pueden ser distintos aun te-
niendo el mismo polinomio, y esto es lo que ocurre con los tréboles
dextrorso y sinistrorso.
En 1984, Vaughan Jones definió como invariante un nuevo tipo de
“polinomios” (entre comillas, porque los exponentes de la variable
también pueden ser negativos), que también considera el lado en que
las intersecciones ocurren y, por lo tanto, permite distinguir entre sí
los dos tréboles; en efecto, sus “polinomios” son, respectivamente,
−x4 + x3 + x y 1
x4
+
1
x3
+
1
x
.
Jones llegó a sus “polinomios” de manera indirecta, estudiando las
álgebras de Von Neumann, e inmediatamente descubrió una ulterior
e inesperada conexión con la mecánica estadística; por estos resulta-
dos y por la fecundidad de sus invariantes, Jones obtuvo la medalla
Fields en 1990.
No obstante estos desarrollos, todavía no se ha encontrado una
clasificación completa de los nudos. En particular, todavía no se ha
encontrado un invariante completo, es decir, uno que permita dis-
tinguir entre sí todos los nudos que en efecto son distintos (el mejor
invariante actual se debe a Maxim Kontsevich, y le valió la medalla
Fields 1998). Incluso en este estado incompleto, las aplicaciones de la
teoría de los nudos son extremadamente significativas.
Comenzando por la física, en 1867 lord Kelvin propuso una teo-
ría según la cual los átomos eran nudos en el éter, llamados átomos de
vórtice, análogos a las espirales de humo en el aire. La idea, aparen-
156 6. Matemática Aplicada
temente extravagante, se basaba en un teorema de Hermann Helm-
holtz según el cual un vórtice en un fluido perfecto, una vez creado,
se mantiene indefinidamente. Kelvin se inspiró en experimentos de
Peter Tait con anillos de humo, que rebotaban elásticamente y exhi-
bían interesantes modos de vibrar. La ventaja de esta teoría era que
los nudos se mantenían juntos por puras uniones topológicas, sin
que hubiera necesidad de hacer intervenir fuerzas atómicas especí-
ficas. La propuesta estimuló un estudio de diez años acerca de los
nudos, por parte de Tait,y produjo una tabla bastante completa y de-
tallada de los nudos que tienen hasta 10 intersecciones, pero la teoría
de Kelvin fue abandonada cuando el modelo de Bohr, que veía al
átomo como un sistema solar en miniatura, tomó la delantera.
Los nudos siguen siendo de actualidad gracias a la teoría de las
cuerdas (en italiano teoría delle stringhe del inglés strings,“cuerdas”)
que deberían ser los constituyentes últimos de la materia, y de las
cuales las partículas elementales serian modos de vibración en espa-
cios multidimensionales. En realidad, hay varias teorías de las cuer-
das; en la más simple las cuerdas son abiertas y unidimensionales
como pedacitos de hilo con quark pegados en las extremidades, pe-
ro en otras pueden ser cerradas, precisamente como los nudos de
los que ya hemos hablado. En teorías más recientes, las cuerdas uni-
dimensionales están sustituidas por membranas pluridimensionales,
abiertas o cerradas.
Muchas de las ideas matemáticas de la teoría de las cuerdas tie-
nen origen en los pirotécnicos trabajos de Edward Witten, que han
influido profundamente en la matemática de los últimos años y le
valieron la medalla Fields en 1990. Witten encontró insospechadas re-
laciones de la teoría de las cuerdas con las áreas más dispares de
la matemática; por ejemplo, el monstruo de Fischer-Griess en teo-
ría de los grupos, los polinomios de Jones en teoría de los nudos, y
La Matemática del siglo XX 157
los espacios exóticos de Donaldson en topología resultan ser todos
aspectos de particulares teorías topológico-cuánticas de campo, res-
pectivamente de 2, 3 y 4 dimensiones.
Este punto de vista por un lado permite explicar algunas mis-
teriosas simetrías de estos objetos y, por otro, ampliar su alcance de
manera sustancial. Por ejemplo, fue precisamente usando la teoría de
las cuerdas que Maxim Kontsevich y Richard Borcherds obtuvieron
resultados que les valieron la medalla Fields en 1998. El primero pu-
do generalizar los polinomios de Jones y obtener nuevos invariantes,
no sólo para los nudos sino también para las superficiestridimensio-
nales (los polinomios de Jones resultaron ser integrales de Feynman
calculados sobre una superficie particular, cuya definición se obtie-
ne de la teoría de las cuerdas). El segundo en cambio logró resolver
la conjetura Claro de Luna, propuesta por John Conway y Simon Nor-
ton en 1979, que vincula el monstruo de Fischer- Griess con la teoría
de las funciones elípticas, introducida en 1827 por Niels Abel y Carl
Jacobi (el monstruo resultó ser el grupo de los automorfismos de un
álgebra particular, cuyos axiomas se obtienen de la teoría de las cuer-
das).
En las versiones recientes de la teoría de las cuerdas juegan un
rol esencial las variedades de Calabi-Yau, del que ya hemos hablado.
En una primera fase, llamada de la supersimetría, se descubrió que
la imposición de una fuerte necesidad de invariabilidad en la teo-
ría de las cuerdas requería precisamente la modelización mediante
una variedad de Calabi-Yau; las 3 dimensiones complejas de la varie-
dad corresponden a 6 dimensiones reales, que agregadas a las 4 del
espacio-tiempo llevan el número total de las dimensiones a 10. En
una segunda fase, llamada de la simetría especular, se descubrió que
en realidad era posible modelar la teoría física mediante dos varie-
dades distintas de Calabi-Yau, y que algunos de los cálculos difíciles
158 6. Matemática Aplicada
en una de las dos resultaban ser fáciles en la otra, y viceversa; man-
teniendo así las dos posiciones, fue posible dar pasos esenciales en la
búsqueda de una teoría del todo que describa de manera unitaria toda
la física moderna.
Otro tipo de aplicación de la teoría de los nudos es el estudio de la
estructura del ADN, que está constituido por un largo filamento de
genes plegado sobre sí mismo: una cadena de aproximadamente un
metro de largo, que está en el núcleo de una célula, de 5millonésimos
de metro de diámetro (más o menos como si un hilo de 200 km mera
replegado en una pelota de fútbol). Cuando el ADN se rehace, se
divide en dos copias idénticas, el problema es entender cómo puede
ocurrir esto de manera eficiente, si ya la análoga división de los hilos
que componen una cuerda produce complicados anudamientos. Los
invariantes de Alexander no fueron capaces de afrontar los pliegues
del ADN, pero los invariantes de Jones ya han producido resultados
interesantes también en este campo.
7
La Matemática y el
Ordenador
El ordenador está cambiando la vida cotidiana de manera sustan-
cial, no sólo la del hombre común, sino también la del matemático.
Como ocurre a menudo con la tecnología, muchos cambios no resul-
tan del todo favorables, y las aplicaciones matemáticas del ordenador
no son una excepción: por ejemplo, cuando se lo utiliza como un au-
tista savant en la trabajosa e irrelevante búsqueda de números primos
cada vez más grandes. Sólo a modo de información: el récord a fina-
les del siglo XX era 26972593 − 1, un número de casi dos mil millones
de cifras.
Los peligros que encierra un uso despreocupado del ordenador
pueden ejemplificarse claramente con el siguiente episodio, que com-
prueba de qué manera confiar indiscriminadamente en su potencia
puede convertirse en un obstáculo, en vez de un estímulo, para el
pensamiento matemático. En 1640, Fermat había conjeturado que los
números con la forma 22
n
+ 1 eran todos primos, basándose en el he-
159
160 7. La Matemática y el Ordenador
cho de que así es para n desde 0 hasta 4: en estos casos se obtienen los
números 3,5,17,257 y 65.537, que en efecto son primos. Actualmente,
un ordenador puede verificar con facilidad, por fuerza bruta, que la
conjetura resulta falsa para n = 5, ya que
22
5
+ 1 = 232 + 1 = 4.294.967.297 = 641× 6.700.417.
Pero una sistemática búsqueda manual de los posibles divisores
era y es imposible. En 1736, Leonhard Euler la evitó demostrando,
con una ingeniosa y drástica reducción, que era suficiente limitarse a
considerar divisores de tipo 64k + 1: así, el divisor 641 se encuentra
en el décimo intento (k = 10). De esta manera, la falta del ordenador
obligó a Euler a trasladar el problema desde la contabilidad básica
a la alta matemática y a resolver uno de los curiosos problemas de
Fermat mediante uno de sus sorprendentes teoremas. Sólo a modo
de información, no se conocen otros números de Fermat que sean
primos, y en 1990 el esfuerzo conjunto de mil ordenadores permitió
emular, para n = 9, lo que Euler había hecho a mano para n = 5, sin
obtener, por otra parte, ningún resultado matemático interesante.
Entonces, tanto los detalles de un episodio significativo, como la
generalidad del lema de las Investigaciones filosóficas de Wittgenstein,
advierten que “el progreso parece siempremás grande de lo que real-
mente es”. En otras palabras, no se deben exagerar dogmáticamente
los efectos del uso del ordenador, ni en matemática ni en otras áreas,
como suele hacer la prensa de divulgación, sino que deben ser exami-
nados con sentido crítico; esto permitirá resaltar mejor los contornos
del verdadero progreso en el horizonte del desarrollo aparente.
Ante todo, se debe decir que la eventual influencia del ordenador
en la matemática sería en todo caso sólo un favor intercambiado. En
efecto, si bien es cierto que generalmente 188 teorizaciones científi-
La Matemática del siglo XX 161
cas derivan de las realizaciones tecnológicas, en este caso ha ocurrido
exactamente lo contrario: de hecho, la construcción de los primeros
ordenadores electrónicos fue el punto de llegada de un desarrollo
matemático que duró un siglo entero y que tuvo tres etapas sustan-
ciales.
La primera idea fundamental fue introducida en 1854 por George
Boole, en su famoso libro Investigación de las leyes del pensamiento. En
esta obra se describía la formulación algebraica del comportamiento
semántico de las partículas lingüísticas más simples, como la con-
junción y la negación, que hoy se denomina álgebra de Boole. Frege y
Russell retomaron la idea de tratar en formamatemática las leyes que
regulan el pensamiento, y la aplicaron con éxito en toda la lógica. Y
la Inteligencia Artificial de posguerra intentó, por ahora con escaso
éxito, extender la formalización del pensamiento, incluso fuera del
ámbito lógico y racional.
La segunda y decisiva idea fue introducida por Alan Turing en
1936. A partir, precisamente, del cálculo lógico de Frege y Russell,
este científico demostró que no existe una manera de decidir, dada
una fórmula de cálculo, si ésta es válida o no: en otras palabras, es
imposible mecanizar la semántica del razonamiento lógico, del mis-
mo modo en que se había hecho con su sintaxis. Para demostrar este
resultado de imposibilidad, Turing introdujo la noción de una má-
quina abstracta capaz de ejecutar todas las tareas formales posibles y
mostró que no era capaz de resolver el problema de la decisión. Para
describir hoy la máquina de Turing, basta decir simplemente que era
el proyecto teórico de un ordenador universal moderno.
Sin embargo, para construir físicamente tal máquina se necesita-
ba una última idea, que nació de la colaboración entre un neurofi-
siólogo y un matemático: Warren McCulloch y Walter Pitts. Puesto
que se trataba de dotar a la máquina de Turing de un cerebro capaz
162 7. La Matemática y el Ordenador
de guiarla en la ejecución de sus tareas, en 1943 estos científicos pro-
pusieron un modelo abstracto del sistema nervioso, basado en una
simplificación del sistema humano, y demostraron que se lo podía
sintetizar mediante cables eléctricos, cuyas conexiones ocupaban el
lugar de las neuronas y donde, al pasar o al dejar de pasar la corriente
eléctrica se representaba la presencia o la ausencia de una respuesta
sináptica. Y aquello que las redes neuronales podían realizar resultó
ser exactamente el álgebra de Boole.
El ordenador electrónico no es más que la realización práctica del
sistema compuesto por la máquina de Turing y la red neuronal de
McCulloch y Pitts: esta red confiere a la máquina de Turing un cere-
bro capaz de ejecutar las decisiones lógicas más elementales, gracias
al cualla máquina puede efectuar todas las tareas mecánicas posi-
bles, salvo las decisiones que requieren una lógica superior.
Estos avances influyeron en parte en los dos proyectos que con-
dujeron a la construcción de los primeros ordenadores electrónicos;
el ENIAC, o Electronic Numerical Integrator and Calculator conduci-
do en los Estados Unidos por Von Neumann; y el ACE, o Automatic
Computing Engine conducido en Gran Bretaña por el mismo Turing,
ambos alrededor de la década de 1950. Por lo tanto, si el ordenador es
hijo de la investigación matemática de la primera mitad del siglo, no
podemos sorprendernos de que manifieste indicios del patrimonio
genético que le fue transmitido.
La primera aplicación matemática de la nueva máquina fue, na-
turalmente, el uso de sus poderes computacionales: es más, su mis-
ma concepción había sido estimulada precisamente por la esperanza
de poder automatizar la enorme cantidad de cálculos que requerían
los esfuerzos bélicos, que Turing había experimentado en persona en
su trabajo de contraespionaje y Von Neumann en la construcción de
la bomba atómica. Este uso del ordenador con fines de cálculo, que
La Matemática del siglo XX 163
sigue siendo el más común, es el responsable de su nombre1.
Los beneficios de poder realizar con rapidez una gran cantidad de
cuentas también se han hecho sentir, sin dudas, en la matemática pu-
ra. E1 caso más conocido es ciertamente la demostración interactiva
del teorema de los cuatro colores de Kenneth Appel y Wolfgang Haken,
que en 1976 requirió una ayuda del ordenador de miles de horas de
tiempo máquina. Pero el primer teorema demostrado completamen-
te por un ordenador, sin ayuda del hombre, es del año 1997: se trata
de la conjetura de Robbins, propuesta por Herbert Robbins en 1933,
que afirmaba que un sistema de tres ecuaciones era una axiomatiza-
ción de la teoría de las álgebras de Boole, y que fue demostrada por
un programa escrito por William McCune y Larry Wos.
Sin embargo, es en la matemática aplicada donde, naturalmen-
te, los usos del ordenador están provocando los efectos más visibles.
Por ejemplo, hasta la segunda mitad del siglo XX, el estudio de los
sistemas dinámicos requería un proceso de tres pasos: la descripción
del sistema en términos matemáticos, la solución explícita del siste-
ma y la descripción gráfica de la solución. Por lo general, el estudio
se empantanaba después del primer paso, a causa de la dificultad de
la descripción del sistema, que impedía su solución: esto había pro-
ducido la exclusión de los sistemas complejos y la concentración en
sistemas cuya descripción fuera suficientemente simple como para
poder resolverla. De todos modos, si se lograba obtener soluciones,
tanto explícitamente como mediante procesos de aproximación, su
representación gráfica podía resultar imposible, a causa de la enor-
me cantidad de cálculos necesarios.
El uso del ordenador permitió resolver no sólo el segundo proble-
ma, sino también el primero: en efecto, enmuchos casos se puede evi-
tar encontrar soluciones explícitas de la descripción matemática de
1En italiano ordenador se dice calcolatore. [N. de la T.]
164 7. La Matemática y el Ordenador
un sistema y obtener una descripción gráfica de su comportamiento
directamente, mediante una simulación. Esto permitió estudiar toda
una clase de sistemas que jamás se habían podido abordar, y el naci-
miento de la que hoy se denomina teoría del caos, la que, no obstante
su nombre, estudia precisamente sistemas que no son en absoluto
caóticos, pero que son tan complejos que lo aparentan a primera vis-
ta.
La metáfora más conocida de los sistemas caóticos es la del efecto
mariposa, cuyo aleteo en un continente podría desencadenar un hu-
racán en el otro lado del planeta. Y una de las clásicas aplicaciones
del ordenador, ya iniciada por el mismo Von Neumann y retomada
por Edward Lorenz, es justamente la simulación del tiempo atmos-
férico, que hizo posibles las previsiones a corto plazo y que generó
una de las imágenes más conocidas del caos: un extraño atractor con
forma, casualmente, de alas de mariposa.
A propósito de imágenes, no se deben olvidar los desarrollos
de la gráfica computerizada: ubicuas en las aplicaciones comercia-
les, también están adquiriendo un rol importante en la matemática
pura, como soporte visual. Los casos más representativos fueron los
descubrimientos de nuevas superficies, que habrían sido difíciles de
visualizar utilizando sólo el ojo de la mente: las superficies minima-
les encontradas en 1983 por David Hoffman y William Meeks, de las
que ya hemos hablado (Figura 7); y la llamada Venus etrusca de Don-
na Cox y George Francis, descubierta en 1988 (Figura 29).
Las imágenes más célebres, gracias también a su calidad visual,
y que algunos llegan a considerar la expresión de una nueva forma
de arte, son las de los fractales; las curvas autosimilares descubiertas
a comienzos del siglo XX como una curiosidad, abandonadas por un
tiempo debido a la dificultad para ser representadas, y que volvie-
ron con ímpetu a escena en la década de 1980, gracias al trabajo de
La Matemática del siglo XX 165
Benoît Mandelbrot. Precisamente, a este matemático se debe el des-
cubrimiento de una especie de fractal universal que, al ser examina-
do con un microscopio, aparece como un inagotable contenedor de
sorprendentes detalles, y cuyas imágenes se convirtieron en el sím-
bolo del fecundo potencial de un uso cuidadoso del ordenador en la
matemática.
De este modo, una vez introducido en rasgos generales el pro-
blema de la relación recíproca entre matemática e informática, pa-
semos ahora a examinar en detalle algunas de las más interesantes
aplicaciones del ordenador en a investigación matemática, a las que
ya hemos hecho referencia.
Figura 29. Venus etrusca
7.1. Teoría de Algoritmos: La Caracterización de Turing (1936)
En el Congreso Internacional de Bolonia de 1928, Hilbert propu-
so (nuevamente) otro de sus famosos problemas, el llamado Ents-
cheidungsproblem, o “problema de la decisión”: demostrar que existe un
algoritmo para decidir si una proposición es consecuencia lógica de
otras.
166 7. La Matemática y el Ordenador
Lo interesante del problema era el hecho de que las distintas ra-
mas de la matemática se pueden presentar demanera uniforme a tra-
vés de sistemas de axiomas, de donde se derivan los teoremas usan-
do sólo la lógica. Por lo tanto, un algoritmo como el que requería
Hilbert habría permitido a los matemáticos concentrarse en la parte
más placentera de su trabajo, es decir, en la formulación de axiomas
y la enunciación de enunciados interesantes, y dejar al algoritmo la
parte más pesada, o sea, la demostración de los enunciados a partir
de los axiomas.
De todos modos, el problema no era sólo la expresión de un de-
seo piadoso. En 1922, Emil Post ya había dado un paso fundamental,
al demostrar que la parte de la lógica llamada proposicional, que es-
tudia las partículas lingüísticas denominadas conectores (“no”, “y”,
“o”,“si-entonces”), admite en efecto tal algoritmo: el denominado
método de las tablas de verdad. Hilbert pretendía entonces extender el
resultado a la parte de la lógica llamada predicativa, que también tra-
ta de partículas lingüísticas, denominadas cuantificadores (“ninguno”,
“alguno”, “todos”).
El problema fue resuelto en 1936, independientemente, por Alon-
zo Church en los Estados Unidos y por Alan Turing en Inglaterra. La
solución, como se puede prever por el hecho de que las demostracio-
nes siguieron siendo la parte central de la actividad matemática, fue
negativa: un algoritmo como el que pretendía Hilbert no existe. Pe-
ro la demostración de este hecho presupone un progreso esencial: en
efecto, mientras que para demostrar la existencia de un algoritmo só-
lo basta con exhibirlo, demostrar que no existe requiere la exclusión
de todo posible algoritmo y, por lo tanto, la caracterización completa
de la noción misma de algoritmo.
El hecho de que tal noción, vaga e intuitiva, admita efectivamente
una caracterizaciónprecisa y formal fue un descubrimiento sorpren-
La Matemática del siglo XX 167
dente, al que se llegó mediante una serie de tentativas de definición
que, a posteriori, resultaron ser todas equivalentes. Pero fue preci-
samente el enfoque de Turing el que convenció definitivamente de
que se había llegado a la solución del problema: hoy su definición
se podría reformular de manera casi banal, diciendo que un algorit-
mo es aquello que se puede traducir en un programa por ordenador,
en cualquiera de los lenguajes llamados universales (por ejemplo, el
categórico Pascal, el funcional Lisp, o el lógico Prolog).
Naturalmente, en 1936 no existían los ordenadores. Es más, su
desarrollo se basó precisamente en la introducción, por parte de Tu-
ring, del concepto de máquina universal, que puede calcular toda
función calculable realizando un programa. Y en particular, se ba-
só en el paso de las máquinas construidas para ejecutar tareas fijas,
como las calculadoras, a las máquinas capaces de ejecutar cualquier
tarea ejecutable, como los ordenadores.
Turing derivó la solución negativa del Entscheidungsproblem tra-
duciendo, en el lenguaje de la lógica, el así llamado problema de la
parada: decidir si un programa dado se detiene en un argumento da-
do. Se puede demostrar fácilmente que este problema es indecidible,
en el sentido de que no existe ningún programa que lo pueda decidir,
utilizando el clásico método diagonal, introducido por Cantor en la
teoría de conjuntos, y luego aprovechado por Russell en su paradoja, y
por Gödel para su teorema de incompletitud -método que, por lo tanto,
Turing conocía muy bien (y también Church, quien resolvió el pro-
blema de manera análoga, pero usando su definición equivalente de
algoritmo en términos de Lambda cálculo)-.
La solución del Entscheidungsproblem mostró el camino para de-
mostrar resultados de indecidibilidad en los campos más variados,
mediante traducciones apropiadas del problema de la parada, o de
otros similares. Desde el punto de vista matemático, la aplicación
168 7. La Matemática y el Ordenador
más interesante del método fue la solución negativa del décimo pro-
blema de Hilbert: encontrar un algoritmo para decidir si un polinomio
(en una o más variables) con coeficientes enteros (positivos o nega-
tivos) admite ceros enteros; o, en otros términos, si la denominada
ecuación diofántica que se obtiene igualando el polinomio a 0, admi-
te raíces enteras.
En elmomento en que se llevaba a cabo el Congreso de 1900, ya se
conocían soluciones positivas a casos particulares del décimo proble-
ma de Hilbert. Por ejemplo, el algoritmo de Euclides para el máximo
común divisor permite tratar el caso de las ecuaciones diofánticas de
primer grado, porque
a1x1 + . . .+ anxn = b
tiene soluciones enteras si y sólo si el máximo común divisor de
a1, . . . , an divide a b. La ley de reciprocidad cuadrática de Gauss permite
tratar el caso de las ecuaciones diofánticas de segundo grado.
Un resultado obtenido en 1968 por Alan Baker, que establece efec-
tivos límites superiores a las soluciones de polinomios de al menos
tercer grado y que le valió la medalla Fields en 1970, permite tratar el
caso de las ecuaciones elípticas, lo que revela una profunda conexión
del décimo problema de Hilbert con la conjetura de Mordell y el teo-
rema de Fermat. El resultado de Baker se extendió luego para tratar
el caso de cualquier ecuación diofántica con dos variables.
Sin embargo, la dificultad para solucionar estos casos particula-
res permite anunciar que la respuesta al problema general debe ser
negativa y que, por lo tanto, no existe ningún algoritmo general de
decisión. Quienes demostraron este hecho fueron Martin Davis, Hi-
lary Putnam, Julia Robinson y Yuri Matiyasevich: en 1960, los tres
primeros mostraron cómo traducir el problema de la parada al len-
La Matemática del siglo XX 169
guaje de las ecuaciones diofánticas utilizando la función exponencial
(una ecuación describe el comportamiento de cada programa, dema-
nera tal que el programa se detiene si y sólo si la ecuación tiene so-
luciones); y en 1970, Yuri Matiyasevich eliminó el uso de la función
exponencial.
Depurando el resultado deMatiyasevich se puede demostrar que
el caso de cualquier ecuación diofántica con nueve variables ya es in-
decidible, pero no se sabe si éste es elmejor resultado posible. Esmás,
Baker conjetura que un caso con tres variables ya resulta indecidible.
7.2. Inteligencia Artificial: El Análisis del Ajedrez de Shannon (1950)
Ninguna aplicación del ordenador resulta más original y contro-
vertida que la que se realiza en la Inteligencia Artificial, para simular
procesos y resultados característicos de la inteligencia. La originali-
dad deriva, obviamente, de la provocación intelectual de considerar
el pensamiento, que es la característica humana más específica, co-
mo algo de lo que pueden estar dotadas también las máquinas. La
controversia deriva del hecho de que la Inteligencia Artificial, sobre
todo en los primeros períodos de las décadas de 1950 y 1960, se des-
equilibró en previsiones que resultaron, en la práctica, exageradas e
irreales, si no hasta simplemente ridículas.
Que las máquinas puedan pensar ya había sido sugerido por el
mismo Turing, en su famoso artículo de 1950 “Calculadoras e inteli-
gencia”. Allí propuso, en particular una prueba práctica que se cono-
ce como test de Turing: se puede decir que una máquina piensa cuan-
do un interlocutor que conversa con ella a distancia y por escrito no
se da cuenta de que las respuestas no son dadas por un ser humano.
Pero el nombre de Inteligencia Artificial fue adoptado oficialmen-
te por la comunidad informática en 1956, en el histórico congreso del
170 7. La Matemática y el Ordenador
Dartmouth College de Hanover, en NewHampshire. En este congre-
so participaron quienes se convertirían en los exponentes más repre-
sentativos de la disciplina, y que luego recibirían el reconocimien-
to informático más prestigioso, el Turing Award: Marvin Minsky en
1969, John McCarthy en 1971, y Allen Newell y Herbert Simon en
1975.
Originalmente, los sueños de la Inteligencia Artificial, declarados
expresamente por Simon en la década de 1950, eran llegar, en diez
años, a programas que ganaran el campeonato mundial de ajedrez,
demostraran importantes y nuevos teoremas de matemática e inspi-
raran la mayor parte de las teorías psicológicas.
Después de cuarenta años, la mayor parte de los sueños fueron
abandonados y el rol del ordenador ha sido drásticamente descali-
ficado: como instrumento matemático hoy es usado casi exclusiva-
mente para realizar cálculos masivos, más que para enunciar y de-
mostrar autónomamente nuevos teoremas, y comomodelo de teorías
mentales ya fue superado por las redes neuronales. Esto no signifi-
ca, obviamente, que con su ayuda no se haya conseguido resultados
trascendentes y aplicaciones útiles: los ejemplos más significativos,
además de los citados a continuación, son los sistemas expertos, que
codifican densos conocimientos de especialistas en bancos de datos,
y realizan deducciones a partir de esos conocimientos utilizando len-
guajes de programación que simulan densos aspectos mecánicos del
razonamiento.
En un único campo las previsiones de Simon se cumplieron de
manera más completa, aunque en tiempos más largos de lo previsto:
el juego de ajedrez. Ya en 1864 Charles Babbage, el visionario inven-
tor del primer ordenador, había anticipado la posibilidad de hacer
que una máquina jugara al ajedrez, formulando un primer grupo de
posibles instrucciones rudimentarias. Ya en 1890 Leonardo Torres y
La Matemática del siglo XX 171
Quevedo había formalizado completamente la estrategia para el ja-
que mate, cuando en el tablero hubiera sólo dos reyes y una torre.
Pero en realidad, el primer análisis informático del juego se debe
a un histórico artículo de Claude Shannon, de 1950. En particular, él
diferenció netamente: programas locales que, a fuerza bruta, analizan
el árbol de las posibilidades hasta una profundidadpreestablecida,
eligiendo el mejor movimiento en base a una evaluación minimax y
considerando sólo los movimientos más prometedores (cada nivel de
profundidad permite mejorar el puntaje del programa en 200 puntos
ELO aproximadamente); programas globales, que combinan el aná-
lisis en profundidad de los movimientos con una evaluación exten-
siva de la disposición, la movilidad, el equilibrio, la influencia y el
control de las piezas; y programas estratégicos que juegan mediante
reglas abstractas parecidas a las humanas.
El primer partido entre un hombre y un programa se jugó en
1951, entre el informático Alick Glennie y el Turochamp, escrito por
Alan Turing. Dado que las máquinas de la época todavía no eran de-
masiado potentes, Turing tuvo que simular el programa a mano. Y
dado que el programa era bastante poco sofisticado, Glennie ganó
fácilmente el partido en 29 movimientos.
Las optimistas previsiones de Simon fueron compartidas por Mi-
jail Botvinnik, él mismo campeón mundial (con dos breves interrup-
ciones) desde 1948 hasta 1963, quien en 1958 declaró que estaba se-
guro de que algún día el ordenador jugaría mejor que el hombre, y
luego se dedicó por mucho tiempo al desarrollo de programas glo-
bales y estratégicos.
El test de Turing, restringido al ajedrez, fue superado satisfacto-
riamente por primera vez en 1980 por Belle, campeón mundial de
los programas (el primer campeonato mundial se había llevado a ca-
bo en 1974). En una simultánea de 26 partidos jugados por el gran
172 7. La Matemática y el Ordenador
maestro Helmut Pfleger, el programa jugó secretamente tres parti-
dos. Cinco de los partidos, uno de los cuales fue jugado (y vencido)
por Belle, fueron seleccionados y distribuidos a varios expertos, in-
cluso al gran maestro Korchnoi, que había sido candidato al titulo
mundial en 1978: la mayor parte de los expertos, incluidos Korchnoi
y Pfleger, pero no Kasparov, se equivocaron al identificar el partido
jugado por el ordenador.
La mejora de los programas para ajedrez ha sido, en erecto, enor-
me. En 1978, se produjo la primera derrota de un maestro interna-
cional: David Levy, derrotado por Chess 4.7. En 1988, el gran maes-
tro Bent Larsen es derrotado por Deep Thought. En 1996, el campeón
mundial Gary Kasparov es derrotado por Deep Blue. Mientras que
en 1983 un programa (Belle) se convirtió por primera vez en maes-
tro, y en 1990 otro programa (Deep Thought) llegó a ser gran maestro.
El último paso de esta evolución se alcanzó el 11 de mayo de 1997,
cuando Deep Blue venció al campeón mundial Kasparov no sólo en
un partido, sino en un auténtico torneo, con puntaje de 3,5 a 2,5.
Hasta Belle los programas eran locales, Deep Thought y Deep Blue
son globales, pero la construcción de programas estratégicos no pare-
ce factible hasta el momento. Esto muestra los límites filosóficos del
proyecto de la Inteligencia Artificial, incluso en su realización de ma-
yor éxito: es decir, el hecho de poder simular en ocasiones el pen-
samiento humano, reproduciendo sus resultados, pero nunca poder
emularlo, reproduciendo sus procesos.
7.3. Teoría del Caos: El Atractor extraño de Lorenz (1963)
El problema fundamental de la dinámica es pasar de la descrip-
ción implícita de las leyes que regulan el movimiento de un punto
matemático o de un cuerpo físico, a una descripción explícita de la
trayectoria que sigue el punto o el cuerpo mismo: en dos palabras,
La Matemática del siglo XX 173
resolver las ecuaciones del movimiento.
La dinámica clásica se concentró en los movimientos que se pue-
den describir con ecuaciones diferenciales lineales, para las cuales se
desarrollaron varios métodos de solución analítica. Pero la dificultad
para solucionar ecuaciones diferenciales no lineales inhibió por mu-
cho tiempo un estudio profundo de los casos que se pueden describir
con este tipo de ecuaciones, también por el fenómeno de la inestabi-
lidad al que están vinculadas: aunque en teoría sean perfectamente
deterministas, los sistemas no lineales a menudo se comportan de
manera prácticamente caótica, ya que pequeñas variaciones de las
condiciones iniciales pueden determinar grandes variaciones en las
soluciones.
El advenimiento del ordenador permitió afrontar el estudio de
los sistemas no lineales mediante la fuerza bruta del cálculo: en vez
de resolver las ecuaciones de manera analítica, se simula el proceso
que ellas describen de manera analógica, y de este modo en lugar
de obtener una ecuación de la trayectoria se obtiene su imagen. Y la
solución gráfica a menudo resulta, no sólo prácticamente suficiente
para las aplicaciones, sino también visualmente inmediata para la
imaginación.
Una clasificación de los sistemas dinámicos en base al comporta-
miento que describen utiliza la noción de atractor, que es un confi-
guración de equilibrio hacia la cual tiende el cuerpo en movimiento.
En el caso más simple el atractor es un punto, por ejemplo, una masa
gravitacional que atrae un cuerpo (de aquí deriva, precisamente, el
nombre de atractor). Un caso un poco más complejo es el de una cur-
va cerrada, por ejemplo la de la tierra que se mueve alrededor del sol
(la curva obtenida es una elipse). Más complejo aun es el caso de una
superficie que el cuerpo en movimiento barre en un desplazamiento
casi periódico que se obtiene sobreponiendo movimientos periódi-
174 7. La Matemática y el Ordenador
cos, por ejemplo, el de la luna que se mueve alrededor de la tierra
que se mueve alrededor del sol (la superficie obtenida es la composi-
ción de dos movimientos elipsoidales perpendiculares, es decir, una
especie de toro).
También existen atractores extraños, que no son clásicos como los
anteriores: la rareza consiste en el hecho de que, en vez de ser pun-
tos, curvas o las superficies habituales, son fractales (en un sentido
preciso, que será definido a continuación).
El primer ejemplo de atractor extraño fue descubierto en 1963 por
Edward Lorenz, como solución de las ecuaciones que propuso para
describir el comportamiento del tiempo atmosférico, y se convirtió
en el emblema de la teoría del caos (Figura 30). Lo interesante es que,
precisamente porque tal solución se obtiene por simulación en or-
denador, la forma general del atractor de Lorenz es más o menos
siempre la misma, pero sus detalles varían según el (programa para)
ordenador usado.
Recién en 1995, Konstantin Mischaikov y Marian Mrozek demos-
traron (para colmo de ironía, con una demostración que necesitó un
extenso uso del ordenador) que el sistema de Lorenz es en efecto caó-
tico, en el sentido de que su comportamiento conduce a un atractor
extraño. Pero, por ahora, todavía no se ha demostrado que este atrac-
tor tenga la forma quemuestran sus aproximaciones en el ordenador:
y no resulta inmediato precisamente porque estamos en presencia de
un sistema caótico, en el cual pequeñas variaciones pueden provocar
grandes cambios.
Además del evidente interés aplicativo, que va desde la aerodi-
námica a la meteorología, la simulación de sistemas no lineales en
el ordenador también suscita interesantes cuestionamientos teóricos,
referidos a la interpretación de los resultados: el caos que aparece en
la pantalla del terminal no es una prueba automática de la naturaleza
La Matemática del siglo XX 175
caótica del sistema descripto por el sistema; y el verdadero atractor
de un sistema caótico no tiene necesariamente la forma de las aproxi-
maciones que muestra la máquina.
Figura 30. Atractor de Lorenz
7.4. Demostraciones asistidas: El Teorema de los Cuatro Colores de
Appel y Haken (1976)
En 1852, Francis Guthrie notó, coloreando un mapa de Inglaterra,
que no parecían ser necesarios más de cuatro colores para colorear
cualquier mapa asignando colores diferentes a regiones colindantes,
a condición de que los límites no fueran ni demasiado simples, ni
demasiado complejos. No demasiado simples significa, por ejemplo,
que no se permiten límites reducidos a puntos aislados: si no, basta
considerar regiones dispuestas como las porciones de una torta pa-ra deducir que ningún número finito de colores sería suficiente. No
demasiado complejos significa, por ejemplo, que se excluyen límites
demasiado irregulares: si no, basta considerar regiones que tengan el
mismo límite en común (los denominados lagos de Wada, Figura 31)
176 7. La Matemática y el Ordenador
para deducir que ningún número finito de colores sería suficiente.2
Para demostrar, bajo las condiciones mencionadas, que en efecto
se necesitan cuatro colores, basta exhibir cuatro países de los cuales
cada uno colinda con los otros tres, como en la Figura 32. Augus-
tus de Morgan demostró inmediatamente que no es posible que de
cinco países cada uno colinde con los otros cuatro, pero esto sólo sig-
nifica que no se puede demostrar del mismo modo que se necesitan
cinco colores. De ninguna manera se puede deducir de esto que cua-
tro colores sean suficientes, como en cambio supusieron una gran
cantidad de aficionados que durante un siglo propusieron demostra-
ciones erradas de la conjetura de los cuatro colores.
En 1879, Alfred Kempe publicó una demostración del teorema,
pero en 1890 Percy Heawood descubrió un error en esa demostra-
ción, aunque pudo probar que cinco colores son suficientes. La de-
mostración consistía en mostrar que las regiones que a lo sumo son
frontera de otras cinco regiones (Figura 33) son inevitables, en el sen-
tido de que todo mapa normal (es decir, en el que en ningún punto
se encuentran más de tres regiones) debe contener por lo menos una;
y que los mapas que contienen configuraciones inevitables se pue-
den reducir a otros que tengan por lo menos una región menos, y se
2Encontrar dos regiones con el mismo límite es banal: basta con dividir el plano
en dos partes mediante una recta o un circulo. Encontrar tres (o más) regiones con
el mismo límite es complicado, y requiere un proceso al límite. Para poder visuali-
zarlo, supongamos que tenemos dos lagos, uno verde y uno azul, en una isla negra
rodeada por un mar rojo. Primero se construye un canal que lleve el agua roja a la
isla de modo tal que la tierra negra nunca esté a más de un metro del agua. Luego,
se construye un canal que lleve agua verde a la isla de modo tal que la tierra negra
nunca esté a más de medio metro del agua. Finalmente, se construye un canal que
lleve agua azul a la ida demodo tal que la tierra negra nunca esté a más de un cuarto
de metro del agua. Luego se vuelve a empezar, alargando primero de primer canal
de modo tal que la tierra negra nunca esté a más de un octavo de metro del agua
roja, y así sucesivamente. Al límite, las tres regiones (verde, azul y roja) quedan di-
vididas por un único límite negro, que se redujo a las dimensiones infinitesimales
de una línea curva.
La Matemática del siglo XX 177
pueden colorear con el mismo número de colores.
Por ejemplo, si una región es a lo sumo cuadrangular, en el senti-
do de que a lo sumo colinda con otras cuatro regiones, el nuevomapa
se obtiene contrayendo las regiones hacia un punto (Figura 34). Si el
nuevo mapa se puede colorear con cinco colores a lo sumo, se puede
hacer lo mismo con el mapa original: basta usar, para la región eli-
minada, un color distinto de los usados (a lo sumo cuatro) para las
regiones vecinas.
Figura 31. Lagos de Wada
4
1 2
3
Figura 32.
Un poco más complejo es el caso de las regiones pentagonales,
que colindan con otras cinco regiones. En este caso el nuevo mapa
178 7. La Matemática y el Ordenador
se obtiene considerando como una única región la región pentago-
nal unida a dos colindantes con ella, pero no entre ellas (Figura 35).
Si el nuevo mapa se puede colorear a lo sumo con cinco colores, se
puede hacer lo mismo con el mapa original: basta usar, para la región
pentagonal, un color distinto de los cuatro colores usados para las re-
giones que quedaron en el nuevo mapa (las dos regiones que fueron
consideradas como la misma tendrán el mismo color, pero estarán
separadas por la región pentagonal, que tiene otro color).
1 2
3
4
5
Figura 33. Región pentagonal
1 2
34
Región cuadrangular
1 2
34
Contracción
Figura 34. Tratamiento de una figura cuadrangular
1 2
3
4
5
Región pentagonal
1
35
Contracción
Figura 35. Tratamiento de una región pentagonal
La Matemática del siglo XX 179
En el caso de cuatro colores, se pueden tratar de manera análo-
ga las regiones que a lo sumo son triangulares, y un truco permite
tratar también las regiones cuadrangulares, pero no hay forma de
tratar las regiones pentagonales. Y los intentos de arreglar la demos-
tración de Kempe produjeron, por un lado, conjuntos cada vez más
grandes de configuraciones inevitables y, por otro, conjuntos cada
vez más grandes de configuraciones reducibles, que permitieron de-
mostrar el teorema de los cuatro colores para mapas que tienen hasta
un centenar de regiones. Pero sólo en 1976, Kenneth Appel y Wolf-
gang Haken encontraron un conjunto de configuraciones que fueran
al mismo tiempo inevitables y reducibles, probando así por fin el teo-
rema en su generalidad.
El aspecto interesante de la demostración de Appel y Haken no
fue tanto la solución del problema, cuyo interés matemático era bas-
tante limitado, sino el método que utilizaron: las 1.482 configuracio-
nes inevitables y reducibles fueron encontradas mediante pruebas y
errores, a partir de un conjunto de origen de no más de 500, en un
proceso de búsqueda interactiva guiada por el ordenador, que nece-
sitó 1.200 horas (equivalentes a 50 días ininterrumpidos) de tiempo
máquina.
Por primera vez la demostración de un teorema matemático se
basaba en cuentas que no podían ser verificadas a mano, y cuando
el trabajo que contenía la demostración se presentó al Illinois Journal
of Mathematics, el control del resultado se realizó con el uso de otro
programa, implementado en otro ordenador. Esto suscita algunos in-
terrogantes de naturaleza filosófica, ya que las demostraciones asisti-
das por el ordenador no son iguales a las habituales: en estas últimas
se pasa directamente de la intuición a la formalización, mientras que
en las primeras el paso está mediado por un programa. El problema
es que no sólo no se puede saber si el programa formaliza correc-
180 7. La Matemática y el Ordenador
tamente la intuición, sino que demostrar la corrección del teorema
de Gödel es problemático, exactamente como ocurre con los sistemas
formales.
Puede ser que un día esta peculiar demostración de este peculiar
teorema se simplifique radicalmente. Pero también es posible que el
teorema de los cuatro colores sea un síntoma de un mal común a
todos los sistemas formales indecidibles: es decir, que deban existir
teoremas cortos de demostración arbitrariamente larga. Por ejemplo,
teoremas de largo n cuya demostración más corta tiene por lo menos
un largo 2n: de lo contrario el sistema sería decidible, porque para
saber si un enunciado de largo n es un teorema o no, bastaría generar
sistemáticamente todas las demostraciones de largo a lo sumo 2n, y
controlar si alguna de ellas demuestra el enunciado.
Por lo tanto, no tiene nada de raro que, por un lado, enunciados
simples necesiten demostraciones complejas, y por el otro, milenios
de desarrollo matemático probablemente hayan agotado la totalidad
de las demostraciones cortas (e interesantes). Lo que estamos presen-
ciando es quizás la llegada de una nueva era, en la cual las demos-
traciones serán cada vez más largas y complejas; y para remediar el
problema no queda más que dividir el trabajo entre muchos mate-
máticos, como en el caso de la clasificación de los grupos finitos, o
delegar una parte del trabajo al ordenador, como en el caso del teo-
rema de los cuatro colores.
Las más famosas demostraciones asistidas por el ordenador son
las del teorema de los cuatro colores y las de la conjetura de Kepler,
de quien ya hemos hablado. Otro ejemplo relevante para la matemá-
tica es la refutación de la conjetura de Mertens, a la que se llega de la
siguiente manera: En 1832, Moebius había considerado los números
en cuya descomposición losfactores primos aparecen todos con un
exponente igual a 1, o sea una sola vez, había asignado a estos nú-
La Matemática del siglo XX 181
meros el valor 1 o −1, dependiendo de si el factor era par o impar,
y había definido la función M(n) como la suma de estos valores, pa-
ra todos los números menores o iguales a n. En 1897, Franz Mertens
calculó los primeros 10.000 valores de la función M y conjeturó que,
para cada n,
−
√
n < M(n) <
√
n.
Esto podría parecer de escaso interés, pero, en realidad, la conjetura
de Mertens habría derivado la hipótesis de Riemann, es decir, como
veremos más adelante, el problema abierto más importante de la ma-
temática moderna.
El cálculo de valores cada vez más grandes de la función M pare-
ció confirmar la conjetura, pero en 1983 Hermann de Riele y Andrew
Odlyzko la refutaron, precisamente con una demostración asistida
que utilizó masivamente un superordenador CRAY.
7.5. Fractales: El Conjunto de Mandelbrot (1980)
En 1906, Helge von Koch descubrió que es posible que una re-
gión del plano tenga un área finita pero un perímetro infinito. Basta
considerar un triángulo equilátero, dividir cada lado en tres partes
iguales, considerar el tercio central de cada uno como la base de un
nuevo triángulo equilátero, y repetir el proceso al infinito (Figura 36).
El resultado final es una figura con forma de copo de nieve, que pre-
cisamente tiene un área finita, pero un perímetro infinito (en cada
paso el largo del borde se multiplica por 43 ).
A causa de la simétrica repetitividad del procedimiento que lo
define, el borde de la figura de Koch tiene la propiedad de ser auto-
similar: si se transforman dos segmentos cualesquiera de las varias
aproximaciones, por ejemplo un lado del triángulo original y un lado
de los triángulos obtenidos en el primer paso, se obtiene siempre la
182 7. La Matemática y el Ordenador
misma curva al límite, sólo que en una escala diferente.
Figura 36. Curva de Koch
Dado que este tipo de curvas no se pueden medir de la mane-
ra habitual, ya que tienen una longitud infinita, en 1918 Félix Haus-
dorff propusomedir al menos el grado de autosemejanza de la curva,
extendiendo la noción de dimensión de la siguiente manera. Un seg-
mento es una figura autosimilar unidimensional, que puede obtener-
se uniendo dos partes de tamaño 12 . Análogamente, un cuadrado es
una figura autosimilar bidimensional, que se puede obtener uniendo
cuatro partes de tamaño 12 . Y un cubo es una figura autosimilar tridi-
mensional, que se puede obtener uniendo ocho partes de tamaño 12
(Figura 37). En general, se puede concluir que una figura autosimilar
de dimensión d es aquella que puede obtenerse uniendo nd partes de
tamaño 1n . Dado que la curva de Koch se obtiene uniendo 4 partes de
tamaño 13 (se divide un segmento en 3 partes, y se sustituye la parte
central por partes iguales), esto significa que su dimensión d es tal
La Matemática del siglo XX 183
que 4 = 3d, es decir
d =
log 4
log 3
≈ 1, 26
Figura 37. Figuras autosimilares
Figuras que tienen dimensión fraccionaria, en el sentido que se
acaba de explicar, se llaman fractales, y existen en gran cantidad. Por
ejemplo, para cada número real r comprendido entre 1 y 2 existe una
curva fractal de dimensión r. Análogamente, también existen super-
ficies fractales, de dimensión comprendida entre 2 y 3. Un ejemplo,
conocido como esponja de Menger, puede obtenerse considerando un
cubo, dividiéndolo en 27 cubos, sustrayendo los 7 cubos centrales (6
en las caras y 1 en el interior), y repitiendo el proceso al infinito (Fi-
gura 38): la dimensión de esta superficie es (aproximadamente) 2,72,
mientras que el volumen que encierra es 0.
Figura 38. Esponja de Menger
Los ejemplos de fractales que se acaban de mostrar son altamente
regulares y usan siempre el mismo procedimiento en todos los pasos:
184 7. La Matemática y el Ordenador
por esta razón, agrandar un detalle produce una imagen del mismo
tipo que la figura grande. Sin embargo, también se pueden conside-
rar fractales si su construcción utiliza procedimientos distintos en ca-
da paso: en este caso, agrandar detalles produce imágenes distintas
de la figura grande.
La investigación acerca de este segundo tipo de fractales, iniciada
por Gastón Julia y Pierre Fatou en la década de 1920, se empantanó
por las dificultades de cálculo, que dificultan el dibujo a mano de las
imágenes. Pero la llegada del ordenador permitió retomar el tema y
las imágenes computerizadas de fractales complejos se convirtieron
en una verdadera forma de arte moderno.
El tipo más simple de fractal que se pueda considerar, además
del que se basa en modificaciones lineales de la figura original, im-
plica problemas cuadráticos. En 1980, Benoît Mandelbrot descubrió
una especie de fractal universal, definido de manera más bien indi-
recta: es decir, considerando la transformación x2 + c de puntos del
plano (los valores de la x son por lo tanto números complejos, y no
sólo reales), y aplicándola reiteradamente, partiendo de puntos cua-
lesquiera.
Si c es nulo, se presentan tres casos: los puntos que distan 1 del
origen, es decir, que están en el círculo de radio 1, no sonmovidos por
la transformación (porque x2 es igual a x, si x es igual a 1); los puntos
que distan menos de 1 del origen, que por lo tanto están dentro del
círculo de radio 1, se mueven hacia el origen (porque x2 es menor que
x, si x es menor que 1); los puntos que distan más de 1 del origen,
que por lo tanto están fuera del círculo de radio 1, se mueven hacia el
infinito (porque x2 es mayor que x si x es mayor que 1). Por lo tanto,
hay zonas de atracción, hacia el cero y hacia el infinito, divididas por
un límite circular.
Si c es arbitrario, pueden suceder varias cosas: el número de zo-
La Matemática del siglo XX 185
nas de atracción puede variar; además de las zonas de atracción tam-
bién puede haber zonas de órbitas periódicas; y el límite entre las
distintas zonas es una curva fractal que puede estar constituida por
una sola pieza, por varias piezas, o simplemente por una nube de
puntos dispersos.
El conjunto de Mandelbrot consiste en puntos c que originan una
zona de frontera de una sola pieza, y su extraña apariencia se convir-
tió en una de las formas geométricas más conocidas (Figura 39). Co-
mo demostraronAdrien Douady y JohnHubbard, en 1985, el conjun-
to a su vez está compuesto por una sola pieza (en lenguaje técnico, es
conexo). Y, como demostró Jean Christophe Yoccoz, todo punto que
no está en el perímetro está completamente rodeado por una parte
del conjunto que está constituida por una sola pieza (en lenguaje téc-
nico, es localmente conexo): uno de los resultados por los cuales Yoccoz
obtuvo la medalla Fields en 1994.
Figura 39. Conjunto de Mandelbrot
La posición de un punto c respecto del conjunto de Mandelbrot
determina cuál es el comportamiento de la transformación cuadrá-
tica x2 + c. La importancia del estudio de este peculiar aspecto fue
destacada con la medalla de Fields en 1998 a Curtis McCullen, quien
186 7. La Matemática y el Ordenador
aisló los puntos correspondientes a transformaciones que definen sis-
temas dinámicos hiperbólicos (o sea, con órbitas periódicas todas cir-
culares), particularmente útiles y muy estudiadas.
No obstante su definición, aparentemente muy particular, el con-
junto de Mandelbrot presenta un interés general: ya que de hecho es
un sistema de referencia para el estudio de los sistemas dinámicos
complejos, porque brinda información, no sólo sobre transformacio-
nes cuadráticas, sino sobre cualquier transformación que se compor-
te como una cuadrática aunque sea sólo en una parte del plano.
Con respecto a las aplicaciones, los fractales sirven para modelar
objetos que exhiben una estructura amuchos niveles de escala, desde
costas marítimas hasta cadenas montañosas, y se utilizan en la gráfi-
ca computerizada para reproducirlas con imágenes realistas (Figura
40). Justamente a causa de las variadas aplicaciones de los fractales,
Mandelbrot obtuvo el premio Wolfen 1995, no en matemática, sino en
física.
Figura 40. Paisaje renderizado mediante fractales por el software
TERRAGEN
http://www.planetside.co.uk/
8
Problemas irresueltos
La matemática, como esperamos haber demostrado, es sustan-
cialmente una actividad de propuesta y de solución de problemas,
fáciles o difíciles, superficiales o profundos, teóricos o prácticos, pu-
ros o aplicados. Y la provisión de problemas es inagotable, porque
frecuentemente de las soluciones surgen nuevos problemas. Una vez
agotado nuestro tratamiento de los desarrollos correspondientes a
los problemas de Hilbert, y más en general, de la matemática del
siglo XX, surge el deseo espontáneo de echar un vistazo a los proble-
mas futuros, cuando concluye un siglo que también marca el inicio
de un milenio.
Naturalmente, no es fácil juzgar la dificultad de un problema an-
tes de haber visto su solución, como demuestran precisamente los
problemas de Hilbert. Por ejemplo, el tercer problema fue resuelto in-
mediatamente porMax Dehn y su solución fue publicada incluso an-
tes de la aparición de las actas del congreso de París. Análogamente,
el séptimo problema fue resuelto en 1929, aunque sólo diez años an-
tes Hilbert hubiera declarado que no creía que pudiera resolverse en
menos de un siglo.
187
188 8. Problemas irresueltos
De todos modos, los matemáticos consideran que los problemas
que ellos proponen son, no sólo resolubles, sino también que tarde
o temprano serán efectivamente resueltos. Para citar las palabras de
Hilbert en su discurso en París: “La convicción de la resolubilidad de
cada problema es un incentivo poderoso para el investigador. Dentro
de nosotros sentimos la perpetua llamada: hay un problema, busque-
mos su solución. Y sólo se la puede encontrar con la razón, porque
en matemática no hay ningún ignorabimus”.
Hilbert se preguntó si la posibilidad de resolver todos los proble-
mas era una característica exclusiva del pensamiento matemático o
una ley más general de la naturaleza de la mente. Pero dijo claramen-
te que una solución aceptable de un problema matemático puede ser
también una demostración de su insolubilidad, como sucedió efec-
tivamente con su primer problema, sobre la hipótesis del continuo, y
con el décimo problema, sobre la existencia de soluciones de ecuaciones
diofánticas.
Naturalmente, la historia de la matemática está llena de solucio-
nes negativas. La irracionalidad de
√
2, descubierta por los pitagóri-
cos, no era otra cosa que una demostración de la insolubilidad de la
ecuación x2 − 2 = 0 en los números racionales. Y en el siglo XIX, se
demostró la insolubilidad de problemas geométricos (como la cua-
dratura del círculo y la trisección del ángulo mediante regla y com-
pás) y algebraicos (como la solución mediante radicales de las ecua-
ciones de grado mayor que el cuarto). Pero fue en el siglo XX cuando
el fenómeno alcanzó masa crítica, también gracias a su clarificación
a través del teorema de Gödel.
Advirtiendo entonces que un problema aparentemente interesan-
te y resoluble pueda resultar después desilusionante o insoluble, pro-
ponemos una breve lista de problemas abiertos de la matemática,
desde aquél que puede ser considerado el más antiguo hasta uno de
La Matemática del siglo XX 189
los más recientes, pasando a través de los dos que son considerados
universalmente los más profundos, o sea la hipótesis de Riemann y
la conjetura de Poincaré.
8.1. Aritmética: El Problema de los Números Perfectos (300 a.C.)
La teoría de los números está llena de problemas que, como de
último teorema de Fermat, son facilísimos de enunciar y dificilísimos
de resolver. El problema abierto más antiguo de la matemática es
precisamente de este tipo.
En el siglo VI a.C., los pitagóricos habían definido un número per-
fecto como un número que es igual a la suma de sus divisores, exclui-
do obviamente el número mismo, e incluida la unidad. Por ejemplo,
son perfectos 6 y 28, cuyos divisores son 1-2-3, y 1-2-4-7-14, respecti-
vamente. En la Creación del mundo (III), el filósofo hebreo del primer
siglo Philo Judaeus sostuvo que Dios creó el mundo en seis días jus-
tamente porque el número 6 es perfecto, y en la Ciudad de Dios (XI,
30) Agustín sostuvo la misma idea.
Además del 6 y el 28, los griegos conocían también el 496 Y el
8.128, El quinto número perfecto -33.550.336- apareció por primera
vez en un código alemán del siglo XV, y hoy se conocen en total sólo
unos cuarenta. Hacia el 300 a.C., Euclides, en la proposición IX.36 de
los Elementos, demostró en general que si 2n+1 − 1 es primo, entonces
2n(2n+1 − 1) es perfecto. La verificación es prácticamente inmediata,
pero mucho menos inmediato es demostrar que los números perfec-
tos pares son exactamente los del tipo encontrado por Euclides. La
demostración de que es así fue dada por Euler en 1737, y aprovecha
el mismo procedimiento que usó para demostrar que los números
primos son infinitos, que habría llevado a los desarrollos ya descrip-
tos, referidos a la hipótesis de Riemann.
190 8. Problemas irresueltos
Por lo tanto, los números perfectos pares están estrechamente
vinculados a los números primos del tipo 2m − 1, llamados primos de
Mersenne. Euler descubrió unmétodo eficiente para verificar si 2m− 1
es primo, que se basa en el llamado pequeño teorema de Fermat, es de-
cir, el hecho de que si p es un número primo, entonces 2p − 1 es igual
a 1 en el grupo cíclico con p elementos (o, como se dice, congruente
con 1 módulo p).
Pero dado que, como solía hacer, Fermat sólo había enunciado su
pequeño teorema, Euler se vio obligado a demostrarlo. Él dio una
primera demostración en 1737, pero en 1750 volvió al tema y, para
dar su segunda demostración, inauguró la teoría de congruencias, o sea
la teoría de los grupos cíclicos con un número primo de elementos,
que luego se convirtió en uno de los instrumentos más fecundos de
la teoría de los números.
El criterio de Euler todavía se usa en la búsqueda de grandes nú-
meros primos en el ordenador, y a finales del siglo XX, el primo más
grande (deMersenne) que haya conocido haya conocido era el citado
26972593 − 1 del que se puede tomar el más grande numero perfecto
conocido.
Como el sucesivo teorema de Fermat, también el estudio de los
números perfectos condujo al desarrollo de partes esenciales de la
moderna teoría de los números. Pero un primer problema sigue abier-
to: si existen o no números perfectos impares.
Si la respuesta es positiva, en teoría se podría encontrar un ejem-
plomediante una búsqueda exhaustiva, por ejemplo en el ordenador.
Pero en la práctica, todo depende de cuán grande sea el número per-
fecto impar más pequeño. En cambio, si la respuesta es negativa, los
resultados conjuntos de Euclides y Euler caracterizan entonces com-
pletamente a los números perfectos.
La Matemática del siglo XX 191
De todos modos, un segundo problema sigue abierto: si existen
infinitos números perfectos pares, o, equivalentemente, si existen in-
finitos números primos de Mersenne.
8.2. Análisis complejo: La Hipótesis de Riemann (1859)
Los números enteros siempre se pueden descomponer, respecto
de la suma, en sumandos iguales a 1. Respecto del producto, en cam-
bio, existen números primos que son indescomponibles, o sea, que no
admiten factores distintos de sí mismos ni de 1. Los números pri-
mos son los átomos del mundo numérico y su estudio reviste un rol
análogo al de la física de las partículas para el mundo físico.
Los primeros resultados profundos en este estudio fueron obte-
nidos por los griegos, quienes probaron que todo número se puede
descomponer demanera unívoca como producto de números primos
y que los números primos son infinitos, aunque sean cada vez más
esporádicos.
Una demostración directa de la infinitud de los números primos
aparece en los Elementos (IX, 20) de Euclides, pero una demostración
sorprendentemente indirecta la dio Euler en 1737. Él notó que, da-
do que todo número se puede descomponer en factores primos, al
variar n varían en realidad todos los posibles productosde números
primos, con todos los posibles exponentes. Si hubiera sólo un núme-
ro finito de primos, la suma
1+
1
2
+
1
3
+ . . .+
1
n
+ . . .
sería finita, porque sería el producto de un número finito de progre-
siones geométricas de tipo
1+
1
p
+
1
p2
+ . . . =
p
p− 1
192 8. Problemas irresueltos
Pero la suma anterior es infinita, porque las dos fracciones 13 y
1
4
contribuyen al menos 12 , y análogamente las sucesivas 4, 8, 16, etcé-
tera.
Los números primos son 25 hasta 100, 168 hasta 1.000, 1.229 hasta
10.000,9.592 hasta 100.000. Una distribución que, como notaron Euler
y Gauss, decrece de manera aproximadamente logarítmica, en el sen-
tido de que los números primos hasta 10n son aproximadamente 10
n
2n :
25 hasta 100, 167 hasta 1.000, 1.250 hasta 10.000, 10.000 hasta 100.000.
En términos generales, y usando los logaritmos naturales, se puede
conjeturar el teorema de los números primos, según el cual la cantidad
de primos hasta n se acerca cada vez más a la relación
n
log n
En 1859 Bernhard Riemann, intentando demostrar el teorema, no-
tó que el problema está ligado al comportamiento de la función
ζ(z) = 1+
1
2z
+
1
3z
+ . . .+
1
nz
+ . . .
La conexión de la función ζ con los números primos es aparente se-
gún la anterior demostración de Euler, que muestra sin embargo que
para z menor o igual a 1 la función ζ, tiene un valor infinito; por es-
ta razón Riemann amplió la función desde los números reales a los
complejos, mediante una técnica llamada de prolongación analítica
(sustancialmente, se define el valor de ζ como límite no de las sumas
parciales, sino de sus medias).
La función ζ, admite infinitos ceros complejos no reales, es decir,
números de tipo z = x+ iy con y 6= 0 y ζ(z) = 0, y que se encuentran
todos en la franja definida por x entre 0 y 1. Riemann conjeturó que
estos números se deben encontrar todos sobre la recta definida por
La Matemática del siglo XX 193
x = 12 , una conjetura conocida como hipótesis de Riemann, que consti-
tuye el problema abierto más importante de la matemática moderna.
Todavía hoy sólo se sabe de ella que, en efecto se encuentran infinitos
ceros sobre la recta justa, como comprobó Hardy en 1914, y que es así
para los primeros ceros, hasta varios miles de millones de ellos.
De todosmodos, para llegar al teorema de los números primos no
era necesario conocer la función ζ en los detalles descriptos por la hi-
pótesis de Riemann; en 1896 el teorema fue demostrado por Jacques
Hadamard y Charles Jean de la Vallée Poussin, y la demostración só-
lo necesitó probar el hecho de que ningún cero de la función ζ está
sobre la recta definida por x = 1.
Por lo tanto, la hipótesis de Riemann quedó abierta y formó parte
del octavo problema de Hilbert. Este problema proponía también varias
otras preguntas sobre los números primos, entre ellas las conjeturas
de Goldbach, de 1742, y de los primos gemelos, la primera sostiene que
todo número par mayor que 2 es la suma de dos números primos; y
la segunda, que existen infinitos números primos cuya diferencia es 2
(como 3 y 5, o 10.006.427 y 10.006.429). También estas dos conjeturas,
como la hipótesis de Riemann, permanecen aún sin ser demostradas.
Hilbert también propuso estudiar el comportamiento de los nú-
meros primos (ideales) en campos arbitrarios. Una versión de la hi-
pótesis de Riemann para un análogo de la función ζ, asociada a cur-
vas algebraicas en campos finitos fue propuesta en 1924 por Emil Ar-
tin, y demostrada en 1940-1941 por André Weil, premio Wolf en 1979
El mismo Weil propuso, en 1949, un análogo de la hipótesis de Rie-
mann para variedades algebraicas multidimensionales en campos fi-
nitos, que se hizo famosa con el nombre de conjetura de Weil, y fue
demostrada en 1973 por Pierre Deligne, quien recibió por este traba-
jo la medalla Fields en 1978. La demostración de Deligne fue el primer
gran resultado obtenido mediante un arsenal de técnicas extremada-
194 8. Problemas irresueltos
mente abstractas de geometría algebraica (como los esquemas y la
cohomología l-ádica) introducidas en los años 1960 por Alexandre
Grothendieck, medalla Fields en 1966.
El aparente alejamiento de las problemáticas y de las técnicas de
la teoría clásica de los números no debe hacer pensar que no se haya
vuelto a acudir a ellas; del resultado de Deligne se deduce, por ejem-
plo, una conjetura de Ramanujan de principios de siglo, y los métodos
usados por Deligne son los mismos que permitieron que Faltings y
Wiles demostraran la conjetura de Mordell en 1983 y el teorema de
Fermat en 1995. De todosmodos, el último cuarto de siglo ha testimo-
niado la llegada de una nueva fase geométrico-algebraica de la teoría
de los números, después de las fases aritmética y analítica inaugura-
das respectivamente por Fermat y Euler, con el método de descenso
infinito y la introducción de la función ζ.
Pero después de resolver problemas de teoría de los números con
técnicas analíticas o geométrico-algebraicas todavía resta compren-
der si estas técnicas son necesarias, o si, en cambio, no es posible
encontrar demostraciones clásicas que no hagan intervenir concep-
tos ajenos a la teoría misma de los números. Tales demostraciones se
llaman “elementales” desde el punto de vista de la complejidad ló-
gica, que no se debe confundir con la complejidad matemática, dado
que el uso de técnicas más acotadas tiende precisamente a producir
demostraciones más complicadas.
En el caso del teorema de los números primos, en 1949 Paul Er-
dös y Atle Selberg dieron una demostración elemental del teorema,
que le valió al segundo la medalla Fields en 1950, y a ambos el premio
Wolf en 1983/1984 y 1986, respectivamente. Todavía no se han en-
contrado demostraciones elementales de las conjeturas de Ramanu-
jan, Mordell y Fermat, y se piensa que tales demostraciones podrían
tener una dimensión y una complejidad prohibitivas.
La Matemática del siglo XX 195
8.3. Topología Algebraica: La Conjetura de Poincaré (1904)
La topología algebraica es el estudio de propiedades topológicas
a través de métodos algebraicos. El primer ejemplo de este enfoque
es la llamada característica de Euler de una superficie, ya conocida por
Descartes en 1639 y por Leibniz en 1675, pero redescubierta y publi-
cada por Euler en 1750.
La observación inicial es que, dado un poliedro convexo, entre el
número V de sus vértices, L de sus lados y F de sus caras subsiste la
siguiente relación: V − L+ F = 2.
Por ejemplo, en el caso de un cubo se tienen 8 vértices, 12 lados
y 6 caras, entonces: 8− 12+ 6 = 2. La relación sigue valiendo para
los grafos dibujados sobre una esfera, lo que muestra precisamente
que se está frente a una propiedad topològica: si se infla un poliedro
de goma hasta convertirlo en una esfera, sus lados representan un
grafo sobre ella; viceversa, aplastando las caras de un grafo sobre
una esfera de goma se obtiene un poliedro.
Lo que hace este asunto interesante es que la cantidad V − L+ F
depende sólo del tipo de superficie sobre la cual el grafo está dibu-
jado, vale 2− 2n si la superficie es una esfera con n aros, y 2˘n si la
superficie es una esfera con n cintas de Moebius. Por ejemplo, el va-
lor es 2 para la esfera, 1 para el plano proyectivo, 0 para el toro y
la botella de Klein. Sabiendo si una superficie bidimensional cerra-
da es orientable o no, y cuál es su característica de Euler, es posible
clasificarla completamente.
Para superficies en 3 (o más) dimensiones, un análogo de la ca-
racterística de Euler fue definido por Poincaré en una serie de tra-
bajos entre 1895 y 1900, pero no basta para clasificarlas. La idea es,
entonces, prever los resultados anteriores de manera más elaborada,
asociando a una superficie bidimensional no sólo un número, sino
un grupo fundamental: se fija un punto en la superficie y sobre esa
196 8. Problemas irresueltos
superficie se consideran los recorridos que parten desde el punto y
vuelven al mismo (la aplicación de un recorrido a otro es el recorri-
do obtenido recorriendo primero uno y después elotro; el recorrido
neutro es el que no se mueve del punto; el inverso de un recorrido
dado es el recorrido efectuado en el sentido opuesto).
Dado que se están tratando propiedades topológicas, los recorri-
dos deben ser considerados como si fueran de goma: dos recorridos
que se pueden transformar uno en el otro estirándolos o contrayén-
dolos, sin romperlos, son sustancialmente iguales. Esta identificación
de recorridos se llama homotopía y por este motivo el grupo funda-
mental de una superficie se llama también primer grupo de homoto-
pía.
El grupo fundamental de la esfera es trivial, cualquier recorrido
se puede contraer a un punto. Además, la esfera es la única superficie
cerrada orientable cuyo grupo fundamental es trivial, en efecto, si
una superficie tiene al menos un aro, un recorrido que pase alrededor
del aro no se puede contraer a un punto. El grupo fundamental es,
por consiguiente, suficiente para distinguir la esfera de cualquier otra
superficie orientable y, más en general, superficies bidimensionales
de distinto tipo entre sí.
Poincaré amplió la noción de grupo fundamental a superficies en
3 y más dimensiones, con la esperanza de conducir a una clasifica-
ción topològica de naturaleza algebraica de esas superficies. Pero las
cosas resultaron más complicadas de lo previsto, y hoy se sabe que
los grupos fundamentales no son suficientes para caracterizar las su-
perficies tridimensionales. Por esta razón, la clasificación de Thurs-
ton, de la que hablamos anteriormente, usa esencialmente conceptos
no sólo algebraicos sino también geométricos, como los posibles ti-
pos de geometría que se pueden asignar a los elementos de una su-
perficie.
La Matemática del siglo XX 197
En 1904, Poincaré formuló una conjetura que no se refería a su-
perficies cualesquiera, sino sólo a la hiperesfera, y preguntaba si ésta
es la única superficie tridimensional cerrada y orientable cuyo gru-
po fundamental es trivial. Una respuesta positiva se deduciría de la
caracterización de las superficies tridimensionales de Thurston, que
sin embargo todavía no ha sido demostrada; es más, precisamente
la conjetura de Poincaré es uno de los obstáculos más fuertes para
completar su demostración.
Lo interesante es que, una vez aplicada la conjetura a las esferas
de cualquier dimensión, el único caso que queda abierto es justamen-
te el original de Poincaré. En efecto, con respecto a las esferas de 5 o
más dimensiones, la conjetura de Poincaré fue comprobada en 1960
por Stephen Smale, quien obtuvo por este trabajo la medalla Fields en
1966 (más tarde Smale se convirtió en uno de los más famosos in-
telectuales estadounidenses que tomó posición contra la guerra de
Vietnam, y la Universidad de California le suspendió el sueldo). En
lo que concierne, en cambio, a la esfera de 4 dimensiones, la conje-
tura de Poincaré se deduce de la caracterización de Freedman de las
superficies tetradimensionales, de manera análoga a la de las super-
ficies bidimensionales, descrita anteriormente.
Independientemente de las soluciones, las dificultades para de-
mostrar la conjetura de Poincaré revelaron que la información co-
dificada por el grupo fundamental es demasiado limitada. Por esta
razón, en 1935 Witold Hurewicz introdujo una serie infinita de grupos
de homotopía para la esfera de n dimensiones. El grupo fundamental
es el primero de la serie, y los primeros n son los denominados grupos
de homología, que se obtienen considerando recorridos en varias di-
mensiones, en vez de unidimensionales únicamente; por ejemplo, no
sólo elásticos extendidos sobre la esfera, sino globitos (des)inflables,
y así sucesivamente.
198 8. Problemas irresueltos
El resultado fundamental sobre los sucesivos grupos de homoto-
pía de la esfera en n dimensiones es el teorema de finitud, demostrado
en 1951 por Jean-Pierre Serre; todos estos grupos son finitos, con la
única excepción del grupo (2n− 1)-ésimo cuando n es par, por ejem-
plo del tercer grupo de la esfera bidimensional. Este resultado le va-
lió a Serre la medalla Fields en 1954 y contribuyó a que le asignaran
también el premio Wolf en 2000.
De todas maneras, la determinación precisa de estos sucesivos
grupos de homotopía resultó ser muy complicada. En 1950, Lev Pon-
tryagin calculó los primeros dos y Rokhlin el tercero, y en 1951 Serré
el cuarto. Para poder realizar su cálculo Pontryagin tuvo que deter-
minar cuándo una superficie compacta de n dimensiones es el borde
de una superficie de n+ 1 dimensiones; encontró una condición ne-
cesaria que, en 1954, René Thom demostró que también es suficiente.
De este último trabajo nace la importante teoría del cobordismo, por
la que Thom obtuvo la medalla Fields en 1958. Entre las aplicaciones
más espectaculares del cobordismo se encuentran dos resultados que
llevaron a la asignación de las medallas Fields en 1962 y 1966: el teo-
rema de Milnor sobre las esferas exóticas (que en este contexto se
puede reformular diciendo que en dimensión 7 existen esferas que
no son el borde de una pelota) y el teorema del índice de Atiyah-
Singer. La extensión, por parte de Milnor y Smale del cobordismo
al h-cobordismo (h es la inicial de homotopy) permitió luego que No-
vikov obtuviera la medalla Fields en 1970, por la clasificación de las
variedades diferenciales de dimensión mayor o igual a 5.
8.4. Teoría de la Complejidad: El Problema P = NP (1972)
La definición de algoritmo de Turing divide las funciones numé-
ricas en dos clases, calculables y no calculables. Pero esta subdivisión
no constituye más que una primera aproximación, porque muchas
La Matemática del siglo XX 199
funciones que son calculables en teoría no lo son en absoluto en la
práctica. Por ejemplo, un algoritmo cuya ejecución requiera un tiem-
po más largo que la duración del universo, o incluso sólo de una
vida humana, no puede ser considerado concretamente ejecutable,
aunque pueda serlo en abstracto.
Desde un punto de vista aplicativo se necesita, por consiguiente,
limitarse a algoritmos que tengan tiempos de ejecución suficiente-
mente veloces. En 1965, Edmonds y Cobham propusieron, como se-
gunda aproximación, la distinción entre algoritmos que se ejecutan
en tiempo polinomial y los que no lo hacen. El tiempo de ejecución se
mide en este caso mediante el número de pasos ejecutados por el or-
denador, y la variable del polinomio corresponde a la dimensión de
los datos sobre los que el algoritmo opera, por ejemplo, a su largo;
de este modo, un algoritmo cuadrático requiere más que 100 pasos
sobre números de 10 cifras, más de 10.000 pasos sobre números de
100 cifras, y así sucesivamente.
Naturalmente, el tiempo de ejecución de un algoritmo depende
fuertemente del tipo y de la potencia del ordenador que se usa para
ejecutarlo. Pero sorprendentemente, si un algoritmo opera en tiem-
po polinomial sobre un ordenador particular, éste sigue operando
en tiempo polinomial sobre cualquier otro; dicho de otra manera, la
diferencia entre los varios modelos de ordenadores y sus variadas
implementaciones siempre se puede contener en un factor polino-
mial, que puede combinarse con un tiempo de ejecución polinomial
sin mutar su naturaleza. Por lo tanto, ser ejecutable en tiempo po-
linomial constituye una característica intrínseca, y no accidental, de
un algoritmo.
Entre los algoritmos de los que hemos hablado anteriormente el
método del simplex es, por ejemplo, no polinomial, pues para una
infinidad de datos el algoritmo requiere un tiempo exponencial pa-
200 8. Problemas irresueltos
ra dar la respuesta. Esto no significa en absoluto que el problema
mismo de la programación lineal no se pueda resolver en tiempo po-
linomial, sino sólo que la particular solución ofrecida por el método
del simplex no lo es. Y, en efecto, en 1979 Khachian encontró un al-
goritmo alternativo, llamado método de los elipsoides, que resuelve el
problema de la programación lineal en tiempo polinomial.
La clase de problemas para los que existe una solución polinomial
se indica con el símbolo P. En 1972, StephenCook, Richard Karp y
Leonid Levin descubrieron una clase potencialmentemás amplia que
P indicada con el símbolo NP cuyos problemas, aunque no necesa-
riamente resolubles en tiempo polinomial, “casi” lo son en el sentido
de que, de cada propuesta de solución, se puede verificar en tiem-
po polinomial si funciona o no. Por lo tanto, la diferencia entre P y
NP es la siguiente: para estar en la primera clase es necesario que
un problema admita un método para encontrar la solución en tiempo
polinomial, mientras para estar en la segunda clase es suficiente que
un problema admita un método para verificar la solución en tiempo
polinomial.
Es fácil convencerse de que es más difícil encontrar una solución
que verificarla. Por ejemplo, verificar que cierto número de teléfono
corresponde a cierta persona es fácil, porque basta consultar la guía
telefónica en orden alfabético; pero encontrar a la persona que tiene
cierto número de teléfono es difícil, porque requiere una búsqueda
exhaustiva en toda la guía telefónica. Más matemáticamente, verifi-
car que
4.294.967.297 = 641× 6.700.417
es un juego de niños, pero encontrar la descomposición requiere el
ingenio de Euler o la potencia del ordenador. Y el problema de la
descomposición en factores es precisamente uno de los que están en
NP, precisamente porque es fácil verificar si dos números son o no la
La Matemática del siglo XX 201
descomposición de un tercer número. Pero no se sabe si el problema
también está en P, es decir, si existe un método veloz para verificar
si un número se puede descomponer, o si en cambio, es primo (la
respuesta es positiva si la hipótesis de Riemann es verdadera).
Justamente sobre este último hecho se basa la criptografía de clave
privada, que se sustenta en la siguiente idea: el emisor y el destina-
tario poseen un número entero muy grande, que cumple la función
de clave personal de codificación y decodificación y se mantiene en
secreto. E1 emisor que manda un mensaje m al destinatario lo codifi-
ca mediante la propia clave c, transformándolo enmc. El destinatario
que recibe el mensajemc lo codifica a su vez mediante la propia clave
d, transformándolo en mcd, y lo reenvía al emisor. Éste decodifica el
mensaje mediante la propia clave C transformándolo en md, y lo re-
envía al destinatario, que finalmente decodifica el mensaje mediante
la propia clave d, recuperando m. La eficiencia del método se basa
en el hecho de que la doble decodificación del mensaje requiere des-
composiciones en factores de números muy grandes, que se pueden
hacer velozmente sólo conociendo las claves. La desventaja es, en
cambio, que el método requiere una doble codificación y decodifica-
ción, tanto por parte del emisor como del destinatario.
Para evitar el obstáculo se usa la criptografía de clave pública, que
se basa en una idea similar pero más complicada. Cada destinatario
posee dos números enterosmuy grandes que funcionan como claves,
una c de codificación, que se hace pública, y una d de decodificación,
que se mantiene en secreto. El emisor que manda un mensaje m al
destinatario lo codifica mediante la clave pública c, transformándolo
en mc, y el destinatario decodifica este mensaje mediante la clave se-
creta d, transformándolo en(mc)d = mcd. Para que la decodificación
tenga éxito el mensaje decodificado deberá ser igual al original, es de-
cir cd deberá ser igual a 1; aunque esto resulte imposible literalmente,
202 8. Problemas irresueltos
el pequeño teorema de Fermat asegura que, dados dos números p y
q si cd es igual a 1 módulo (p− 1)(q− 1) entonces mcd es igual a m
módulo pq. La eficiencia del método se basa en el hecho de que para
la codificación y la decodificación del mensaje basta conocer el pro-
ducto pq, que también se hace público, pero el hallazgo de la clave de
decodificación d a partir de la clave de codificación c requiere que se
conozca (p − 1)(q − 1), que se obtiene de la descomposición de pq,
que no se puede hacer velozmente.
En general, actualmente se sabe de miles de problemas de interés
teórico o de utilidad aplicativa que están en NP, sin saber si tam-
bién están en P. Ejemplos relacionados con cuestiones que ya hemos
considerado anteriormente son la posibilidad de satisfacer fórmu-
las preposicionales, la existencia de soluciones enteras de ecuaciones
diofánticas cuadráticas y la posibilidad de colorear un papel con tres
colores. Un ejemplo de problema variacional para algunos casos, del
que se puede obtener una solución empírica con pompas de jabón, es
el problema de Steiner: dado un mapa, conectar las ciudades con calles
de manera que el largo total del retículo vial sea mínimo (la solución
que se obtiene con pompas de jabón es óptima localmente, pero no
siempre globalmente). Un ejemplo parecido muy conocido, por su
interés aplicativo, es el problema del vendedor viajante: dado un mapa
con ciudades conectadas por calles, encontrar el recorrido de largo
mínimo que pase por cada ciudad exactamente una vez.
Uno de los descubrimientos sorprendentes de Cook, Karp y Le-
vin fue que todos estos problemas (con la única posible excepción
de la descomponibilidad), así como otros miles en las áreas más va-
riadas de la matemática pura y aplicada, son sustancialmente equi-
valentes; encontrar una solución polinomial para cualquiera de ellos
significaría encontrar una para todos, porque existen traducciones
polinomiales de cada uno de ellos a los otros. Por estos resultados
La Matemática del siglo XX 203
Cook y Karp recibieron el Turing Award, respectivamente en 1982 y
1985. Levin, en cambio, terminó en prisión como disidente, y des-
pués de ser liberado por intervención de Kolmogorov emigró de la
Unión Soviética.
Encontrar una solución polinomial, o bien demostrar que no exis-
te, para cualquiera de los problemas equivalentes aislados por Cook,
Karp y Levin hasta ahora ha resultado imposible; el problema de de-
finir si P y NP son o no la misma clase se ha tornado un desafío, y se
ha convertido en el problema abierto más conocido de la informática
teórica.
Para enunciar una reformulación puramente matemática del pro-
blema, recordemos que el famoso Nullstellensatz de Hilbert de 1890
daba una condición necesaria y suficiente para que un sistema fini-
to de ecuaciones polinomiales de coeficientes complejos tenga una
solución. Brownawell demostró en 1987 que el problema se puede
resolver en tiempo exponencial, pero no se sabe si también se pue-
de resolver en tiempo polinomial. Reduciendo los coeficientes de los
polinomios y las soluciones del sistema sólo a números raciónales (o
también sólo a números 0 y 1), una solución polinomial del problema
existe si, y sólo si, P es igual a NP. Nuestra disertación concluye en-
tonces, de manera apropiada, con la misma insignia del vital espíritu
de Hilbert que la ha invadido.
204 8. Problemas irresueltos
9
Conclusión
En el final de nuestro recorrido a través de la matemática del siglo
XX, no nos queda más que recapitular sus etapas. La naturaleza dia-
crónica y de collage de la exposición, por otra parte anunciada, quizás
requiere un enfoque complementario, que aisle de la trama del tejido
los principales hilos. Los proponemos enseguida en forma de tablas
de recapitulación.
PROBLEMAS Y CONJETURAS
Ante todo, fueron los problemas y las conjeturas los que nos guia-
ron en la historia de la búsqueda de sus soluciones, y recordamos
aquí los más importantes:
300 a.C. Euclides números perfectos
1611 Kepler configuraciones de esferas de máxima densidad
1637 Fermat soluciones enteras de xn + yn = zn
205
206 9. Conclusión
1640 Fermat primos de tipo 22
n
+ 1
1742 Goldbach enteros pares como suma de dos primos
1847 Plateau superficies minimales
1852 Guthrie coloración de mapas con cuatro colores
1859 Riemann ceros de la función ζ
1883 Cantor hipótesis del continuo
1897 Mertens límite de la función M de Moebius
1902 Burnside (I) grupos periódicos finitamente generados
1904 Poincaré caracterización de la hiperesfera
1906 Burnside (II) grupos simples impares de orden1922 Mordell soluciones infinitas de las ecuaciones diofánticas
1928 Hilbert decisión de la lógica de primer orden
1933 Robbins axiomatización de las álgebras booleanas
1949 Weil hipótesis de Riemann sobre los campos finitos
1955 Taniyama parametrización de las curvas elípticas
1962 Shafarevich, reducciones de ecuacones del módulo de los
números primos
1972 Cook, Karp y
Levin
P = NP
1979 Conway y
Norton
Claro de luna
Una mención especial merecen los problemas de Hilbert de 1900,
que fueron uno de los motivos conductores de nuestra exposición, y
entre los cuales hemos citado los siguientes:
primero hipótesis del continuo
segundo consistencia del análisis
La Matemática del siglo XX 207
tercero descomposición del tetraedro
cuarto geodésicas en varias geometrías
quinto grupos localmente euclídeos y de Lie
sexto axiomatización de la probabilidad y de la física
séptimo trascendencia de eπ y 2
√
2
octavo hipótesis de Riemann, conjetura de Goldbach
décimo soluciones de las ecuaciones diofánticas
decimotavo grupos cristalográficos, problema de Kepler
decimonoveno analiticidad de las soluciones de problemas variacionales
vigésimo existencia de las soluciones de problemas variacionales
vigésimo tercero cálculo variacional
RESULTADOS
El otro hilo conductor de nuestra exposición han sido los trabajos
de los ganadores de las medallas Fields y de los premios Wolf, entre
los cuales hemos intentado citar los resultados más significativos de
la mayoría. De las medallas Fields hemos recordado:
1936 Douglas problema de Plateau
1950 Schwartz teoría de las distribuciones
1950 Selberg teorema de los números primos
1954 Kodaira clasificación de las variedades algebraicas en 2
dimensiones
1954 Serre grupos de homotopía de las esferas en n
dimensiones
1958 Roth aproximaciones racionales de irracionales
algebraicos
1958 Thom teoría del cobordismo
1962 Hörmander operadores hipoelípticos
1962 Milnor estructura exótica de la esfera de 7 dimensiones
208 9. Conclusión
1966 Atiyah K-teoría, teorema del índice
1966 Cohen independencia de la hipótesis del continuo
1966 Grothendieck esquemas, cohomología l-ádica
1966 Smale conjetura de Poincaré en dimensiones ≥ 5
1970 Baker extensión de los teoremas de Lindemann y Gelfond
1970 Hironaka resolución de singularidades en variedades
algebraicas
1970 Novikov clasificación de las variedades diferenciables en
dimensiones ≥ 5
1970 Thompson segunda conjetura de Burnside
1974 Bombieri teoría de números, superficies minimales
1978 Deligne conjetura de Weil
1983 Connes álgebras de operadores de Von Neumann
1983 Thurston clasificiación de superficies en 3 dimensiones
1983 Yau varidades de Calabi-Yau
1986 Donaldson estructura exótica del espacio en 4 dimensiones
1986 Faltings conjeturas de Shafarevich, y Mordell
1986 Freedman clasificación de las variedades en 4 dimensiones
1990 Jones invariantes de nudos
1990 Witten teoría de supercuerdas
1994 Bourgain subespacios de Hilbert de espacios de Banach
1994 Yoccoz teorema KAM, conjunto de Mandelbrot
1994 Zelmanov primera conjetura de Burnside condensada
1998 Borcherds conjetura Claro de luna
1998 Gowers espacios de Banach (no) simétricos
1998 Kontsevich invariantes de nudos
1998 McCullen conjunto de Mandelbrot
La Matemática del siglo XX 209
De los premios Wolf hemos recordado:
1978 Siegel
1979 Weil
1980 Kolmogorov
1982 Whitney
1983-84 Erdös
1984-85 Kodaira
1986 Eilenberg, Selberg
1988 Hörmander
1989 Milnor
1990 De Giorgi
1992 Thompson
1993 Mandelbrot (física)
1994-95 Moser
1995-96 Langlands, Wiles
2000 Serre
Además de los matemáticos, también hemos citado, aunque ve-
lozmente, los resultados de algunos informáticos que recibieron el
más alto reconocimiento en su campo, es decir, el Turing Award:
1969 Minsky Inteligencia Artificial
1971 McCarthy Inteligencia Artificial
1975 Newell y
Simon
Inteligencia Artificial
1976 Scott semántica del Lambda Cálculo
1982 Cook teoría de la complejidad
1985 Karp teoría de la complejidad
210 9. Conclusión
Algunos trabajos de matemática aplicada están directamente vin-
culados a resultados que han llevado a sus autores o a otros al premio
Nobel, en varias disciplinas:
1932 Heisenberg física mecánica cuántica
1933 Schrödinger física mecánica cuántica
1962 Crick y
Watson
medicina estructura del ADN
1969 Gell-Mann física simetría de los quark
1972 Arrow economía selección social, equilibrio general
1975 Kantorovich
y Koopman
economía programación lineal
1976 Prigogine química dinámica de los sistemas disipativos
1979 Glashow,
Weinberg y
Salam
física simetría de la fuerza electrodébil
1983 Debreu economía equilibrio general
1994 Nash economía teoría de los juegos
10
Bibliografía
Ante todo citamos una serie de textos de divulgación que pueden
ser útiles para complementar la lectura de nuestro trabajo:
Casti, John, Five golden rules: great theories of 20th century mathematics, and why
they matter, Wiley, 1996.
Cuadernos “Le Scienze”:
Matematica e calcolatore (No14, marzo de 1984)
Numeri, caso e sequenze (No45, diciembre de 1988)
Logica (No60, junio de 1991)
La matematica della complessità (No67, septiembre de 1992)
Modelli matematici (No81, diciembre de 1994)
Matematica computazionale (No84, junio de 1995)
Insiemi, gruppi, strutture (No92, octubre de 1996)
Caos, complessità e probabilità (No98, octubre de 1997).
Devlin, Keith, Mathematics: the new golden age, Londres, Penguin Books, 1988.
Dieudonné, Jean, Pour l’honneur de l’esprit humain, París, Hachette, 1987.
Lang, Serge, Beauty of doing mathematics, Nueva York, Springer Verlag, 1997
[trad. esp.:El placer estético de las matemáticas, Madrid,Alianza Editorial, 1994].
211
212 10. Bibliografía
Lettera matematica pritem, publicación trimestral de divulgación matemática de
Springer Verlag Italia (Via Podgora 4, 20122, Milán).
Stewart, Ian, From here to infinity: a guide to today’s mathematics, Oxford Univer-
sity Press, 1996.
Tannenbaum, Peter y Arnold, Robert, Excursions in Modern Mathematics (2aed.),
Prentice Hall, 1995.
The mathematical intelligencer, publicación trimestral de divulgaciónmatemática
de Springer Verlag Nueva York (175 Fifth Avenue, Nueva York, NY 10010,
USA).
Quienes posean conocimientosmás profundos dematemática po-
drán consultar:
Arnold, Vladimir, Atiyah, Michael, Lax, Peter y Mazur, Barry (dirs.), Mathe-
matics Tomorrow, International Mathematical Union, 2000. Atiyah, Michael y
Iagolnitzer, Daniel (dirs.), Fields medallists’ lectures, World Scientific, 1997.
Bottazzini, Umberto, Teoremi e congetture, vol. 8 de Storia del pensiero filosófico e
scientific, Garzanti, 1996, pp. 115-44.
Browder, Felix (dir.),Mathematical development arising fromHilbert problems, Ame-
rican Mathematical Society, 1976.
Casacuberta, Carles y Castellet, Manuel (dir.), Mathematical research today and
tomorrow: viewpoints of seven Fields medalists, Springer Verlag, 1992.
Halmos, Paul, “Has progress in mathematics slowed down?” en Mathematical
American Association Monthly, 1990,561-588.
Kantor, Jean-Michel, “Hilbert’s problems and their sequel”, enMathematical in-
telligencer, 18 (1996), pp. 21-30.
Kline, Morris,Mathematical Thought from Ancient to Modern Times, Nueva York,
Oxford University Press, 1990, caps, XLIII-LI [trad, esp.: El pensamiento mate-
mático de la Antigüedad a nuestros días, Madrid, Alianza Editorial, 1992].
Monastyrsky, Michael, Modern mathematics in the light of the Fields medals, AK
Peters, 1997.
La Matemática del siglo XX 213
Pier, Jean-Paul (dir.), The development of mathematics, 1900-1950, Birkauser, 1994.
——–, The development of mathematics, 1950-2000, Birkauser, 2000.
Smale, Stephen, "Mathematical problems for the next century" enMathematical
Intelligencer, 20, 1998, pp. 7-15.
214 10. Bibliografía
11
Índice de nombres
A Bayes, Thomas, 136
Abel, Niels, 86, 157 Bell, John, 111-112
Adian, S.I., 92 Beltrami, Eugenio, 57, 123
Agustín, Aurelio, san, 189 Berger, Robert, 119
Alejandro Magno, 152 Berkeley, George, 74Alexander, James, 154, 158 Bernoulli, Daniel, 135-136
Apolonio de Perge, 59 Bernoulli, Jacques, 136
Appel, Kenneth, 163, 175, 179 Bernoulli, Jean, 61
Arquímedes, 13, 39, 43, 73 Bernstein, Serge, 68
Arnol’d, Vladimir, 151 Bieberbach, Ludwig, 117
Arrow, Kenneth, 113-114, 143, 210 Bohr, Niels, 111, 156
Artin, Emil, 193 Bolyai, Jànos, 42-43, 57
Aspect, Alain, 112 Bolzano, Bernhard, 77
Atiyah, Michael, 69, 198, 208 Bombelli, Raffaele, 47
Bombieri, Enrico, 63, 121, 208
B Boole, George, 161
Babbage, Charles, 170 Boone, William, 147
Baire, René, 66 Borcherds, Richard, 157, 208
Baker, Alan, 56, 168-169, 208 Borel, Emile, 127
Banach, Stefan, 45, 52, 132, 133, 208 Botvinnik, Mijail, 171
215
216 11. Índice de nombres
Bourbaki, Nicolas, 24-25, 26, 27, 28, Connes, Alain, 133, 208
31 Conrad, Brian, 103
Bourgain, Jean, 134, 208 Conway, John, 76, 106, 120, 157, 206
Bravais, Auguste, 86, 116 Cook, Stephen, 200, 202, 203, 206, 209
Breuil, Christophe, 103 Cournot, Antoine-Augustine, 141
Brouwer, Luitzen, 31, 49-50-51, 127, Cox, Donna, 164
142, 143 Crick, Francis, 115, 210
Buffon, Georges-Louis Leclere, Cusano, Nicola, 73, 74
conde de, 136
Burnside, Williams, 92, 206 D
Dantzig, George, 139, 142
C Davis, Martin, 168
Calabi, Eugenio, 97, 157, 208 De Giorgi, Ennio, 63, 209
Cantor, Georg, 19, 20, 24, 32, 47, 49, De Morgan, Augustus, 46, 176
50, 54, 59, 76-79, 167, 206 De Riele, Hermann, 181
Cardano, Gerolamo, 47, 86, 134 Debreu, Gerard, 143, 210
Cartan, Elie, 88 Dedekind, Richard, 47, 59
Carter, Jimmy, 113 Dehn, Max, 43, 154, 187
Cartesio, 19, 47, 58, 65, 80, 195 Deligne, Pierre, 100, 193, 208
Castelnuovo, Guido, 96 Descartes, René, véase Cartesio
Cauchy, Augustin, 44, 75 Diamond, Fred, 103
Cavalieri, Bonaventura, 74 Diofanto de Alejandría, 38, 97, 99
Cayley, Arthur, 87 Dirac, Paul, 67
Chevalley, Claude, 91 Dirichelet, Peter G. Lejeune, 66, 98
Chomsky, Noam, 144-146 Donaldson, Simon, 71-72, 157, 208
Church, Alonzo, 32, 33-34, 147, 166, Douady, Adrien, 185
167 Douglas, Jessie, 60, 63, 207
Cobham, 199 Duns Scoto, 77
Cohen, Paul, 77, 79, 208
Condorcet (Marie-Jean-Antoine- E
Nicolas de Claritat, marqués de, Edmonds, Jack, 199
113-114 Eilenberg, Samuel, 28, 209
La Matemática del siglo XX 217
Einstein, Albert, 111, 122, 124 Frege, Gottlob, 20, 32, 161
Emmer, Michele, 64 Frey, Gerhard, 102
Enriques, Federigo, 96
Erdös, Paul, 194, 209 G
Escher, Maurits, 117, 120 Galileo, Galilei, 61, 77
Euclides, 18, 25, 38, 41, 42, 43, 44, 58, Galois, Evariste, 47, 49, 86, 87, 90, 91
59, 168, 189, 190, 191 Gauss, Carl Friedich, 47, 57, 104,
Eudoxio de Cnido, 43 122-124, 137, 152, 168, 192
Euler, Leonhard, 55, 56, 62-65, 98,
100,
Gelfond, Alexandre, 56, 208
149, 160, 189, 190, 191, 192, 194, 195, Gell-Mann, Murray, 89, 210
200 Gentzen, Gerhard, 60
Glashow, Seldon, 89, 210
F Gleason, Andrew, 88
Faltings, Gerd, 100, 101, 194, 208 Glennie, Alick, 171
Farey, John, 78 Gödel, Kurt, 23, 60, 79, 147, 167, 180, 188
Fatou, Pierre, 184 Goldbach, Christian, 193, 206
Fermat, Pierre de, 38, 39, 56, 58, Gompf, Robert, 72
73-76, 83, 97-102, 134, 159, 160, 168, Gorenstein, Daniel, 86, 91-92
189, 190, 194, 202, 205 Gowers, William, 134, 208
Ferrari, Ludovico, 86 Granville, Andrew, 101
Feynman, Richard, 157 Griess, Robert, 91, 156
Fields, John Charles, 13 Gross, David, 90
Fischer, Bernd, 91, 156 Grothendieck, Alexandre, 27, 30, 31,
Fischer, Ernst, 132 134, 194, 208
Fontana, Niccolò, 86 Gua de Malves, Jean Paul de, 81
Ford, Gerald, 113 Guthrie, Francis, 175, 206
Fourier, Joseph, 66, 131, 151
Fraenkel, Abraham, 22-23, 24, 27, H
29-30, 79 Hadamard, Jacques, 193
Francis, George, 164 Haken, Wolfgang, 163, 179
Fréchet, Maurice, 131 Hales, Thomas, 103, 104
Freedman, Michael, 71, 96, 197, 208 Hamilton, William, 47, 63
218 11. Índice de nombres
Hardy, Godfrey, 13, 193 K
Harriot, Thomas, 103 Kakutani, Shizuo, 52, 143
Hausdorff, Félix, 45, 182 Kantorovich, Leonid, 140, 210
Heath-Brown, Roger, 101 Karp, Richard, 200, 202, 203, 206, 209
Heaviside, Oliver, 66-67 Kasparov, Gary, 172
Heawood, Percy, 176 Kelvin, William Thomson (lord
Heesch, Heinrich, 117 Kelvin), 155
Heisenberg, Werner, 132, 133, 210 Kempe, Alfred, 176, 179
Helmholtz, Hermann, 156 Kepler, Johannes, 103, 104, 148, 180,
Hermite, Charles, 55 205, 207
Herón de Alejandría, 62 Kerékjártó, Béla, 70
Hilbert, David, 12, 14, 24, 42, 43, 56,
59,
Kervaire, Michel, 70
60, 63, 68, 77, 80, 88, 104, 117, 125, Khachian, L.G., 200
130-134, 138, 165-168, 187, 188, 193, Khayyâm, Omar, 97
203-208 Killing, Wilhelm, 88
Hiparco de Nicea, 58 Kleene, Stephen, 34
Hironaka, Heisuki, 97, 208 Klein, Félix, 57, 58, 93, 94, 95, 152, 195
Hobbes, Thomas, 126 Knaster, B., 52
Hoffman, David, 64, 164 Koch, ver Von Koch, Niels Fabien
Hörmander, Lars, 68, 207, 209 Helge
Hubbard, John, 185 Kodaira, Kunihiko, 96, 207, 209
Hurewicz, Witol, 197 Kolmogorov, Andrej, 138, 151, 203,
Huygens, Christian, 135 209
Kontsevich, Maxim, 155, 157, 208
J Koopmans, Tjalling, 140, 210
Jacobi, Carl, 157 Korchnoi, Victor, 172
Janko, Zvonimir, 91 Kronecker, Leopold, 59
Jones, Vaugham, 133, 155, 156-158, Kummer, Enrst Eduard, 98
208
Jordan, Camille, 43, 44, 45, 63 L
Judaeus, Philo, 189 Lacan, Jacques, 145
Julia, Gastón, 184 Laczkovich, Miklos, 45
La Matemática del siglo XX 219
Lagrange, Joseph Louis, 62, 149 Maxwell, James Clerk, 72, 125
Lamé Gabriel, 98 McCarthy, John, 170, 209
Langlands, Robert, 39, 209 McCulloch, Warren, 161
Laplace, Pierre Simon de, 137, 149 McCullen, Curtis, 185, 208
Larsen, Bent, 172 McCune, William, 163
Lawvere, William, 29, 30, 31 Meeks, William, 64, 164
Lebesgue, Henri, 44, 45, 54, 131, 138 Menger, Karl, 183
Leech, John, 106 Mersenne, Marin, 190, 191
Lefschetz, Solomon, 52 Mertens, Franz, 181, 206
Legendre, Adrien-Marie, 98 Mills, Robert, 72, 89
Leibniz, Gottfried Wilhelm, 20, 61, Milnor, John, 70, 71, 72, 94, 198, 207,
74-75, 195 209
Leonardo da Vinci, 62 Minsky, Marvin, 170, 209
Levi Civita, Tullio, 124, 125 Mischaikov, Konstantin, 174
Lévi-Strauss, Claude, 145 Mittag-Leffler, Gösta, 14
Levy, David, 172 Moebius, Augustus, 93, 95, 152, 180,
Lie, Sophus, 88-91, 207 195, 206
Lindemann, Ferdinand, 55, 56, 208 Moise, 70
Liouville, Joseph, 54, 132 Montgomery, Deane, 88
Listing, Johann, 93, 152 Mordell, Leo, 100, 168, 194, 206, 208
Lobachevsky, Nikolai, 57 Morgan, Augustus de, 46, 176
Lorenz, Edward, 164, 174-175 Morgenstern, Oscar, 128
Mori, Shigefume, 97
M Morse, Marston, 83, 84
MacLane, Saunders, 28, 30 Moser, Jürgen, 151, 209
Mandelbrot, Benoît, 165, 184, Mrozek, Marian, 174
185-186, 208, 209
Markov, Anatoly, 147 N
Mather, John, 85 Nash, John Forbes, 128, 129, 210
Mathieu, Émile, 90 Newell, Allen, 170, 209
Matiyasevich, Yuri, 168-169 Newton, Isaac, 59, 61, 62, 74, 75, 80,
Maupertuis, Pierre Louis de, 62 83, 122, 148, 149, 149
220 11. Índice de nombres
Nicolás de Oresme, 58 R
Nobel, Alfred, 14 Rado, Tibor, 70
Norton, Simon, 157, 206 Raleigh, Walter, 103
Novikov, Pavel, 147 Ramanujan, Srinivasa, 194
Novikov, Petr, 92 Reagan, Ronald, 113, 144
Novikov, Sergei, 71, 92, 121, 198, 208 Ribet, Ken, 102
Ricci Curbastro, Gregorio, 124
O Riemann, Bernhard, 44-45, 56, 70, 93,
Odifreddi, Piergiorgio, 2, 5, 6 123-125, 152, 181, 189, 191-201, 206,
Odlyzko, Andrew, 181 207
Óscar II, rey, 150 Riesz, Friedich, 132
Robbins, Herbert, 163, 206
P Robinson, Abraham, 73, 76
Pacioli, Luca, 134 Robinson, Julia, 168
Pareto, Vilfredo, 141 Rokhlim, Vladimir, 71, 198
Parshin, A. N., 100 Rosen, Nathan, 111
Pascal, Blas, 134 Rosser, John Barkley, 33
Peano, Giuseppe, 43, 44, 66 Roth, Klaus, 54, 207
Penrose, Roger, 120, 121 Rousseau, Jean Jacques, 126
Pfleger, Helmut, 172 Ruffini, Paolo, 86
Piaget, Jean, 145 Russell, Bertrand, 20-21, 30-33, 161,
Píndaro, 4 167
Pitágoras, 52, 57, 59, 131
Pitts, Walter, 161 S
Plateau, Joseph, 63-64, 206-207 Salam, Abdus, 89, 210
Podolsky, Boris, 111 Saussure, Ferdinand de, 144-145
Poincaré, Henri, 12, 40, 57, 58, 150, Scarf, Herbert, 144
151, 189, 195, 196, 197, 206, 208 Schechtman,Daniel, 120
Pontryagin, Lev, 198 Schlesinger, Karl, 142
Post, Emil, 145, 147, 166 Schmidt, Erhard, 131
Prigogine, Ilya, 85, 210 Schneider, Thorald, 56
Putnam, Hilary, 168 Schrödinger, Erwin, 132, 210
La Matemática del siglo XX 221
Schwartz, Laurent, 65, 68, 134, 207 Tucker, Albert, 129
Scott, Dana, 34, 209 Turing, Alan, 147, 161-162, 166-167,
Segre, Corrado, 96 169-171, 198
Selberg, Atle, 194, 207, 209
Serre, Jean-Pierre, 198, 207, 209 V
Severi, Francesco, 96 Vallée Poussin, Charles-Jean de la,
Shaferevich, Igor, 100, 206, 208, 193
Shannon, Claude, 171 Virgilio Marón, Publio, 4
Siegel, Carl, 56, 209 Vitali, Giuseppe, 45
Simon, Herbert, 170, 171, 209 Volterra, Vito, 130
Singer, Isadore, 69, 198 Von Koch, Niels Fabien Helge, 68,
Sloane, N. J. A., 106 181-182
Smale, Stephen, 41, 143, 197, 198, 208 Von Neumann, John, 11, 67, 114, 127,
Smith, Adam, 141, 143, 144 129, 132, 133, 142-164, 208
Sonnenschein, Hugo, 144
Sperner, Emmanuel, 51 W
Steiner, Jacob, 61 Wada, 175, 177
Steinitz, Ernst, 48 Wald, Abraham, 142
Wallis, John, 47, 59
T Walras, Léon, 141-143
Tait, Peter, 156 Wang, Hao, 118
Taniyama, Jutaka, 101, 102, 103, 206 Wantzel, Pierre, 53
Tarski, Alfred, 45, 52 Watson, James, 115, 210
Taubes, Clifford, 72 Weber, Heinrich, 46
Taylor, Richard, 103 Weierstrass, Karl, 59, 61, 75
Thatcher, Margaret, 144 Weil, André, 100, 193, 206, 208, 209
Thom, René, 69, 84, 85, 198, 207 Weinberg, Steven, 89, 210
Thompson, John, 92, 208, 209 Weyl, Hermann, 125
Thue, Axel, 104, 145-147 Whitney, Hassler, 84, 209
Thurston, William, 94, 152, 196, 197, Wilczek, Frank, 90
208 Wiles, Andrew, 38, 97, 102, 194, 209
Torres y Quevedo, Leonardo, 171 Witten, Edward, 69, 72, 156, 208
222 11. Índice de nombres
Wittgenstein, Ludwig, 79, 160
Wolf, Ricardo, 14
Wos, Larry, 163
Y
Yang, Chen Ning, 72, 89
Yau, Shing Tung, 97, 157, 208
Yoccoz, Jean Christophe, 152, 185,
208
Z
Zeeman, Christopher, 85
Zelmanov, Efim, 92, 208
Zermelo, Ernst, 22-23, 24, 27, 29, 30,
79, 127
Zippin, 88
El siglo XX fue el siglo de la matemática: sólo en cien años se
demostraron más teoremas que en todo el curso de la historia, y
muchos de ellos han encontrado aplicaciones en los campos más
variados de la ciencia e incluso de las humanidades. Describiendo
las ideas, los resultados, a los protagonistas principales y los pro-
blemas irresueltos, La matemática del siglo XX reconstruye del modo
más sencillo posible los extraordinarios logros de una disciplina to-
davía percibida como abstrusa y distante de la vida cotidiana.
Aparece así ante el lector la empresa de algunos gigantes del
siglo, desde Einstein a Gödel. Se narran las soluciones de algunos
dilemas, del teorema de Fermat a la hipótesis del continuo. Se ilu-
minan, desde una perspectiva actual, algunas teorías clásicas, de la
aritmética a la geometría. Se asiste al nacimiento de nuevos instru-
mentos, del cálculo tensorial a la teoría de juegos. Se encuentran
objetos insólitos, de los nudos a los atractores extraños. En suma, el
lector se familiariza con el lenguaje del tercer milenio, sin el cual no
le será posible comprender ni la ciencia ni la tecnología del mundo
actual.
	Prólogo de Gian Carlo Rota
	Agradecimientos
	Introducción
	Fundamentos
	Década de 1920: Los Conjuntos
	Década de 1940: Las Estructuras
	Década de 1960: Las Categorías
	Década de 1980: El Lambda Cálculo
	Matemática Pura
	Análisis: La medida de Lebegue (1902)
	Álgebra: La Clasificación de los campos de Steinitz (1910)
	Topología: El Teorema del Punto Fijo de Brouwer (1910)
	Teoría de Números: Los Números Trascendentes de Gelfond (1929)
	Lógica: El Teorema de Incompletitud de Gödel (1931)
	Calculo Variacional: Las superficies minimales de Douglas (1931)
	Análisis: Las distribuciones de Schwartz (1945)
	Topología Diferencial: Las estructuras exóticas de Milnor (1956)
	Teoría de los Modelos: Los Números Hiperreales de Robinson (1961)
	Teoría de Conjuntos: El Teorema de Independencia de Cohen (1963)
	Teoría de Singularidades: La Clasificación de las Catástrofes de Thom (1964)
	Álgebra: La Clasificación de los Grupos Finitos de Gorenstein (1972)
	Topología: La Clasificac. de las Superf. Tridimensionales de Thurston (1982)
	Teoría de Números: La demost. de Wiles del Últ. Teorema de Fermat (1995)
	Geometría Discreta: La solución de Hales al Problema de Kepler (1998)
	Matemática Aplicada
	Cristalografía: Los Grupos de Simetría de Bieberback (1910)
	Cálculo Tensorial: La relatividad general de Einstein (1915)
	Teoría de Juegos: El Teorema Minimax de Von Neumann (1928)
	Análisis Funcional: La Axiomat. de la Mec. Cuántica de V. Neumann (1932)
	Teoría de la Probabilidad: La Axiomatización de Kolmogorov (1933)
	Teoría de la Optimización: El Método del Simplex de Dantzig (1947)
	Teoría del Equilibrio Gral.: El Th. de Existencia de Arrow y Debreu (1954)
	Teoría los lenguajes formales: La clasificación de Chomsky (1957)
	Teoría de los Sistemas Dinámicos: El Teorema Kam (1962)
	Teoría de los Nudos: Los Invariantes de Jones (1984)
	La Matemática y el Ordenador
	Teoría de Algoritmos: La Caracterización de Turing (1936)
	Inteligencia Artificial: El Análisis del Ajedrez de Shannon (1950)
	Teoría del Caos: El Atractor extraño de Lorenz (1963)
	Demostraciones asistidas: El Th. de los 4 Colores de Appel y Haken (1976)
	Fractales: El conjunto de Mandelbrot (1980)
	Problemas irresueltos
	Aritmética: El Problema de los Números Perfectos (300 a.C.)
	Análisis complejo: La Hipótesis de Riemann (1859)
	Topología Algebraica: La Conjetura de Poincaré (1904)
	Teoría de la Complejidad: El Problema P = NP (1972)
	Conclusión
	Bibliografía
	Índice de nombres

Mais conteúdos dessa disciplina